Métodos Matemáticos

para Estadística

Colección manuales uex - 58
(E.E.E.S.)

Ignacio Jesús Ojeda Gago

58

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

MANUALES UEX

58
(E.E.E.S.) Espacio Europeo Educación Superior

IGNACIO OJEDA MARTÍNEZ DE CASTILLA JESÚS GAGO VARGAS

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

2008

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Métodos Matemáticos para Estadística. / Ignacio Ojeda Martínez de Castilla, Jesús Gago Vargas. – Cáceres: Universidad de Extremadura, Servicio de Publicaciones, 2008 533 pp.; 27,8 x 19 cm (Manuales UEX, ISSN 1135-870-X; 58) ISBN 978-84-691-6429-7 1. Álgebra Lineal. 2. Métodos Numéricos. 3. Análisis Funcional. I. Ojeda Martínez de Castilla, Ignacio. II. Métodos Matemáticos para Estadística. III. Universidad de Extremadura, Servicio de Publicaciones, ed. IV. Manuales UEX 512, 517, 519.6

La publicación del presente manual forma parte de las “Acciones para el Desarrollo del Espacio Europeo de Educación Superior en la Universidad de Extremadura Curso 2007/ 08” en el marco de la VI Convocatoria de Acciones para la Adaptación de la UEX al Espacio Europeo de Educación Superior (Proyectos Pilotos: modalidad A1) del Vicerrectorado de Calidad y Formación Continua y financiada por la Junta de Extremadura, el Ministerio de Educación y Ciencia y la Universidad de Extremadura. La elaboración del apéndice A se ha realizado en colaboración con Dña. Amelia Álvarez Sánchez.

FSE

Fondo Social Europeo

Edita Universidad de Extremadura. Servicio de Publicaciones C./ Caldereros, 2 - Planta 2ª - 10071 Cáceres (España) Telf. 927 257 041 - Fax 927 257 046 publicac@unex.es www.unex.es/ publicaciones

ISSN 1135-870-X ISBN 978-84-691-6429-7 Depósito Legal M-46.669-2008 Edición electrónica: Pedro Cid, S.A. Teléf.: 914 786 125

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Índice general
Portada Introducción Índice general Tema I. Generalidades sobre matrices 1. Matrices. Definición y propiedades 2. La traza y el determinante de una matriz 3. Matrices por bloques Ejercicios del tema I Tema II. Matrices y aplicaciones lineales 1. Matrices equivalentes 2. Aplicaciones lineales 3. Matriz asociada a una aplicación lineal 4. Cambios de bases. Teorema del rango 5. Sistema de ecuaciones lineales (I) Ejercicios del tema II Tema III. Matrices cuadradas y endomorfismos 1. Matrices semejantes 2. Polinomio característico. Autovalores y autovectores 3. Diagonalización 4. Subespacios invariantes 5. Forma canónica de Jordan Ejercicios del tema III Tema IV. Potencias de matrices. Matrices no negativas 1. Potencias de matrices 2. Ecuaciones en diferencias finitas 3. Matrices no negativas 4. Cadenas de Markov homogéneas y finitas Ejercicios del tema IV 1 15 14 17 18 22 25 29 35 37 43 46 50 53 55 59 62 63 67 73 77 90 95 96 99 103 113 116

MANUALES UEX
9

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Tema V. Matrices simétricas y formas cuadráticas 1. Formas bilineales 2. Producto escalar. Espacios vectoriales euclídeos 3. Ortogonalidad. Bases ortogonales y ortonormales 4. Subespacio ortogonal. Proyección ortogonal 5. Matrices simétricas reales (y matrices hérmiticas) 6. Formas cuadráticas Ejercicios del tema V Tema VI. Inversas generalizadas. Mínimos cuadrados 1. Descomposición en valores singulares (SVD) 2. La inversa de Moore-Penrose 3. Otras inversas generalizadas 4. Sistemas de ecuaciones lineales (II). Mínimos cuadrados. Ejercicios del tema VI Tema VII. Derivación matricial 1. Algunos operadores matriciales 2. Diferenciación matricial 3. Algunas derivadas matriciales de interés Ejercicios del tema VII Tema VIII. Normas vectoriales y matriciales 1. Normas vectoriales. Espacios normados 2. Normas matriciales 3. Número de condición de una matriz Ejercicios del tema VIII Tema IX. Métodos directos de resolución de sistemas lineales de ecuaciones 1. Eliminación Gaussiana y factorización LU 2. Factorización PA = LU. Técnicas de pivoteo 3. Factorización de Cholesky 4. Matrices de Householder. El método de Householder Ejercicios del tema IX Métodos iterativos de resolución de sistemas lineales de ecuaciones 1. Sobre la convergencia de los métodos iterativos 2. Cómo construir métodos iterativos 3. Métodos de Jacobi, Gauss-Seidel y relajación 4. Métodos iterativos estacionarios y no estacionarios Ejercicios del tema X

121 123 125 127 132 135 144 148 155 158 165 171 177 185 191 193 201 205 210 213 214 221 232 240 241 242 250 252 254 260 263 264 266 267 282 288

MANUALES UEX
10

Tema X.

Formas escalonadas de una matriz 1. Espacios prehilbertianos 2. Vectores columna 3. Cálculo de matrices de paso Ejercicios de la práctica 3 Práctica 4. Planteamiento y discusión del modelo MANUALES UEX 11 . Sistemas de ecuaciones en diferencias: comportamiento asintótico Ejercicios de la práctica 4 Práctica 5. El método de la potencia Ejercicios del tema XI 291 292 300 302 306 309 310 317 323 333 335 335 337 339 342 343 343 345 347 350 351 351 357 358 359 362 367 367 370 376 377 377 378 388 389 389 Tema XII. Construcción de matrices Ejercicios de la práctica 2 Práctica 3. Espacios de Hilbert 1. Sucesiones ortonormales 3. Ecuaciones en diferencias de primer orden 2. Sistemas ortogonales. Matrices de Leslie 1. Vectores y we„vef 1. Vectores fila 2. Comportamiento de la sucesión λn 2. Resolución de sistemas con we„vef 2. El método QR 3. El método de Jacobi 2. Comportamiento asintótico de sistemas dinámicos 1. Matrices y we„vef 1. Indexado de matrices 3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Tema XI. Ecuaciones en diferencias 1. Entrada de matrices 2. Más difícil todavía 3. Matriz inversa y forma escalonada por filas 4. Métodos iterativos para el cálculo de autovalores (y autovectores) 1. Espacios de Hilbert Ejercicios del tema XII Práctica 1. Ecuaciones en diferencias de orden p ≥ 2 Ejercicios de la práctica 5 Práctica 6. Operaciones con vectores Ejercicios de la práctica 1 Práctica 2.

Soluciones aproximadas mínimo cuadráticas de sistemas de ecuaciones lineales Ejercicios de la práctica 8 Práctica 9. Factorización LU 1. Proyección ortogonal. Matrices de Householder 4. Resumen Ejercicios de la práctica 6 Práctica 7. Un ejemplo con we„vef 2. Número de condición de una matriz y we„vef 2. Métodos específicos para la resolución de sistemas triangulares. Factorización QR Ejercicios de la práctica 12 Apéndice A. Otro ejemplo con we„vef 4. Otros ejemplos con we„vef Ejercicios de la práctica 7 Práctica 8. Introducción 2. Sistemas mal condicionados. La fórmula de Greville 2. Otras factorizaciones de matrices 1. Número de condición de una matriz y we„vef 1. we„vef y la factorización LU Ejercicios de la práctica 11 Práctica 12. Número de condición y transformaciones elementales. Conceptos topológicos fundamentales 392 397 401 403 405 405 408 413 415 415 422 429 431 431 435 439 440 441 441 444 447 449 451 451 451 453 459 463 465 467 467 467 471 473 476 477 MANUALES UEX 12 . Ejercicios de la práctica 10 Práctica 11. Proyección ortogonal 2. Factorización LU 5.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. Calculando inversas generalizadas 1. 3. M-ficheros de ejecución y de funciones en we„vef 3. Cálculo de inversas generalizadas 3. Mínimos cuadrados 1. Introducción 2. Un ejemplo concreto con we„vef 3. 4. Factorización de Cholesky 3. Cálculo de inversas mínimo cuadráticas Ejercicios de la práctica 9 Práctica 10. Cadenas de Markov 1.

Grupos y subgrupos 2. Intersección y suma de subespacios vectoriales 5. Estructuras algebraicas 1. 3. 2. Completitud Conjuntos compactos 477 483 486 489 493 493 498 500 503 503 506 507 516 518 520 523 525 Apéndice B. Suma directa de espacios vectoriales Bibliografía Índice alfabético MANUALES UEX 13 . Suma directa de subespacios vectoriales. Dimensión 4. Espacios vectoriales 1. Definiciones y propiedades. Subespacios suplementarios 6. Anillos Apéndice C. Ejemplos 2. Espacios Métricos Sucesiones y continuidad Sucesiones de Cauchy. Cuerpos 3. Subespacios vectoriales 3. Bases de un espacio vectorial.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. 4.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 14 .

Esta materia podría desglosarse en varias asignaturas con distintas configuraciones. hemos procurado que la materia esté siempre vertebrada en torno dos temas transversales: sistema de ecuaciones lineales y ortogonalidad. Los contenidos seleccionados son sistemas lineales. El principal objetivo de este manual no es otro que el de proporcionar a los estudiantes de un Grado de Estadística las herramientas matemáticas necesarias para el manejo y comprensión de otras materias. exponiendo una materia de 12 ó 18 créditos ECTS dependiendo del nivel de conocimiento que tenga el estudiante de álgebra lineal básica. No obstante. y de la asignatura Métodos Matemáticos de dicha licenciatura en la Universidad de Sevilla. técnicas y software numéricos y una breve introducción a los conceptos elementales del análisis funcional. En todo caso. este manual puede ser también empleado en asignaturas de Matemáticas de otros grados de la Ramas de Ciencias e Ingeniería y Arquitectura. También hemos considerado fundamental incluir una serie de prácticas con we„vef con el doble objetivo de proporcionar cierta formación en el manejo de software numérico y de servir de ejemplo prácticos de los contenidos teóricos desarrollados en el manual. MANUALES UEX 15 . álgebra matricial avanzada. diferenciación matricial. inversas generalizadas.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Introducción E l presente manual está concebido para servir de apoyo a la docencia de una asignatura de métodos matemáticos de un Grado en Estadística y se ha redactado a partir de los apuntes elaborados durante varios cursos para impartir las asignaturas Álgebra y Geometría y Análisis Matemático de la Licenciatura en Ciencias y Técnicas Estadísticas en la Universidad de Extremadura. Al final de cada tema se incluye una relación de ejercicios con los que se pretende que el alumno reafirme y aplique los conocimientos adquiridos y se ejercite en el manejo de las técnicas y métodos aprendidos. habida cuenta del carácter instrumental de las Matemáticas en todos los procesos y métodos estadísticos. dado su enfoque generalista.

Inés del Puerto García y Batildo Requejo Fernández quienes con sus comentarios y sugerencias han enriquecido notablemente el el manual. Badajoz-Sevilla. Ángeles Mulero Díaz.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ambos autores quisieran agradecer la ayuda prestada por M. Juan Antonio Navarro González. julio de 2008. MANUALES UEX 16 .

y el de matriz ortogonal. en esta misma sección se introduce el concepto de matriz adjunta y se demuestra la fórmula de la matriz de inversa. no obstante. A continuación. A continuación. Hablando de cuerpos. las matrices diagonales (y. se tratan brevemente algunos tipos de matrices con entradas en los complejos (matriz traspuesta conjugada. se propone como ejercicio al lector la demostración de la equivalencia entre ambas definiciones. Así mismo. aunque sin hacer mención a las distintas estructuras algebraicas determinadas por tales operaciones. matriz columna. la matriz identidad) y las matrices triangulares. Hemos optado por la siguiente definición de determinante de una matriz A | A| = donde Sn denota al grupo simétrico. . se definen la matriz traspuesta. como caso particular de éstas.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA I Generalidades sobre matrices E ste tema es de carácter introductorio en el que esencialmente se establece gran parte de la notación y se introducen las definiciones de distintos tipos de matrices que se usarán a lo largo del manual. y de igual modo se propone como ejercicio la demostración de las propiedades habituales del determinante. Finalmente. matriz fila y submatriz. frente a una definición por recurrencia mediante la fórmula del desarrollo por una fila o columna. En primer lugar definimos el concepto de matriz. el concepto de matriz invertible y de matriz inversa. En la segunda sección se definen y estudian la traza y el determinante de una matriz cuadrada. conviene avisar que casi siempre (por no decir siempre) el cuerpo considerado será R ó C. y generalmente para advertir de que ciertos resultados válidos para matrices reales no tienen su análogo si cambiamos reales por complejos. y a modo de ejemplo. se definen la matriz nula. que requiere un cierto grado de abstracción. matriz cuadrada. se muestran las operaciones aritméticas elementales de las matrices. matriz unitaria y matriz normal) aunque sólo serán usadas puntualmente en el manual. MANUALES UEX 17 σ ∈ Sn ∑ sign(σ ) a1σ(1) a2σ(2) · · · anσ(n) . Luego. matriz hermítica.

sin embargo. por ejemplo.1. ¯ λ µ = √ µ. n. ¯ Se denotará por λ el conjugado de un número complejo λ ∈ C. y sólo si. Ambas construcciones serán utilizadas posteriormente. Las referencias bibliográficas básicas para las dos primeras secciones son el capítulo 1 de [SV95] y el capítulo 2 de [CnR05]. será λ = α − β i. si ¯ λ = α + β i. Para un desarrollo más profundo de las matrices dividas por bloques véase el capítulo 7 de [Sch05]. ¯ λ = λ si. Se llama matriz de orden m × n con coeficientes en k a un conjunto ordenado de escalares aij ∈ k. y en concreto. para definir la forma canónica de Jordan. El número real positivo |λ| se llama módulo de λ. Las propiedades más comunes de las conjugación compleja son las siguientes: ¯ λ = λ. Matrices. . λ¯ ¯ |λ| = λ λ. 1. donde α y β son número reales. se introducen la suma directa y el producto de Kronecker de matrices como ejemplos de construcciones de matrices por bloques. En el capítulo 3 de [Mey00] se pueden encontrar multitud de ejemplos del uso de las matrices en problemas concretos de Estadística y Probabilidad. no se añade nada nuevo más allá de una cuestión de notación. Definición y propiedades En todo el manual. m y j = 1. en ella se introducen y estudian las matrices dividas por bloques y algunas de sus operaciones aritméticas. el producto de Kronecker será estudiado con más detalle en el tema VII. dispuestos MANUALES UEX 18 . Además. Definición I. . k denotará un cuerpo (véase la sección 2 del apéndice B) que por lo general será R ó C. . . el uso de las matrices dividas (también hay quien dice particionadas) por bloques simplifica considerablemente la notación.1. λ es real. . . ¯ ¯ (λ + u) = λ + µ. Así. i = 1. En esta última sección se muestran expresiones para la inversa y el determinante para las matrices dividas en la forma 2 × 2 A= A11 A21 A12 A22 . Si λ es un número real. Desde un punto vista conceptual.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La tercera sección de este tema es quizá la única parte realmente nueva para el estudiante. . su módulo es su valor absoluto. .

m. es usual denotarla por aij . . MANUALES UEX 19 . Llamaremos submatriz o matriz extraída de A a cualquier matriz obtenida a partir de A suprimiendo algunas de sus filas y/o columnas. y por tanto representar a la matriz A por aij . . Definición I. el número real o complejo) que se encuentra en la fila i-ésima y la columna j-ésima se llama entrada (i. i = 1. . . Se representa por   a11 a12 . . escribiremos diag(λ1 .   . λn ). . .6.. En ocasiones. . . . y el conjunto de las matrices cuadradas de orden n con coeficientes en k se designará por Mn (k). . amj se llama columna j-ésima de A. i = 1. El conjunto de las matrices de orden m × n con coeficientes en k se designará por Mm×n (k). am1 am2 . a1n  a21 a22 . j = 1. para denotar la matriz de diagonal D = (dij ) ∈ Mn (k) tal que dii = λi . Sea A ∈ Mm×n (k). n. n} la matriz   a1j  . .2. Definición I. . n.5. .  ∈ M m ×1 (k ) .. n. En algunas ocasiones escribiremos 0m×n para denotar a la matriz nula de orden m × n.1. . Sea A ∈ Mm×n (k). . . Ejemplos I. ain ) ∈ M1×n (k) se denomina fila i-ésima de A.   . . . . . . Definición I.1.4. . . Definición I. . a2n    A= . formando un rectángulo. . .1. . y dado i ∈ {1. .1. amn Las matrices de orden n × n con coeficientes en k se llaman matrices cuadradas de orden n con coeficientes en k. . con λi ∈ k. Algunos tipos de matrices i) La matriz nula 0 ∈ Mm×n (k) es aquella con m filas y n columnas cuyas entradas son todas iguales a 0. . . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA en m filas y n columnas. . si aij y bij ∈ Mm×n (k). . entonces aij = bij ⇐⇒ aij = bij . ii) Se dice que una matriz cuadrada D = (dij ) ∈ Mn (k) es diagonal si dij = 0 para todo i = j. . j)-ésima de A. es decir. El escalar (por ejemplo. Dado j ∈ {1. . . Sea A ∈ Mm×n (k). . Dos matrices son iguales si tienen el mismo orden y coinciden entrada a entrada.1. . . m} la matriz ( ai1 . . i = 1.3.

. j = 1. 1 Con la notación habitual de la delta de Kronecker 1 si i = j δij = 0 si i = j se tine que In = (δij ) ∈ Mn (k). se define λ · A := λ · aij .  .. n. y se dice A es triangular inferior si aij = 0 cuando i < j.. ii) si A = ( aij ) ∈ Mm×n (k). . . . . . . n. . entonces A + B := aij + bij = aij + bij . . Sean A = ( ail ) ∈ Mm× p (k) y B = blj ∈ M p×n (k). 0 0 . 0  0 1 . Nota I. y se denota por In . se la denomina matriz identidad (ó matriz unidad) de orden n. ...1. m.   1 0 . iii) Se dice que una matriz cuadrada A = ( aij ) ∈ Mn (k) es triangular superior si aij = 0 cuando i > j. . entonces A + 0 = 0 + A = A. p i = 1. esto es. . 0    In =  . . j)-ésima es cij = ∈ Mm×n (k). . . entonces − A = (− aij ). . .. conmutativa y además.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS iii) A la matriz diagonal tal que dii = 1 para todo i = 1. MANUALES UEX Producto de matrices: Para que dos matrices puedan multiplicarse. Nótese que la suma de matrices verifica las propiedades asociativa. de tal forma que A + (− A) = (− A) + A = 0 ∈ Mm×n (k).. .  . . Suma de matrices: En el conjunto Mm×n (k) se define la suma de matrices de la siguiente manera: si A = ( aij ) y B = (bij ) ∈ Mm×n (k). La suma de matrices se define como la suma entrada a entrada.7. . cuya 20 l =1 ∑ ail blj .. el producto de un escalar por una matriz es la matriz que resulta al multiplicar cada una de las entradas de la matriz por el escalar. i) si A ∈ Mm×n (k) y 0 ∈ Mm×n (k). Producto de un escalar por una matriz: Si A = aij ∈ Mm×n (k) y λ ∈ k. . . el número de columnas del factor de la izquierda ha de coincidir con el número de filas del factor de la derecha. Se llama matriz producto A · B a C = cij entrada (i. es decir.

v n ).10. Diremos que una matriz A ∈ Mn (R) es ortogonal si At = A−1 .1. entonces n  0 = A( B − C ) ⇒ 0 = BA = BA( B − C ) = B − C ⇒ B = C. es decir. Claramente.1. . . es decir. n.1.  ∈ kn .11. (b) Antisimétrica si A = − At .  v =  . .1. 2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Definición I. 1Si existen B y C tales que AB = BA = I = AC = CA.14. . . vn entonces v∗ ¯ ¯ = ( v1 . Definición I.1. La matriz traspuesta de A siempre existe y se denota por At . . . . Definición I. Se dice que una matriz A = ( aij ) ∈ Mn (k) es (a) Simétrica si A = At .8. La matriz B si existe es única1 se denomina matriz inversa de A y la denotaremos por A−1 . i = 1. 2. Sea A ∈ Mm×n (k) llamamos matriz traspuesta de A a la matriz de Mn×m (k) que resulta de cambiar filas por columnas y columnas por filas en A. entonces A−1 es también hermítica. . Definición I. Diremos que una matriz A ∈ Mn (k) es invertible (o no singular) si existe B ∈ Mn (k) tal que A · B = B · A = In . j = 1. siendo a ji el conjugado complejo de a ji . aij = − a ji . La matriz A∗ = ( a ji ) ∈ Mn×m (C) se denomina matriz traspuesta conjugada2. Nótese que si  v1  .13. A At = At A = In . (c) Normal si A A∗ = A∗ A. i) Toda matriz hermítica o unitaria es normal. n. . Definición I. .1. j = 1. es decir. . . para todo i. es decir. . Sea A = ( aij ) ∈ Mm×n (C). 2. A A∗ = A∗ A = In . . n. . n. Más adelante daremos un criterio para saber si una matriz es invertible y. Se dice que una matriz A = ( aij ) ∈ Mn (C) es (a) Hermítica si A = A∗ . una fórmula para calcular la matriz inversa. es decir. . . aij = a ji . Definición I.9. en este caso. MANUALES UEX 21 . m. 2Algunos autores llaman a esta matriz adjunta. . cuando A es real. . j = 1. aij = a ji .1. . . . para todo i. . ii) Si A es hermítica e invertible. . se tiene que A∗ = At . j = 1. Proposición I. (b) Unitaria si A∗ = A−1 . ( A∗ )∗ = A y además.12. para todo i.

donde Sn denota al grupo simétrico.3 Ejemplo I. ii) Si A = ( aij ) ∈ M3 (k).2. entonces tr( A) = tr( P−1 AP). entonces | A| = a11 a22 a33 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 + a12 a23 a31 + a13 a21 a32 . ya que S3 = {1. MANUALES UEX 22 .4.5. (2 3).2. por ejemplo.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS iii) Si A es normal e invertible. (3 2 1)}.2. Sea A = ( aij ) ∈ Mn (k). entonces A−1 es normal. La traza es invariante por transformaciones unitarias: Proposición I. Se llama determinante de A. 3Sea X un conjunto arbitrario con n entradas se llama grupo simétrico S al conjunto de n las biyecciones de X con la composición de aplicaciones (véanse. entonces | A| = a11 a22 − a12 a22 ya que S2 = {1.2. i) Si A = ( aij ) ∈ M2 (k). (1 2 3). Demostración. (1 2). La demostración de esta proposición es una consecuencia del apartado 6 del ejercicio 9. n).3. la sexta sección del segundo capítulo de [Nav96] o la sección décimoquinta de los preliminares de [BCR07]). Definición I. Sea A = ( aij ) ∈ Mn (k). se llama menor principal de orden p al determinate de la submatriz de A que se obtiene al eliminar las últimas n − p filas y columnas de A. al escalar definido por la expresión: | A| = σ ∈ Sn ∑ sign(σ ) a1σ(1) a2σ(2) · · · anσ(n) .1. (1 2)}. Si A = ( aij ) ∈ Mn (C) y P es una matriz invertible.2. Dado un entero positivo p ≤ min(m. 2. Veamos las expresiones explícitas para los determinantes de las matrices cuadradas de ordenes 2 y 3. La traza y el determinante de una matriz n Definición I. Sea A ∈ Mm×n (k).2. y se representa por | A|. En particular si Q es una matriz unitaria tr( A) = tr( Q∗ AQ). llamaremos menores de orden p de A a los determinantes de las submatrices cuadradas de orden p de A. (1 3). La demostración de esta proposición se propone como ejercicio a lector (ejercicio 6). Se denomina traza de A al escalar tr( A) = i =1 ∑ aii . Definición I. Demostración. Si m = n.

. + (−1)n+ j anj | Anj | = i =1 ∑ (−1)i+ j aij | Aij |. . Los menores adjuntos de una matriz A ∈ Mn (k) proporcionan otra fórmula para el determinante de A. | At | = | A|. Si una fila (o columna) de A es combinación lineal de otras de sus filas (o columnas). Sea A = ( aij ) ∈ Mn (k).2. el determinante de la matriz A es: | A| = (−1)1+ j a1j | A1j | + (−1)2+ j a2j | A2j | + . es decir. Es decir. y lo denotaremos por | Aij |. la afirmación anterior también es cierta por columnas. n A la primera expresión se la llama desarrollo del determinante por la fila i-esima y a la segunda desarrollo del determinante por la columna j-esima. es decir. si elegimos la fila i-ésima. entonces | A| = 0.2. para todo i = j. (b) La suma alternada de los productos de las entradas de una fila por los adjuntos de las entradas respectivas de otra es igual a cero.7. MANUALES UEX 23 . n o si elegimos la columna j-ésima. Si B es la matriz traspuesta de A. entonces tiene un sólo menor de orden n. . La demostración es un sencillo (aunque bastante tedioso) ejercicio que sigue de la propia definición de determinante de un matriz. es el resultado de sumar otras de sus filas (o columnas) multiplicadas por un escalar. Llamaremos menor adjunto de la entrada aij de A al determinante de la submatriz de A que se obtiene al eliminar la fila i-ésima y la columna j-ésima de A. (a) El determinante de una matriz es igual a la suma alternada de los productos de las entradas de una fila (o columna) cualquiera por sus adjuntos respectivos.6. Teorema I. es decir: (−1)i+1 ai1 | A j1 | + (−1)i+2 ai2 | A j2 | + . Obviamente.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nótese que si A es una matriz cuadrada de orden n. Sea A = ( aij ) ∈ Mn (k). + (−1)i+n ain | Ain | = j =1 ∑ (−1)i+ j aij | Aij |. 1. que es precisamente el determinante de A. 2. Demostración. el determinante de la matriz A es: | A| = (−1)i+1 ai1 | Ai1 | + (−1)i+2 ai2 | Ai2 | + . . Propiedades de los determinantes. . + (−1)i+n ain | A jn | = 0. Definición I. entonces | B| = | A|. . Sea A = ( aij ) ∈ Mn (k).

. . Si se multiplica una fila (o columna) cualquiera de la matriz A por un escalar λ. . . el determinante de una matriz A con dos filas (o columnas) iguales o proporcionales es nulo. Lema I. esto es.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 3. MANUALES UEX 24 4No confundir con la matriz traspuesta conjugada.   . de la matriz A es de la forma a pj = a pj + a pj . . 5. Llamaremos matriz adjunta4 de A. el determinante de la matriz B obtenida es igual al producto de λ por el determinante de A.. . | A| donde In denota a la matriz identidad de orden n. Terminamos esta sección mostrando una fórmula para la matriz inversa de una matriz invertible dada. 0 0 . Si a la fila (o columna) p de A se le suma otra fila (columna) q multiplicada por un escalar λ. Si cada entrada de una fila (o columna). Fórmula de la matriz inversa. es decir. si todos las entradas de una fila (o columna) de A son nulas. . Asimismo. 0  0 | A| . . el determinante de la matriz B obtenida es el opuesto del determinante de A.  = | A| · In .2. Si se intercambian entre sí dos filas (o columnas) de A. | B| = −| A|. Sea A ∈ Mn (k).8. . y las restantes filas de ambas matrices son respectivamente iguales a las de A.2. . el determinante de la matriz obtenida es igual al determinante de A. y la denotaremos por adj( A). . . Comenzamos definiendo qué se entiende por matriz adjunta. Así. Sea A ∈ Mn (k). 0    A · adj( A) = adj( A) · A =  . 6. 4. Es importante resaltar que | A + B| = | A| + | B| y que |λ A| = λ | A |. en particular. . a la matriz adj( A) = ((−1)i+ j | A ji |) ∈ Mn (k). por ejemplo la fila p. Definición I.10. . entonces | A| = 0. Entonces se cumple que   | A| 0 . Nota I.2.9. . | B| = λ| A|. entonces el determinante de A es igual a la suma de los determinantes de dos matrices B y C. tales que la fila p de B está formada por las entradas a pj y la fila p de C está formada por las entradas a pj . La matriz adjunta verifica la siguiente propiedad. .

que el numero total de filas y columnas sea igual que el número de filas y columnas original. suponiendo.1) A =  a31 a32 a33 a34 a35  =   A21 A22  a41 a42 a43 a44 a45  a51 a52 a53 a54 a55 donde A11 = y a11 a21 a12 a22 . (I.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. Fórmula de la matriz inversa. n luego. Habitualmente las matrices bloques se usan para enfatizar el papel de algunas de las entradas que ocupan filas y/o columnas adyacentes. podemos considerar que A es una matriz MANUALES UEX 25 A22  a35 a45  . a55 . Por ejemplo. j ∈ {1. Recíprocamente. una matriz se puede descomponer de multitud de formas en submatrices con cualquier número de entradas. . En cuyo caso. queremos dividirla en cuatro submatrices de la siguiente manera   a11 a12 a13 a14 a15  a21 a22 a23 a24 a25    A11 A12 . El resultado es una consecuencia inmediata del lema I. A21 a31  a41 = a51 a33 =  a43 a53    a32 a42  . En general. Dados dos índices i.10 y de la unicidad de la matriz inversa.2. La condición necesaria y suficiente para que una matriz cuadrada A tenga inversa es que su determinante sea distinto de cero. Una matriz descompuesta de esta forma se conoce como matriz divida por bloques. n} tenemos que cij = h =1 ∑ aih ((−1)h+ j | A jh |). dada A = ( aij ) ∈ M5 (R).7 se sigue que cij = | A| si i = j y cij = 0 en otro caso. del teorema I.3. 1 A −1 = adj( A). . a52 a34 a44 a54 A12 = a13 a23 a14 a24 a15 a25 . 3. . | A| Demostración.2. Matrices por bloques A menudo es aconsejable dividir una matriz dada en submatrices. . claro está. Sea A · adj( A) = (cij ) ∈ Mn (k).

A1m  A21 A22 .. donde las matrices A11 . Entonces. . i = 1. . A12 y A22 se han combinado para construir una matriz mayor. respectivamente. j = 1. entonces    A+B =   A11 + B11 A21 + B21 . n. .  . . . . Evidentemente. . . . .. . . D pm Cm1 Cm2 . Anm donde las entradas Aij son submatrices. A1m + B1m A2m + B2m .  . . . . . . C1p D11 D12 .. . . . . . An2 + Bn2 . entonces tenemos que    C11 C12 . la aumentación se puede entender como el proceso opuestos al de la división.. . Entonces las suma directa se define como la siguiente .. C2p   D21 D22 . An1 An2 . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS aumentada por bloques..   . Se pueden realizar operaciones con matrices por bloques de un modo muy parecido al que hicimos con la matrices en la primera sección. . . A21 . Cmp = l =1 ∑ Cil Dlj p . .  . MANUALES UEX 26 donde Cij y Dij son submatrices de ordenes apropiados para que el producto tenga sentido. . es decir. D1m  C21 C22 . . . D p1 D p2 . Anm + Bnm      también es una matriz divida por bloques. . m.  . . . . Sean A y B dos matrices cuadradas de ordenes n y m. C2m     CD =  . Análogamente si las dimensiones de las submatrices de dos matrices por bloques C y D son apropiadas para la multiplicación. A2m    A= .  . . tal que Bij tiene el mismo orden que Aij . . . . . si bien es cierto que de una forma completamente distinta a la anterior. Como se puede observar tanto en la suma como en el producto podemos considerar que la submatrices juegan un papel análogo al de los escalares respecto a la suma y el producto de matrices estudiados en la primera sección. . Se pueden definir otros productos y sumas de matrices en términos de matrices aumentadas por bloques. . . .. .  . Sea A la matriz por bloques   A11 A12 . . si otra B es otra matriz divida por bloques de la misma forma. . . . . An1 + Bn1 A12 + B12 A22 + B22 ..

Se cumple que (a) tr( A1 ⊕ . . Ar matrices tales que Ai ∈ Mmi (R). .1. . se comprueba fácilmente que . . . . a1n B  a21 B a22 B . la suma directa se puede generalizar a cualquier cantidad finita de matrices cuadradas. ⊕ A r 1 . . ⊕ Ar | = | A1 | · · · | Ar |. Es claro que la suma directa de matrices es asociativa. Demostración.. tr( A) = tr( A11 ) + tr( A22 ). . Evidentemente. entonces A = A1 ⊕ . Sean ahora A y B dos matrices de ordenes m × n y p × q. . así como la (única) matriz inversa. . Además. en términos de matrices dividas por bloques. . . (c) si cada Ai es invertible. . Se define el producto de Kronecker de A por B como la matriz por bloques de orden mp × nq tal que   a11 B a12 B . el determinante viene dado por − | A| = | A11 || A22 − A21 A111 A12 |. . . . . . ⊕ Ar también es invertible − − y A −1 = A 1 1 ⊕ . . (b) | A1 ⊕ . amn B También se pueden expresar funciones escalares de las matrices cuadradas tales como la traza o el determinante.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA matriz aumentada de orden (n + m) × (m + n) A ⊕ B := A 0 0 B . respectivamente. Sea A ∈ Mn (k) divida por bloques de la siguiente manera A= A11 A21 A12 A22 . . a2n B    A ⊗ B :=  . o por − | A| = | A22 || A11 − A12 A221 A21 | MANUALES UEX 27 con A11 y A22 cuadradas. r. . se deja como ejercicio al lector.  .. . . El resultado de esta operación es lo que se conoce como una matriz diagonal por bloques. . . Entonces. Proposición I. ⊕ Ar ) = tr( A1 ) + . . cuando A11 es invertible. Sean A1 . .3. .  . aunque no es conmutativa. + tr( Ar ). La demostración. puesto que en la definición de traza de una matriz sólo están involucrados las entradas de la diagonal principal. i = 1. . que no es más una sencilla comprobación. am1 B am2 B .

| A| = | A22 A11 − A12 A21 | si A12 A22 = A22 A12 . | A| = | A22 A11 − A21 A12 | si A11 A12 = A12 A11 . − − BA12 A221 −1 − − A22 A21 BA12 A221 . A12 . MANUALES UEX 28 . a veces es más fácil invertir A usando la fórmula anterior. donde B es ( A11 − Aunque parezca difícil de creer. Cuando ambas matrices A11 y A22 son invertibles. | A| = | A11 A22 − A12 A21 | si A21 A22 = A22 A21 . En el caso especial en que las matrices A11 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS cuando A22 es invertible. se puede comprobar mediante multiplicación de forma directa que la inversa de A se puede expresar como sigue A −1 = B − A221 − − A221 A21 B − A12 A221 A21 )−1 . A21 y A22 son cuadradas se tiene también que | A| = | A11 A22 − A21 A12 | si A11 A21 = A21 A11 .

Dada una matriz A. 2. 5. 3. (λ + µ) · A = λ · A + µ · A. λ · ( A + B) = λ · A + λ · B. 5. ( A + At ) es simétrica y ( A − At ) es antisimétrica. ( λ · µ ) · A = λ · ( µ · A ). entonces At · A = 0 si. Ejercicio 5. 4. 4. El elemento unidad de Mn (k) para el producto de matrices es In la matriz identidad de orden n. Sean A y B ∈ Mm×n (k) y λ ∈ k. el elemento inverso de A.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios del tema I Ejercicio 1. ( A−1 )t = ( At )−1 . Probar las siguientes afirmaciones siempre que sea posible efectuar los productos indicados (por ejemplo si las matrices son cuadradas de orden n). Sea A ∈ Mm×n (k). ¿Son ciertas las igualdades y afirmaciones anteriores si se sustituye la traspuesta por la traspuesta conjugada? 1. 1 1 2. A = 2 ( A + At ) + 2 ( A − At ) 3. Probar que el producto de un escalar por una matriz verifica las siguientes propiedades: 1. sólo si. b y c números reales tales que a2 + b2 + c2 = 1 y consideramos la matriz:   0 a −b A =  −a 0 c  b −c 0 MANUALES UEX 29 . Ejercicio 3. no existe. en general. Probar que 1. 2. A puede escribirse. 1 · A = A. A · In = In · A = A. 3. Sean a. El producto de matrices no es conmutativo. El producto de matrices es distributivo respecto de la suma: A · ( B + C ) = A · B + A · C y ( B + C ) · A = B · A + C · A. Si A tiene coeficientes reales. Probar las siguientes igualdades y afirmaciones ( At )t = A. 4. A = 0. para cualquier matriz B ∈ Mm×n (k). Si A es invertible. 3. ( A + B)t = At + Bt . es decir. Sea A ∈ Mn (R). 2. El producto de matrices es asociativo: ( A · B) · C = A · ( B · C ). para cualquier matriz B ∈ Mn× p (k). 1.como suma de una matriz simétrica y otra antisimétrica. ( A · B)t = Bt · At . de modo único. Ejercicio 2. Ejercicio 4.

ii) |λ A| = λn | A|. entonces A−1 es también hermítica. tr( A) = tr( At ). tr ( A · B) = tr ( B · A) . xn ) al determinante definido por la igualdad 1 x1 2 x1 .j a2 . Se llama determinante de Vandermonde de unos ciertos escalares ( x1 . 2.. . .. tr( A) = tr( PAP−1 ). tr( AAt ) = ∑i.. Probar que si A y B son matrices cuadradas de orden n. . . n x n −1 . iii) | AB| = | A|| B|. entonces se define la traza de A. . . iv) Si A ∈ Mn (C) es normal e invertible. como tr ( A) = n ∑i=1 aii . . n x 2 −1 . . . 6. . entonces: tr ( A + B) = tr ( A) + tr ( B) . 1 . [El ejercicio 3 será de utilidad.] Ejercicio 7. Demostrar que la matriz M es idempotente (es decir.. | A| = 0.. Probar que la matriz M = A2 + I3 es simétrica. . 4. Si A = aij ∈ Mn (k) es una matriz cuadrada de orden n. Demostrar que la matriz A es antisimétrica (es decir.. n x 1 −1 MANUALES UEX V ( x1 . que denotaremos por tr ( A) . en cuyo caso. tr( ABC ) = tr(CAB) = tr( BCA). . | A −1 | = | A| Ejercicio 9. x n ) = 30 1 x2 2 x2 . tr( In ) = n. Ejercicio 8. para cualquier A ∈ Mn (k) y λ ∈ k. . ij 1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 1.. Sea A ∈ Mn (k). para cualquier matriz invertible P ∈ Mn (k).. 2. 7. At = − A). ii) Toda matriz triangular y unitaria es diagonal. 5. . . siendo I3 la matriz identidad de orden tres. . 4. iii) Si A ∈ Mn (C) es hermítica e invertible. Comprobar que dicho escalar no tiene por qué ser igual a tr(CBA). Probar que i) Toda matriz hermítica o unitaria es normal. Ejercicio 6. 1 xn 2 xn . entonces A−1 es normal. 3. M2 = M). para cualquier A ∈ Mn (k) y B ∈ Mn (k). y sólo si. Probar que A es invertible si. . Probar que i) | In | = 1. Ejercicio 10. .

. . ( I + abt )−1 = I − 2. .. ( A−1 + B−1 )−1 = A( A + B)−1 B = B( A + B)−1 A. probar que ( A − bbt )−1 = A−1 + (1 − bt A−1 b)−1 ( A−1 b)(bt A−1 ). n n −1 = 1! · 2! · · · · · (n − 1)!.. Ejercicio 11. Probar que vvt − vt vI no es invertible.. ( I + AB)−1 = I − A( I + BA)−1 B.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Probar la siguiente relación de recurrencia: V ( x 1 .. ( A + cdt )−1 = 1 abt . 3. además: ( I − N )−1 = In + N + N 2 + . Diremos que una matriz N cuadrada de orden n es nilpotente si existe un número natural r ≥ 1 tal que N r = 0n ... 1 1 2 3 .. . x n ) = ( x n − x 1 ) · ( x n −1 − x 1 ) · . Suponiendo que las inversas existen. Como consecuencia. Concluir de lo anterior la siguiente igualdad: V ( x1 . Dados A ∈ Mn (R) invertible y b ∈ Rn tales que bt A−1 b = 1. . entonces la matriz In − N es invertible y.. x n ). . · ( x 2 − x 1 ) · V ( x 2 . ... .. 4. calcular la matriz inversa de la matriz siguiente:   1 2 3 4 5  0 1 2 3 4     0 0 1 2 3 . ( I + AB)−1 A = A( I + BA)−1 . . . . . n 1 22 32 . Probar que si N es nilpotente.. . 2. . + N r−1 . Ejercicio 13. Como aplicación. . 1+ bt a −1 t A −1 A−1 − A+dcd − 1c . xn ) = ∏i< j ( x j − xi ).. el determinante de Vandermonde de unos escalares es igual a 0 si y sólo si entre dichos escalares hay dos iguales. 1 tA MANUALES UEX 31 ..    0 0 0 1 2  0 0 0 0 1 Ejercicio 12. 5. ( I + A −1 ) −1 = A ( A + I ) −1 . ( A + UBV )−1 = A−1 − A−1 UBV ( I + A−1 UBV )−1 A−1 . . . Probar que 1. ( A + BBt )−1 B = A−1 B( I + Bt A−1 B)−1 . . . n2 . 6. . Ejercicio 15. 1 2n −1 3n −1 ... Probar que 1. . Ejercicio 14. Como aplicación de lo anterior probar que se satisface la igualdad 1 1 1 ..

A12 . Probar que la matriz por bloques In − BA B L= 2A − ABA AB − Im tiene la propiedad L2 = Im+n . La matriz B se denomina complemento de Schur de A11 en A. para algún escalar α. y que In A 0 Im −1 0 Im A In 32 = In −A 0 Im . la matriz A = In + uv∗ se llama perturbación de rango 1 de la identidad. con A11 invertible. Consideremos la matriz cuadrada A= A11 A21 A12 A22 . ¿Para qué vectores u y v ∈ Cn la matriz A no es invertible? Ejercicio 17. B = A22 − A21 A111 A12 es invertible. Probar que las matrices por bloques MANUALES UEX In A y Im 0 son invertibles. n × m y n × n. Probar que A y B son invertibles si. Deducir una expresión para α. Dadas A ∈ Mm×n (k) y B ∈ Mn×m . con A11 y A22 matrices cuadradas. En tal caso ( A ⊕ B)−1 = A−1 ⊕ B−1 . y sólo si. Ejercicio 19. A21 y A22 matrices de órdenes respectivos m × m. Probar que A= A11 A21 A12 A22 − es invertible si. En cuyo caso. Demostrar que si A es invertible. A ⊕ B es invertible. entonces − | A| = | A11 | · | A22 − A21 A111 A12 |. Si u. . m × n. Probar que si A11 es invertible. Ejercicio 21. A −1 = − − A111 ( A11 + A12 B−1 A21 ) A111 −1 A A −1 −B 21 11 − − A111 A12 B−1 B −1 . Sean A11 . y sólo si. Ejercicio 18.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 16. Ejercicio 20. v ∈ Cn . Sea A ∈ Mm×n (k). entonces su inversa tiene la forma A−1 = I + αuv∗ .

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 22. n × m y n × n. Ejercicio 23. A y C son invertibles.    Calcular A300 mediante una división por bloques. En tal caso. y sólo si. MANUALES UEX 33 . Dada la matriz  1  0   0 A=  0   0 0 0 1 0 0 0 0 1/3 1/3 1/3 1/3 1/3 1/3     . Probar que la matriz por bloques A B −1 0 C A −1 es invertible si. Sean A. A B 0 C = −C −1 BA−1 0 0 1 0 0 0 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 0 C −1 . B y C matrices de órdenes respectivos m × m.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 34 .

Este es un buen momento para recordar que en todas las titulaciones que dan acceso a la Licenciatura en Ciencias y Técnicas Estadísticas se imparte Álgebra MANUALES UEX 35 . Así. concluimos que la forma reducida es única. A continuación probamos que toda matriz es equivalente a su forma reducida por filas y a su forma reducida por columnas mediante el método de Gauss-Jordan. ya que podemos afirmar que dos matrices son equivalentes si. el orden de la matriz identidad que aparece en su forma reducida. confluyen en una misma matriz R= Ir 0 0 0 que llamamos forma reducida de A. tales que B = Q−1 AP. Si bien nuestro problema inicial ya está resuelto. nos proponemos determinar la naturaleza geométrica del rango de una matriz. determinar la clase de equivalencia de una matriz dada. Para ello recurrimos a las aplicaciones lineales entre espacios vectoriales abstractos. concretamente. por consiguiente. al que llamaremos rango de la matriz. respectivamente. siendo además su forma reducida un representante canónico de su clase equivalencia. y comprobamos que la forma reducida por filas de la forma reducida por columnas y que la forma reducida por columnas de la forma reducida por filas de la matriz A dada.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA II Matrices y aplicaciones lineales E l planteamiento inicial del tema consiste en introducir la equivalencia de matrices: diremos que dos matrices A y B son equivalentes. y proponer el problema de decidir cuándo dos matrices son equivalentes. tienen el mismo rango. mostrando de este modo que las transformaciones elementales producen matrices equivalentes. que toda matriz tiene asociado un invariante numérico por la equivalencia de matrices. Usando que las formas reducidas por filas y por columnas de una matriz son únicas salvo permutación de algunas columnas y filas. comenzamos definiendo las transformaciones elementales por filas y por columnas de una matriz. o lo que es lo mismo. y sólo si. si existen P y Q invertibles. identificando las matrices elementales de paso en cada caso. De esta forma se resuelve el problema planteado inicialmente. y.

núcleo e imagen de una aplicación lineal. y sólo si. A saber. Es decir. Esto nos permitirá hablar con libertad de A en términos de aplicaciones lineales. dependencia e independencia lineal y base son conocidos. y cómo afectan éstos a las matrices asociadas a las aplicaciones lineales. Este argumento nos permite afirmar que el rango de una matriz tiene carácter puramente geométrico (Teorema del rango). la correspondencia entre la composición de aplicaciones lineales y el producto de matrices. La siguiente sección del tema está dedicada a los cambios de base. se recuerda qué se entiende por coordenadas de un vector respecto de una base. y se da la definición de matriz asociada a una aplicación lineal. epimorfismo. podremos afirmar que si A tiene rango r y R = Q−1 AP es su forma reducida. por lo tanto. usando transparencias. Entendiendo que núcleo e imagen lo son de la aplicación natural que define A. se entenderá que una matriz A ∈ Mm×n (R) define una aplicación lineal de Rn en Rm . su correspondencia con las matrices invertibles. por ejemplo.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 36 Lineal básica. Así. y. demostramos que dos matrices son equivalentes si. todos los espacios vectoriales de esta asignatura serán de dimensión finita a menos que diga lo contrario. y el tema 3 de [BCR07] para el resto de secciones. MANUALES UEX . con P ∈ Mn (R) y Q ∈ Mm (R) invertibles. Destacamos este ejemplo por ser el que podríamos considerar ejemplo fundamental del tema. Por supuesto. generalmente. Al final de este tema se comentan brevemente algunos aspectos relacionados con la resolución de sistemas de ecuaciones lineales como antesala a la resolución aproximada mínimo cuadrática de sistema de ecuaciones lineales que se estudiará en el tema VI. A modo de ejemplo se comenta que. están asociadas a una misma aplicación lineal respecto de bases distintas. y se recuerdan las definiciones de monomorfismo. las ecuaciones de una aplicación lineal. el isomorfismo entre el espacio vectorial de las aplicaciones lineales de V en V y el correspondiente espacio vectorial de matrices para cada par de bases fijas de V y V . ya que pone de manifiesto la clave de la demostración del teorema del rango. Asimismo. en el caso de los isomorfismos. A continuación se enuncian y demuestran algunos resultados básicos de las aplicaciones lineales con los que el alumno debe estar familiarizado. Estos resultados sólo son enunciados en clase y. En la segunda sección de este tema se parte de la definición de aplicación lineal entre espacios vectoriales abstractos. concretamente la aplicación lineal cuya matriz respecto de las bases usuales de Rm y Rn es A. entonces las últimas n − r columnas de P forman una base de ker( A) y las r primeras columnas de Q forman una base de im( A). La bibliografía básica utilizada en este tema ha sido [SV95] y [MS06] para la primera sección. se entiende que los conceptos de espacio vectorial. isomorfismo. por defecto.

con el ánimo de hacer este manual lo más autocontenido posible.1. 1. (c) Tipo III: Sumar a la fila i-ésima de A su fila l-ésima multiplicada por λ ∈ k. (b) Tipo II: Multiplicar la fila i-ésima de A por λ ∈ k \ {0}. (b) Tipo II: Multiplicar la fila i-ésima de A por λ ∈ k \ {0} se consigue 1 tomando Q igual a la matriz Mi ( λ ) que se obtiene al multiplicar la fila i-ésima de la matriz identidad de orden m por 1/λ y P igual a la matriz unida de orden n (compruébese usando el ejercicio 1 ajustado a la igualdad In A = A). es decir. a cada una de las operaciones elementales por filas le corresponden un par de matrices invertibles P ∈ Mn (k) y Q ∈ Mm (k) tales que el resultado de la operación elemental es Q−1 AP : (a) Tipo I: Intercambiar las filas i-ésima y l-ésima de A se consigue tomando Q igual a la matriz Til que se obtiene al permutar las filas i-ésima y l-ésima de la matriz identidad de orden m y P igual a la matriz identidad de orden n (compruébese usando el ejercicio 1 ajustado a la igualdad In A = A). y en el del manual en general. En el desarrollo de este tema. base y dimensión. MANUALES UEX 37 .1. Se llaman operaciones elementales por filas en una matriz A ∈ Mm×n (k) a las siguientes transformaciones: (a) Tipo I: Intercambiar las filas i-ésima y l-ésima de A. simétrica y transitiva (compruébese). dependencia lineal. La relación anterior es de equivalencia. Definición II.2. verifica las propiedades reflexiva. En efecto. En el capítulo 4 de [Mey00] también se pueden encontrar aplicaciones y ejercicios aplicados a situaciones reales de los contenidos de este tema. se ha supuesto que el estudiante está familiarizado con los conceptos de espacio y subespacio vectorial. y cuenta con bastantes ejemplos relacionados con la Estadística. En todo caso. Las operaciones elementales por filas en una matriz A ∈ Mm×n (k) producen matrices equivalentes a A. en el apéndice C pueden encontrarse todos estos conceptos tratados con bastante profusión. El capítulo 6 de [Sea82] está completamente dedicado al rango. Se dice que A ∈ Mm×n (k) es equivalente a A ∈ Mm×n (k) si existen P ∈ Mn (k) y Q ∈ Mm (k) invertibles tales que A = Q−1 A P.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Para un desarrollo más geométrico de este tema se puede consultar [Her85]. Matrices equivalentes Definición II.1.

. para MANUALES UEX 38 ..1) A =  0 0 . hay alguna entrada no nula.. Definición II. . .1. a1n  0 1 . . . Sea A ∈ Mm×n (k) no nula. Con una operación del tipo II conseguimos que esta entrada sea 1 y con operaciones del tipo III se puede conseguir que las entradas (i. l )-ésima de la matriz identidad de orden m y P igual a la matriz identidad de orden n (compruébese usando el ejercicio 1 ajustado a la igualdad In A = A). . .  . .. . . .. . . permutando las columnas de A. a2n   . 1 ar r+1 .1. Mediante operaciones elementales por filas y.. arn  . 1) mediante una operación del tipo I.   . 0    .. . se pueden definir operaciones elementales por columnas en una matriz de forma totalmente análoga.   . . Al igual que hemos definido las operaciones elementales por filas en una matriz.1. 1)-ésimas sean 0. Teorema II.    0 0 ..  . Nótese que en las operaciones elementales por filas la matriz P siempre es la identidad del orden correspondiente. 0 La matriz A se llama forma reducida por filas de A y es única salvo permutación de las últimas n − r columnas.. . . 0 a   2 r +1 . Si las entradas de la primera columna de A son todas 0. 0 0 0.. . A las matrices que son producto de matrices de la forma Til se les llama matrices de permutación. .   (II. . del ejercicio 2). . . Las matrices Til . pasamos la primera columna al lugar n-ésimo En otro caso. lo que proponemos como ejercicio al lector.. . . Mi (λ) con λ ∈ k \ {0} y Sil (λ) con λ ∈ k se llaman matrices elementales.4. ..IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (c) Tipo III: Sustituir la fila i-ésima de A por ella misma más λ ∈ k veces su fila l-ésima se consigue tomando Q igual a la matriz Sil (−λ) que se obtiene al sustituir por −λ la entrada (i. En el ejercicio 2 puedes encontrar algunas interesantes propiedades de las matrices elementales. Demostración.5. . 0 a1 r+1 . . 0 0 . . que colocamos en lugar (1. si es necesario. Obsérvese que las matrices de permutación son ortogonales (véase el apartado 1. Forma reducida por filas. . se puede obtener una matriz A equivalente a A de la forma:   1 0 . . .  . . . 0 0 .1.   .3. Nota II. .

. como P−1 A = B. . .1. para cada i = 1. . . . Si existe P ∈ Mm (k) invertible tal que P−1 A = B. Llamemos A1 y B1 ∈ Mm×(n−1) (k) a las submatrices de A y B que se obtienen al eliminar la última columna. si A = 0 entonces. Continuando con este mismo proceso conseguimos una matriz de la forma (II. m. . se tiene que P−1 A1 = B1 .  MANUALES UEX 39 .   . . Queda comprobar que también las últimas columnas de A y B son iguales. h. aplicando la hipótesis de inducción se concluye que A1 = B1 . m en la columna h + 1-ésima es distinta de 0. h + 2. entonces    A=  1 0 . 0 Supongamos ahora que el enunciado es cierto para matrices de orden m × (n − 1) y comprobémoslo para matrices de orden m × n. h + 1). ha de ser forzosamente B = 0. la situamos (mediante operación por columnas del tipo I) en el lugar n. Observamos que las columnas anteriores no varían. Si A y B son no nulas.1). . Si en la columna (h + 1)-ésima las entradas de las filas h + 1. .  . alguna de las entradas de las filas h + 1. que las matrices A1 y B1 están en forma reducida por filas. . en la forma buscada. con una operación del tipo II conseguimos que esta entrada sea 1 y con operaciones del tipo III hacemos ceros en las entradas (i. .   . entonces A = B. . Demostración. La unicidad es una consecuencia del siguiente resultado: Lema II. . Es claro. haciendo una operación del tipo I lo emplazamos al lugar (h + 1.   . . . por tanto. Sean A y B ∈ Mm×n (k) dos matrices en forma reducida por filas. En caso contrario. m. Por tanto. Además. La primera columna queda. . . . al ser P−1 A = B.6. .1. m son 0. 0     = B. Veámoslo por inducción sobre el número de columnas n. . Para n = 1.   0       1  ← r-ésimo    0     . h + 1)-ésimas. Supongamos que tenemos h columnas en la forma deseada. . Si la última columna de A es   0  .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA cada i = 2.

. en este caso. En primer lugar. Teniendo ahora en cuenta que P−1 ( A1 |an ) = P−1 A = B = ( B1 |bn ) y que A1 = B1 = y que se sigue que P−1 an = bn y que P −1 = Ir 0 P1 P2 . Retornando ahora a la unicidad de la forma reducida por filas de A.   a  an =  rn   0     . . Además.   . 1Según hemos visto en la primera parte de la demostración se realizan permutaciones de columnas cuando la matriz no está en forma reducida y en la columna (h + 1)-ésima las entradas de las filas h + 1. Por consiguiente. usando el lema anterior concluimos que A Q = B = A . y que las últimas columnas de A y B son  a1n  . Supongamos.   . observamos que B = A Q está en forma reducida por filas1.  .   . MANUALES UEX 40 .  . . que A1 (y por lo tanto B1 ) tiene sus r primeras filas no nulas y las m − r últimas filas nulas. basta tener en cuenta que si A es otra matrices en forma reducida obtenida a partir de A mediante operaciones elementales por filas y permutaciones de columnas. existen una matriz invertible P ∈ Mm (k) y una matriz de permutación Q ∈ Mn (k) tales que P−1 A Q = A . se tiene que r = n y A=B= In 0 . . pues. m son cero.     y     brn bn =   br+1 n   . . Ir 0 C 0 de donde se deduce fácilmente que an = bn . al ser ésta y A matrices en forma reducida por filas. las permutaciones recogidas en Q sólo pueden afectar a las últimas n − r columnas de A . de hecho. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS y A1 tiene sus m − r + 1 últimas filas nulas. . entonces A y B son necesariamente iguales.  0  b1n . bmn respectivamente.      .

. la matriz que se obtiene estará en forma escalonada por columnas. . .. . Esta matriz se llama forma reducida de A. as+1 s 0 . ..   . .1.5 proporciona un procedimiento algorítmico para calcular la forma reducida por filas (o por columnas. Por otra parte. . 0 que se llama forma reducida por columnas de A y es única salvo permutación de las últimas m − s filas.  . Se llama rango de la matriz A al número de filas (o columnas) distintas de cero en su forma reducida.. . Corolario II. 0 0 . am 1 am 2 . am s 0 . no se obtiene la forma reducida por filas (al menos como la nosotros la hemos definido). 0 .. 0  0 1 .9.  . ...5 prescindimos de las permutaciones de las columnas.1. de la unicidad de las formas reducidas por filas y por columnas se sigue la unicidad de r.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Es claro que intercambiando filas por columnas y viceversa en el teorema anterior. Además. Nota II..    0 . . respectivamente.2) A = 0    as+1 1 as+1. . en cuyo caso. Definición II. MANUALES UEX 41 Del corolario anterior se deduce que el número de filas distintas de cero de la forma reducida por filas de una matriz dada es igual al número de columnas distintas de cero de la forma reducida por columnas de la misma matriz.8. si en el teorema II. . sin embargo.1.. 0     . .   . Sea A ∈ Mm×n (k). . . 2 . 0 0 .7. (II. . entonces existe un único entero r ≥ 0 tal que la forma reducida por columnas de A y la forma reducida por filas de A coinciden con Ir 0 R= .1. . . 0 0 donde Ir es la matriz identidad de orden r y el resto son matrices nulas de los ordenes correspondientes. . Obsérvese que la demostración del teorema II. Este procedimiento se llama método de Gauss-Jordan.. . .. . 0    ..1. Y lo mismo ocurre si prescindimos de las permutaciones de filas cuando se construye la forma reducida por columnas. . .  ... . . . Sea A ∈ Mm×n (k). Si A y A ∈ Mm×n son las formas reducidas por filas y por columnas de A. . 1 0 .  . y se denota rg( A). . .1. . se obtiene una matriz en forma escalonada por filas. con las modificaciones pertinentes) de una matriz dada. se obtiene que la matriz A es equivalente a una de la forma   1 0 . . .

) denota a la matriz elemental de la primera transformación elemental por filas.) denota a la matriz elemental de la primera transformación elemental por columnas. existen P1 y P2 ∈ Mn (k) y Q1 y Q2 ∈ Mm (k) tales que − − Q1 1 A( P1 ) = Q2 1 B( P2 ) = Ir 0 0 0 − − (véase el corolario II. .f. de donde se sigue que B = Q2 ( Q1 1 A( P1 )) P2 1 . MANUALES UEX 42 .1. es decir. tienen el mismo rango.c. .c.f. donde (1a t.c. P = (1a t.8). A y B son equivalentes.) · (2a t. .1. ii) P es la matriz que resulta de hacer en In (la matriz identidad de orden n) las mismas transformaciones elementales por columnas que se hacen en A para llegar a la forma reducida. · (2a t. Dos matrices A y B ∈ Mm×n (k) son equivalentes si.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Proposición II. Recíprocamente. (2a t.) · .).f. . de donde se sigue que rg( A) = rg( B). Cálculo de las matrices de paso para obtener la forma reducida: Sea A ∈ Mm×n (k) tal que rg( A) = r y sean P ∈ Mn (k) y Q ∈ Mm (k) las matrices invertibles tales que Q−1 AP = entonces: i) Q−1 es la matriz que resulta de hacer en Im (la matriz identidad de orden m) las mismas transformaciones elementales por filas que se hacen en A para llegar a la forma reducida. Q−1 = .f. .) · (1a t. y sólo si. . si A y B tienen el mismo rango. . − − B = ( Q1 Q2 1 )−1 A( P1 P2 1 ). Nota II.) a la matriz elemental de la segunda transformación elemental por columnas.1. Si A y B son equivalentes. . . Demostración.c.11. Luego.) a la matriz elemental de la segunda transformación elemental por filas. (2a t.10. . Ir 0 0 0 . entonces tienen la misma forma reducida por filas. donde (1a t.

Diremos que una aplicación lineal es un monomorfismo (epimorfismo. Del mismo modo. es lineal y se llama inclusión de L en V. los endomorfismos (de V) que son isomorfismos se denominan automorfismos (de V). y a lo largo de todo esta sección.2. Veamos los ejemplos más sencillos de aplicaciones lineales. entonces es claro que la única aplicación lineal de 0 a V es la aplicación nula. la única aplicación lineal de V en 0 es la aplicación nula. 3. respectivamente). Definición II. entonces la aplicación i : L → V definida por i (v) = v. i = 1. y sólo si. Definición II. se tiene que si T : V −→ V es aplicación lineal. Si L ⊆ V es un subespacio vectorial de V. en que L = V. Si denotamos.2. . denotaremos por 0 −→ V. T (λu + µv) = λT (u) + µT (v). En el caso particular. Equivalentemente (compruébese). biyectiva. Aplicaciones lineales En lo que sigue. es decir. es decir. Ejemplo II. se dice que es un endomorfismo (de V). . Se dice que una aplicación T : V −→ V es un morfismo de k-espacios vectoriales (ó aplicación k-lineal ó aplicación lineal si es claro que el cuerpo es k). V y V denotarán dos espacios vectoriales sobre un mismo cuerpo k. 1. T es morfismo de k-espacios vectoriales si. entonces T i =1 ∑ λi vi r = i =1 ∑ λ i T ( v i ). como es usual. para todo u y v ∈ V y λ y µ ∈ k. en general. Observése que. (b) T (λu) = λT (u) (compatible con el producto por escalares). Nota II. la cual. esto es. isomorfismo.3. r para todo vi ∈ V y λi ∈ k. . la aplicación anterior se llama identidad de V y se denota por IdV . Esta aplicación es lineal y se llama aplicación trivial o nula. para todo u y v ∈ V y λ ∈ k.2. 2. con 0 al k-espacio vectorial cuyo único vector es el cero. MANUALES UEX 43 . r. Cuando una T aplicación lineal está definida en V y valora también en V.2. si es un morfismo de grupos compatible con el producto por escalares. T : V −→ V. que denotaremos por V −→ 0. respectivamente) cuando sea inyectiva (epiyectiva. Sea T : V −→ V la aplicación definida por T (v) = 0V . es compatible con combinaciones lineales.1. si verifica: (a) T (u + v) = T (u) + T (v) (morfismo de grupos). . para todo v ∈ V.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 2. para todo v ∈ L.4.2.

Esta última proposición dota de sentido a la siguiente definición. V ) al conjunto de todas aplicaciones k-lineales de V en V . ∼. Si T : V −→ V es un isomorfismo. Además. Si T : V −→ V es una aplicación lineal. tenemos las siguientes propiedades elementales.8. y por tanto que T −1 es lineal. de la unicidad del elemento neutro en V se sigue que T (0V ) = 0V . Proposición II. Como T (v) = T (v + 0V ) = T (v) + T (0V ). es una relación de equivalencia. Demostración. Definición II.2. por ser T lineal. es decir.5. f + g es la aplicación tal que ( f + g)(v) = f (v) + g(v) y (λ f ) es la aplicación tal que (λ f )(v) = λ f (v).2. Por ser T biyectiva. El conjunto formado por las aplicaciones lineales de V en V.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Dados dos espacios vectoriales V y V sobre un mismo cuerpo k. para todo v y u ∈ V. De ambos hechos se deduce que T −1 (λu + µv ) = λu + µv = λT −1 (u ) + µT −1 (v ). se denota por Endk (V ).6.1).2.2. entonces se cumple que: (a) T (0V ) = 0V .7. sólo hay que probar que T −1 es lineal. MANUALES UEX 44 . un morfismo de grupos. Ejercicio II. T (λu + µv) = λT (u) + µT (v) = λu + µv . Proposición II. = Como todo morfismo de k-espacios vectoriales es. T −1 también es biyectiva. Es un sencillo ejercicio comprobar que Homk (V. (b) Basta tomar λ = 1 en el apartado (b) de la definición de aplicación lineal (definición II. denotaremos por Homk (V. (c) T (u − v) = T (u) + T (−v) = T (u) − T (v). Diremos que los espacios vectoriales V y V son isomorfos si existe algún isomorfismo entre ellos. en particular. (b) T (−v) = − T (v). Sean u y v ∈ V y λ y µ ∈ k.2. por tanto. Como T es biyectiva. entonces T −1 : V −→ V es un isomorfismo. (a) Sea v ∈ V. Probar que la composición de aplicaciones es una aplicación lineal. en cuyo caso escribiremos V ∼ V (ó = ∼ V −→ V ). existen unos únicos u y v ∈ V tales que T (u) = u y T (v) = v . (c) T (v − u) = T (v) − T (u). por los endomorfismos de V. es decir. para todo v ∈ V. Probar que “ser isomorfos”. V ) y Endk (V ) son espacios vectoriales sobre k con la suma y producto por escalares usuales de las aplicaciones. Demostración.

entonces (a) ker( T ) es un subespacio vectorial de V. Ejemplo II. (b) Im( T ) es un subespacio vectorial de V . entonces ker(i ) = {0V } e Im(i ) = L. De tal forma que si λ y µ ∈ k.2. tenemos que λu + µv = λT (u) + µT (v) T = T (λu + µv).v∈ ker( T ) = λ0V + µ0V = 0V . es decir. Si u y v ∈ Im( T ). entonces ker(IdV ) = {0V } e Im(IdV ) = V. y si IdV : V −→ V es la identidad de V. Si λ = 0. También es claro que el núcleo y la imagen de la aplicación V −→ 0 son V y {0}. ker(hλ ) = {0V } e Im(hλ ) = V. Por la proposición C. tenemos que T (0V ) = 0V .2. Si T : V −→ V es una aplicación lineal. en otro caso. Sean L ⊆ V es un subespacio vectorial.9. tenemos que T (0V ) = 0V . entonces T (λu + µv) T = λT (u) + µT (v) lineal u. (a) Por la proposición II.12. Demostración. Si T : V −→ V es la aplicación nula. Nota II.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Definición II. 2. Obsérvese que Im( T ) coincide con el siguiente subconjunto de V. 3. Calculemos el núcleo y la imagen para las aplicaciones lineales del ejemplo II.2.8(a). Sea hλ : V −→ V la homotecia lineal de razón λ ∈ k. ker( T ) es subespacio vectorial de V.11. entonces ker( T ) = V e Im( T ) = { 0V }.2.10. que Im( T ) es un subconjunto no vacío de V .2. El núcleo y la imagen de la aplicación 0 −→ V son.8(a). lineal MANUALES UEX 45 . Proposición II. Se llama núcleo de T al subconjunto ker( T ) := {v ∈ V | T (v) = 0V } ⊆ V. entonces existen u y v ∈ V tales que T (u) = u y T (v) = v . Se llama imagen de T al subconjunto Im( T ) := { T (v) | v ∈ V } ⊆ V . Nótese que en los ejemplos anteriores tanto el núcleo como la imagen son subespacios vectoriales. 0V ∈ ker( T ) y por tanto podemos asegurar que ker( T ) es un subconjunto no vacío de V. (b) Por la proposición II. Veamos que esto no es un hecho aislado y se cumple siempre. respectivamente. respectivamente. obviamente.3. Si u y v ∈ ker( T ) y λ y µ ∈ k. Sea T : V −→ V una aplicación lineal. 0V ∈ Im( T ) y. {0} y {0V }. Si i : L → V es la inclusión de L en V.2. {v ∈ V | existe v ∈ V con T (v) = v }. entonces hλ es la aplicación nula.2. es decir. 4.3 1. por tanto.2.

1. . . y sólo si. . . . T es isomorfismo si. Demostración. Sabemos. Im( T ) es subespacio vectorial de V. es decir. . denotaremos a las coordenadas de v ∈ V respecto B por la n-upla correspondiente en kn . tenemos que una aplicación T : V −→ V es epiyectiva si. . . es un monomorfismo si.13. es decir. . . por T inyectiva tenemos que T (v) = 0V = T (0V ) implica v = 0V . Matriz asociada a una aplicación lineal Sea B = {v1 . . en lo sucesivo. 3. y sólo si. . . vn } es una base de un k-espacio vectorial V de dimensión finita n > 0. . . . . . λn )B si queremos destacar la base) para expresar las coordenadas de v respecto de B . ⇒ Sea v ∈ ker( T ). . llamados coordenadas de v ∈ V respecto de B . que todo vector v ∈ V se expresa de forma única como combinación lineal de los vectores de B . lineal Luego u − v ∈ ker( T ) = {0V }. λn ) (ó (λ1 . . .2. ϕB (vi ) = ei := (0. 0).14. es decir. . escribiremos (λ1 . Sea T : V −→ V una aplicación lineal. .2. Es claro que. y sólo si. + λn vn . . existe una única aplicación lineal MANUALES UEX ϕB : V −→ kn . por definición. T es inyectiva. . entonces 0V = T ( u ) − T ( v ) T = T ( u − v ). Proposición II. . . . la imagen de T es V . 46 De hecho esta aplicación es un isomorfismo de V en kn que “manda” un vector v ∈ V de coordenadas λ1 . ker( T ) = {0V } e Im( T ) = V . Sea T : V −→ V una aplicación lineal. de donde se sigue que u − v = 0V . De modo que podemos determinar cuándo una aplicación es epimorfismo dependiendo de su imagen. 0. . por consiguiente. . . λn ) ∈ kn . De aquí que. . λn ∈ k tales que v = λ1 v1 + . n. . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Luego λu + µv ∈ Im( T ) y. . Por otra parte. Veamos que el núcleo caracteriza a los monomorfismos. u = v. . es decir. De forma inmediata tenemos el siguiente: Corolario II. entonces. ker( T ) = {0V }. . 0. i) i = 1. ⇐ Si u y v son vectores de V tales que T (u) = T (v). . λn respecto de B a la n-upla (λ1 . existen unos únicos λ1 .

. . . se dice que MB . La matriz asociada a una aplicación lineal permite obtener una expresión matricial que relaciona las coordenadas de un vector de V respecto de B con las coordenadas de su imagen por T respecto de B . entonces es claro que existen aij ∈ k con i ∈ {1.. . . am1 a12 a22 . T está determinado por las imágenes de una base de V. es conveniente resaltar que esta identificación depende de la base de V elegida. . Sin embargo. .. . a1n a2n . aunque obviamente estas coordenadas dependen de las bases B y B elegidas.3.3. . m es decir. V ) se define la matriz asociada a T respecto de la bases B y B . T ( v1 ) T ( v2 ) . ... pasamos a definir la matriz asociada a una aplicación lineal. n} tales que T (v j ) = i =1 ∑ aij vi . MB . . se puede perder generalidad en los razonamientos. . . . . . Si ( x1 . V ) y A = ( aij ) ∈ Mm×n (k) la matriz asociada a T respecto de las bases B y B . para cada j = 1. . . . xn ) son las coordenadas de MANUALES UEX 47 . vm = Cuando V = V y B = B . . kn .2. . . . como la matriz A = ( aij ) ∈ Mm×n (k) cuya columna j-ésima son las coordenadas de T (v j ) respecto de B . tales que las coordenadas de T (v j ) ∈ V respecto de B son ( a1j . x2 . . respectivamente. . V ).. Mediante el isomorfismo anterior podemos ver cualquier espacio vectorial V de dimensión n como un espacio vectorial numérico de dimensión n. Luego tenemos que T “está determinado por las coordenadas” de T (v j ).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota II. .B ( T ). . . . . . Una vez fijada la notación que usaremos de esta sección en adelante. . es decir.B ( T ) es la matriz de T respecto de B y se escribe MB ( T ). am2 . vm } una base de V . amn      v1 v2 . y por lo tanto que. Sean T ∈ Homk (V. .3. . vn } una base de V y B = {v1 . . Si T ∈ Homk (V. T ( v n )  MB . m.. B ( T )     a11 a21 . Definición II.1. . Dado T ∈ Homk (V. . . B = {v1 . Además. amj ). En lo que sigue V y V serán dos k-espacios vectoriales de dimensiones finitas n > 0 y m > 0. . Proposición II.3. en algunos casos. . . esto es. j = 1. . respecto de B . . m} y j ∈ {1. .. n. . .

.3. Teorema II. y sólo si. La aplicación φ es lineal.   . j)-ésimo y ceros en el resto. . La aplicación φ : Homk (V. V ) en Mm×n (k) tal que a cada T ∈ Homk (V. la dimensión de Mm×n (k) como kespacio vectorial es m · n. Nota II. n si.3. . . Si v = ∑i=1 xi vi ∈ V . m Demostración.  . . V ) le asigna la matriz asociada a T respecto de las bases B y B de V y V . a1n  a21 a22 . . Recordemos que el conjunto de matrices de orden m × n con coeficientes en k tiene estructura de k-espacio vectorial con la suma y producto por escalares habituales de matrices: A + B = ( aij ) + (bij ) = ( aij + bij ) y λA = λ( aij ) = (λaij ) con A = ( aij ) y B = ( aij ) ∈ Mm×n (k) y λ ∈ k (veánse la nota I. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS un vector v ∈ V.  .  . amn xn son las coordenadas de x1 x2 .. dados T y S ∈ Homk (V. Además. V ) tenemos que existen A = ( aij ) y B = (bij ) ∈ Mm×n (k) tales que φ( T ) = A y MANUALES UEX 48 . y sólo si.    . . .  A la expresión (II. y sólo si. En efecto.1. xn xn El hecho de que a cada aplicación lineal se le asocie una matriz permite definir una aplicación de Homk (V. V ) −→ Mm×n (k) que a cada aplicación lineal T : V −→ V le hace corresponder su matriz asociada respecto de las bases B y B es un isomorfismo de k-espacios vectoriales.4. .3. xm ) T (v) respecto de B si. .3)  . .  =  . . xn    .7 y el ejercicio 1). x2 . . xi = ∑i=1 xi aij . a2n   x2       (II. entonces T (v) = v si. . . am1 am2 . y sólo si. entonces se cumple que ( x1 . respectivamente.  =  .     x1 x1  x2   x     2  A . . . . Veamos que esta aplicación es un isomorfismo de espacios vectoriales. . pues una base de Mm×n (k) la forman las matrices Eij ∈ Mm×n (k) con un 1 en el lugar (i.5.. . i = 1. Demostración.3) se la llama ecuaciones de T respecto de B y B .   . .. . i =1 ∑ xi vi = T ∑ x j v j j =1 m n = j =1 ∑ xj T n vj = j =1 ∑ x j ∑ aij vi i =1 n m = j =1 ∑ ∑ x j aij i =1 n m vi m si. .3.     x1 a11 a12 .

De donde se sigue que la matriz asociada a λT + µS es λA + µB = (λaij + µbij ). V ) tal que T (v j ) = u j . . . .6. . m para cada j ∈ {1. . .3. Es claro que existe una única aplicación lineal T ∈ Homk (V. concluimos que C = B · A. Demostración. m De donde sigue que la matriz asociada a S ◦ T es C = ∑i=1 bli aij ∈ M p×n (k). . y sólo si. vn } una base de V y T ∈ Endk (V ). Para cada j ∈ {1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA m m φ(S) = B. .3. n} tenemos que S ◦ T (v j ) = S( T (v j )) = S ∑im 1 aij vi = ∑im 1 aij S(vi ) = = = ∑im 1 aij ∑l =1 bli vl = p = ∑l =1 ∑im 1 bli aij vl = p . .7. n} definimos u j = a1j v1 + . . en cuyo caso. . . Para ello consideramos un tercer k-espacio vectorial V de dimensión finita y una base B = {v1 . . Basta tener en cuenta que T ∈ Endk (V ) es un automorfismo si. . . n}. + amj vm ∈ k. Si A = ( aij ) ∈ Mm×n es la matriz asociada a T respecto de B y B y B = (bli ) ∈ M p×m es la matriz S respecto de B y B . m}. y sólo si. tenemos que φ es inyectiva. Sean T : V −→ V y S : V −→ V dos aplicaciones lineales. existe T −1 ∈ Endk (V ) tal que T ◦ T −1 = T −1 ◦ T = IdV si. y que φ( T ) = A. si λ y µ ∈ k. . . A es invertible. Por la definición de producto de matrices. por la proposición II. Esto prueba que φ es epiyectiva. . Proposición II. Luego T (v j ) = ∑i=1 aij vi y S(v j ) = ∑i=1 bij vi . . y sólo si. .3. Por consiguiente. . B = {v1 . n. j = 1. . Probemos ahora que la composición de aplicaciones lineales (cuando tenga sentido) corresponde al producto de matrices. veamos que φ es biyectiva. entonces C = B · A es la matriz asociada a S ◦ T respecto de B y B . Para cada j ∈ {1.6. . la matriz asociada a T −1 respecto de B es A−1 . (λT + µS)(v j ) = λ( T (v j )) + µ(S(v j )) = λ( ∑ aij vi ) + µ( ∑ bij vi ) i =1 i =1 m m = i =1 ∑ (λaij + µbij )vi . para j ∈ {1. . T : V −→ V es una aplicación lineal biyectiva si. Por último. Sea A = ( aij ) ∈ Mm×n (k). y sólo si. . A · B = B · A = In . al ser T única. . . . donde B ∈ Mn (k) es la matriz MANUALES UEX 49 Corolario II. Sea V un k-espacio vectorial de dimensión finita. Si A es la matriz asociada a T respecto de B . A continuamos veremos una caracterización de los automorfismos de un espacio vectorial de dimensión finita en términos de su matriz asociada. entonces T es un automorfismo si. y además. y por lo tanto que φ(λT + µS) = λφ( T ) + µφ(S). . Demostración. . v p } de V . .

3.. vm = MANUALES UEX Si convenimos que B es la “base antigua” y que B es la “base nueva. B ) = In (M (B . . λn ). Teorema del rango Sabemos que si V un k-espacio vectorial de dimensión finita n > 0 y B = {v1 . . .. . Con la notación anterior.  =  . B). Si B = {v1 . Definición II. B )  . la matriz M (B . B ) · M (B . donde In es la matriz identidad de orden n. A es invertible y B = A−1 es la matriz asociada a T −1 respecto de B ... .” entonces la matriz M (B .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS asociada a T −1 respecto de B si. basta considerar las ecuaciones de IdV respecto de las bases B y B . 50 . λn ) y sus coordenadas respecto de B son (λ1 . M (B . λn λn Por otra parte. si consideramos la matriz M (B . . .6. .3. B )−1 es la matriz del cambio de la base B a la base B . .. am2 . . por la proposición II. . . B ) (M (B . . y sólo si... .   . definimos la matriz. B) = In ). Cambios de bases. . B ) es invertible y M (B . M (B . para cada un vector v ∈ V.4.. B ) nos permite obtener las coordenadas de un vector v ∈ V respecto de la base nueva a partir de sus coordenadas respecto de la base antigua. M(B . B ) · M (B . Para ello. B ). .3. B) · M (B . Resumiendo. B )     a11 a21 . es decir. . . am1 v2 a12 a22 . vn a1n a2n . . Así. vn } es una base de V.1. . si las coordenadas de v respecto de B son (λ1 . amn      v1 v2 . . . . . . . v1  M(B . B) del cambio de la base B a la base B . .  M(B . respectivamente). respectivamente) es la matriz asociada al endomorfismo identidad de V respecto de la base B (respecto de la base B . . 4. entonces     λ1 λ1  . vn } es otra base de V nos preguntamos ahora qué relación existe entre las coordenadas de v respecto de B y su coordenadas respecto de B . B ) ∈ Mn (k) es la matriz cuya columna j-ésima corresponde a las coordenadas v j respecto de B. M (B . entonces. del cambio de la base B a la base B como la matriz asociada al endomorfismo identidad de V respecto de las bases B y B . por la proposición II. . existe un vector de kn que llamamos coordenadas de v respecto de B .  . B) · M(B . es decir.. .

Ejemplo II. y B la matriz asociada respecto de las bases de Rn y Rm determinadas por las columnas de P y Q. dos matrices asociadas a una misma aplicación lineal son equivalentes. De hecho. la aplicación Rn −→ Rm . nos interesa saber cómo cambia la matriz asociada a una aplicación lineal al cambiar las bases. V IdV T -V IdV ? V T ? -V . Sea A ∈ Mm×n (R). respectivamente. B1 es una base de V y T ∈ Homk (V. entonces las últimas n − r columnas de P forman una base de ker( A) y las r primeras columnas de Q forman una base de im( A). x → Ax ∈ Rm es lineal.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Una vez que hemos visto cómo afectan los cambios de bases a las coordenadas de un vector.3. B2 ).4) MB2 . entonces A y B definen la misma aplicación lineal de Rn en Rm . la proposición II.2. respectivamente. de cambio de la base B2 a la base B1 y de la base B1 a la base B2 . ya que si B = Q−1 AP ∈ Mm×n (k). en efecto. Por otra parte. 1 Consideremos ahora otras bases B2 y B2 de V y V . Esta relación entre el rango de A MANUALES UEX 51 .6 y el siguiente diagrama conmutativo.1. Teniendo en cuenta que IdV ◦ T ◦ IdV = T. y se escriba im( A) y ker( A).B ( T ) = M(B2 . siendo A la matriz asociada a la aplicación respecto de las bases usuales de Rn y Rm .B ( T ) y MB2 . Si observamos detenidamente la fórmula (II. con P y Q invertibles. im( A) = { Ax | x ∈ Rn } y ker( A) = {x ∈ Rn | Ax = 0}.4) y la comparamos con la definición de matrices equivalentes (definición II. El recíproco de esta afirmación también es cierto.B ( T ) · M (B2 . B1 )−1 · MB1 .B ( T ) de T respecto de las bases B1 y B1 .B ( T ) son equivalentes. M (B2 . podemos afirmar que las matrices MB1 . respectivamente.4. B1 ) y M(B1 . y las matrices. B1 ). Por con2 1 siguiente. V ).4. con P ∈ Mn (R) y Q ∈ Mm (R) invertibles. 2 1 Esta expresión se llama fórmula del cambio de base Nota II.1) .4. Si V y V son dos k-espacios vectoriales de dimensión finita. La matriz A define una aplicación lineal de Rn en Rm . B1 es una base de V.4. se trata de la aplicación lineal cuya matriz respecto de las bases usuales de Rn y Rm es A. es decir. tenemos definida la matriz MB1 .3. De aquí que a menudo también se denote por A a la aplicación lineal. se concluye que la matriz asociada a T respecto de las bases B2 y B2 es (II. destacamos que si A tiene rango r y R = Q−1 AP es su forma reducida.

existen unas matrices P ∈ Mn (k) y Q = Mm (k) invertibles tales que Q−1 AP = Ir 0 0 0 52 (véase el corolario II. Tipo II: La matriz que se consigue al multiplicar la fila i-ésima de A por λ ∈ k \ {0} es la matriz asociada a T respecto de las bases B1 y la base B2 que se obtiene al sustituir el vector vi de B1 por λ−1 vi (compruébese). Tipo III: La matriz que se consigue al sumar a la fila i-ésima de A su fila l-ésima multiplicada por λ ∈ k es la asociada a T respecto de B1 y la base B2 de V que se obtiene al sustituir el vector vl de B2 por vl − λvi con i = l (compruébese). MANUALES UEX Demostración. las operaciones elementales por filas en A = MB1 . Estas matrices son producto de las matrices elementales que se han ido obteniendo al realizar operaciones elementales por filas y por columnas en A. existen una base B2 de V y una base B2 de V . Sean V y V dos k-espacios vectoriales de dimensiones finitas n y m. B1 ). . B1 y B1 bases de V y V . 2. Nota II. rg( A) = n − dim(ker( T )). la dimensión su imagen) y su matriz asociada. Con la misma notación que antes.4.4. entonces 1. y T una aplicación lineal de V en V . si r = rg( A).1.8). y volveremos a ellas al final de la siguiente sección. Si A ∈ Mm×n (k) es la matriz asociada a T respecto de B y B . Análogamente se puede comprobar que las operaciones elementales por columnas en A son cambios de base en V. B1 ) y Q = M(B2 .B ( T ) (véase la definición II.1. Luego. Sabemos que.4. rg( A) = dim(Im( T )). respectivamente.4. respectivamente.2) no son más que cambios 1 de bases en V . según lo explicado en la nota II. Finalizamos esta sección con un comentario sobre las transformaciones elementales por filas y explorando la relación que existe entre el rango de una aplicación lineal (esto es. En efecto: Tipo I: La matriz que se consigue al intercambiar las filas i-ésima y l-ésima de A es la matriz asociada a T respecto de B1 y la base B2 de V que se obtiene al permutar el vector i-ésimo y l-ésimo de la base B1 (compruébese). Teorema del rango.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS y las dimensiones de su núcleo e imagen no es casual. tales que P = M(B2 .

Un sistema lineal de ecuaciones T (x) = b es homogéneo cuando b = 0V . Llamaremos sistema lineal de m ecuaciones y n incógnitas a todo par ( T. que Ir 0 0 0 es la matriz de T respecto de B2 y B2 . . lo cual es no es sorprendente si tenemos en cuenta la siguiente definición.5. . pues 0V ∈ Im( T ). se tiene que v ∈ ker( T ) si.3. incompatible si no tiene soluciones. Luego.5. Nota II. De donde se sigue que los primeros r vectores de B2 forman un base de Im( T ) y que los últimos n − r vectores de B2 forman una base de ker( T ). .3. Sea T (x) = b un sistema lineal de ecuaciones compatible. B = {v1 . MANUALES UEX 53 .5. Es claro que un sistema homogéneo es siempre compatible.2.3) se pueden entender como un sistema lineal de ecuaciones. Demostración. Sabemos que el núcleo de T son los vectores x ∈ V tales que T (x) = 0V . . sus coordenadas respecto de B son solución del sistema de ecuaciones lineales homogéneo Ax = 0. . V ) y b ∈ V .1. abreviadamente lo denotaremos por T (x) = b. Las ecuaciones de la aplicación lineal T respecto de las bases B y B (véase la expresión II. y sólo si. Definición II. respectivamente. y determinado si tiene una única solución. y que el conjunto de sus soluciones es ker( T ). . 5. Sean T ∈ Homk (V. . Un sistema se dice compatible si tienes soluciones. por lo tanto un sistema lineal de ecuaciones tiene solución si. Un vector v ∈ V se dice que es solución del sistema T (x) = b si T (v) = b. vn } una base de V y B = {v1 . Cada sistema lineal de ecuaciones T (x) = b tiene asociado un sistema homogéneo T (x) = 0V .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y por consiguiente. Sistema de ecuaciones lineales (I) A lo largo de esta sección V y V serán dos k-espacios vectoriales de dimensiones finitas n > 0 y m > 0. La demostración es básicamente una comprobación y se deja como ejercicio al lector. b ∈ Im( T ). y sólo si. . b) donde T ∈ Hom(V. entonces el conjunto de todas las soluciones del sistema es v0 + ker( T ) = {v0 + v | v ∈ ker( T )}. Proposición II. V ) y A = ( aij ) ∈ Mm×n (k) la matriz asociada a T respecto de las bases B y B . Si v0 ∈ V es una solución particular de T (x) = b. vm } una base de V .

. y sólo si. . . Sean T ∈ Homk (V. Este último hecho constituye la demostración del teorema de RouchéFröbenius que enunciaremos y probaremos a continuación. por el Teorema del rango. . y sólo si. T (vn )} si.. Demostración. Para ver la segunda parte de la proposición basta tener en cuenta lo anterior y que T es inyectiva si. T (x) = b es compatible si. .. si.5. b ∈ Im( T ) y T es inyectiva. y es compatible determinado si y sólo si las matrices A y ( A|b) tienen rango igual a dim V. rg( A) = rg( A|b). . . . V ) y b ∈ V un sistema de ecuaciones lineales. y sólo si. bm ) son las coordenadas de b respecto de B . . . b ∈ Im( T ) y ker( T ) = {0V }. . Con la notación anterior. y sólo si. Si A = ( aij ) ∈ Mm×n (k) es la matriz asociada a T respecto de las bases B y B y (b1 . . por el ejercicio 4. . a2n b2    ( A|b) =  . . . MANUALES UEX 54 .4. las coordenadas de b respecto de B son combinación lineal de las coordenadas de { T (v1 ). . y sólo si. Definición II. . T (vn )} respecto de B si. las matrices A y ( A|b) tienen el mismo rango. es decir. . am1 am2 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Obsérvese que de la proposición anterior se deduce que un sistema lineal de ecuaciones T (x) = b es compatible determinado si. el sistema lineal de ecuaciones T (x) = b es compatible si. . . se llama matriz ampliada asociada al sistema T (x) = b a la matriz ( A|b) ∈ Mm×(n+1) (k) definida de la siguiente forma:   a11 a12 . b ∈ Im( T ) si.   . el rango es máximo. .. . y sólo si. b es combinación lineal de { T (v1 ). . es decir. . ker( T ) = {0V }. para lo cual es necesario definir un par de concepto previos. amn bm Teorema de Rouché-Fröbenius. . a1n b1  a21 a22 . si. y sólo si. rg( A) = n. y sólo si. . y sólo si.

Si Q ∈ Mn (k) y P ∈ Mn (k) son invertibles. por el orden dado. a la fila tercera se le suma la primera y después la segunda. 2. con λ ∈ k \ {0}. 2. Til 1 = Tli = ( Til )t . Ejercicio 6. Si A y B ∈ Mn (k). Calcular el rango de la matriz  2 2 2 1 1  −1 −1 −3 0 2   1 2 1 1 1   3 1 2 −2 −1 4 −2 −2 −6 0 4 −1 3 −1 8    . para cualquier matriz B ∈ Mn× p (k). para cualquier matriz B ∈ Mm×n (k). la fila primera se multiplica por 2. 2. A una matriz A ∈ M2×3 se le aplican. 3. Determinar las matrices P y Q tales que la matriz obtenida después de realizar estas transformaciones sea A = QAP−1 . rg( A + B) ≤ rg( A) + rg( B). entonces rg( AB) ≥ rg( A) + rg( B) − n. rg( AB) ≤ m´n(rg( A). las siguientes transformaciones elementales: 1. 3 y 2 ¿se obtiene el mismo resultado? ¿Y si se aplican en el orden 3. ( Mi (λ))t = Mi (λ) y Mi (λ)−1 = Mi (1/λ).   MANUALES UEX 55 . Probar que − 1.] Ejercicio 2. Sea A ∈ Mm×n (k). Probar que si la fila (o columna) i-ésima de la matriz A es combinación lineal del resto y A es la submatriz de A que se obtiene eliminando la fila (o columna) i-ésima de A. (Sil (λ))t = Sli (λ) y Sil (λ)−1 = Sil (−λ). 3. entonces rg( A) = rg( A ). ı 4. 2 y 1? Ejercicio 4. entonces C = A B es la matriz obtenida al hacer en C la misma operación elemental por filas. con λ ∈ k. Si en lugar de aplicar las transformaciones elementales en el orden dado se aplican en el orden 1. Probar que si A = ( ail ) ∈ Mm× p (k) es la matriz obtenida al hacer una operación elemental por filas en A. Ejercicio 5. B ∈ M p×n (k) y C = A B ∈ Mm×n (k). 3. Sean A ∈ Mm× p (k). entonces rg( Q−1 A) = rg( AP) = rg( A). 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios del tema II Ejercicio 1. rg( B)). Sea A ∈ Mm×n (k). a la fila primera se suma la segunda. [Úsese la definición del producto de matrices. Ejercicio 3.

1). 2. y + z) 1. 3)} de R2 y B = {(1. ¿podemos concluir que rg( AB) = rg( A)? ¿y que rg( BA) = rg( A)? Si C tiene rango pleno por filas. Ejercicio 10. (1. x + y). x + z. 1) respecto de las bases B = {(1. Se dice que una matriz A ∈ Mm×n (k) tiene rango pleno por filas si rg( A) = m y diremos que tiene rango pleno por columnas si rg( A) = n. entonces la forma reducida de A puede obtenerse haciendo sólo transformaciones elementales en A por filas (respectivamente por columnas). f (2. ¿cuáles de las siguientes afirmaciones son necesariamente ciertas? 1. Si el producto de dos matrices A · B tiene determinante no nulo. Probar que si una matriz A tiene rango pleno por columnas (respectivamente por filas). Si una matriz B tiene rango pleno por columnas. 2)} de R3 . A tiene rango pleno por filas. Calcular el rango r de A y determinar matrices P y Q tales que Q−1 AP = 3. y + z. Sea T : R2 −→ R3 la aplicación lineal definida como T ( x. Obtener la matriz asociada a la aplicación lineal T : R2 −→ R3 determinada por la igualdades f (1. 2). 4. Escribir una base de Im( T ). Ejercicio 7. 1. Calcular la matriz A de T respecto de las bases usuales de R3 y R4 . 3. 4. y. Hallar la matriz asociada a T en las bases usuales. 10. B tiene rango pleno por columnas. Sean A ∈ Mn× p (k) y B ∈ M p×n . y) = ( x + y. 1. ¿podemos concluir que rg( AC ) = rg( A)?¿y que rg(CA) = rg( A)? Ejercicio 9. z) = ( x + z. 2) = (1. (0. 0. Ejercicio 8. x + y. 2. 56 . Ejercicio 11. Ir 0 0 0 . B tiene rango pleno por filas. Consideremos la aplicación lineal T : R3 → R4 que respecto de las bases usuales de R3 y R4 viene dada por MANUALES UEX T ( x. (1. Escribir una base de ker( T ). Ejercicio 12. 0). 1. 2. 1).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Definición. Calcular bases de ker( T ) e Im( T ). 0. A tiene rango pleno por columnas. 3) = (2.

0. (1. (0. 1). Ejercicio 16. las bases B = {(1. 1). Ejercicio 15. 1)} son (1. 2. (0. y − z). 1. calcular la matriz asociada a T respecto de: 1. 0)} de R2 . Ejercicio 14. 0)} sabiendo que sus coordenadas respecto de la base B2 = {(1. B =  1 3 1 . (1. 4. Ejercicio 17. Sean T y S ∈ EndR (R3 ) tales que sus matrices asociadas respecto de B son A y B. 1). 3). Usando las matrices de cambio de bases. Probar que existen bases B y B de V y V . 1). Sean B1 = {e1 . z) = (2x + y. 2. Sea T : V −→ V una aplicación lineal entre k-espacios vectoriales de dimensión finita n. calcular las coordenadas del vector u = 2u1 + 5u2 respecto de la base B3 . En R3 consideramos una base B fija. donde     1 1 2 0 2 1 A =  2 1 1 . 1. v1 = e1 y v2 = e1 + 4e2 . e2 }. las bases usuales de R3 y R2 . 1)} de R3 y B = {(2. donde Ir es la matriz identidad de orden r ≤ n.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 13. Dada la aplicación lineal T : R3 −→ R2 definida por f ( x. v2 } tres bases de R2 tales que u1 = e1 . (0. 2. tales que la matriz asociada a T respecto de B y B es Ir 0 0 0 . u2 = 2e1 + e2 . 0). 0). ¿Qué significado tiene r? MANUALES UEX 57 . 1. respectivamente. (1. 1. 1. (3. 1. 2). Calcular las coordenadas de un vector de R3 respecto de la base B1 = {(1. B2 = {u1 . y. 1 2 1 1 1 0 Calcular las matrices asociadas a las aplicaciones S ◦ T y T ◦ S respecto de B . u2 } y B3 = {v1 .

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 58 .

La matriz del endomorfismo identidad de V respecto de B es In . se comienza definiendo el polinomio característico de una matriz. que nos da una condición necesaria (aunque no suficiente) para que dos matrices sean semejantes. El k -espacio vectorial Endk (V ) es de dimensión finita y su dimensión es n2 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA III Matrices cuadradas y endomorfismos E n este tema vamos a estudiar los endomorfismos de un espacio vectorial desde el punto de vista de las matrices que los representan. Ejercicio. 3. es decir. De este modo nos centramos en 59 MANUALES UEX 59 . 2. B = {v1 . dado que un endomorfismo no es más que un caso particular de aplicación lineal. y se plantea el problema de determinar de forma efectiva si dos matrices son semejantes. y sólo si. Se demuestra que dos matrices cuadradas son semejantes si. . Sean V un k -espacio vectorial de dimensión finita. siempre tendremos los resultados análogos a los del tema anterior adaptados a los endomorfismos. En este caso. 4. podemos preguntarnos si dos matrices cuadradas A y B ∈ Mn (k) distintas representan un mismo endomorfismo aunque respecto de diferentes bases. En cualquier caso. ya que require un planteamiento teórico avanzado. el problema es mucho más complicado. Probar que: 1. la fórmula del cambio de base determina una relación de equivalencia sobre las matrices cuadradas que llamaremos semejanza. A continuación. . . Existe un isomorfismo φ : Endk (V ) −→ Mn (k). A diferencia de lo que ocurría en el caso de la equivalencia de matrices. es decir. vn } y T ∈ Endk (V ). Por ejemplo. La matriz asociada a T respecto de B es una matriz MB ( T ) cuadrada de orden n con coeficientes en k. Buscando la analogía con el tema anterior. representan a un mismo endomorfismo. . no depende de las bases elegidas. se muestra que el polinomio característico es un invariante asociado al endomorfismo. En la segunda sección del tema. la matriz identidad de orden n.

dando a continuación otras definiciones equivalentes que nos permiten definir qué se entiende por autovector asociado a un autovalor de un endomorfismo. En cualquier caso. diremos que un endomorfismo es diagonalizable si existe una base respecto de la cual su matriz es diagonal.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 60 los endomorfismos como objeto geométrico asociado a las matrices cuadradas. La relación con lo anterior es clara si tenemos en cuenta que el subespacio vectorial generado por los autovectores asociados a un autovalor de un endomorfismo es invariante por el endomorfismo. Así. En resumen. ¿qué ocurre cuándo nos encontramos con una matriz no diagonalizable? Responderemos parcialmente a esta pregunta en la última sección. Una condición necesaria y suficiente para que un endomorfismo sea diagonalizable nos la proporciona el llamado criterio de diagonalización por el polinomio característico. usando el concepto de multiplicidad. definimos los autovalores de un endomorfismo como las raíces de su polinomio característico. entonces es diagonalizable. se dan otras definiciones equivalentes de endomorfismo diagonalizable. esta cota superior la proporciona lo que se conoce como multiplicidad del autovalor. De donde se obtiene un primer criterio de diagonalización. Si interpretamos los resultados obtenidos hasta el momento en términos de matrices. La clave de este otro criterio de diagonalización está en la acotación de las dimensiones de los subespacios propios asociados a los autovalores del endomorfismo. y una condición suficiente para que un endomorfismo sea diagonalizable. De este modo. y se demuestra que efectivamente son equivalentes. se obtiene un importante criterio de diagonalización. podemos afirmar que el problema de la semejanza está resuelto para las matrices diagonalizables. En la sección cuarta. estudiamos con cierto detalle los subespacios invariantes por un endomorfismo. Pero. un matriz será diagonalizable si es semejante a una matriz diagonal. tienen los mismos autovalores con idénticas multiplicidades. Concretamente. A continuación. así. por lo tanto. lo primero que hacemos es definir qué entendemos por endomorfismo y matriz diagonalizable. La sección tercera está dedicada a la diagonalización. si un endomorfismo tiene tantos autovalores distintos como la dimensión del espacio vectorial. dos matrices diagonalizables son semejantes si. como es natural. En efecto. los invariantes geométricos asociados a la semejanza de matrices diagonalizables son sus autovalores y las multiplicidades de éstos. y . La principal ventaja que presenta este criterio de diagonalización es que para probar que un endomorfismo no es diagonalizable basta encontrar un subespacio propio cuya dimensión sea distinta de la multiplicidad del autovalor correspondiente. profundizamos en la teoría de subespacios invariantes por un endomorfismo con un segundo objetivo: justificar el interés práctico de MANUALES UEX . y sólo si.

p1 ≥ p2 ≥ . en este caso. en este caso n. Más concretamente. en este caso λ. . Para terminar el tema. en nuestro caso. a partir de este momento. Para ello se comienza dando las definiciones de bloque y matriz de Jordan. A continuación se introducen los subespacios propios generalizados asociados a un autovalor. y demostramos que la partición de la multiplicidad determina la forma canónica de Jordan del endomorfismo. y que para cada autovalor existe una cadena creciente de subespacios propios generalizados que estabiliza en lo que denominamos subespacio propio máximo del autovalor. El teorema anterior permite fijar nuestra atención en cada uno de los subespacios propios máximos de forma individual mediante la restricción del endomorfismo a cada uno de ellos. . nos centraremos en el caso de los endomorfismos con un único autovalor de multiplicidad igual a la dimensión del espacio vectorial. abordamos el problema del cálculo de la forma canónica de Jordan de una endomorfismo (o una matriz cuadrada) cuando el polinomio característico tiene todas sus raíces en el cuerpo base. A continuación. concluimos que la forma canónica de Jordan queda determinada por los autovalores. Veamos que los criterios de diagonalización estudiados en la tercera sección no son más que el caso particular del teorema anterior en el caso diagonalizable. El primer resultado importante de esta sección es el teorema que afirma que (a) La dimensión del subespacio propio máximo de autovalor coincide con su multiplicidad. p1 − p2 bloques de orden s bloques de orden s − 1 bloques de orden 1 Nótese que estos números dependen exclusivamente del endomorfismo y no de la base elegida. De este modo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA la descomposición de un espacio vectorial en subespacios invariantes por un endomorfismo a la hora de estudiar el endomorfismo en cuestión (y en particular las matrices asociadas al mismo). ≥ ps > 0. por lo que podemos afirmar que la forma canónica de Jordan MANUALES UEX 61 . y las particiones de multiplicidades. para simplificar la notación. y entre otras cuestiones. se prueba que estos subespacios propios generalizados son invariantes por el endomorfismo. . el espacio vectorial descompone en suma directa de los subespacios propios máximos asociados a los autovalores. la forma canónica de Jordan consiste en ps p s −1 − p s . definimos qué se entiende por partición de la multiplicidad. (b) Si todos los autovalores de un endomorfismo están en el cuerpo base. de forma canónica de Jordan. sus multiplicidades. . Luego.

tienen los mismos autovalores con idénticas multiplicidades y particiones de multiplicidades.1. resaltamos aquí la necesidad de realizar un ejemplo para facilitar la compresión del cálculo de la forma canónica de Jordan.1. . Matrices semejantes Nota III. Obsérvese que. según la fórmula del cambio de base. respectivamente. verifica las propiedades reflexiva. . La fórmula (III. Sean A y B ∈ Mn (k). Para la última sección hemos seguido principalmente el capítulo 5 de [SV95]. existe una matriz invertible P ∈ Mn (k) tal que B = P−1 AP.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS es única salvo permutación de los bloques. B). Como A y B ∈ Mn (k) son semejantes. . . B ) es del cambio de la base B a B . En este tema. Se dice que A y B son semejantes si existe una matriz invertible P ∈ Mn (k) tal que B = P−1 AP. B)−1 · MB ( T ) · M (B . Sean V un k -espacio vectorial de dimensión finita. entonces la matriz asociada a T respecto B es (III. A y B ∈ Mn (k) son matrices asociadas a un mismo endomorfismo T ∈ Endk (V ) respecto de ciertas bases B y B de V. también podemos afirmar que el problema de la semejanza de matrices queda resuelto en este caso. entonces B es una base de V y P−1 es la matriz del cambio de base de B a B (pues P es invertible). aunque las secciones 1 y 2 del capítulo IV de [MS06] también han sido de utilidad. y sólo si. y sólo si. + anj vn .3.1.1. simétrica y transitiva (compruébese). Definición III. 1. MANUALES UEX 62 Demostración.1. . para cada j = 1. Sean A = ( aij ). . sus multiplicidades y las particiones de multiplicidades. En resumen. MB ( T ) es la matriz asociada a T respecto B y M(B . De modo que si B es la familia de vectores cuyas coordenadas respecto de B son las columnas de P.1) MB ( T ) = M(B . . B = {v1 .1. la matriz asociada T respecto de B es precisamente A. hemos utilizado el capítulo 6 de [BCR07] y el capítulo 10 de [Her85] para las primeras secciones. . La semejanza de matrices es una relación de equivalencia. por construcción. Proposición III. es decir. . Si MB ( T ) es la matriz asociada a T respecto B . n. . Dos matrices A y B ∈ Mn (k) son semejantes si. Lo importante de la forma canónica de Jordan es que se puede construir automáticamente a partir de los autovalores. B y B dos bases de V y T ∈ Endk (V ).2. Aunque todas las situaciones anteriores se han ido ilustrando con ejemplos. vn } una base de V y T el endomorfismo de V definido por T (v j ) = a1j v1 + . si tenemos en cuenta que dos matrices con todos sus autovalores en el cuerpo base son semejantes si.1) justifica en parte la siguiente definición. .

. .. Sea A = ( aij ) ∈ Mn (k). y sólo si. y se denota por ℵ A ( x ). ℵ A ( x ) = | x In − A| = − a12 x − a22 . − a1n − a2n . . MANUALES UEX 63 . . Autovalores y autovectores A lo largo de esta sección V denotará un espacio vectorial sobre un cuerpo k (por ejemplo. dada A determinaremos un representante especial de su clase de equivalencia que llamaremos forma canónica de Jordan de A.1. por la proposición anterior. El objetivo de este tema consistirá en dar condiciones necesarias y suficientes para que dos matrices A y B sean semejantes. . se sigue que B es la matriz asociada a T respecto de B . en cuyo caso.. . donde In es la matriz identidad de orden n y k( x ) el cuerpo de las fracciones racionales en una indeterminada con coeficientes en k. si A y B son matrices semejantes. entonces | A| = | B| y tr( A) = tr( B). Se llama polinomio característico de la matriz A .2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Usando ahora que B = P−1 AP. lo que pone de manifiesto su naturaleza geométrica. Polinomio característico. Luego. dos matrices cuadradas son semejantes si..1. calcularemos la matriz P tal que B = P−1 AP. podemos afirmar que la traza y el determinante son invariantes por cambios de base. . k = R ó C) de dimensión finita n > 0.. por la fórmula del cambio de base para la matriz de asociada a un endomorfismo. x − ann . . La otra implicación es una consecuencia directa de la fórmula del cambio de base. según el resultado anterior. − an2 . Por consiguiente.4. Nota III. Obsérvese que el determinante y la traza se conservan por semejanza. 2. es decir. Es decir. x − a11 − a21 . al determinante de la matriz x In − A ∈ Mn (k( x )). el ejercicio 3 pone de manifiesto que determinar de forma efectiva si dos matrices son semejantes es más difícil1 que determinar si son equivalentes (donde bastaba calcular la forma reducida por filas). Definición III. .. representan a un mismo endomorfismo. No obstante. − an1 1Para determinar si dos matrices A y B ∈ M (k) son semejantes hay que determinar si el n sistema de ecuaciones XA − BX = 0 tiene alguna solución invertible. Además.

Sean T ∈ Endk (V ) y B y B dos bases de V.2. ℵ B ( x ) = | x In − B| = | x P−1 P − P−1 AP| = | P−1 xIn P − P−1 AP| = | P−1 ( xIn − A) P| = | P−1 | | xIn − A)| | P| = | P−1 | | P| | xIn − A| = | xIn − A| = ℵ A ( x ). 2Se dice que un polinomio es unitario (o mónico) si el coeficiente del término de mayor 64 grado es uno.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Obsérvese que el grado del polinomio característico coincide con el orden de la matriz y es unitario2 (ejercicio 4). Sea V = R2 . Si consideramos la matriz A= 0 0 1 0 . ℵ A ( x ) = ℵ B ( x ). Sin embargo.2 sin más que tener en cuenta la definición de matrices semejantes (véase la definición III. 1)t = (0. pues. 0)t .3. Proposición III. Por lo tanto. Si A y B ∈ Mn (k) son las matrices asociadas a T respecto de B y B . El polinomio característico del endomorfismo nulo es x2 .2).4. Si A y B son semejantes. Sean A y B ∈ Mn (k). . entonces el polinomio característico de A es igual al polinomio característico de B. Corolario III. es del todo imposible que A sea la matriz del endomorfismo nulo respecto de ninguna base de R2 . Demostración. Sabemos que la matriz asociada al endomorfismo nulo de R2 respecto de cualquier base de R2 es la matriz nula de orden 2. Es una consecuencia inmediata de la proposición III. respectivamente. por ejemplo A(0. MANUALES UEX obtenemos que el polinomio característico de A también es x2 . Demostración.2 asegura que los polinomios característicos de las distintas matrices asociadas a un mismo endomorfismo son iguales. Ejemplo III.2.2. Si P ∈ Mn (k) es la matriz del cambio de base de B a B . entonces tienen el mismo polinomio característico.2. Esto dota de sentido a la siguiente definición. B = P−1 A P. La proposición III.2. El recíproco del resultado anterior no es cierto en general como se deduce del siguiente ejemplo. es decir.2. entonces. por la fórmula del cambio de base.

Se dice que λ ∈ k es un autovalor o valor propio de T si ℵ T (λ) = 0. entonces la matriz asociada a T respecto de la base usual de R2 es A= 1 0 0 1 . . Nótese que. La equivalencia (b) ⇔ (c) es inmediata. (c) Existe v ∈ V no nulo tal que T (v) = λv.8.7. (a) ⇔ (b) Sea A ∈ Mn (k) la matriz asociada a T respecto de alguna base B de V.2. es decir. y por lo tanto el único autovalor de T es λ = 1. Ejemplos III. Sea T ∈ Endk (V ). luego el polinomio característico de T es ℵ T ( x ) = | xI2 − A| = x−1 0 0 x−1 = ( x − 1)2 . v2 ) = (v1 . λ IdV − T no es inyectivo.1 de la página 86 de [Nav96]). por el corolario II. Las afirmaciones siguientes son equivalentes (a) λ es un autovalor de T. λ ∈ k es una raíz de |λIn − A| = ℵ T ( x ). podemos afirmar que el número de autovalores de un endomorfismo de V es menor o igual que n. Sea V = R2 y T ∈ EndR (V ). por ejemplo. al polinomio característico de cualquiera de las matrices asociadas a T.3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Definición III. i) Si T (v1 . (b) El endomorfismo λIdV − T de V no es inyectivo.5. Luego. v2 ). para todo (v1 . Demostración. si y sólo si. Autovalores y autovectores. y sólo si. el polinomio característico tiene. y sólo si. Proposición III. Sean T ∈ Endk (V ) y λ ∈ k.2. entonces. Definición III. y se denota por ℵ T ( x ). |λIn − A| = 0.2. tenemos que λ ∈ k es un autovalor de T si. es decir.6. v2 ) ∈ R2 . a lo sumo n raíces en k. Se llama polinomio característico del endomorfismo T . MANUALES UEX 65 .7. Entonces. como el grado del polinomio característico de un endomorfismo T de V es n = dim(V ) (ejercicio 4). el teorema 2. si es una raíz del polinomio característico de T. ker(λ IdV − T ) = { 0 }. como la matriz asociada a λ IdV − T respecto de B es λIn − A. según el Teorema Fundamental del Álgebra (véase. si. Sea T ∈ Endk (V ).2.

El subespacio ker(λ IdV − T ) se denomina subespacio propio de T asociado a λ . entonces T tendría dos autovalores distintos λ1 = i y λ2 = −i. entonces la matriz asociada a T respecto de la base usual de R2 es A= −1 0 0 1 . v2 ) ∈ R2 . MANUALES UEX y por lo tanto T no tiene autovalores. v2 ). v2 ) = (−v2 . luego el polinomio característico de T es ℵ T ( x ) = | xI2 − A| = x+1 0 0 x−1 = ( x + 1)( x − 1). v2 ) = (−v1 . iv) Si T (v1 . para todo (v1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS ii) Si T (v1 . v1 ). 66 . y por lo tanto el único autovalor de T es λ = 1. Los vectores no nulos de ker(λ IdV − T ) se llaman autovectores o vectores propios de T asociados a λ. v2 ) = (v1 − v2 . Sean T ∈ Endk (V ) y λ ∈ k un autovalor de T. luego el polinomio característico de T es ℵ T ( x ) = | xI2 − A| = x 1 −1 x = x2 + 1. v2 ) ∈ R2 . para todo (v1 . v2 ) ∈ R2 . iii) Si T (v1 . luego el polinomio característico de T es ℵ T ( x ) = | xI2 − A| = x−1 0 −1 x−1 = ( x − 1)2 . para todo (v1 . entonces la matriz asociada a T respecto de la base usual de R2 es A= 1 0 −1 1 . Definición III.9. y por lo tanto los únicos autovalores de T son λ = ±1. entonces la matriz asociada a T respecto de la base usual de R2 es A= 0 1 −1 0 .2. Obsérvese que si en vez de ser V = R2 fuese V = C2 (como espacio vectorial sobre C). v2 ).

. 3. (a) Llamaremos espectro de A al conjunto de todos los autovalores reales o complejos de la matriz A y lo representaremos por sp( A). Sea A ∈ Mn (C). una matriz A ∈ Mn (R) tiene n autovalores complejos posiblemente repetidos.3. es decir. .2. . . v → Av de kn . . MANUALES UEX 67 Nota III. Diagonalización Definición III. n son los autovalores (no necesariamente distintos) de T. (b) El número real no negativo ( A) = m´ x {|λ| : λ ∈ sp( A)} a es el radio espectral de A. que abusando la notación también denotaremos por A (nótese que se trata del endomorfismo de kn cuya matriz respecto de la base usual de kn es A) tiene perfecto sentido hablar de los autovalores y los autovectores A. . Obsérvese que si T es un endomorfismo diagonalizable de V y D ∈ Mn (k) es una matriz diagonal. 0    D= .10. igual al radio del círculo más pequeño centrado en el origen que contiene a todos los autovalores de la matriz.1. el radio espectral de una matriz es un número real. por el corolario III.   . . . Definición III. 0  0 λ2 . entonces tienen los mismos autovalores. Como se observa. λn asociada a T.3.   λ1 0 . . se tiene que si dos matrices son semejantes. Sean V un k -espacio vectorial de dimensión finita y T ∈ Endk (V ). . por ejemplo.3. . Se dice que T es diagonalizable si existe una base B de V tal que la matriz asociada a T respecto de B es diagonal. . i = 1.2. Teniendo en cuenta que una matriz A ∈ Mn (k) define el endomorfismo kn −→ kn . entonces λi . .  . el teorema 2. . Obsérvese también que. donde |λ| es el módulo de λ. 0 0 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Espectro de una matriz.1 de la página 86 de [Nav96])... por el Teorema Fundamental del Álgebra (véase.. .2. . . En particular.

n. . Finalmente. . entonces ker(λ IdV − T ) y ker( T − µ IdV ) están en suma directa. . Es más. si λ1 . . entonces T (v) = λv = µv. . Nótese que del resultado anterior se deduce que si v1 y v2 ∈ V son autovectores asociados a distintos autovalores de un mismo endomorfismo de V. + ker( T − λr IdV ). para ciertos µ1 . T (vi ) = µvi . vn } una base de V formada por autovectores de T.3. . Por tanto. entonces es semejante a una matriz diagonal tal que las entradas de la diagonal son los autovalores de A. . Por consiguiente. entonces existe una base B = {v1 . . V = ker( T − λ1 IdV ) + . . . . . i = 1. . . Luego. λr ∈ k los autovalores distintos de un endomorfismo T de V. Sean λ1 . Las siguientes afirmaciones son equivalentes (a) T es diagonalizable. . . vn } de V tal que la matriz asociada a T respecto de B es diagonal. son semejantes a la misma matriz diagonal. . . Luego. . Si v ∈ ker( T − λ IdV ) ∩ ker( T − µIdV ). j ∈ {1. . V = v1 . Lema III.) y v ∈ (ker( T − λ1 IdV ) + ker( T − λ2 IdV )) ∩ ker( T − λ3 IdV ) es no nulo. y sólo si.3. n}. Teorema III. De este modo. vn ⊆ ker( T − λ1 IdV ) + . + ker( T − λr IdV ) ⊆ V. (a) ⇒ (b) Si T es diagonalizable. existen unos únicos v1 ∈ ker( T − λ1 IdV ) y v2 ∈ ker( T − λ2 IdV ) no nulos tales que v = v1 + v2 . De donde se sigue que v = 0. veamos que la suma es directa. . que r es mayor o igual que tres. (c) V = ker( T − λ1 IdV ) ⊕ . . r } tal que vi ∈ ker(λ j IdV − T ). pues. . y por lo tanto los vectores de B son autovectores de T. . v2 } es un conjunto linealmente independiente. . dos matrices diagonalizables son semejantes si. . MANUALES UEX 68 . . A continuación daremos condiciones necesarias y suficientes para que un endomorfismo (o una matriz) sea diagonalizable. (b) ⇒ (c) Sea B = {v1 . . λ2 y λ3 son autovalores distintos de T (sin pérdida de generalidad podemos suponer λ3 = 0. si A es diagonalizable.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Se dice que una matriz A ∈ Mn (k) es diagonalizable si es semejante a una matriz diagonal. . Luego. . y por lo tanto que v = λ1 /λ3 v1 + λ2 /λ3 v2 . dos subespacios propios asociados a distintos autovalores están en suma directa. el resultado es cierto para r ≤ 2. Para cada i ∈ {1. .4. µ1 . . (b) Existe una base de V formada por autovectores de T. . . . Si λ y µ ∈ k son dos autovalores distintos de un endomorfismo T de V. µn son autovalores (posiblemente repetidos) de T. . Por el lema III. De hecho. Supongamos. por ser λ = µ.3. . . existe un autovalor λ j . . entonces {v1 . . Demostración. Demostración. ⊕ ker( T − λr IdV ).3. µn ∈ k no necesariamente distintos entre sí.3. . De donde se sigue que λ3 v = T (v) = λ1 v1 + λ2 v2 . .

entonces T es diagonalizable. . Corolario III. y sólo si. ⊕ ker(λr IdV − T )) r = i =1 ∑ dim(ker(λi IdV − T )) = n.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA luego.3. Demostración. por el teorema III. lo que no es posible por hipótesis.3. se deduce el siguiente criterio de diagonalización.3. si λ1 . Sea T ∈ Endk (V ). Un endomorfismo T ∈ Endk (V ) es diagonalizable si. Demostración. de donde se sigue que ker(λ1 IdV − T ) ⊕ .5. tenemos que la suma de las dimensiones de los subespacios invariantes asociados a cada autovalor de T es igual a n = dim(V ).3. λr los distintos autovalores de T. 0 −5 2 MANUALES UEX 69 Nótese que el recíproco del teorema anterior no es cierto en general. . concluimos que T es diagonalizable. . por el teorema III.4. Luego. . ker( T − λr IdV ) obtenemos una base de V respecto de la cual la matriz asociada a T es diagonal. no sólo hemos probado que existe una base formada por autovectores sino que toda base respecto de la cual T es diagonal está formada por autovectores.3.4. . . Realmente. tómese por ejemplo T igual a la identidad de V. en la demostración de la implicación (a) ⇒ (b). Sea V = R3 y T el endomorfismo de R3 cuya matriz asociada respecto de la base usual de R3 es   −3 2 −2 A =  0 −2 −1  . Si T posee n = dim(V ) autovalores distintos en k. Corolario III. Es una consecuencia inmediata del corolario III. . λ1 = λ2 = λ3 . ⊕ ker(λn IdV − T ) = V. . (c) ⇒ (a) Tomando una base de cada uno de los subespacio propios ker( T − λ1 IdV ). . .5.3.6.7.4. Recíprocamente. Del teorema III. Ejemplo III.3. entonces n ≥ dim(ker(λ1 IdV − T ) ⊕ . . . Repitiendo un razonamiento análogo tantas veces como sea necesario se concluye el resultado buscado. que es diagonalizable y tiene todos sus autovalores iguales. . Si T es diagonalizable. la suma de las dimensiones de los subespacios propios asociados a cada autovalor de T es igual a n = dim(V ).

MANUALES UEX 70 Sabemos que los vectores de ker(λ2 IdV − T ) son las soluciones del sistema lineal homogéneo (λIdV − T )x = 0. z = −5t con t ∈ R. y por tanto dim(ker(λ1 IdV − T )) = dim(V ) − dim(Im(λ1 IdV − T )) = 3 − 2 = 1. por lo tanto los autovalores de T son λ1 = 3 y λ2 = −3. y por tanto dim(ker(λ2 IdV − T )) = dim(V ) − dim(Im(λ2 IdV − T )) = 3 − 1 = 2. la matriz asociada a λ1 IdV − T respecto de la base usual de R3 es   6 −2 2 3 In − A =  0 5 1 . z = s con t y s ∈ R. t. −5) respecto de la base usual de R3 . Para el autovalor λ2 = −3 la matriz asociada a T respecto de la base usual de R3 es   0 −2 2 (−3) In − A =  0 −1 1 . 0 0 5 1 z Resolviendo este sistema obtenemos que x = 2t. dim(Im(λ1 IdV − T )) = r (3 In − A) = 2. s) para algunos t y s ∈ R. los vectores de ker(λ1 IdV − T ) son los que tienen coordenadas respecto de la base usual de R3 de la forma (2t. y = s. obtenemos que una base de ker(λ1 IdV − T ) la forma. Luego. −5t) para algún t ∈ R. Calculemos el subespacio invariante asociado a cada autovalor. 1. por ejemplo. 0 5 −5 z 0 Resolviendo este sistema obtenemos que x = t. el vector de coordenadas (2. . z) respecto de la base usual de R3 que satisfacen      0 −2 2 x 0  0 −1 1  y  =  0 . los vectores de ker(λ1 IdV − T ) son los que tienen coordenadas respecto de la base usual de R3 de la forma (t. es decir. 0 5 1 Luego. Así. z) respecto de la base usual de R3 que satisfacen      6 −2 2 x 0  0 5 1  y  =  0 . los vectores de coordenadas ( x. es decir. y = t. s. 0 5 −5 Luego dim(Im(λ2 IdV − T )) = r (3In − A) = 1. los vectores de coordenadas ( x. y.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS El polinomio característico de T es ℵ T ( x ) = ( x + 3)2 ( x − 3). Sabemos que los vectores de ker(λ1 IdV − T ) son las soluciones del sistema lineal homogéneo (λ1 IdV − T )x = 0. Luego. Para el autovalor λ1 = 3. y.

1)}. 0). los vectores de coordenadas (1. (1. (0.8. La multiplicidad de un autovalor nos permite distinguir “el número de veces que se repite un mismo autovalor”. el autovalor 3 correspondía al factor ( x − 3) del polinomio característico y el autovalor −3 al factor ( x + 3)2 del polinomio característico. 1. Finalmente. Llamaremos multiplicidad de un autovalor λ de T a la mayor potencia de ( x − λ) que divide al polinomio característico de T. A la vista de la definición anterior. Es claro que. concluimos que T es diagonalizable y que una base de V respecto de la cual la matriz asociada a T es diagonal la forman los vectores de coordenadas (2. MANUALES UEX 71 . 1. 1) respecto de la base usual de R3 . por ejemplo. equivalentemente. 0) y (0. La clave de este otro criterio de diagonalización está en la acotación de las dimensiones de los subespacios propios asociados a los autovalores del endomorfismo (esta cota superior la proporciona lo que se conoce como multiplicidad del autovalor). 1. que en cierto sentido podríamos decir que el autovalor −3 “aparece dos veces” si consideramos ( x + 3)2 = ( x + 3)( x + 3). −5 0 1 por la fórmula del cambio de base se tiene que   3 0 0 P−1 AP = D =  0 −3 0 . por tratarse de coordenadas respecto de la base usual. 0.3. Definición III. como la suma de las dimensiones de los subespacios invariantes asociados a los autovalores es 1 + 2 = 3. esta será la principal aportación del criterio de diagonalización por el polinomio característico que veremos en breve. Observamos que si P ∈ M3 (R) es la matriz cuyas columnas son las coordenadas respecto de la base usual de los vectores de la base B . 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Así. obtenemos que una base de ker(λ1 IdV − T ) la forman. −5). Si observamos el ejemplo anterior. es decir. Es decir. que en la descomposición en potencias de factores irreducibles de ℵ T ( x ) aparece ( x − λ)mλ como factor. y coincide con la dimensión de V. 0) y (0. (1. 0. 1. −5). decir que un autovalor λ de T tiene multiplicidad mλ significa que ( x − λ)mλ divide a ℵ T ( x ) y que ( x − λ)mλ +1 no lo divide. 0 0 −3 El proceso anterior se puede acortar considerablemente en caso de que el endomorfismo no resulte ser diagonalizable. En este caso. se tiene que una base de V = R3 respecto de la cual la matriz de T es diagonal es B = {(2. 1.   2 1 0 P =  1 0 1 . 1) respecto de la base usual de R3 . Sea T ∈ Endk (V ).

v2 ) ∈ R2 . λr ∈ k son los distintos autovalores de T y sus multiplicidades son m1 . ( x − λ)r divide a al polinomio característico de T. entonces la matriz asociada a T respecto de B es A= λIr 0 A1 A2 . . lo que obviamente implica que dim(ker(λ IdV − T )) = 1. existen casos donde no se cumple la igualdad. De donde se sigue que la multiplicidad de λ es mayor o igual que r = dim( L). .10. Si λ ∈ k es autovalor de T de multiplicidad mλ . Luego. r. 0) . luego T tiene un sólo autovalor λ = 1 de multiplicidad mλ = 2. .3. Sean T ∈ Endk (V ). Lema III. . . Si λ ∈ k es un autovalor de T. es decir.9. Sean L = ker(λ IdV − T ) el subespacio invariante asociado a un autovalor λ de T y B L una base de L. respectivamente. . se cumple que dim(ker(λ IdV − T )) = 1 ≤ 2 = mλ . . Veamos que la acotación superior de la dimensión del subespacio invariante asociado a un autovalor λ por su multiplicidad puede ser estricta. es decir. para todo (v1 . (b) m1 + . .3. v2 ) = (v1 − v2 . El subespacio propio ker(λIdV − T ) asociado a λ es (1. mr . donde Ir es la matriz identidad de orden r = dim( L). De hecho siempre es mayor o igual que la dimensión del subespacio propio asociado a λ. entonces T es diagonalizable si. Si ampliamos la base B L a una base B de V. i = 1. . + mr = n. Demostración. Criterio de diagonalización por el polinomio característico. pero no se da la igualdad. De modo que ℵ T ( x ) = | xIn − A| = λ( x − λ) Ir 0 − A1 xIn−r − A2 = ( x − λ ) r ℵ A2 ( x ). (a) dim(ker(λi IdV − T )) = mi . . 72 . . . . entonces solamente podemos asegurar la igualdad a priori cuando mλ = 1 ya que en este caso tenemos que MANUALES UEX 1 ≤ dim(ker(λ IdV − T )) ≤ mλ = 1. Ejemplo III. entonces la dimensión del subespacio propio ker(λIdV − T ) asociado a λ es menor o igual que la multiplicidad de λ. Sean V = R2 y T ∈ EndR (V ) tal que T (v1 . A1 ∈ Mr×(n−r) (k) y A2 ∈ Mn−r (k). como asegura el siguiente lema. Sea T ∈ Endk (V ). y sólo si. Anteriormente vimos que ℵ T ( x ) = ( x − 1)2 . v2 ). .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS al ser λ una raíz de ℵ T ( x ). Sea T ∈ Endk (V ). Si λ1 . su multiplicidad siempre es mayor o igual que 1.

. .4. y. De modo que podemos afirmar que dos matrices diagonalizables son semejantes si. por el lema III. .3. . dim(ker(λi IdV − T )) ≤ mi .1. Si T es diagonalizable.3.3. r. Luego T no es diagonalizable. . . Por lo tanto. .3. .3. . . . como dim(ker (λ1 IdV − T ) ⊕ . Recíprocamente. .3. . . . . vimos que dim(ker(λIdV − T )) = 1 = 2 = mλ . es un endomorfismo de L. es decir. por el teorema III. y sólo si. la restricción de T a L. r. se tiene que si P ∈ Mn (k) es la matriz cuyas columnas forman una base de kn formada por autovectores de A (que existe por el teorema III.3. Pero.3. tenemos que V = ker(λ1 IdV − T ) ⊕ . . . y sólo si. Obsérvese que el teorema anterior dice que un endomorfismo T de V es diagonalizable si. para cada i = 1. ⊕ ker(λr IdV − T ).9) mi = dim(ker(λi IdV − T )).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. para cada i = 1. . del teorema III.13.11.4). + mr ≤ n. en tal caso.4. entonces P−1 AP es diagonal. ⊕ ker(λr IdV − T )) = i =1 ∑ dim(ker(λi IdV − T )) r = m1 + . . Diremos que un subespacio L de V es invariante por T cuando T ( L) ⊆ L.3. se sigue que T es diagonalizable. Subespacios invariantes Definición III. Nota III.12. ¿qué ocurre cuándo nos encontramos con una matriz no diagonalizable? Responderemos parcialmente a esta pregunta en la última sección. + mr = n. La principal ventaja que presenta el criterio de diagonalización por el polinomio característico es que para probar que un endomorfismo no es diagonalizable basta encontrar un subespacio propio cuya dimensión sea distinta de la multiplicidad del autovalor correspondiente. Si interpretamos esta teoría en términos de matrices cuadradas. observamos que hemos determinado cuándo una matriz A ∈ Mn (k) es diagonalizable. Ejemplo III. tienen los mismos autovalores con idénticas multiplicidades. Además. . + dim(ker(λr IdV − T )) = m1 + . Dado T ∈ Endk (V ). dim(ker(λ1 IdV − T )) + . + dim(ker(λr IdV − T )) ≤ m1 + .10.4. Nota III.9. ℵ T ( x ) tiene todas sus raíces en k y la multiplicidad de cada autovalor coincide con la dimensión del subespacio propio correspondiente. De ambos hechos se deduce que n = dim(ker(λ1 IdV − T )) + . + mr = n = dim(V ). 4. En el ejemplo III. que se suele denotar por T| L . . como consecuencia (usando de nuevo el lema III. MANUALES UEX 73 .

r veces donde IdV = 1. Así. Por consiguiente T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) ∈ L1 + L2 .2. Por estar v en la imagen de p( T ). Para demostrar que T (ker( p( T ))) está contenido en ker( p( T )). . A continuación veremos que. . Demostración. p( T )( T (v)) = 0. Usaremos esta igualdad en la demostración del siguiente resultado. . además de los casos triviales. según la nota III. se tiene que existe v tal que MANUALES UEX 74 . + am T m . entonces existen v1 ∈ L1 y v2 ∈ L2 tales que v = v1 + v2 . Sea T ∈ Endk (V ). + a1 x + a0 ∈ k[ x ] denotaremos por p( T ) al siguiente endomorfismo de V a0 IdV + a1 T + . . Lema III. ya que p( T )( T (v)) = p( T )(q( T )(v)) = q( T )( p( T )(v)) = q( T )(0) = T (0) = 0. (b) Im( p( T )) es invariante por T.3. Sean T ∈ Endk (V ). Queremos probar que T (v ) ∈ Im( p( T )). m. para todo v ∈ ker( p( T )). Para todo p( x ) ∈ k[ x ]. pero antes introduciremos la siguiente notación: dado un endomorfismo T de V y un polinomio p( x ) = am x m + .4.3. Si v ∈ L1 + L2 . basta probar que T (v) ∈ ker( p( T )).4. Demostración. T (v1 ) ∈ L1 y T (v2 ) ∈ L2 . se cumple que: (a) ker( p( T )) es invariante por T. tomando q( x ) = x ∈ k[ x ] y teniendo en cuenta que. para todo v ∈ ker( p( T )). (a) Sea p( x ) ∈ k[ x ].4. Proposición III.4. Además.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Nótese que los subespacios trivial y total de V son invariantes para cualquier endomorfismo T ∈ Endk (V ). Lo cual es inmediato. como queríamos probar. se sigue que p( T ) ◦ q( T ) = Φ T ( p( x )) · Φ T (q( x )) = Φ T ( p( x )q( x )) = Φ T (q( x ) p( x )) = Φ T (q( x )) · Φ T ( p( x )) = q( T ) ◦ p( T ). como k[ x ] es un anillo conmutativo. T0 es la identidad de V y Tr = T ◦ · · · ◦ T. Si L1 y L2 son dos dos subespacios de V invariantes por T. pues L1 y L2 son invariantes por T. existen muchos otros subespacios invariantes por T. . . (b) Sean p( x ) ∈ k[ x ] y v ∈ Im( p( T )). . .4. entonces se verifica que L1 + L2 es invariante por T. p( T ) y q( T ) conmutan entre sí. para cada r = Nota III. El lector con cierto conocimientos de algebra conmutativa básica puede observar que p( T ) no es más que la imagen de p( x ) por el morfismo de anillos Φ T : k[ x ] −→ Endk (V ). es decir.

y) = ( x. es decir (III. Proposición III. y) = ( x. habría bastado observar que ker(λ IdV − T ) es ker( p( T )) para p( x ) = λ − x ∈ k[ x ] y entonces usar la proposición III. En primer lugar. mcd(q1 ( x ). De hecho. k[ x ] con a = 1. como q1 ( x ) y q2 ( x ) son primos entre sí. q2 ( x )) = 1. El subespacio vectorial ker(λ IdV − T ) de V es invariante por T . son subespacios de R2 invariantes por T. luego ker( p( T )) = 0 e Im( p( T )) = V. −y) Si p( x ) = 1 − x. Sea T el endomorfismo identidad de V. Si p( x ) = a − x ∈ (λ IdV − T )( T (v)) = (λIdV − T )( T (v) − λv + λv) = −(λ IdV − T )((λ IdV − T )(v)) + λ(λ IdV − T )(v) = −(λ IdV − T )(0) + 0 = 0. 1) .4. Ejemplo III. 0) e Im( p( T )) = (0.8. En realidad. se sigue que T (v ) = T ( p( T )(v)) = q( T )( p( T )(v)) = p( T )(q( T )(v)) = p( T )( T (v)) ∈ Im( p( T )). Sea T el endomorfismo de V = R2 tal que T ( x. 2y). no es difícil comprobar que son los únicos subespacios propios de R2 invariantes por T distintos del trivial. entonces p( T ) = aIdV − T = aIdV − IdV = ( a − 1)IdV que la homotecia de razón ( a − 1) = 0 y por consiguiente automorfismo de V.4.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA v = p( T )(v).4.4. 3Dos polinomios “son primos entre sí” si no tienen factores comunes. tenemos que I = h1 ( T ) ◦ q1 ( T ) + h2 ( T ) ◦ q2 ( T ). Terminemos esta sección viendo una serie de interesantes resultados sobre subespacios invariantes que serán de suma utilidad posteriormente. según la Identidad de Bezout (véase la página 66 de [Nav96]) .4. y) − ( x.4 para concluir. .5.2) v = (h1 ( T ) ◦ q1 ( T ))(v) + (h2 ( T ) ◦ q2 ( T ))(v). es decir. Sean V un k -espacio vectorial.6. entonces Ejemplo III. entonces.7.4. T ∈ Endk (V ) y p( x ) ∈ k[ x ] un polinomio distinto de cero tal que ker( p( T )) es no nulo. Luego. −y) = (0. Ejemplo III. Luego ker( p( T )) = (1. si v ∈ ker(λ IdV − T ). tomando q( x ) := x ∈ k[ x ] y teniendo en cuenta que p( T ) y q( T ) conmutan entre sí. existen h1 ( x ) y h2 ( x ) ∈ k[ x ] tales que 1 = h1 ( x )q1 ( x ) + h2 ( x )q2 ( x ). en efecto. y) = (IdV − T )( x. MANUALES UEX 75 ker( p( T )) = ker(q1 ( T )) ⊕ ker(q2 ( T )). Si p( x ) = q1 ( x )q2 ( x ) tal que q1 ( x ) y q2 ( x ) son unitarios y primos entre sí 3 entonces Demostración. entonces p( T )( x.

2). L es un subespacio invariante por T. la matriz de T| L . (b) Existe una base B de V tal que la matriz de T respecto de ella es4 A1 ⊕ . Por consiguiente. . ⊕ Ar . De ambas afirmaciones. entonces p( T )(v) = (q1 ( T ) ◦ q2 ( T ))(v) = (q1 ( T ) ◦ q2 ( T ))(v1 + v2 ) = (q1 ( T ) ◦ q2 ( T ))(v1 ) + (q1 ( T ) ◦ q2 ( T ))(v2 ) = (q2 ( T ) ◦ q1 ( T ))(v1 ) + (q1 ( T ) ◦ q2 ( T ))(v2 ) = q2 ( T )(q1 ( T )(v1 )) + q1 ( T )(q2 ( T )(v2 )) = q2 ( T )(0) + q1 ( T )(0) = 0. Si v ∈ ker( p( T )).4. Si r = 1. que r > 1 y que el resultado es cierto para un espacio vectorial que descompone en suma directa de r − 1 subespacios invariantes. Nos queda ver que ker(q1 ( T )) ∩ ker(q2 ( T )) = {0}.9. En particular. Recíprocamente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS para todo v ∈ V. . q2 ( T )((h1 ( T ) ◦ q1 ( T ))(v)) = h1 ( T )((q2 ( T ) ◦ q1 ( T ))v) = h1 ( T )(0) = 0. para todo v ∈ ker( p( T )). se prueba que h2 ( T ) ◦ q2 ( T ))(v) ∈ ker(q1 ( T ))). junto con la expresión (III. MANUALES UEX 76 . Las condiciones siguientes son equivalentes: (a) V es suma directa V = L1 ⊕ · · · ⊕ Lr de subespacios invariantes por T.4. . Nótese que. . con vi ∈ ker(qi ( T )). ⊕ Ar . Sea T ∈ Endk (V ). Supongamos. 4Véase la definición de suma directa de matrices en la sección 3 del tema I. con L = L2 ⊕ . pues. por el lema III. entonces p( T )(v) = q1 ( T ) ◦ q2 ( T )(v) = q2 ( T ) ◦ q1 ( T )(v) = 0. Análogamente. se deduce que ker( p( T )) ⊆ ker(q1 ( T )) + ker(q2 ( T )). luego h1 ( T ) ◦ q1 ( T ))(v) ∈ ker(q2 ( T ))). ⊕ Lr . .4. y por consiguiente el único vector de ker(q1 ( T )) ∩ ker(q2 ( T )) es el cero. entonces sigue que v = (h1 ( T ) ◦ q1 ( T ))(v) + (h2 ( T ) ◦ q2 ( T ))(v) = 0 + 0 = 0. para todo v ∈ ker( p( T )). si v = v1 + v2 ∈ ker(q1 ( T )) + ker(q2 ( T )). 2. donde las Ai son matrices cuadradas. Hemos probado que ker( p( T )) ⊆ ker(q1 ( T )) + ker(q2 ( T )). Sea v ∈ ker(q1 ( T )) ∩ ker(q2 ( T )). . Demostración. respecto de B = ∪i≥2 Bi es A = A2 ⊕ . Proposición III. para todo v ∈ ker( p( T )).2. evidentemente no hay nada que demostrar. Supongamos que se verifica la condición primera y procedamos por inducción sobre r. i = 1.

por la forma de A es claro que T ( Li ) ⊆ Li . . . obtenemos que V = ker( p( T )) = ker(q1 ( T )m1 ) ⊕ . . Definición III. respectivamente. usando la proposiciones III. por la proposición III. i = 1. la diagonal por encima de ésta está formada por 1 y las restantes entradas son cero. . .4.8 y III. i = 1. 5. MANUALES UEX 77 .4. es decir.9. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Por consiguiente. y naturalmente V = L1 ⊕ · · · ⊕ Ls . r. i = 1. Dividamos B en subconjuntos Bi . . para lo cual. por ser L1 y L subespacios invariantes por T y B1 y B bases de aquellos. Observando ahora las proposiciones anteriores conjuntamente podemos llegar a la siguiente conclusión: si somos capaces de hallar un polinomio p( x ) ∈ k[ x ] tal que p( T ) = 0 ∈ Endk (V ) y ∏r=1 qi ( x )mi es su descomposii ción en potencias de factores irreducibles en k[ x ]. r. una descomposición de V en subespacios invariantes. r. . . Recíprocamente. . Sea Li el subespacio vectorial generado por Bi . . supongamos que se verifica la condición segunda y que Ai ∈ Mni (k). . λr ∈ k de multiplicidades m1 . Por lo que el objetivo de hallar una base de V tal que la matriz de T sea “lo más sencilla posible” nos obliga a determinar en primer lugar qué entendemos por “lo más sencilla posible”. bij = 1 si i + 1 = j. .1. . queda ver que la matriz de T respecto de B1 ∪ B es A1 ⊕ A. es decir. . . . r. .8. es suficiente observar que T (v) es combinación de lineal de elementos de B1 si v ∈ B1 y T (v) es combinación lineal de elementos de B si v ∈ B . de forma consistente con la bloques de A. . . para algún λ ∈ k. respectivamente. . De tal modo que. Un bloque de Jordan de orden s es una matriz cuadrada con s filas y s columnas que tiene todos las entradas de la diagonal principal idénticos. esto es. . En la sección anterior vimos que no todos los endomorfismos de V son diagonalizables.  0 en otro caso.4. ⊕ ker(qr ( T )mr ).5. mr . que en general no se puede encontrar una base de V tal que la matriz de T sea diagonal. podemos reducir el estudio de la matriz de T al de las matrices de las restricción de T a cada uno de los subespacios invariantes ker(qi ( T )mi ). . . . B = (bij ) ∈ Ms (k) es un bloque de Jordan si   λ si i = j. Forma canónica de Jordan A lo largo de esta sección V será un espacio vectorial de dimensión finita n > 0 sobre un cuerpo k y T un endomorfismo de V cuyos autovalores distintos son λ1 . . i = 1.

. .. . .5. . J ∈ Mn (k) es de Jordan si    J=  B1 0 . a una matriz triangular superior.. Ejemplo III.. . . Br    . . .... . La base B se llama base de Jordan y la matriz de T respecto de B se llama forma canónica de Jordan de T . 0 0 . en particular. . 0 0 1 0 . . . r. Un bloque de Jordan de orden 1 es un escalar λ.2. . . que veremos que es única salvo permutación de los bloques de Jordan. si todos los autovalores de T están en k.  donde cada Bi .. 0 0 . . . .. 0 . existe una base B de V tal que la matriz asociada a T respecto de B es de Jordan. esto es.3.. es semejante a una matriz de Jordan. . .. . .. 0 0 . ..5. i = 1. 0 0 B2 . . demostraremos que toda matriz cuadrada con coeficientes en k tal que todos sus autovalores están en k.      ∈ M s (k)   1  0 tal que N s−1 = 0 y N s = 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Obsérvese que un bloque de Jordan de orden s no es otra cosa que la suma de una matriz diagonal Dλ ∈ Ms (k) y una matriz nilpotente     N=    0 0 . 0 0 0 0 . MANUALES UEX 78 En esta sección demostraremos que. . Dicho de otro modo. Un bloque de Jordan de orden 2 es de la forma λ 0 y uno de orden 3 es  λ  0 0 1 λ 0  0 1 .. λ 1 λ Definición III. es un bloque de Jordan. . .... . Una matriz de Jordan es una matriz diagonal por bloques de manera que cada bloque es de Jordan.

Definición III.5. . 0  0 µ2 . Nota III. . .j = ker((λi IdV − T ) j ). . En efecto. . entonces T (v) ∈ Lij . las inclusiones del apartado 1 de la nota III. Si Lis = Li s+1 . En efecto. para todo i = 1. .s ⊆ . . .6. Li. y sólo si.   . . . MANUALES UEX 79 = −(λi IdV − T ) j+1 (v) + λi (λi IdV − T ) j (v) . . 2. ⊆ Li. . Lema III. . . .1 = ker(λi IdV − T ).1 ⊆ Li. 0 0 . el subespacio propio asociado a λi . más aún veremos que se estabiliza definitivamente a partir del momento en que Lisi = Li si +1 para algún j ≥ 1. entonces (λi IdV − T ) j+1 (v) = (λi IdV − T ) ◦ (λi IdV − T ) j (v) = λi IdV − T (λi IdV − T ) j (v) = (λi IdV − T )(0) = 0. . Si T es diagonalizable entonces su forma canónica de Jordan es   µ1 0 .4.7.. .5. n son los autovalores de T repetidos tantas veces como indique su multiplicidad. .6 son igualdades a partir un cierto si ≥ 1. . . la cadena de subespacios Lij se estabiliza. Nótese que Li 0 = ker((λi IdV − T )0 ) = ker(IdV ) = {0}. 0    J= . . r } se tiene que 1. Li. . Obsérvese que para cada i ∈ {1. . .5. . que depende de i. A continuación vamos a introducir una serie de subespacios invariantes que necesitamos para construir la base de Jordan y veremos sus propiedades más relevantes. esto es. . . Es decir.5.5. Dicho de otro modo. i = 1. 3. . .. r } y j ≥ 0. . . si v ∈ Lij .. r. Lij es un subespacio invariante por T. los bloques de Jordan en su forma canónica tienen orden 1. para cada i = 1. para todo j ≥ s. llamaremos subespacios propios generalizados asociados al autovalor λi a Li. . .2 ⊆ . Para cada i ∈ {1. T es diagonalizable si. . . entonces Lij = Lis .5.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplo III. ya que (λi IdV − T ) j ( T (v)) = (λi IdV − T ) j ( T (v) − λi v + λi v) = 0+0 = 0 Como V es dimensión finita. . µn donde µi . r. . . si v ∈ ker((λi IdV − T ) j ).

Demostración. . 0 = (λi IdV − T )s+2 (v) = (λi IdV − T )s+1 (λi IdV − T )(v) . Entonces. entonces V descompone en suma directa de los subespacios propios máximos. 5Por ejemplo. . Una inclusión la hemos visto anteriormente. Se tiene que (α IdV − T )(v) = (λi IdV − T ) + (α − λi ) IdV (v) = (λi IdV − T )(v) + (α − λi )v. MANUALES UEX Demostración. si de donde se sigue que µ = λi . . k = R. . Para la otra. . Como T (v) = µv y (λi Id Li s − T )si (v) = 0. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. si 80 .9. . para todo s ≥ 0. la cadena de inclusiones del apartado 1 de la nota III.j−1 .8. Nótese que. El lector interesado en conocer más sobre el cierre algebraico puede consultar el Apéndice I de [Nav96].j−1 . para todo s ≥ 0. µ es un autovalor de T en el cierre algebraico5 k de k) y v ∈ Li si un autovector de T asociado a µ. Lema III. En particular. Sea v ∈ Li j \ Li. de donde se sigue que (λi IdV − T )s ((λi IdV − T )(v)) = 0 y tenemos que v ∈ ker(λi IdV − T )s+1 = Li s+1 . Basta probar el enunciado para s = 1.5. . El único autovalor de la restricción de T a Li si es λi . . Lema III. sea v ∈ Li s+2 . = (λi − µ) v. necesariamente es (α IdV − T )(v) ∈ Li j \ Li j−1 . A continuación demostremos que la dimensión del subespacio propio máximo de un autovalor coincide con su multiplicidad y que. . Basta demostrar que Li s+2 = Li s+1 . / / / para cada i = 1.6 queda de la forma Li1 ⊆ Li2 ⊆ . si }. El subespacio Li si se llama subespacio propio máximo del autovalor λi . entonces su cierre algebraico es k = C. (α IdV − T )s (v) = 0. Como (α − λi )v ∈ Li j \ Li j−1 y (λi IdV − T )(v) ∈ Li j−1 .5. . según el lema anterior. se tiene que i 0 = (λi Id Li s − T ) (v) = (λi Id Li s − T )si −1 (λi Id Li s − T )(v) si i i i = (λi − µ)(λi Id Li s − T ) i s i −1 (v) = . Para todo α ∈ k distinto de λi se cumple que (α IdV − T )s (v) ∈ Li j \ Li. ⊆ Li si = Li si +1 = . . . r. Sea µ ∈ k un autovalor de T (es decir.5. por lo que (λi IdV − T )(v) ∈ Li s+1 = Lis . . para algún j ∈ {1. . si todos los autovalores de T están en k.

.8. (b) Si todos los autovalores de T están en k. ⊕ Lr sr Demostración. r. . es decir. es claro que v vector (λi IdV − T )(v) tiene coordenadas  v1  . si. . . . . . por el lema III.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teorema III. Como Li si es un subespacio invariante por T (véase el apartado 3. de la nota III. ni = mi . Sea Bi una base de V que sea ampliación de una de base Li si . . .  . vni +1 . lo que supone una contradicción. . entonces i vi = 0.6). . . Para demostrar que la suma es directa tenemos que ver si vi ∈ Li si son tales que ∑r=1 vi = 0. Probémoslo por reducción al absurdo.5. además. . Se verifica que (a) dim( Li si ) = mi . luego todos los factores de ( x − λi ) en el polinomio característico de T están en | xIni − Ai | = ( x − λi )ni .5. y sólo si. entonces ∑r=1 mi = n = i dim(V ). vn ) tal que (λi In−ni − Mi )(vni +1 . la dimensión del subespacio propio máximo de cada autovalor coincide con su multiplicidad. 0 Mi Pongamos ni = dim( Li si ). Por consiguiente. De modo que ℵ T ( x ) = ( x − λi )ni | xIn−ni − Mi |. MANUALES UEX 81 . (a) Fijemos un índice i. de donde se sigue que V = L1 s1 ⊕ . 1 ≤ i ≤ r. . .5. Además. | xIni − Ai | = ( x − λi )ni . i = 1. los subespacios propios máximos están en suma directa. . (b) Si todos los autovalores de T están en k. 0. el            respecto de B . igual a xIni − Ai 0 ℵT (x) = − Ni xIn−ni − Mi = | xIni − Ai | | xIn−ni − Mi |.  . Supongamos. (λi IdV − T )(v) ∈ Li si . vn )t = 0. . pues. Luego. Supongamos que λi es uno de los autovalores de Mi y elijamos un vector no nulo v = (0. Con la notación anterior. ⊕ Lr sr . i = 1.  . . El polinomio característico de T es. . . de donde se sigue que (λi IdV − T )si +1 (v) = 0 y entonces v ∈ Li si+1 = Li si . Esto demuestra que λi no es un autovalor de Mi . la matriz de T respecto de Bi es del tipo Ai Ni . . 0 ∈ Li si . . r. . entonces V = L1 s1 ⊕ .10. . .  λi Ini − Ai − Ni  v v =  ni 0 λi In−ni − Mi  0   .

. + αq vq ∈ H1 . . Nota III. / / con dim( Ls ) = n. . . entonces α1 = . si k = C independiente del endormofismo T). ⊆ Hs una cadena estrictamente creciente de / / / subespacios vectoriales de V.10 de nuevo. Lema III. Obsérvese que el criterio de diagonalización por el polinomio característico es el caso particular del teorema anterior en el caso diagonalizable. Ls = V.1≤ j≤ti ∑ αij vij ∈ Hs−1 .5. Definición III. por el teorema III. Sean H1 ⊆ H2 subespacios vectoriales de V. 82 Como {vsj | 1 ≤ j ≤ ti } pertenecen a Hs y son independientes módulo Hs−1 . Entonces MANUALES UEX j =1 ∑ αsj vsj = − ts 1≤i <s. .11.5.3) L0 = {0} ⊆ L1 = ker(λ IdV − T ) ⊆ L2 / / = ker(λ IdV − T )2 ⊆ . αq ∈ k son tales que α1 v1 + . H = {vij | 1 ≤ j ≤ ti . Diremos que / v1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS por ejemplo.5.5. . podemos suponer que T tiene un sólo autovalor λ ∈ k de multiplicidad n = dim(V ). = αq = 0. .5. que pertenece a L1 j \ L1 j−1 por el lema III. = αs ts = 0. . Sin pérdida de generalidad. Vamos a construir la base canónica de Jordan para el subespacio propio máximo Ls = V de λ.5.13. de tal forma que tenemos la siguiente sucesión de subespacios invariantes por T (III. por el teorema III. . Demostración. . ⊆ Ls = ker(λ IdV − T )s . vt ∈ H2 son linealmente independientes módulo H1 si α1 . s los vectores {vij | 1 ≤ j ≤ ti } pertenecen a Hi y son independientes módulo Hi−1 . supondremos que T tiene todos sus autovalores en k (esto ocurre. por ejemplo. .5. . que v1 = 0. .9. Si H es un conjunto finito de vectores de V. . Denotaremos por Ls al subespacio propio máximo de λ. . Sean αij ∈ k tales que ∑ αij vij = 0. 0= i =2 ∏(λi IdV − T )si r j =1 ∑ vj r = i =2 ∏(λi IdV − T )si r ( v1 ). s1 }. A partir de ahora. tal que v1 ∈ L1 j \ L1 j−1 . es decir. y a lo largo de toda esta sección. . . . . . . .12. . Repitiendo el razonamiento agrupando los .10. Sea H0 ⊆ H1 ⊆ . 1 ≤ i ≤ s} tal que para todo i = 1. se tiene que αs1 = . . . Se tiene por tanto. lo que supone una contradicción pues 0 ∈ L1 j−1 . . Entonces existe un índice j ∈ {1. entonces H es un sistema de vectores linealmente independiente.

Demostración. . wq . . . . . = αq = 0. . . . . Sean n j = dim( L j ) y p j = n j − n j−1 . (a) {u1 . Si v1 . de donde se sigue que q + n j−1 ≤ n j y por lo tanto que q ≤ n j − n j−1 = p j . . α p j ∈ k tales que ∑l =1 αl vl ∈ L j−1 . Sean u j ∈ L j \ L j−1 y u j−l = −(λ IdV − T )(u j−l +1 ). . luego ∑l =1 αl vl ∈ L j−1 . . . Entonces. pj pj q MANUALES UEX 83 . .14. un j−1 } una base de L j tal que B j−1 = {u1 . v p j son linealmente independientes módulo L j−1 . de donde se sigue que α1 = . . . . . . . . si existen α1 . . s. Teniendo en cuenta que n = ∑s=1 p j (compruébese) y que n es la multij plicidad de λ. en efecto. .5.5. . ≥ ps > 0. . . Entonces. v p j son linealmente independientes se sigue que α1 = . (b) Se cumple que p1 ≥ p2 ≥ . los vectores / / w1 . . . . . un j−1 de L j son linealmente independientes. . entonces ∑l =1 αl vl = 0.5. . j − 1. . Lema III. s. l = 1. entonces. si w1 . . i = 1. . . Lema III. s. Demostración. se les llama partición de la multiplicidad del autovalor λ. pues podemos tomar una base de L j−1 y ampliarla a una de L j ). . q q Así (λi IdV − T ) ∑l =1 αl vl ∈ L j−2 . concluimos que p j−1 ≥ p j . Por un lado. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA vectores de Hs−2 . . wq ∈ L j son linealmente independientes módulo L j−1 . . . .13 aplicado a la cadena {0} ⊆ L j−1 ⊆ L j .14. v p j . = α p j = 0. y como v1 . . . . . un j−1 } sea una base L j−1 (B j siempre existe. .16. es claro que los vectores v1 . . . .15. para cada j = 1. entonces (λ IdV − T )(v1 ). . u1 . pues en otro caso B j no sería una base. . . vemos que todos los αij deben ser cero. vq ∈ L j son linealmente independientes módulo L j−1 . luego los de Hs−3 y así sucesivamente. . . usando el lema III.5.5. (a) Sea B j = {v1 . . . . . . . (a) El número máximo de vectores de L j que son linealmente independientes módulo L j−1 es p j . . . por el lema III. Por otra parte. . u1 . αq ∈ k tales que ∑l =1 αl (λl IdV − T )(vl ) ∈ L j−2 . . (b) Ahora. a los pi . . . Sean α1 . . . para cada i = 2. (λ IdV − T )(vq ) ∈ L j−1 son linealmente independientes módulo L j−2 . . u j } es un conjunto de vectores de L j linealmente independiente. . . . . Proposición III.

. = = + λu2 . 0 λ Demostración. Supongamos que no. .13. . .14 y III. (a) Los vectores {u1 ..  .5. . j es el mayor índice tal que p j > ps (véase la proposición III. v ps } de Ls que sean linealmente independientes módulo Ls−1 y a partir de ellos se construye. .  AL =  . . (b) De las relaciones (λ IdV − T )(u j ) = −u j−1 (λ IdV − T )(u j−1 ) = −u j−2 . u j } son linealmente independientes por los Lemas III.. . .5. Ampliando MANUALES UEX 84 . . Existe una base B de Ls tal que la matriz de T respecto de B es una matriz de Jordan. λ 1  0 0 . En primer lugar tomamos unos vectores {v1 .5. de donde se sigue que L es un subespacio invariante por T (luego. u j . y sea j < s el mayor índice tal que los vectores que están en L j \ L j−1 no alcanzan el máximo número de vectores linealmente independientes módulo L j−1 .17.  0 0 . u j } es una matriz de Jordan. . . . u j −2 + λu j−1 u j −1 + λu j . . . concretamente. . ya hemos terminado.. .5. .   .. . . . . .15). . usando el lema III. . . la base de Jordan correspondiente.5.. entonces L es un subespacio invariante por T y la matriz A L de la restricción de T a L respecto de {u1 . .5. u j } es una matriz de Jordan. . .   λ 1 . es decir. la restricción de T a L está bien definida) y que la matriz A L de la restricción de T a L respecto de {u1 . Teorema III... . .13.16.. . . .14 y III. (λ IdV − T )(u2 ) (λ IdV − T )(u1 ) se obtiene que T ( u1 ) T ( u2 ) T ( u j −1 ) T (u j ) = = − u1 0 = λu1 = u1 . por los lemas III. La simple unión conjuntista de los vectores obtenidos es un conjunto de vectores linealmente independientes de Ls . Con la notación anterior.5. Si el número de vectores es igual a dim( Ls ).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (b) Si L = u1 . Demostración. 0 0  0 λ 0 0     . .

u4 } una base V. la matriz del endomorfismo T respecto de la base B es   1 −1 1 −1  −1 0 1 −1  . Más concretamente. y las particiones de multiplicidades. en nuestro caso.5. podemos calcular una base de V tal que la matriz de T respecto de ella es de Jordan. sus multiplicidades y las particiones de multiplicidades. luego T tiene dos autovalores distintos en R. la forma canónica de Jordan consiste en ps p s −1 − p s .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA este conjunto de vectores hasta alcanzar el número máximo. La forma canónica de Jordan queda determinada por los autovalores. MANUALES UEX 85 En tal caso. . . . u2 . v p j − ps }. en este caso n. y así sucesivamente. . Definimos el endomorfismo T de V por T ( u1 ) T ( u2 ) T ( u3 ) T ( u4 ) = u1 = − u1 = u1 = − u1 + − u2 + u2 + − u2 + − u3 + 3 u3 + −10 u3 + 9 u3 + 4 u4 + −12 u4 + 11 u4 El polinomio característico de T es ℵ T ( x ) = | xIn − A| = ( x − 1)3 ( x + 1). y no de la base elegida.5. Ejemplo III. u3 . Por lo que podemos afirmar que la forma canónica de Jordan es única salvo permutación de los bloques. p1 ≥ p2 ≥ . . . . λ1 = 1 de multiplicidad m1 = 3 y λ2 = −1 de multiplicidad m2 = 1. El final de este proceso es una base B de Ls tal que la matriz de T respecto de B está formada por bloques de Jordan colocados diagonalmente (véase el lema III. Lo importante de la forma canónica de Jordan es que se puede construir automáticamente a partir de los autovalores. sus multiplicidades.5. . Como T tiene todos sus autovalores en R. en este caso λ.16).18. Sean V un espacio vectorial sobre R de dimensión 4 y B = {u1 . con el que repetimos lo anterior. Nota III. A=  −1 3 −10 9  0 4 −12 11 . ≥ ps > 0.19. en este caso. p1 − p2 bloques de orden s bloques de orden s − 1 bloques de orden 1 Nótese que estos números dependen exclusivamente de T. se obtiene un nuevo conjunto de vectores {v1 .

8 0 16 −12 entonces rg (λ1 IdV − T )2 = 2.2 . 0. T no es diagonalizable. 16 8 24 −16 MANUALES UEX 86 .1 ) = dim(ker(λ1 IdV − T )) = 4 − rg(λ1 IdV − T ) = 1 < 3 = m1 .1 . L1. 3. −2.   0 0 0 0  0 1 −1 1   (λ1 I4 − A)2 =   8 1 15 −11  .2 ) = dim ker (λ1 IdV − T )2 = 4 − rg (λ1 IdV − T )2 = 2 < 3 = m1 . por lo que n1.3 = ker (λ1 IdV − T )3 necesitamos obtener (λ1 I4 − A)3 . Para ello resolvemos el sistema de ecuaciones lineales (λ1 I4 − A)x = 0 y obtenemos que una base de L1.1 a una base de L1. 3. Para ello resolvemos el sistema lineal de ecuaciones (λ1 I4 − A)2 x = 0 y obtenemos que una base de L1.2 expresada en coordenadas respecto de B es {(0. según el criterio de diagonalización por el polinomio característico. 4).2 no es el subespacio propio máximo de λ1 . 11 −9  12 −10 entonces rg(λ1 IdV − T ) = 3. Calculemos.1 = dim( L1. −1. • Para el cálculo de L1. (3. • Para el cálculo de L1. Nótese que.   0 0 0 0  0 0 0 0   (λ1 I4 − A)3 =   16 8 24 −16  . los subespacios propios generalizados del autovalor λ1 : • En primer lugar calculamos una base de L1. por lo que n1.2 = dim( L1.1 expresada en coordenadas respecto de B es {(0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Tenemos que 0  1 λ1 I4 − A =   1 0  1 1 −3 −4  −1 1 −1 1  . Luego. −1. 4)}. pues.2 = ker (λ1 IdV − T )2 necesitamos obtener (λ1 I4 − A)2 . A continuación ampliamos la base de L1. 2)}.

10) y (0. por ejemplo. Por otra parte. en nuestro caso v12 y v11 son los vectores de coordenadas (−1. Luego. A continuación ampliamos la base de L1. −2. 0. el vector v13 de coordenadas (1.3 ) = dim ker (λ1 IdV − T )3 = 4 − rg (λ2 IdV − T )3 = 3 = 3 = m1 . Luego. por el teorema III. La partición de la multiplicidad del autovalor λ1 es p13 = n13 − n12 = 1. p12 = n12 − n11 = 1. 1) respecto de B . v13 } es ya una base de L13 . respectivamente. 1. por lo que n1. (3. p11 = n11 − 0 = 1. −1. Finalmente. y calculamos los vectores v12 = −(λ1 IdV − T )(v13 ) y v11 = −(λ1 IdV − T )(v12 ). concluimos que es la base de Jordan del bloque asociado al autovalor λ1 . Para ello resolvemos el sistema lineal de ecuaciones (λ1 I4 − A)3 x = 0 y obtenemos que una base de L1. tenemos que Tenemos que   −2 1 −1 1  1 −1 −1 1  . el subespacio propio máximo de λ1 es L1.2 a una base de L1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA entonces rg (λ1 IdV − T )2 = 1.17.3 = dim( L1. 0. elegimos p13 = 1 vectores de L13 que sean linealmente independientes módulo L12 . 0. 3. L21 es el subespacio propio máximo del autovalor λ2 . de tal forma que sólo hay 1 bloque de Jordan de orden 1 para el autovalor λ2 y una base de Jordan la forma MANUALES UEX 87 Para calcular la base canónica de Jordan de L13 . como {v11 . v12 . 0. el bloque de Jordan del autovalor λ1 consiste en p13 = 1 p12 − p13 = 0 p11 − p12 = 0 esto es  λ1  0 0 bloques de orden 3 bloques de orden 2 . 8. 0. por lo que n21 = dim( L21 ) = dim(ker(λ2 IdV − T )) = 4 − rg(λ2 IdV − T ) = 1 = m2 . −3.3 expresada en coordenadas respecto de B es {(0. 1)}. λ2 I4 − A =   1 −3 9 −9  . bloques de orden 1 1 λ1 0  0 1  λ1 0 −4 12 −12 entonces rg(λ2 IdV − T ) = 3.5. (1. respecto de B . −4). Luego. En este caso. 2). 4).3 .3 . −2. p21 = n21 − 0 = 1.

de donde se sigue que la base de Jordan de V es B = {v11 .21. 1). y no de la base elegida. Demostración. y sólo si. Es claro que si A y B tienen la misma forma canónica de Jordan. En resumen. Definición III. Finalmente. J=  0 0 1 0  0 0 0 −1 Además. y sólo si.10. tienen los mismos los autovalores con idénticas multiplicidades y particiones de multiplicidades. v12 . Sabemos que la forma canónica de Jordan de T está determinada por sus autovalores. Se llama descomposición espectral de A a A = PJP−1 . v → Av).5. el vector v21 cuyas coordenadas respecto de B son (0. que dependen exclusivamente de T. existen ciertas bases B y B de V tales que A = MB ( T ) y B = MB ( T ). v13 . por el teorema III.20. tienen la misma forma canónica de Jordan.1. Proposición III. por ejemplo.5.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS cualquier vector no nulo de L21 . v21 } y que la matriz de Jordan de T es   1 1 0 0  0 1 1 0  . sus multiplicidades y las particiones de sus multiplicidades. Dos matrices cuadradas A y B ∈ Mn (k) con todos sus autovalores en k son semejantes si. la del endomorfismo T. son semejantes. kn → kn . dos matrices cuadradas A y B ∈ Mn (k) con todos sus autovalores en k son semejantes si. si P es la matriz cuyas columnas vectores de B respecto de B . por la proposición III. para algún endomorfismo T de kn (por ejemplo. entonces.  MANUALES UEX 88 . Sean A ∈ Mn (k) y J = P−1 AP su forma canónica de Jordan.5. Entonces A y B tienen la misma forma canónica de Jordan. Recíprocamente.3. si A y B son semejantes. es decir. 1. tenemos que V = L13 ⊕ L21 . Terminamos con una condición necesaria y suficiente para que dos matrices cuadradas sean semejantes. son las coordenadas de los   .  0 −1 1 0  1 −2 0 0 P=  −3 8 0 1 −4 10 1 1 se cumple que P−1 AP = J. 0.

MANUALES UEX 89 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA En el siguiente tema veremos algunas aplicaciones concretas de la descomposición espectral de una matriz.

Aplicar lo anterior al endomorfismo del C-espacio vectorial 0 0 i 1 C2 cuya matriz asociada respecto cierta base es . . es decir. Ar matrices tales que Ai ∈ Mmi (R). + an−1 x n−1 + x n el polinomio característico de un endomorfismo T de un k -espacio vectorial V de dimensión finita n > 0. entonces los autovalores de A1 ⊕ . i = 1. . .1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema III Ejercicio 1. . Sea V un espacio vectorial de dimensión 2 y sea T un endomorfismo de V no nulo y nilpotente (se dice que un endomorfismo es nilpotente si existe un número natural p > 1 tal que T p = 0. entonces T y T tienen autovectores comunes. . i = 1. Sean A1 . MANUALES UEX 90 Ejercicio 7. . ¿Es cierto el recíproco? . r. Sea ℵ T ( x ) = a0 + a1 x + . λi. . si }. Dadas las matrices    1 −1 3 1 A= 0 2 1 . . Sea V un k -espacio vectorial de dimensión n y T ∈ Endk (V ) nilpotente. Concluir que los valores propios de un endomorfismo nilpotente son todos nulos. . . 1 −i Ejercicio 3. . Probar que si T y T conmutan. . . r. . Ejercicio 6. . obtener su matriz respecto de la base usual de R2 . . donde T p es T ◦ · · · ◦ T p veces). Sea V un k -espacio vectorial de dimensión finita n > 0 y T ∈ Endk (V ) tal que In + T 2 = 0. . x − y). Ejercicio 5. Ejercicio 9. Ejercicio 2. tiene grado n y es unitario (esto es. el coeficiente del término de grado más alto es 1). . Sean T y T dos endomorfismos de un C-espacio vectorial V de dimensión finita. . . Probar que el polinomio característico de una matriz A ∈ Mn (k) está en k[ x ]. Probar que el determinante de T es igual a (−1)n a0 . Probar que existe una base de V respecto de la cual la matriz asociada 0 1 a T es . . . j = 1. Probar que T no tiene autovalores reales. . y) = ( x + y. Probar que si los autovalores de Ai son λi. en el anillo de polinomios en una indeterminada con coeficientes en k. . ⊕ Ar son {λij | i = 1. Dado el endomorfismo T : R2 −→ R2 definido por T ( x. . . Obtener también las matrices de los endomorfismos T 2 − IdR2 y T 3 = T ◦ T ◦ T. Ejercicio 8. r. Probar que ℵ T ( x ) = x n . . . B =  0 0 0 0 2 2 2 0  3 0  2 y 1 C= 0 0  1 2 0  0 3 .si . 2 ¿representan todas al mismo endomorfismo? Ejercicio 4.

. . 0 ∈ {λ1 . . . (λr )−1 }. Un vector v es autovector de A asociado a λi si. Los autovalores de αA (siendo α = 0) son {αλ1 . si T es diagonalizable. . Estudiar (según los valores de a. tr( A) = λ1 + . Comprobar que si {λ1 . y sólo si v es autovector de A−1 asociado a ( λ i ) −1 . . 0 2 2 0 0 1 3 0 a . entonces 1. b y c ∈ k. . ( c )  0 −1 b  1 3 . b y c ∈ k). Ejercicio 12. . es decir. . 2. Un vector v es autovector de A asociado a λi si. . A es invertible si. 2  2 1 0 0  0 1 0 (b)   0 0 1 0 0 3   1 0  . . . y solo si. Sean V = k3 y T ∈ Endk (V ) tal que su matriz asociada respecto de alguna base de V es       a −1 1 1 a b 5 0 0 ( a)  0 (b)  0 2 c  . Sea V un k -espacio vectorial de dimensión finita n > 0 y T ∈ Endk (V ) tal que la suma de las entradas de cada una de las filas de su matriz asociada A ∈ Mn (k) respecto de alguna base de V es igual 1 (es decir. primero sobre k = R y luego sobre k = C. + λn . Sean V = R4 y la base usual de R4 es  −1 −2 3  0 1 1 ( a)   −2 −2 4 0 0 0 T ∈ Endk (V ) tal su matriz asociada respecto de  2 0  . Ejercicio 11. Probar que 1 es un autovalor de T. | A| = λ1 · · · λn . Probar que λ es un autovalor de T si y sólo si λ = 0 y λ−1 es autovalor de T −1 . T es un automorfismo de V. MANUALES UEX 91 Ejercicio 15. los autovalores de A−1 son {(λ1 )−1 . . . . Probar que si λ1 . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 10. αλr }. λn ∈ k son autovalores (no necesariamente distintos) de una matriz A ∈ Mn (k). Ejercicio 14. entonces 1. Ejercicio 13. y sólo si v es autovector de αA asociado a αλi . . λr } son los autovalores de una matriz A. Sean V un k -espacio vectorial de dimensión finita y T ∈ Endk (V ) biyectivo. . −1  5 Estudiar si T es diagonalizable. 2. A es una matriz estocástica). . λr } y en este caso. . con a. . .

Ejercicio 18. Sean V = R4 y T ∈ Endk (V ) tal que su matriz asociada respecto de alguna base de V es   1 −1 0 0  −4 1 0 0   . v2 . 0. −2v1 − 5v2 − 2v3 ) y T (v1 . si T es diagonalizable. Sean T y S dos endomorfismos de un k -espacio vectorial V de dimensión finita. una base de V respecto de cual la matriz de T sea diagonal. (c) Los endomorfismos T y S son simultáneamente diagonalizables (esto es. v3 ) = (−2v2 − 2v3 . 2v1 + 5v2 + 2v3 . Tienen un único autovalor real. entonces la dimensión de V es 1. Sean V = R3 y T y T ∈ Endk (V ) tales que T (v1 . (b) Si T y S conmutan. Hallar. Si k = R y V no tiene subespacios invariantes por T distintos del cero y el total. Tienen dos autovalores reales distintos. 2. Hallar una base de V respecto de cual la matriz de T sea diagonal. Sean V un espacio vectorial de dimensión finita sobre un cuerpo MANUALES UEX 92 . y recíprocamente. k y T un endomorfismo de V. cuando sea posible. Si k = C y V no tiene subespacios invariantes por T distintos del cero y el total. Ejercicio 17. Probar: (a) Si T es diagonalizable. Clasificar los endomorfismos de un espacio vectorial sobre R de dimensión 4 que: 1. v3 ) ∈ R3 . No tienen ningún autovalor real. 4. v3 ) = (v1 + v2 + v3 . si es posible. 2. Ejercicio 19. Sean V = R3 y T ∈ Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es cada una de las matrices del ejercicio 15 para las cuales T es diagonalizable. entonces la dimensión de V es menor o igual que dos. 2v2 + 2v3 ). Probar que 1. y calcular. v2 . para cada v = (v1 . Tienen al menos un autovalor real.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 16. Ejercicio 21. sendas bases de V respecto de las cuales las matrices de T y T sean diagonales. 3. entonces los subespacios invariantes asociados a los autovalores de T son los subespacios invariantes asociados a los autovalores de S. existe una base de V formada por autovectores de los dos endomorfismos) si y sólo si T y S son diagonalizables y conmutan. entonces para todo subespacio L de V que es invariante por T el endomorfismo T | L también es diagonalizable. Ejercicio 20.  1 0 −1 0  0 a 1 3 Estudiar. según el valor de a ∈ R. v2 .

Calcular la forma canónica y la base de Jordan de los siguientes endomorfismos cuyas matrices respecto de la base canónica del correspondiente C-espacio vectorial son: 3  −2 (a) 0   −2 0 −14 1  . −2 −4 −1 4  3 33 26 −8   3 17 9 −9  2 16 12 −5   . dim(ker(( f − 1)2 )) = 16. Tienen un único factor invariante. (b)  −13 0 3 0 0 5 −17 1    1 0 0 1  0 1 0  0    (d)   0 0 1 −1  . escribir la forma canónica de Jordan de f . dim(ker(( f − 1)4 )) = 22 y dim(ker(( f − 1)5 )) = 25. 15  3  2 (i)   −2 3 3  2 (j)   −2 3 42 34 −9 −29 −33 −5  . (e)  0 0 3 5   3 67 59 −9  2 −16 −20 −5   . Ejercicio 22. dim(ker(( f − 1)3 )) = 19. Tienen al menos tres autovalores reales. Sean V un espacio vectorial de dimensión 25 y f un endomorfismo de V. (g) (f)   −2 28 31 4  3 31 24 −8 3  2 (h)   −2 3  45 37 10 6 −2 1 32 25   −9 −5  .  −2 −12 −9 4  3 17 10 −8  31 23 7 3 −1 2 21 14   −9 −5  . Si ℵ T ( x ) = ( x − 1)25 dim(ker( f − 1)) = 11. 4  −8  12 12  . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 5. 4  −8   −1 2 −1 (c)  −2 3 −2  −2 2 −1  3 45 37 −9 2 12 8 −5  . 38 41 4  7 0 −8 MANUALES UEX 93 Ejercicio 23. 6.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 94 .

tratando el problema sobre los complejos habida cuenta de que An = PJ n P−1 tiene que tener coeficientes reales. J. luego. las matrices de Leontieff y de Leslie son no negativas. transformamos la ecuación en diferencias en un sistema de ecuaciones en diferencias. La segunda sección lleva por título matrices no negativas. Cabe destacar que A es una matriz de coeficientes reales. Las matrices no negativas e irreducibles tienen la particularidad de poseer un autovalor real positivo ρ de multiplicidad 1 con un autovector positivo asociado tal que |λ| ≤ ρ. ya que vamos a usar la forma canónica de Jordan como herramienta de resolución de problemas concretos.2. para todo autovalor (real o complejo) λ de A. para calcular el término general de la solución de una ecuación lineal homogénea en diferencias finitas con coeficientes constantes con condición inicial dada. Sin embargo. escribimos el sistema matricialmente y concluimos que el término general xn+ p de la solución de la ecuación en diferencias se obtiene a partir de la fórmula de la potencia n-ésima de la matriz del sistema. 95 E MANUALES UEX 95 . en principio podría parecer que necesitamos la forma canónica real de A. nosotros nos centraremos en las matrices no negativas irreducibles y posteriormente en las primitivas por sus buenas e interesantes propiedades espectrales. Esta fórmula se aplica. P. podemos prescindir de ella (al menos formalmente). Matrices no negativas ste tema bien se podría denominar “algunas aplicaciones de la forma canónica de Jordan” . ya que las matrices estocásticas.3. En primer lugar. tal y como queda reflejado en el teorema IV. y la matriz de paso. En realidad.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA IV Potencias de matrices. Así. Nótese que la matrices no negativas son fundamentales en Estadística y Probabilidad. tengan coeficientes complejos. por ejemplo. la primera sección está dedicada a la obtención de un expresión general para la potencia m-ésima de una matriz A de la que conocemos su forma canónica de Jordan J y una matriz de invertible P tal que P−1 AP = J. que no ha sido estudiada en el tema anterior. dedicamos la segunda parte de esta sección a la resolución de este tipo de ecuaciones. Una matriz no negativa es aquella cuyas entradas son números reales positivos o nulos. aún cuando la forma de Jordan.

basta decir que estos modelos están definidos por una ecuación lineal homogénea en diferencias finitas con coeficientes constantes. hemos usado los capítulos 9 y 10 de [FVV03] pero con la vista puesta en la sección quinta del capítulo 10 de [Her85]. Sean A ∈ Mn (k). Demostración. Potencias de matrices MANUALES UEX 96 En la primera parte de este tema vamos calcular una expresión general para la potencia m-ésima de una matriz A ∈ Mn (k). y por añadidura. Basta tener en cuenta que si J = P−1 AP. Terminamos esta sección mostrando un interesante ejemplo sobre un modelo poblacional basado en matrices irreducibles no negativas: el llamado modelo matricial de Leslie. el estudio de los autovalores y autovectores de una matriz. Para la elaboración de la primera parte de este tema. El autovalor ρ de una matriz no negativa e irreducible A se llama autovalor de Perron de A y el autovector positivo asociado a ρ cuyas entradas suman 1 se llama autovector de Perron. y se denomina Teorema de Perron-Fröbenius. Una matriz no negativa A tal que Am > 0 para algún m. y además cumplen que su autovalor de Perron es estrictamente mayor en módulo que cualquier otro de sus autovalores. La última sección del tema lleva por nombre “cadenas de Markov homogéneas y finitas” y sirve como introducción teórica para la práctica 7. Este ejemplo ilustra a la perfección el interés práctico de las matrices irreducibles no negativas. Las matrices primitivas son irreducibles. más concretamente para el cálculo de las funciones de autocorrelación simple de los modelos mixtos autorregresivos-media móvil. a partir de su forma canónica de Jordan. aunque también hemos utilizado parcialmente la sección 8 del capítulo 8 de [Sch05]. del capítulo 7 de [Sea82] y del capítulo 1 de [Sen81]. En los capítulos citados de [FVV03] se pueden encontrar multitud de ejemplos interesantes del uso práctico de las ecuaciones en diferencias estudiadas en este tema. Para las dos últimas secciones hemos seguido el capítulo 8 de [Mey00].IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Este es el resultado principal de esta parte del tema. Teorema IV. Las ecuaciones en diferencias estudiadas en este tema aparecen en la asignatura Series Temporales en el estudio de los modelos autorregresivos (véase el capítulo 15 de [dR87]).1. entonces A = PJP−1 . Prescindiendo de los nombres. Si J = P−1 AP es la forma canónica de Jordan de A. de donde se sigue que Am = ( PJP−1 )m = PJ m P−1 . 1. entonces Am = PJ m P−1 .1. . se dice que es primitiva.

0 0 0 0 ... . .. . .1) Bm =  0    . Si λ ∈ k es una entrada de la diagonal principal de B. . . . + ( Dλ ) m − s +1 N s −1 1 s−1 m m −1 m = λm Is + λ N +. . . . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA El teorema anterior reduce el cálculo de la potencia m-ésima de A al del cálculo de la potencia m-ésima de su forma canónica de Jordan. 0 0 .  .  . se tiene que B m = ( Dλ + N ) m m m ( Dλ ) m − 1 N + . .. . Por consiguiente. m 0 0 . r Demostración.. Proposición IV.   1  0 Como Dλ conmuta con cualquier matriz cuadra de orden s y N s−1 = 0 y N m = 0. . . ( s −2 ) λ m − s +2  1   m m  0 λ . . . .. . 0 0 . .      ∈ M s (k).+ λ m − s +1 N s −1 . Sea B ∈ Ms (k) un bloque Jordan de orden s. la expresión general de la Mn (k) es  m B1 0 ..2. . . . . . . 0 2  Am = P  .  MANUALES UEX 97 . Bt potencia m-ésima de A ∈    −1 P . . (IV. para obtener una expresión general de la potencia m-ésima de una matriz de Jordan basta determinar cuál es la potencia m-ésima de un bloque de Jordan. . . .  0 0 es la suma de la matriz diagonal Dλ ∈ Ms (k) 1 0 .. 1 s−1 = ( Dλ ) m + de donde se sigue la expresión buscada. que como sabemos es una matriz diagonal por bloques (de Jordan). Teniendo en cuenta que el producto de matrices diagonales por bloques se calcula efectuando los correspondientes productos de los bloques. . . . .. ( s −3 ) λ m − s +3  ..   . ( s −1 ) λ m − s +1 λ ( 2 )λ ( 1 )λ m  0 λm ( m ) λ m −1 . .. . . . m 0 0 0 .. Sabemos que B y la matriz nilpotente  0   0  N= .. λ entendiendo que (m) = 0 si m < r. .  . .. .1. . 0  0 Bm .1.. . .. m ≥ s.. entonces   m m m −1 m m −2 m .

pues tiene dos autovalores distintos λ1 = 2 y λ2 = 3/2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS donde P−1 AP es la forma canónica de Jordan de A y cada Bm es la potencia j m-ésima de un bloque Jordan. Por consiguiente.1). 98 = 1/2 − im +1 im + (−i)m − (−i)m+1 im+1 + (−i)m+1 −(im+2 + (−i)m+2 ) . La matriz A= 7/2 1/2 −6 0 es claramente diagonalizable. −i i Por consiguiente. una matriz de la forma (IV. esto es.1. La matriz A= 0 1 −1 0 ∈ M2 (R) MANUALES UEX ¯ tiene dos autovalores complejos λ = i y λ = −i. Am = PJ m P−1 = 1 2 1 −i 1 i im 0 0 (−i)m 1 1 i −i . Obsérvese que la expresión anterior para potencia m-ésima de A se puede obtener siempre (independientemente de que A tenga todos sus autovalores en k o no). la expresión general de la potencia m-ésima de A es Am = PJ m P−1 = 4 1 6 2 0 (3/2)m 1 −3 −1/2 2 . Ejemplo IV.1.4. Su forma canónica de Jordan es J= y una matriz de paso es P= 1 −1/2 2m 0 2 0 0 3/2 −3 2 . el resultado final Am pertenece claramente a M n (k). si k = R y alguno de los autovalores de A está en C).3. Su forma canónica compleja es i 0 J= 0 −i y una matriz de paso es 1 1 P= . Ejemplo IV.1. ya que si bien la matriz de Jordan de A puede tener sus entradas en una extensión del cuerpo k (por ejemplo.

2. . para todo n ∈ N. .. − a p x n = ϕ ( n ). . vamos a hallar una expresión explícita de xn en función de n tal que la sucesión { xn }n≥1 sea solución de la ecuación (IV..2.3) xn+ p − a1 xn+ p−1 − .. .. El caso no homogéneo puede consultarse en [FVV03] por ejemplo.1.2.2) x n + p − a 1 x n + p −1 − . se llama ecuación lineal en diferencias finitas con coeficientes constantes de orden p a una relación de recurrencia del tipo (IV.4)    A=   a1 1 0 . a p −1 0 0 .2) es homogénea.2) en el caso homogéneo. para todo n ≥ 1. con a p = 0.. 0 a2 0 1 . Consideremos la ecuación lineal en diferencias con coeficientes constantes homogénea de orden p (IV. . . Si ϕ(n) = 0. A continuación. 1 ap 0 0 . se tiene el siguiente sistema de ecuaciones lineales (en diferencias con coeficientes constantes)  xn+ p = a 1 x n + p −1 + . 0     .   .. . es una ecuación lineal en diferencias con coeficientes constantes homogénea. se dice que la ecuación lineal en diferencias con coeficientes constantes (IV.2. Ejemplo IV.5) veremos que una de sus soluciones es la sucesión de Fibonacci. aunque no lo parezca. La ecuación xn+2 = xn+1 + xn . . es una matriz real. .2. . . − a p xn = 0. . . Una solución para la ecuación (IV. . + a p −1 x n +1 + a p x n     x n + p −1 = x n + p −1 .2. para todo n ≥ 1 donde ϕ : N → R es una función. . . cuya matriz es  (IV. Mas adelante (en el ejemplo IV. Ecuaciones en diferencias finitas Definición IV. Dados a1 . a p ∈ R.2.. . .2. . . ..2. .   MANUALES UEX 99 Para cada n ≥ 1. 0 . ..MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA que. .2) es una sucesión { xn }n≥1 que la satisfaga. 2.2.   x n +1 = x n +1 . n ≥ 1.

3. entonces xn = Axn−1 = A2 xn−2 = . Teorema IV.2. xn+1 )t ∈ k p . nm−1 λn . para cada autovalor real λ de multiplicidad m de la matriz de la ecuación en diferencias y de ρn cos(nθ ). vamos a tratar de afinar un poco más la afirmación anterior. No obstante.. por inducción en p. .1. . An = PJ n P−1 . . . nm−1 ρn sen(nθ ). + a p xn . para cada autovalor complejo λ = ρ(cos(θ ) + i sen(θ )) de multiplicidad m de la matriz de la ecuación en diferencias. . esto es. nρn cos(nθ ). . . de donde se sigue que las entradas de la primera fila de A serán combinaciones lineales de las entradas de J n . = An x0 . si. nm−1 ρn cos(nθ ). − a p ℵ A−1 (y) (véase el apéndice 15A de [dR87]) . con a p = 0. De donde se sigue que el término general xn+ p de cualquier solución de la ecuación en diferencias (IV. . . . Se comprueba fácilmente. λ .1. . nλn . . siendo m su multiplicidad (pues los bloques de Jordan son a lo sumo de orden m). Sea A ∈ M p (R) la matriz de la ecuación en diferencias. . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS que llamaremos matriz asociada a la ecuación en diferencias1. al polinomio MANUALES UEX 100 característico de A. . . Demostración. . − a p−1 x − a p .1. 1Asimismo. . a p ∈ R. nρn sen(nθ ). El término general de la solución de la ecuación en diferencias xn+ p = a1 xn+ p−1 + . en virtud de la proposición IV. estas entradas son. Por consiguiente.2. denotamos xn = ( xn+ p . por el teorema IV. − a p y p . es una combinación lineal con coeficientes reales de λn . .3) es una combinación lineal de las entradas de la primera fila de An . Sabemos que el término general xn+ p de cualquier solución de la ecuación en diferencias es una combinación lineal con coeficientes en R de las entradas de la primera fila de An . 1 2 m−1 para cada autovalor λ de A. λ n − m +1 . .. se llama polinomio característico de la ecuación en diferencias. n n −1 n n −2 n λn .2. . xn+ p−1 . entonces.. . es tradición en la teoría de series temporales denominar polinomio característico de la ecuación en diferencias a p(y) = 1 − a1 y − . . si J = P−1 AP es la forma canónica de Jordan de A.. Dado que sabemos cómo calcular una expresión general para las potencias de cualquier matriz cuadrada. . . ρn sen(nθ ). para cada n ≥ 1. Sean a1 . que ℵ A ( x ) = x p − a1 x p−1 − . . . . De tal forma que. λ . para todo n ≥ 1.

¯ Finalmente. λn . . . nm−1 ρn cos(nθ ). Si la matriz A ∈ M p (R) de la ecuación en diferencias xn+ p − a1 xn+ p−1 − . . . Si A es diagonalizable y J = P−1 AP es la forma canónica de Jordan de A. siendo m su multiplicidad. El término general de la solución de una ecuación lineal en diferencias con coeficientes constantes de orden p depende de p constantes arbitrarias. . para cada autovalor complejo λ = ρ(cos(θ ) + i sen(θ )) de A.6). . si los autovalores de A son reales y distintos. . λr ∈ R son los autovalores distintos de A (en particular. . . m − 1. . se tiene que J es una matriz diagonal y las entradas de su diagonal principal son precisamente los autovalores de A repetidos tantas veces como indique su multiplicidad (véase la nota III. . nρn sen(nθ ). concluimos que las entradas de PJ n P−1 son combinaciones lineales de λn . − a p xn = 0. consecuen¯ temente. nm−1 λn . . . véase el corolario III. . s! para ciertos bs1 . entonces. . nρn cos(nθ ). para todo n ≥ 1 es diagonalizable y λ1 . son combinaciones con coeficientes reales de ρn cos(nθ ). . . cr ∈ R son constantes arbitrarias. entonces λ también es un autovalor (complejo) de A. . c2 . nλn . . Dado que λ = ρ(cos(θ ) + i sen(θ )) y. . se obtiene MANUALES UEX 101 . nm−1 ρn sen(nθ ). . donde c1 .4. siendo m su multiplicidad. Corolario IV. . de donde se sigue que las entradas de la primera fila de A serán combinaciones lineales n n de las entradas de J n . λr . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teniendo ahora en cuenta que.s ∈ R. . Sean a1 . . nλn . se sigue que las combinaciones lineales de ¯ ¯ ¯ λn . . .3. de λ1 . . n n−s λ−s n ( n − 1) · · · ( n − s + 1) λ n λ = s! s = λ−s s n + b1s ns−1 + . . Si en la solución general se dan valores particulares a las p constantes. habida cuenta que λn = ρn (cos(nθ ) + i sen(nθ )). Demostración. . . . . . para cada s = 1.1. para cada autovalor λ de A.3. . ρn sen(nθ ).2). bs−1. nm−1 λn . .2. . . con a p = 0. λ = ρ(cos(θ ) − i sen(θ )). . por el teorema IV. entonces el término general de la solución general de la ecuación en diferencias es n n n x n + p = c1 λ1 + c2 λ2 + . si λ es un autovalor complejo de A. . An = PJ n P−1 . .s n λn . . . ya que al ser A diagonalizable. + bs−1. . . . nm−1 λn . a p ∈ R. . . . + cr λr .1. . nλn . es decir.

al final del primer mes esa pareja todavía no es fértil.2. 34.2. cada mes nacen tantas parejas como parejas había dos meses antes. por el corolario IV. será pues MANUALES UEX (IV. . aparece en una variedad increíble de contextos y está relacionada con la sección áurea de los griegos (véase [FVV03] pp.6) Fn+2 = c1 √ 1+ 5 2 n + c2 √ 1+ 5 2 n . las p constantes se determinan a partir de p condiciones adicionales llamadas condiciones iniciales. 5. da origen a una nueva pareja: F3 = 1 + 1 = F2 + F1 .2.5) es x2 − x − 1 con lo que los autovalores son √ √ 1− 5 1+ 5 . c2 ∈ R. Ejemplo IV. se tendrá (IV. se tiene la sucesión 1. 3.6) se obtienen los valores √ √ 1 1+ 5 1 1− 5 c1 = √ .2. 13. En general. Y en general. 2.5. se comienza con una pareja recién nacida: F1 = 1.5) Fn+2 = Fn+1 + Fn . 8. . 102 La sucesión de Fibonacci corresponde a los datos F1 = 1 y F2 = 1. n ≥ 1.2. n ≥ 1 pues por la ley supuesta. es fértil a partir del segundo mes de vida? Se supones además que no muere ningún conejo. 543-548). Leonardo Fibonacci (o Leonardo de Pisa. al final del segundo mes la pareja anterior. ya fértil. λ1 = 2 2 La solución general de (IV.2. La sucesión de Fibonacci.4.5) es. 1. Empezando con F0 = 1 y F1 = 1. λ2 = . Sea Fn el número de parejas existentes al cabo del mes n-ésimo. 21.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS una solución particular. Esta es la sucesión de Fibonacci. ¿Cuántos conejos tendrá al cabo de un año si se supone que cada pareja engendra cada mes una nueva pareja que. imponiendo estas condiciones iniciales en la fórmula (IV. . La ecuación característica de (IV.2. c1 . a su vez. 55. 1175-1230) planteó en su Liber abaci el siguiente problema: Un hombre pone una pareja de conejos en un lugar cercado por todos lados. c2 = − √ 2 2 5 5 . así que sigue teniéndose F2 = 1.

y por tanto positivas. Nótese que esta fórmula genera números naturales a pesar de contener expresiones irracionales. Demostración. tantas entradas no nulas. para todo i. Sea n ≥ 2. al menos. Sea A ∈ Mn (R). ( In + A)n−1 > 0. . Consideremos un vector v ∈ Rn no nulo tal que v ≥ 0 y escribamos w = ( In + A)v = v + Av. MANUALES UEX 103 Como A ≥ 0. Se dice que una matriz A ∈ Mn (R) es irreducible si no existe ninguna matriz de permutación2 P ∈ Mn (k) tal que PAPt = A11 0 A12 A22 . Nótese que si T es el endomorfismo de Rn cuya matriz asociada respecto de una base B (por ejemplo la base usual) de Rn es A.3. . .3. Una matriz A = ( aij ) ∈ Mn (R) es no negativa. lo que denotaremos por A ≥ 0. la condición necesaria y suficiente para que A sea irreducible es que no exista ningún subconjunto de vectores de B que genere un subespacio de Rn invariante por T. entonces el vector w tiene al menos una entrada no nula más que v. Recuérdese que si P es una matriz permutación. . entonces P−1 = Pt .2.3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA con lo que la expresión de su término general es  √ √ n +1 1− 5 1 1+ 5 Fn+2 = √  − 2 2 5 n +1  . Vamos a probar que si v no es ya positivo. para todo v ∈ V no nulo. n}. Si A es no negativa e irreducible. diremos que la matriz A es positiva y lo denotaremos por A > 0. se dice que A reducible. para todo i. Matrices no negativas Definición IV. . j ∈ {1. Si P ∈ Mn (k) es una matriz de permutación tal que . . entonces ( In + A)n−1 v > 0. Definición IV. 3. como v. Pv = u 0 2Una matriz de permutación es un producto de matrices correspondientes a transforma- ciones elementales de tipo I. si aij ≥ 0.1. n}. Si aij > 0. en otro caso. en particular. j ∈ {1. el producto Av ≥ 0. . Proposición IV. donde A11 (y A22 ) es cuadrada de orden menor que n. .3. por lo que w tiene.

después de a lo más n − 1 pasos encontramos que ( In + A)n−1 v > 0. . De modo que.7) se sigue que x = u + A11 u e y = A21 u. podemos pensar que todos las entradas no nulas son unos. j ∈ V existe un camino dirigido (i. de (IV. Obsérvese que podría haber un camino dirigido de i a j pero no de j a i. . Finalmente. n. De este modo. Lema IV. al menos. para cualquier vector no nulo v ≥ 0. donde ei es el vector i-ésimo de la base usual de Rn . para todo i = j. Sea dice que un grafo dirigido G A = (V. . . MANUALES UEX 104 .3.4. j) ∈ E que conecta i con j. . E) es el grafo dirigido cuyo conjunto de vertices es V = {1. obteniéndose de este modo la matriz de adyacencia de un grafo dirigido. (is . . Si w = ( In + A)v no es ya un vector positivo. Si existe i ó j tal que aij = 0. sino con la disposición de las entradas nulas y no nulas en la matriz. como u > 0. . (i1 . i1 ).3. concluimos que ( In + A)n−1 > 0. Veamos ahora un criterio práctico para determinar si una matriz A ∈ Mn (R) es irreducible: El concepto de matriz irreducible no está asociado con las magnitudes o con los signos. además. Así. i = 1. . se tiene que A11 ≥ 0. 2.3. para estudiar si una matriz dada es irreducible. . Sea A = ( aij ) ∈ Mn (R). i2 ). . entonces (IV. sean A = ( aij ) ∈ Mn (R) una matriz cualquiera y G A = (V. j) ∈ E si. concluimos que w tiene al menos una componente no nula más que v. se tiene que y = 0. aij = 0 (obsérvese que la matriz de adyacencias ¯ ¯ de G es A = ( aij ) ∈ Mn (R) con aij = 1 si aij = 0 y cero en otro caso. dos componentes positivas más que v.5. y entonces ( In + A)2 v tiene. por lo que x > 0 y y ≥ 0. y A21 A22 entonces. . . Como A es no negativa e irreducible. ya que PPt = In .7) Pw = P( In + A)v = P( In + A) Pt u 0 = u 0 + PAPt u 0 . Si agrupamos las entradas de Pw y de PAPt de forma consistente con la de Pv x A11 A12 Pw = y PAPt = .3. tomando v = ei . Más concretamente. repetimos el argumento anterior con w.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS y u > 0. y sólo si. E) es fuertemente conexo si para cada par de vértices i. A21 ≥ 0 y A21 = 0. n} tal que (i. entonces G A no es fuertemente conexo. Definición IV.

Por simplicidad supongamos que a12 = . para todo x ∈ L se cumple que i) (x) ≥ 0.7.3. con L = {x ∈ Rn | x ≥ 0 con x = 0}. no hay ninguna flecha que comience en el vértice i. j) con i ≥ r + 1 y j ≤ r.8. Con la notación anterior. n . Teorema IV. la función definida por (x) = m´n ı x∈L ∑n=1 aij x j j xi | xi = 0.3. Demostración. Sean A = ( aij ) ∈ Mn (R) una matriz no negativa e irreducible y : L ⊂ Rn → R. el grafo G Pt AP es fuertemente conexo. Si A es reducible. por hipótesis. Luego. .6. . entonces G A no e fuertemente conexo. no hay conexión desde el vértice i hacía ningún otro. lo cual es equivalente a que G A tampoco lo sea. ya que cualquier camino dirigido que comience en r + 1 sólo conecta vértices mayores o iguales que r + 1 y cualquier camino dirigido que finalice en r sólo conecta vértices menores o iguales que r. = a1n = 0. MANUALES UEX 105 A continuación vamos a demostrar que toda matriz cuadrada no negativa e irreducible posee un autovalor real de multiplicidad 1 y módulo máximo. Demostración.3. Si A= A11 0 A12 A22 con A11 (y A22 ) cuadrada de orden r < n. Entonces. . y sólo si. Teorema de Perron-Fröbenius. Lema IV. Lema IV. i = 1. . El grafo G A es fuertemente conexo si. Lema IV. Sean A ∈ Mn (R) y P ∈ Mn (R) una matriz de permutación. . Si G A es fuertemente conexo.3.9. . . Basta observar que el grafo dirigido asociado a Pt AP se obtiene del de A mediante una reordenación de sus vértices. entonces A es irreducible. Sea A ∈ Mn (R).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. lo que no es posible pues aij = 0 si i ≥ r + 1 y j ≤ r. De modo que para que existiese un camino dirigido de r + 1 a r tendría que haber una flecha (i. Sea A ∈ Mn (R). y esto no afecta al carácter fuertemente conexo. Basta observar que no se puede conectar el vértice r + 1 con el vértice r. Demostración. el grafo GPt AP no es fuertemente conexo para alguna matriz de permutación P ∈ Mn (R).

entonces (x) = m´n ∑n=1 aij | i = 1. Consideremos entonces N = {( In + A)n−1 x | x ∈ M}. Teniendo ahora en cuenta que (y) es el mayor número tal que Ay − (y)y ≥ 0. y es continua en N porque no hay denominadores nulos. 1)t ∈ Rn . La demostración es un sencillo ejercicio que se propone al lector. Por consiguiente.9). . . para todo i = 1. y como N ⊂ L. a la hora de calcular el supremo de { (x) | x ∈ L} 2 podemos restringirnos al conjunto M = {x = ( x1 . iv) Si x = (1. sup MANUALES UEX (x) | x ∈ L = sup sup (x) | x ∈ M ≤ m´ x{ (y) | y ∈ N . se tiene que m´ x (x) | x ∈ N ≤ sup (x) | x ∈ L .3. . pues A y ( In + A)n−1 conmutan. N es una imagen continua de M. . . además (x) es el mayor número con esta propiedad. . Veamos que alcanza su valor máximo en el interior de L. .4.3 En primer lugar. véase. . por lo que N ⊂ L. se tiene que 0 ≤ ( In + A)n−1 ( Ax − (x)x) = A( In + A)n−1 x − (x)( In + A)n−1 x = Ay − (x)y. para todo x ∈ L y α > 0. n. veamos que (x) ≤ (y). puede ocurrir que no sea continua en M. . por tanto. observamos que (αx) = (x). ı j Demostración. Como Ax − (x)x ≥ 0 (véase el apartado iii) del lema IV. por ejemplo.3. luego. . por lo que es cerrado y acotado. Con la notación anterior. 1. . existe v > 0 tal que (v) = m´ x{ (x) | a x ∈ L}. todo elemento de N es un vector positivo. . . .3. . sin embargo. . .9). el capítulo 1 de [Spi88]. Lema IV.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS ii) (x) xi ≤ ∑n=1 aij x j . Demostración. + 2 = 1} que es un subconjunto cerrado y acotado de Rn .10. De tal forma que xn si fuese continua en M entonces se alcanzaría el supremo. j iii) Ax − (x)x ≥ 0. a (x) | x ∈ N En conclusión (x) | x ∈ L = m´ x a y existe y > 0 tal que ρ(y) = sup (x) | x ∈ L . xn ) ∈ L | x1 + . a Dado x ∈ M. n . Además. alcanza un máximo en N (véase el teorema A. sea y ∈ N tal que y = ( In + A)n−1 x. . .3. 106 3La demostración hace uso de algunos resultados básicos sobre funciones en el espacio euclídeo Rn . obtenemos que (x) ≤ (y). Por la proposición IV.

por la proposición IV. ρ es el radio espectral5 de A. n. . donde | Au| y |u| son los vectores de Rn cuyas entradas son los valores absolutos de las entradas de Au y u. por lo que ρ|u| = |ρu| = | Au| ≤ 4 A|u|. Entonces Au = ρu y u = 0. por lo tanto. para algún u ≥ 0 no nulo. usando el apartado anterior. entonces Au = ρu. por la proposición IV. es decir. entonces. tales vectores se denominan vectores extremales de A. Por otra parte. (a) Sea u ≥ 0 no nulo tal que Au − ρu ≥ 0. de modo que 0 < w = ( In + A)n−1 |u| = (1 + ρ)n−1 |u|.3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Puede existir más de un vector positivo en L donde la función alcance su valor máximo.3. es decir. para todo autovalor λ (real o complejo) de A. v ∈ Rn un vector extremal de A y ρ = (v) ∈ R≥0 . de donde se sigue. respectivamente. (b) el autovalor ρ tiene multiplicidad 1. . Teorema de Perron-Fröbenius. . De donde se sigue que ρ < (w). Lema IV. z ∈ C. (a) Si Au − ρu ≥ 0. que |u| es un autovector de A asociado a ρ. Sea A ∈ Mn (R) irreducible y no negativa. si w = ( I + A)n−1 u.11. 4Recuérdese que |z + z | ≤ |z | + |z |. (c) |λ| ≤ ρ. Au − ρu = 0.3.3. Demostración. para todo i = 1. un autovalor ρ real y positivo con un autovector asociado v > 0.3. MANUALES UEX 107 . Entonces (a) A tiene. al menos. entonces Aw − ρw > 0. ( I + A)n−1 ( Au − ρu) > 0. tenemos w = ( In + A)n−1 |u| > 0. Por consiguiente. 2 2 1 1 1 2 5Recuérdese que el radio espectral de un matriz es el mayor de los módulos de sus auto- valores reales y complejos. esto es. . Luego. Si Au − ρu = 0. ρ< ∑n=1 aij w j j wi . lo que supone una clara contradicción con el hecho de que v sea extremal. ρ es un autovalor de A y u un autovector de A asociado a ρ. De donde se deduce que |u| > 0 y. que u no tiene ninguna de sus entradas nula. para todo z . Sean A ∈ Mn (R) irreducible y no negativa. (b) Cualquier autovector de A asociado a ρ tiene todas sus entradas no nulas. Luego. (b) Sea u un autovector de A asociado a ρ. A|u| − ρ|u| ≥ 0. por ser |u| un autovector de A asociado a ρ.

por lo que cualquier combinación lineal de u y w no las tendrá. concluimos que |λ| ≤ |λ| ≤ (|u|) ≤ ρ. podemos tomar positivo. no existen dos autovectores linealmente independientes de A asociados a ρ. Sean v ∈ Rn un vector extremal y ρ = (v) ∈ R≥0 . Luego.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. u = (u1 . entonces u ∈ L1 .9. . asociados a ρ. wn ). | ui | para todo ui no nulo. Si u ∈ L2 .3. luego del lema IV. por lo que basta demostrar la inclusión L1 ⊇ L2 . w1 un − u1 wn ) lo que supone una contradicción. que α = 0 y consideremos un autovector w de At asociado a ρ. (a) Por el apartado iii) de lema IV. . De modo que si |u| es el vector de Rn cuyas entradas son los módulos de las entradas de u. se tiene que 0 = wt (ρIn − A)u = wt (αv) = αwt v. de tal modo que. Por consiguiente. . por los argumentos anteriores. como wt (ρIn − A) = 0. La inclusión L1 ⊆ L2 se da siempre. 108 .11(a) se sigue que ρ ∈ R≥0 es un autovalor de A y v > 0 es un autovector de A asociado a ρ. . pues. según el lema IV.11(b) ningún autovector de A asociado a ρ tiene componentes nulas. De todo esto se deduce que la multiplicidad de ρ es igual a 1. que. Av − ρv ≥ 0. L1 está generado por el vector extremal v. por la maximalidad de ρ. (c) Sea λ un autovalor de A. Entonces para algún u = 0 (que puede tener coordenadas complejas) se tiene que ∑ aij u j = λui .3. . el subespacio propio L1 = ker(ρIn − A) asociado a ρ tiene dimensión 1. es claro que (ρIn − A)u ∈ L1 por lo que existe α ∈ R tal que (ρIn − A)u = αv. Supongamos. j MANUALES UEX Luego. . . w1 u2 − u1 w2 . si α es cero.3. Veamos ahora que L1 = L2 = ker (ρIn − A)2 . . j de donde se sigue que |λui | = ∑ aij u j j ≤ ∑ aij |u j |. . . . un ) y w = (w1 . (b) Supongamos que existen dos autovectores linealmente independientes de A. lo que contradice el carácter positivo de los vectores. es decir. . w1 u − u1 w = (0. Sin embargo. ∑ j aij |ui | .

. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Definición IV. con w ≥ 0. | Au| = |λ||u| = ρ|u| = A|u|. |u| es un autovector de A asociado a ρ. sea A una matriz primitiva y supongamos que existe una matriz de permutación P ∈ Mn (R) tal que A11 A12 PAPt = . Por consiguiente. El autovalor ρ cuya existencia demuestra el Teorema de Perron-Fröbenius se llama autovalor de Perron de A. Supongamos que todas las entradas de la primera fila de A son no nulas. Se dice que una matriz A ∈ Mn (R) no negativa es primitiva si existe m > 0 tal que Am > 0.3. MANUALES UEX 109 Nota IV.15. 0 A22 . Sea λ un autovalor de A tal que |λ| = ρ y u un autovector de A asociado (que puede tener coordenadas complejas). y concluimos que u también lo es y que λ = ρ. Entonces u = αw. En efecto. el autovector v > 0 de A asociado a ρ cuyas entradas suman 1 se llama autovector de Perron. luego w es un autovector de A asociado a ρ. entonces | x + y| < m´ x(| x |. Si nos fijamos en la primera fila nos queda que n n j =1 ∑ a1j u j = j =1 ∑ a1j |u j |.3. Toda matriz primitiva es irreducible. Sea A ∈ Mn (R) no negativa e irreducible. Demostración. |y|) < a | x | + | y |. Definición IV. u es un múltiplo de un vector no negativo w. 7 Nótese que si x ∈ R es positivo e y ∈ R negativo. respectivamente. n. ρ|u| = |λu| = | Au| ≤ A|u|. y como a1j = 0. 6Basta tener en cuenta que |z + z | = |z | + |z | si.14. se sigue que todas las entradas de u son reales6 y simultáneamente no positivos o no negativos7 es decir.3. z y z son números reales 2 2 2 1 1 1 positivos o negativos simultáneamente. Entonces. Sean A ∈ Mn (R) no negativa e irreducible y ρ su autovalor de Perron. para todo autovalor λ de A distinto de ρ.12. y sólo si. Como A|u| − ρ|u| ≥ 0.3. Matrices primitivas. Corolario IV. Por tanto. . |u| = |α|w. j = 1.13. donde | Au| y |u| son los vectores de Rn cuyas entradas son los valores absolutos de los entradas de Au y u. Si A tiene una fila de entradas no nulas. por el lema IV.11. entonces |λ| < ρ. .3.

1 0 Teorema IV.3. 2L/n). que tienen menos de L/n años. . . lo forman los individuos cuya edad está en el intervalo [ L/n.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS con A11 y A22 matrices cuadradas de orden menor que n. . El grupo G1 está formado por los individuos cuya edad está en el intervalo [0. Como A es primitiva. Am MANUALES UEX Modelo matricial de Leslie. donde cada grupo tiene la misma amplitud. por lo que es no negativa e irreducible. . G2 . Así. pues A es primitiva y existe m > 0 tal que Am > 0. existe m > 0 tal que Am > 0. para todo m > 1. si la vida más larga se estima en L años. Entonces A m = Pt m A11 0 A12 m A22 P. por el Teorema de Perron-Fröbenius existe autovalor real ρ de A de multiplicidad 1 con un autovector asociado v > 0 tal que |λ| ≤ ρ. es no negativa e irreducible. no toda matriz irreducible es primitiva. de las desigualdades anteriores se deduce que ρ = ρm . Por consiguiente. para todo autovalor λ de A. El siguiente grupo lo forman los individuos con 110 . y además tiene todas sus filas de entradas no nulas. La matriz Am es obviamente primitiva. Demostración. Teniendo ahora en cuenta que los autovalores de Am son las potencias m-ésimas de los autovalores de A. y por lo tanto que en la desigualdad |λ| ≤ ρ.16. para todo autovalor λ de A. la amplitud de cada grupo de edades es de L/n años.13 se sigue que el autovalor de Perron ρ de Am verifica que |λ | < ρ para todo autovalor λ de distinto de ρ . Por otra parte. El siguiente grupo por edades G1 . Dividamos la población de hembras de una misma especie en distintos grupos de edad G1 . considérese por ejemplo 0 1 A= . Existe un único autovalor real positivo ρ de A de multiplicidad 1 con un autovector asociado v > 0 tal que |λ| < ρ. lo que es del todo imposible. del corolario IV. sólo se da la igualdad cuando λ = ρ.3. L/n) es decir. para todo autovalor λ de A distinto de ρ. Sin embargo. Sea A ∈ Mn (R) primitiva. luego. Gn .

Pi (m) = pi ( m ) p0 (m) + p1 (m) + . . Distribución de edades de una población divida en tres grupos edad a lo largo del tiempo. El vector P(m) = ( P1 (m). L]. ı Figura 1. . + p n ( m ) f n pi−1 (m)si−1 . . . Supongamos que los censos de población se realizan en intervalos de tiempo iguales a la amplitud de los grupos de edades. Llamamos si a la fracción de individuos del grupo Gi que sobreviven al intervalo entre censos y pasan a formar parte del grupo Gi+1 . .3. suponiendo que existe. . y consideremos las tasas de fecundidad y supervivencia: denotamos por f i el número promedio de hijas de cada hembra del grupo Gi (esto es la tasa de fecundidad específica del grupo Gi ). . Pn (m))t representa a la distribución de edades de la población en el instante m. . hasta llegar al último grupo formado por los individuos cuya edad está comprendida en el intervalo [(n − 1) L/n. 3L/n). + pn (mj) p1 ( m + 1) p i ( m + 1) = = p1 ( m ) f 1 + p2 ( m ) f 1 + . y. . Si pi (m) es el número de hembras de Gi en el instante m. es la proporción de población en Gi en el instante m.8) Además. . n. y así. P2 (m). P∗ = l´mm→∞ P(m) es la distribución de edades de la población a largo plazo. . para i = 2. entonces se sigue que (IV.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA edad en [2L/n. MANUALES UEX 111 . .

.   . . s n −1 0 y p(m) = ( p1 (m). . para todo autovalor λ de A distinto de ρ. . entonces A es primitiva (ejercicio 14).H. .8) constituyen un sistema de ecuaciones lineales en diferencias homogéneo que se puede escribir en forma matricial como (IV. . . . . n. en cuyo caso existirá P∗ y podremos determinar su valor. ..3. el teorema IV. . i = 1. 1)( A l´mm→∞ (1. f n son positivos. 0 0 .. . . . 1)v(wt p(0)) v = . Am l´m m = vwt . . + v n 112 En resumen. . . f n −1 f n  s1 0 . . . Supongamos. 0 0  ∈ M n (R) p(m) = A p(m − 1). . . . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Las ecuaciones (IV. . . . P∗ es el autovector de Perron de A. De tal forma que el límite de Am /ρm cuando j tiende a infinito es una matriz no nula cuyas columnas son proporcionales a v es decir. . . . . . ı m→∞ ρ para algún w ∈ Rn . .. . para todo m ≥ 0. v1 + .9)   f 1 f 2 . . de este modo. . . . 1. . f n son positivos. 1. Leslie que introdujo este modelo en 1945. 1. 1. Además.  . . . La matriz A se llama Matriz de Leslie en honor de P. . . La matriz A es una matriz no negativa.16 garantiza la existencia de un autovalor real positivo ρ de A de multiplicidad 1 con un autovector asociado v > 0 tal que |λ| < ρ. . . es decir. donde A =    . 1)( Am /ρm )p(0) ı MANUALES UEX = (vwt )p(0) v(wt p(0)) = t ) p (0) (1. Por otra parte. el autovector de Perron es la distribución de edades de la población a largo plazo. . . 1. . 1) Am p (0) m→∞ m→∞ (1. i = 1. . De modo que p(m) = Am p(0) para todo m > 0. 1)(vw (1. 1. que f n−1 . tenemos que P∗ = l´m P(m) = l´m ı ı p(m) A m p (0) = l´m ı m→∞ (1. 0 0     0 s2 . . . . si n > 2 y f n−1 . .3. n − 1 y f i ≥ 0. . pues si > 0. pn (m))t .3. . 1) p ( m ) ( Am p(0))/ρm l´mm→∞ ( Am /ρm )p(0) ı = = l´m ı m p (0)) /ρm m→∞ (1. pues. .

. . . Nos centraremos en el caso en que las columnas suman 1. como es nuestro caso. entonces la cadenas de Markov se dice que es homogénea. .4. Cadenas de Markov homogéneas y finitas Definición IV. En la práctica 6 estudiaremos este y otros ejemplos con más detalle.1. . cuando el tiempo es suficientemente alto. n. tenemos una sucesión de variables aleatorias Xm . pn )t ∈ Rm se dice que n es de probabilidad si p 1 := ∑i=1 pi = 1. Un vector no negativo p = ( p1 . Definición IV. . . a veces llamados estados. En el caso de las cadenas de Markov homogéneas y finitas.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplo IV.4. . Si la probabilidad tampoco depende del valor de m. para periodos de tiempo m = 0. Se dice que P es una matriz estocástica cuando sus columnas o filas suman 1. Supongamos que la tasa de supervivencia de hembras en sus primero y segundo años es del 60 % y 25 %. Nótese que las matrices estocásticas son no negativas.17. En otras palabras. . la cadena de Markov se dice finita. pero los resultados son semejantes. Si la probabilidad de que Xm se encuentre en el estado i sólo depende del estado en que se hallase Xm−1 y no en los estados de periodos anteriores de tiempo. Observamos que si bien la población de hembras crece indefinidamente. Cada hembra del segundo grupo de edad tiene 4 hijas al año de media. Sea P = ( pij ) ∈ Mn (R) tal que pij ∈ [0. y cada hembra del tercer grupo tiene una media de 3 hijas por año. según el autovector de Perron de la correspondiente matriz de Leslie. 1. . respectivamente. 1. La figura 1 muestra la distribución de los tres grupos edades a lo largo tiempo en escala semilogarítmica. . . 1]. n. y si el número de estados es finito. No es raro encontrar textos donde esta condición se supone sobre las filas. Las hembras de cierta especie animal viven tres años. i. y que en cualquier punto concreto del tiempo nuestra observación puede tomar uno de los n valores. . . la probabilidades de cualquier periodo de tiempo se pueden calcular a partir de la MANUALES UEX 113 . Diremos que es doblemente estocástica cuando sus columnas y filas suman 1.2. .3. n. donde cada variable puede ser igual a de los números. 1. . 4. . De esta forma una matriz estocástica tiene como columnas a vectores de probabilidad. . Supongamos que estamos observando algún fenómeno aleatorio a lo largo del tiempo. entonces el proceso se dice que es una cadena de Markov. la proporción de hembras de cada grupo de edad se mantiene estable. . j = 1. .

p m = P m p0 . entonces pi (m) se puede describir como la proporción de in(0) dividuos en el estado i al instante m. Por consiguiente. Nótese que P es una matriz estocástica pues su columna j-ésima nos indica la probabilidad de los posibles estados en un determinado instante cuando en el instante inmediatamente anterior el estado sea j. Denotaremos  (0) p  1  . p0 =  . De modo natural nos podemos hacer las siguientes preguntas ¿qué ocurre con estas proporciones cuando m aumenta? Es decir. donde pi es la probabilidad de que el proceso comience en el estado i. Si tenemos una población considerable de individuos sujetos a este proceso aleatorio. j)-ésima. si P es primitiva.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS probabilidades iniciales de los estados y lo des de transición. y en general. mientras que pi sería la proporción de individuos que comienzan en el estado i. p2 = P p1 = P P p0 = P2 p0 .  pm =  . (0) pn que se conoce como probabilida    (0) al vector de probabilidades iniciales. Se comprueba fácilmente que ρ = 1.  pn (m) (m) siendo pi la probabilidad de que el sistema se encuentre en el estado i en el instante m. podemos garantizar que existe un único autovalor real ρ dominante. y que P es una matriz no negativa ya que cada una de sus entradas es una probabilidad. basta tener en cuenta que los autovalores de P son los mismos que los de su traspuesta Pt y que MANUALES UEX 114 |λ| ≤ n n ∑i=1 pij xi ∑n pij | xi | ≤ i =1 ≤ ∑ pij = 1. por el teorema de la probabilidad total se tiene que p1 = P p0 . La matriz de transición de probabilidades es la matriz P = Mn (R) cuya entrada (i. pij . entonces. . |xj | |xj | i =1 . ¿podemos determinar el comportamiento límite de pm ? Nótese que la respuesta depende del comportamiento asintótico de Pm . en efecto. si  (m)  p  1.   . Por consiguiente. da la probabilidad de que Xm se halle en el estado i supuesto que Xm−1 se hallaba en el estado j.

1) ∈ M1×n (R). Además. . . ( x1 . . . el sistema se n aproxima a un punto de equilibrio en que las proporciones de los distintos estados vienen dadas por las entradas de p. . el comportamiento límite no depende de las proporciones iniciales. . obtenemos n que l´m pm = l´m Pm p0 = p1t p0 = p. ı ı n m→∞ donde 1t = (1. . . . En consecuencia. m→∞ l´m (ρ−1 P)m = l´m Pm = p1t . Por tanto. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA siendo λ un autovalor (real o complejo) de P. n}. . Entonces. ı ı n m→∞ t→∞ donde el último paso se sigue de que 1t p0 = 1. si P es a primitiva existe un único un autovector p > 0 asociado al autovalor ρ = 1 tal que ∑i=1 pi = 1. MANUALES UEX 115 . . xn )t un autovector de Pt asociado a λ y x j = m´ x{ xi | i = 1. Usando la igualdad anterior.

comprobar que el producto Bm b se aproxim ma. . Sean V = R3 y T ∈ Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es     0 0 1 5 0 0 ( a)  1 0 0  . . (λr )m }. para valores grandes de m a cλ1 v1 . 1) de componentes estrictamente positivas. . 4 −2 4 Hallar. donde c es una cierta constante y v1 es un autovector asociado a λ1 . Para un vector cualquiera b. la matriz asociada a la raíz cuadrada de T respecto de la base usual de R3 . λr } son los autovalores de una matriz A. El autovalor de mayor módulo es λ1 . entonces v es autovector de Am asociado a (λi )m . λ2 = 1 − 3 y λ3 = 0. Encontrar condiciones necesarias y suficientes para que existan raíces r-ésimas de T. entonces los autovalores de Am son {(λ1 )m . . si es posible. Sea  1 1 . 0 B= 1 1 1 1 1 Ejercicio 3. Sean V un k-espacio vectorial de dimensión n > 0 y T ∈ Endk (V ) diagonalizable. Asociado a este autovalor tenemos el √ autovector v = ( 3 − 1. Si v es un autovector de A asociado a λi . Dado r ∈ Z+ . Ejercicio 2. . Sean V = R3 y T ∈ Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es   8 −6 4  −6 9 −2  . 1 √ √ Los autovalores de esta matriz son λ1 = 1 + 3. diremos que S ∈ Endk (V ) es una raíz r-ésima de T si Sr = T. x2 = 0 y x3 = 1. 0 1 0 3 0 2 Hallar la matriz asociada T m respecto de la base usual de R3 Ejercicio 5. 1. Comprobar que si {λ1 . . . ( b )  0 −1 1  . Poner un ejemplo que muestre que el recíproco no es cierto. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema IV Ejercicio 1. Resolver la ecuación en diferencias xn+2 − 3xn+1 + 2xn = 0 dados x1 = 1.  MANUALES UEX 116 . Ejercicio 4.

2. MANUALES UEX 117 . 1 2 9 Encontrar el autovalor y el autovector de Perron de A. Ejercicio 9. . . Si aii = 0. 1. Sea A = ( aij ) ∈ Mn (R) una matriz no negativa e irreducible. Ejercicio 10. Obtener la expresión general de un . Dado el sistema de ecuaciones en diferencias un = Aun−1 . . entonces (εIn + A)n−1 > 0. 2). n. para todo i = 1. Comprobar el teorema de Perron-Fröbenius calculando los autovalores y autovectores de la matriz   7 2 3 A =  1 8 3 . Ejercicio 12. Calcular la primera coordenada de un dado el vector inicial u0 = (0. . compruébese que B = A − εIn es no negativa e irreducible. 0 1−α α β 1−β . Calcular el autovalor y el autovector de Perron de la matriz A= donde α + β = 1 con α y β > 0. Probar que si la suma de las entradas de cualquier fila (o columna) es ρ.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 6. entonces el autovalor de Perron de A es ρ. . 0. y úsese el ejercicio 7 para concluir que A = εIn + B es primitiva. Probar que A es irreducible. siendo   0 a2 0 0  1 0 0 0   A=  0 1 0 a2  0 0 1 0 1. entonces A es primitiva. Ejercicio 11. n}. 2. 2. Probar que si A es no negativa e irreducible. Sea 0 A= 3 0  1 0 2  0 3 . Hallar el autovalor y el autovector de Perron de A. Ejercicio 7. Ejercicio 8. Sea A ∈ Mn (R) una matriz positiva e irreducible. . . [Tómese ε = m´n{ aii | ı i = 1. Sean A ∈ Mn (R) y ε > 0. .

.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 13... . 0 0 . f2 0 s2 . . Dada la matriz de Leslie  f1 s1 0 . = f n−2 = 0. 3. Ejercicio 15. Si f 1 = ... Usando esta igualdad concluir que es no negativa e irreducible y. . Sea A ∈ Mn (R) una matriz de Leslie tal que f n−1 · f n = 0. 0 s n −1 fn 0 0      A=    0 0      ... . A es irreducible. 2. cuando sea adulto. Usando esta igualdad concluir que es no negativa e irreducible y. Demuestre que el polinomio característico de la matriz   f1 f2 f3 A =  s1 0 0  0 s2 0 es igual a ℵ A ( x ) = det( xI − A) = x3 − f 1 x2 − f 2 s1 x − f 3 s1 s2 .. y está 118 . . Un estudio ha determinado que el sector de ocupación de un niño. por el ejercicio 8. . por el ejercicio 8. En general An = s1 · sn−2 f n−1 A + s1 · sn−1 f n In + B para cierta matriz B no negativa. . .   0  0 intente deducir una fórmula para su polinomio característico. que es primitiva. . . que es primitiva... Probar que 1.. Ejercicio 14. entonces MANUALES UEX An = s1 · sn−2 f n−1 A + s1 · sn−1 f n In ... . f n −1 0 0 . . depende del sector en que trabaje su padre.. Demuestre que el polinomio característico de la matriz   f1 f2 f3 f4  s 0 0 0   A= 1  0 s2 0 0  0 0 s3 0 es igual a ℵ A ( x ) = det( xI − A) = x4 − f 1 x3 − f 2 s1 x2 − f 3 s1 s2 x − f 4 s1 s2 s3 ..

Consideremos la matriz de transición P= 0. ¿Cuál es la probabilidad de que el nieto de un trabajador del sector terciario trabaje en ese sector? 2.6 Sector del hijo T S P Así. Probar que la matriz de transición   1 0 1 2 2   P= 1 1 0  2 2 1 0 1 2 2 es primitiva.6 0.5 0.8 0. 0 1 . 4. calcular x(m) para n = 1.5 . 5. Ejercicio 18.2  0.2 0.2  0.8. 1. Probar que P no es primitiva.5 0 1 . probar que P es una matriz primitiva y calcular el vector de estado estacionario.1 0. si x(0) = Ejercicio 17.4 0. la probabilidad de que el hijo de alguien que trabaja en el sector terciario también lo haga en ese sector es 0.3 0. A largo plazo. 2. Ejercicio 19.1 0. para cual- MANUALES UEX 119 . T = sector terciario. Para la matriz de transición P= 0. 1 . Sector del padre T S P   0. y aplicar el ejercicio 17 para calcular su vector de estado estacionario.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA dada por la siguiente matriz de transición. 2. ¿qué proporción de la población trabajará en el sector secundario? Ejercicio 16. con los sectores de producción P = sector primario.5 0. Probar que cuando m → ∞. entonces su vector de estado estacionario tiene todas sus componentes iguales a 1/n. 1. 3. 0 2. cuyas filas suman todas uno.5 0. 1. Verificar que si P es una matriz de transición primitiva de orden n. S = sector secundario. Pm x(0) se aproxima a quier vector inicial x(0) .

3. . para m = 2. n. 2 1 1 2 1 1 1 3 2   0 0 0 0 1  5 1  0 0 0 4  1   0 0 0 1 5  4  0 0 1 1     3 4  1 P4 =  . y determinar los vectores de estado estacionarios xm tales que Pm xm = xm . Consideremos la sucesión de matrices de transición { P2 . . P3 =  0 1 3  . . con   1 0 0 3 1 0 2  1  P2 = . . Probar que estas matrices de transición son regulares. . . P3 .}. P4 . MANUALES UEX 120 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 20. .   3 4 1 1  1  0 2 3 4   1   0 1 1 1 5  2 3 4 1 1 1 1 4 2 3 1 1 1 1 1 5 2 3 4 y sucesivamente. P5 =  0 0 1 1 5  .

Ya en la sección cuarta. aunque se muestran otros ejemplos de espacios vectoriales euclídeos. A continuación. Sin embargo. lo que nos permite definir la proyección ortogonal sobre un subespacio vectorial. A continuación. El planteamiento inicial es similar al de los de temas II y III. Estos conceptos se estudiarán con mayor profundidad en los temas VIII y XII. El significado geométrico de la proyección ortogonal es fundamental en esta asignatura como se podrá ver en el siguiente tema. Por tanto. se define qué entendemos por subespacio ortogonal y se enuncian y demuestran algunas de sus propiedades. consecuentemente. así como las matrices simétricas reales. Tras introducir el concepto de forma bilineal y forma bilineal simétrica. se demuestra la fórmula del cambio de base para las matrices asociadas a una forma bilineal. que son las verdaderas estrellas del tema. ya que este papel lo asumen el producto escalar y la proyección. la descomposición de un espacio vectorial euclídeo como suma directa de un subespacio y su ortogonal. se fija una base y se determina la matriz asociada a una forma bilineal. demostramos que la proyección ortogonal de un vector v sobre un subespacio vectorial L consiste en calcular el vector de L más próximo a v. en este tema la congruencia de matrices no juega el mismo papel de hilo conductor que desempeñaban la equivalencia y semejanza de matrices en los temas anteriores. a la existencia de bases ortonormales en un espacio vectorial euclídeo. Nuestra siguiente sección se dedica a la ortogonalidad. al método ortogonalización de Gram-Schmidt y. tratamos el concepto de norma en un espacio vectorial euclídeo. y a la relación de equivalencia que determinada por esta forma se le da el nombre de congruencia de matrices. En la segunda sección se definen el producto escalar y los espacios vectoriales euclídeos. entre otras. Asimismo. se describe MANUALES UEX 121 . Se hace una especial mención al espacio vectorial Rn con la estructura euclídea determinada por el producto escalar usual.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA V Matrices simétricas y formas cuadráticas E n este tema volvemos a ocuparnos de cuestiones teóricas relacionadas con las matrices más en la línea de un curso clásico de Álgebra Lineal. a diferencia de los temas anteriores.

µ ∈ L y σ2 > 0. y esto sólo es el principio de la historia. en primer lugar se enuncia y demuestra que toda matriz simétrica real diagonaliza a través de una matriz ortogonal. MANUALES UEX 122 . Así. . En este tema. mostrándose condiciones necesarias y suficientes para que una matriz simétrica sea (semi)definida positiva en términos de sus autovalores. la proyección ortogonal es fundamental en las asignaturas Modelos Lineales y Análisis Multivariante.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS la matriz de la aplicación proyección ortogonal sobre un subespacio L respecto de una base B del espacio vectorial euclídeo V en términos de la matriz del producto escalar de V y la matriz cuyas columnas son las coordenadas de una base de L respecto de B . Al final de la sección y del tema se hace una breve mención a la relación entre las formas cuadráticas y las métricas simétricas. La mayor parte de los contenidos teóricos de este tema tienen aplicación directa en otras asignaturas de la Licenciatura. La segunda parte de esta sección se centra en las matrices simétricas (semi)definidas positivas. si tenemos en cuenta que las matrices de covarianza y correlación son simétricas y reales. Téngase en cuenta que un modelo lineal normal consiste en considerar un subespacio vectorial propio L de Rm y un vector aleatorio y = µ + ε con ε ∼ Nn (0. resulta natural tomar ˆ µ = π L (y) como estimador de µ. y σ2 = y − π( y) 2 como estimador de la varianza. n los autovalores de la matriz simétrica asociada a la forma cuadrática. Toda esta sección está plagada de resultados relacionados con las matrices simétricas y las matrices simétricas (semi)definidas positivas que serán utilizados posteriormente en la asignatura Modelos Lineales. . Estos resultados son en su mayoría sencillos ejercicios tales como la existencia de raíces cuadradas de matrices simétricas semidefinidas positivas (que será usada en el próximo tema para definir la descomposición en valores singulares) o la factorización A = QQt de una matriz simétrica semidefinida positiva. Lo que nos permite escribir cualquier n 2 forma cuadrática en la forma ∑i=1 di ixi mediante un cambio de base. Al final de la sección trataremos algunas cuestiones relacionadas con matrices hermíticas. por ejemplo. hemos seguido el capítulo 2 de [Sch05] y el capítulo 5 de [MS06]. σ2 In ). La sección quinta está dedica a las matrices simétricas reales. toda matriz simétrica real es semejante y congruente con una matriz diagonal. pudiéndose elegir Q triangular superior. En particular. . si bien hemos tenido en cuenta el capítulo 8 de [BCR07]. . siendo di i. La última sección del tema trata sobre las formas cuadráticas. siendo π L la proyección ortogonal de y ˆ sobre L. Este resultado tiene interés en Estadística y Probabilidad. i = 1. se define qué entenderemos por forma cuadrática y se demuestra la relación de éstas con las matrices simétricas. De este modo.

. v) = T (v. v1 + v2 ) = T2 (u. v). v1 ) + T2 (u. . . vn } una base de V. µv) = µ T2 (u. . u). v1 y v2 ∈ V y λ y µ ∈ R. Conocida la matriz asociada a una forma bilineal respecto de una base podemos determinar las imágenes por la forma bilineal de cualquier par de vectores de V. Proposición V. 0). Se dice que T2 es antisimétrica si T (u. T2 (λu. n}. Sean T2 una forma bilineal sobre V y B = {v1 . y) = ( x1 . para todo u. . . v j ). xn ) A  . u).1. para todo u1 . .1. 1). vn } una base de V. Formas bilineales Mientras no se diga lo contrario. v ∈ V. . pues T2 ((1. . Matriz asociada a una forma bilineal. . Sean T2 una forma bilineal sobre V y B = {v1 . . yn donde A es la matriz asociada a T2 respecto de B . yn ) respecto de B se cumple que   y1  . o métrica. . para cada i. .2. .1. v) = T2 (u1 . 1)) = 1 = 0 = T2 ((0. La aplicación T2 es una forma bilineal que no es simétrica. MANUALES UEX 123 .1. Sea T2 una forma bilineal sobre V. .4. Definición V. T2 (u. (0. . Definición V. y2 )) = x1 y2 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. v). Dados x e y ∈ V de coordenadas ( x1 . v ∈ V. .  T2 (x. j ∈ {1. Sean V = R2 y T2 : V × V −→ R tal que T2 (( x1 . . v). v2 ).  . para todo u. v) = λ T2 (u.3. a lo largo de este tema V denotará a un espacio vectorial sobre R de dimensión finita n > 0.5. Definición V.1. . sobre V si satisface (a) (b) (c) (d) T2 (u1 + u2 . xn ) y (y1 . . . Diremos que una aplicación T2 : V × V −→ R es una forma bilineal. v) = − T (v. (y1 . x2 ). u2 . v) + T2 (u2 . T2 (u. Se dice que T2 es simétrica si T (u. . 0)).1. Se llama matriz asociada a T2 respecto de B a la matriz A = ( aij ) ∈ Mn (R) determinada por las igualdades aij = T2 (vi . (1. Ejemplo V. .

n )t y y = ( y1 . La forma bilineal T2 es simétrica si. . y n )t ∈ Rn . . B una base de V. MANUALES UEX 124 Corolario V. . . . yn ) respecto de B .j=1  y1  . es decir. . . Dados x y y ∈ V de coordenadas ( x1 . (1.   1 1 . . . la matriz A es simétrica (es decir. . . 1  1 2 .  T (x. entonces la matriz asociada a T2 respecto de B es la matriz identidad de orden n. entonces la matriz asociada a T2 respecto de B es A = ( aij ) ∈ Mn (R) donde aij = min(i. . una misma forma bilineal tiene distintas matrices respecto de diferentes bases. 0. ii) Si B = {(1.j=1 ∑ n xi y j T2 (vi . 1. . 1. .1. como era de esperar. 0). . . . . . A = At ). .  xi aij y j = ( x1 . . 0). 1. 2    A= . . 1)}. 1.7. La aplicación T2 es una i) Si B es la base usual de Rn . ... . xn ) A  . . . . . yn Ejemplo V. A ∈ Mn (R) la matriz asociada a T2 respecto de B . + xn yn = para todo x = ( x1 . . . para cada i. .. respectivamente. (1. .6. xn ) e (y1 .. Demostración. . . . . se tiene que   y1  . y sólo si.  . n Obsérvese que. y) = ( x1 . 1. . . j). Sobre Rn consideramos la aplicación T2 : Rn × Rn −→ R tal que T2 (x.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. . . y) = x1 y1 + .. j ∈ {1. n}. 0. v j )  = i. . i =1 ∑ xi yi .. 1 2 . . . Teniendo en cuenta que T2 es bilineal y la propia definición de A se sigue que T2 (x. . (1. . 0).   . . 1.1. . . . . 0 . 0 . y) = ∑ n i. . . .  . y) = i =1 n ∑ xi T2 (vi . xn forma bilineal simétrica. Sean T2 una forma bilineal sobre V. 0. xn ) A  . 1. yn .

Terminamos esta sección estudiando cómo afectan los cambios de base en la matriz de una forma bilineal sobre V. En particular. Sean V = R2 .1. Se dice que T2 es definida positiva si T2 (u. existiría v ∈ ker( A) no nulo y se tendría que T2 (v. Dadas A y A ∈ Mn (R). Espacios vectoriales euclídeos h. x) = (y1 .  = ( x1 . Definición V. 2. . y P = ( phi ) ∈ Mn (R) es la matriz del cambio de la base B a la base B entonces A = Pt AP. entonces T2 (v. respectivamente. A. matriz asociada a una forma bilineal y de producto de matrices se tiene.2. . dos matrices A y A ∈ Mn (R) son congruentes si. Ejemplo V. MANUALES UEX 125 . se dice que A es congruente con A si existe una matriz invertible P ∈ Mn (R) tal que A = Pt AP.2.l =1   y1 . Obsérvese que. Si A = ( aij ) ∈ Mn (R) y A = ( aij ) ∈ Mn (R) son las matrices asociadas a T2 respecto de B y B . Demostración. Nota V. en otro caso. yn ∑ n phi plj ahl = h. Definición V.2. . u) > 0. xn ) At  .8. por las definiciones de forma bilineal.1. v) = vt Av = vt 0 = 0. .9. Producto escalar. Nótese que si T2 es una forma bilineal definida positiva sobre V. Sean T2 una forma bilineal sobre V y B y B dos bases de V. y sólo si. . de T2 respecto de cualquier base de V es invertible. verifica las propiedades reflexiva. Proposición V.   T (y. se tiene que la matriz.1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y que   x1  .1. para todo u ∈ V no nulo. v) = 0 si y sólo si v = 0. . según la proposición V. Basta tener en cuenta que. xn de donde se deduce el resultado buscado.1. simétrica y transitiva).l =1 ∑ n phi ahl plj . yn ) A  . se tiene que aij = es decir.8. Sea T2 una forma bilineal sobre V. Es claro que la relación “ser congruente con” es de equivalencia (es decir. representan a una misma forma bilineal expresada respecto de distintas bases.10.  . A = Pt AP.

Nótese que la matriz asociada a la forma bilineal T2 respecto de la base usual de Rn es la matriz identidad de orden n (véase el ejemplo V. . Luego. Ejemplo V. .3. de aquí que a (Rn . T2 dota a R3 de estructura de espacio vectorial euclídeo. el par (Rn . . n para todo u = (u1 . · es un producto escalar sobre Rn .1.2. x2 ) ∈ R2 no nulo. x2 ). ·) se le llame espacio vectorial euclídeo usual. T2 ) donde V es un R-espacio vectorial y T2 es una forma bilineal simétrica definida positiva. Además. es una forma bilineal simétrica (compruébese) que no es definida positiva pues T2 ((0. Así. . Definición V.1.7) y definida positiva1. y2 )) = x1 y1 − x2 y2 .2. . . + u n v n = i =1 ∑ ui vi . y2 )) = x1 y1 + x2 y2 . Las formas bilineales simétricas definidas positivas son productos escalares. MANUALES UEX 126 . .6(a)). 1)) = −1 < 0. dado un espacio vectorial euclídeo (V. T2 ) y u · v en vez de T2 (u. Llamaremos espacio vectorial euclídeo a todo par (V. es decir. (b) T2 (( x1 .4. vn )t ∈ Rn .2. T2 ). ·) (ó simplemente V) en lugar de (V. La forma bilineal usual no es más que una de ellas. −1 1 6 Como la forma bilineal T2 es simétrica (véase el corolario V. .5. es una forma bilineal simétrica (compruébese) que es definida positiva pues T2 (( x1 . Sobre Rn consideramos la aplicación · : Rn × Rn −→ R tal que u · v = u1 v1 + . un )t y v = (v1 . El producto escalar definido anteriormente se llama producto escalar usual. Sobre R3 consideramos una forma bilineal T2 : R3 × R3 −→ R cuya matriz asociada respecto de una base B de R es   1 1 −1 A= 1 2 1 . La aplicación · es una forma bilineal simétrica y definida positiva. x2 ). 1Más adelante veremos que una forma bilineal simétrica es definida positiva si y sólo si los menores principales de su matriz asociada respecto alguna base de V son estrictamente positivos. ( x1 . (0. (y1 . (y1 . se use la notación multiplicativa · y se escriba (V. . x2 )) = 2 2 x1 + x2 > 0 para todo ( x1 . v). x2 ). . y por tanto dota a Rn de estructura de espacio vectorial euclídeo. no es de extrañar que. 1). ·) es un espacio vectorial euclídeo. Conviene resaltar que se pueden definir infinidad de formas bilineales sobre un mismo R-espacio vectorial. Ejemplo V.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (a) T2 (( x1 .

. tenemos que x · y = x1 y1 + x2 y1 − x3 y1 + x1 y2 + 2x2 y2 + x3 y2 − x1 y3 + x2 y3 + 6x3 y3 . respectivamente.1). con vi = 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA si x e y son vectores de R3 de coordenadas ( x1 . por ser · una forma bilineal definida positiva.3. de hecho. Así mismo.2. Definición V. .1.1.1. entonces. r. y ampliar esta comparación a todos los vectores de u . y2 . .1). 3. y3 ) respecto de B . . .3. Una de las principales aportaciones del producto escalar en un espacio vectorial euclídeo es que nos permite “comparar” dos vectores no necesariamente linealmente dependientes. . tiene perfecto sentido considerar ||v|| = (v · v)1/2 . Diremos que dos vectores u y v ∈ V son ortogonales si u · v = 0. . Así. Ortogonalidad. . i = 1. Nota V.3. Diremos que los vectores de un conjunto {v1 .1) y de un producto escalar (véase la definición XII. . Proposición V.1.2.1. v) = u − v . En este caso podemos decir que “v es α veces u”. podemos afirmar que todo espacio vectorial euclídeo es un espacio métrico. Distancia. En este caso diremos que {v1 . entonces sabemos que existe α ∈ R tal que v = αu. . x3 ) e (y1 . . respectivamente.2. se define la distancia2 entre u y v ∈ V como el número real d(u. Nótese que. son ortogonales entre sí si vi · v j = 0 para todo i = j. 2El lector interesado puede comprobar que efectivamente se trata de una distancia (véase la definición A. entre lo que se encontrarán los espacios vectoriales euclídeos como ejemplo notable en ambos casos.3. es el único vector de norma cero. Sea V un espacio vectorial euclídeo. . . entonces es un conjunto linealmente independiente. . Si {v1 .5. como el producto escalar valora en R y v · v > 0 para todo v ∈ V no nulo. Bases ortogonales y ortonormales Definición V. En los temas VIII y XII se estudiarán los espacios vectoriales (arbitrarios) dotados de una norma (véase la definición VIII. MANUALES UEX 127 Definición V. cuando u y v son linealmente independientes esta comparación no tiene ningún sentido.7. Si u y v dos vectores no nulos de V linealmente dependientes. vr } de V. Sin embargo. Asimismo destacamos que la norma del vector 0 es 0. . que denotamos por ||v|| tal que v · v = ||v||2 . Se llama norma (o módulo) de un vector v ∈ V al único número real no negativo. . vr } es un conjunto ortogonal. . x2 . Módulo de un vector. por la proposición V. vr } ⊆ V es un conjunto ortogonal.6.

entonces 0 = ( λ1 v1 + . . Nótese que B es una base ortogonal de V si. . sólo si. la matriz asociada al producto escalar definido sobre V es diagonal. Es claro que el recíproco de la proposición anterior no es cierto en general. Se dice que un vector v ∈ V es unitario si v = 1. . 1).7. Definición V. (a) La base usual de Rn es una base ortonormal para el producto escalar usual de Rn . . + λr vr = 0. + λr vr ) · v i = λ i v i · v i . −1). en R2 con el producto escalar usual. ·) es ortonormal. en otro caso. Teniendo en cuenta la definición de norma de un vector se tiene que un vector v ∈ V es unitario si y sólo si v · v = 1. i = 1. . . para ciertos λ ∈ R.8. . (0. si ui · u j = δij . un } ⊆ V es una base ortonormal de V si es base ortogonal formada por vectores unitarios. a lo más.3. Diremos que un conjunto de vectores B = {v1 . Definición V.3. Obsérvese que cualquier conjunto ortogonal tiene. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración.3.5. .3. . no sería linealmente independiente. . . 1) · (0. . 1) = 1 = 0. (0. r. r. MANUALES UEX 128 . para cada i = 1. Por ejemplo. . Ejemplo V. para todo i = 1. . r }. r. (b) Sobre R3 consideramos el producto escalar · cuya matriz respecto de la base usual de R3 es   3 −2 −1 A =  −2 2 1 . Diremos que B = {u1 . . .4. −1 1 1 La base B = {(1. 1)} es un conjunto linealmente independiente que no es conjunto ortogonal. Si λ1 v1 + . se sigue que vi · vi = 0 y por lo tanto que λi = 0. . . . (1. para todo i ∈ {1. 0). Teniendo en cuenta que todo producto escalar es una forma bilineal definida positiva y que vi = 0. . es decir. . se tiene que {(1. . (0. . 1. Ejemplo V. vn } de V es una base ortogonal si es conjunto ortogonal que genera a V. 1)} del espacio vectorial euclídeo (R3 . donde δij es la función Delta de Kronecker. n vectores. Veamos algunos ejemplos de bases ortonormales. 1. . . . Definición V.6. El hecho de que todo conjunto ortogonal sea linealmente independiente implica que cualquier conjunto ortogonal que genere al espacio vectorial euclídeo V es base de V. 0.3. .

como queremos que 0 = v1 · v2 = v1 · (w2 + µ12 v1 ) = v1 · w2 + µ12 (v1 · v1 ) = v1 · w2 + µ12 v1 tomamos µ12 = −(v1 · w2 )/ v1 2 y por lo tanto v · w2 v2 = w2 − 1 2 v1 . . . n. donde µ12 ∈ R se elige de modo que v1 y v2 sean ortogonales. wn } una base de V. . una base ortonormal de V. Vamos a describir un procedimiento para construir.3. a partir de B . v3 = w3 − 1 2 v1 − v1 v2 2 Repitiendo el proceso anterior definimos v j = w j + µ1j v1 + µ2j v2 + . . . . Es decir. . . Es decir. . MANUALES UEX 129 En resumen mediante el proceso anterior hemos obtenido un conjunto ortogonal de vectores {v1 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Método de ortonormalización de Gram-Schmidt (caso finito). = v1 · v3 = v1 · (w3 + µ13 v1 + µ23 v2 ) = v1 · w3 + µ13 v1 · v1 + µ23 v1 · v2 = v1 · w3 + µ13 v1 2 y que = v2 · v3 = v2 · (w3 + µ13 v1 + µ23 v2 ) = v2 · w3 + µ13 v2 · v1 + µ23 v2 · v2 . . Sea B = {w1 . . B = {v1 . por la proposición V. . . . n. . vi 2 i j = 2. . donde . . que forma una base de V. un } es una base ortonormal de V. = v2 · w3 + µ23 v2 2 tomamos µ13 = −(v1 · w3 )/ v1 2 y µ23 = −(v2 · w3 )/ v2 2 y por lo tanto v2 · w3 v · w3 v2 . sin más que tomar u j = v j −1 v j . . . v1 Definimos a continuación v3 = w3 + µ13 v1 + µ23 v2 eligiendo µ13 y µ23 ∈ R tales que v1 · v3 = 0 y v2 · v3 = 0. . n. Finalmente. . . vi 2 v1 vj = w1 j −1 = w j − ∑ i =1 vi · w j v. vn }. . . . . j = 1. n. pues. + µ j−1 j v j−1 . . . . . vn } es un conjunto linealmente independiente y dim V = n. como queremos que 0 2 . i =1 ∑ vi · w j vi . . . . Luego {v1 . . . Definimos v1 = w1 y v2 = w2 + µ12 v1 .3. obtenemos que B = {u1 . . tomando µij ∈ R tal que v j · vi = 0. vn } es una base ortogonal de V. para cada i < j e j = 4. . . Se comprueba fácilmente que j −1 0 vj = wj − para cada j = 4.

. 0.3. v2 2 i MANUALES UEX 130 . Ejemplo V. sus columnas forman una base B de Rn . si tomamos rij = pij / v j . 0). Si A ∈ Mn (R) es invertible. 0) y definimos v2 = e2 + µ12 v1 . Por tanto. v2 . 1. eligiendo µ13 y µ23 ∈ R tales que {v1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Veamos ahora algunas consecuencias inmediatas del método de ortonormalización de Gram-Schmidt. partimos de B = {e1 = (1. i = 1. Definimos ahora v3 = e3 + 2 µ13 e1 + µ23 e2 . En todo espacio vectorial euclídeo existen bases ortonormales.12. entonces la matriz del cambio de base de B a B es la matriz triangular superior R = (rij ) ∈ Mn (R). pij = v 2j para todo j > i y pij = 0 para todo j < i.11. Nota V. Según el método de Gram-Schmidt debemos tomar µ13 = − v1 · e3 1 = 6 v1 2 y µ23 = − v2 · e3 = 1. Como A es invertible. respectivamente. e3 = (0. v3 } sea un conjunto ortogonal. Esta descomposición se conoce como factorización QR de A. Demostración. pues Q es claramente ortonormal y R es triangular superior e invertible por la nota V. 1. . 0. n. Corolario V. Según el método de Gram-Schmidt debemos tomar 1 v · e2 µ12 = − 1 2 = − .3.9. eligiendo µ21 ∈ R tal que v1 y v2 sean ortogonales.3. 0. . e2 = (0. 1)}. Corolario V. existen Q ∈ Mn (R) ortogonal y R ∈ Mn (R) triangular superior e invertible tales que A = Q R. −1 −1 1 Como la matriz viene dada respecto de la base usual. En primer lugar tomamos v1 = e1 = (1. 0). 0).10. . 2 v1 y por lo tanto v2 = e2 − 1 v1 = (−1/2. Además. Considerando el producto escalar usual de Rn y aplicando el método de Gram-Schmidt a B obtenemos una base ortonormal B de Rn . Siguiendo con la misma notación que en el método de Gramvi · w Schmidt. entonces la matriz del cambio de la base B a B es la matriz triangular superior P = ( pij ) ∈ Mn (R). Sobre R3 consideramos el producto escalar · cuya matriz respecto de la base usual de R3 es   6 3 −1 A= 3 2 −1  . si elegimos pii = 1. basta tomar Q como la matriz cuyas columnas son los vectores de B y R como la matriz del cambio de base de B a B .3.3.10 y por ser la matriz de un cambio de base. para obtener el resultado buscado.

. 0. se tiene que v · vj = i =1 ∑ αi vi · v j = n i =1 ∑ α i ( v i · v j ) = α j ( v j · v j ). 0). Demostración. entonces v j = 1. . αn ∈ R tales que n v = ∑i=1 αi vi . para cada j = 1. 0. . . . En virtud de la proposición V. . Como B es ortogonal. 2. . si B es además ortonormal. entonces v = (v · v1 )v1 + . . . . 6 Así obtenemos que B = {v1 .3.. 1. vn } una base ortogonal de V. . 1. . .+ vn . Dado v ∈ V. . la matriz asociada al producto escalar definido sobre V es la matriz identidad de orden n. para cada j = 1.1. .3. . Como B es una base de V. . si B es ortonormal. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y por lo tanto v3 = e3 + 1 v1 + v2 = (−1/6. . es una base ortogonal 3 . .5. . luego. . yn ) respecto de B . un } y B = {u1 . . si x e y ∈ V tienen coordenadas ( x1 . u2 = v = (− 2/2. . . un } de V. . son (v · u1 . sólo si. v3 } con v1 = e1 = (1. . . Este hecho permite obtener una expresión en coordenadas del producto escalar respecto de B realmente sencilla: Sean V espacio vectorial euclídeo y B = {u1 . n. un } es una base ortonormal de V si. . . 1. . podremos realizar un cambio de base de forma que la expresión en coordenadas del producto escalar sea “lo más sencilla posible”. v2 = e2 − 1 1 2 v1 = (−1/2. v · un ). 3. . . . . α j = v · v j .14. + x n y n . Luego a la vista de lo anterior. Finalmente. se cumple que v · vn v · v1 v +. . v= 2 1 v1 vn 2 Además. . un } dos bases ortonormales de V. . para todo j = 1. entonces x · y = x1 y1 + . Sean V un espacio vectorial euclídeo y B = {v1 . . . . 0) y v3 = e3 + 6 v1 + v2 = (−1/3. existen α1 . . n. . .. De la proposición anterior se deduce que las coordenadas de un vector v de un espacio vectorial euclídeo V respecto de una base ortonormal B = {u1 . u } con u = v1 = de R 1 2 3 1 v1 √ √ √ √ √ √ v3 v2 ( 6/6. . n de donde se sigue que α j = (v · v j )/ v j . 1). + (v · vn )vn . . . 1). . Otro hecho a tener en cuenta es el siguiente: Nota V. .15. . . n. Destacamos que B = {u1 . . xn ) e (y1 . 3).3. siempre que podamos asegurar la existencia de bases ortonormales en cualquier espacio vectorial euclídeo. Si P = ( pij ) ∈ Mn (R) es la matriz de cambio de la base B a la MANUALES UEX 131 . Y una base ortonormal de R3 es B = { u . 2 3 Proposición V. un } una base ortonormal de V.13. Sean B = {u1 . . v2 . Nota V. u . . . . 0) y u3 = v = (− 3/3. 0).

En efecto: por una parte.  ( p1i . . para todo u ∈ L} es un subespacio vectorial de V. (a) Si v ∈ V ⊥ . Por otra parte. Demostración. pnj y por otra parte. se tiene que (αv + βw) · u = α(v · u) + β(w · u) = 0. Como consecuencia de lo anterior se sigue que la matriz de cambio de una base ortonormal a otra base ortonormal tiene determinante igual a ±1 : | P|2 = | P|| P| = | Pt || P| = | Pt P| = | In | = 1. u ∈ L y α y β ∈ R.4. según lo anterior. en particular.1. w ∈ L⊥ . pni )  . para u = v. Basta tener en cuenta que. Si L ⊆ L .  = ui · u j . es decir. entonces v · u = 0 para todo u ∈ V.4. . MANUALES UEX 132 Demostración. Subespacio ortogonal. V = L ⊕ L⊥ . para todo v ∈ V. {0}⊥ = V. es decir. obtenemos ui · u j = δij . Proposición V. Sea L un subespacio de V. Sean L y L dos subespacios vectoriales de V. se tiene que 0 · v = 0. al ser B ortonormal. como el producto escalar es una forma bilineal sobre V. P−1 = Pt . tenemos   p1j  . dim( L) + dim( L⊥ ) = dim(V ). ( L⊥ )⊥ = L. 4.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS base B . Este subespacio se llama subespacio ortogonal a L y se denota por L⊥ . Proyección ortogonal Veamos que el conjunto de todos los vectores que son ortogonales a los vectores de un subespacio L de V es un subespacio vectorial de V.2. entonces la matriz Pt In P = Pt P es igual a la matriz identidad In . por ser B ortonormal. . entonces ( L )⊥ ⊆ L⊥ . se tiene que v · v = 0. Proposición V. V ⊥ = {0}. ( L + L )⊥ = L⊥ ∩ ( L )⊥ y ( L ∩ L )⊥ = L⊥ + ( L )⊥ . . Recuérdese que un matriz P ∈ Mn (R) se dice ortogonal cuando Pt = Por tanto. . El conjunto L⊥ = {v ∈ V | v · u = 0. para todo v. L ⊥ ∩ L = { 0 }. es decir. podemos afirmar que las matrices de cambio de base ortonormales son las matrices ortogonales. de donde se sigue que v = 0. Se cumple que: (a) (b) (c) (d) (e) (f) (g) V ⊥ = {0} y {0}⊥ = V. P −1 . .

existe unos únicos v1 ∈ L y v2 ∈ L⊥ tales que v = v1 + v2 . ur−1 . Sea L un subespacio vectorial de V. se llama proyección ortogonal de v sobre L al único vector v1 ∈ L tal que v − v1 ∈ L⊥ . entonces v · u = 0. . para todo u ∈ L . . esto es L⊥ ∩ ( L )⊥ . . dim( L⊥ ) = n − r. . (g) Si v ∈ L. por un lado se tiene que el ortogonal del menor subespacio vectorial de V que contiene a L y a L . de donde se sigue que v = 0. L⊥ + ( L )⊥ .4. Es claro que. tomar ortogonales invierte las inclusiones. es decir. para todo u ∈ L. . luego. un = L⊥ . entonces v · v = 0. se tiene que v · u = 0. . un } una base ortonormal de V tal que {u1 . Teniendo ahora en cuenta que dim( L) = dim(( L⊥ )⊥ ). (f) Es consecuencia directa de los apartados (d) y (e). si v1 es la proyección ortogonal de v sobre L entonces v1 ∈ u y v − v1 ∈ u ⊥ . ur−1 . Ejemplo V. esto es. L ⊆ ( L⊥ )⊥ . Y por otra parte. . ur . (e) Supongamos que dim( L) = r ≤ n y sea {u1 . Entonces. y como L ⊆ L . Proyección ortogonal de un vector sobre un subespacio.4. Luego. . . L⊥ ∩ L = {0}. . es el mayor subespacio vectorial de V contenido en L⊥ y en ( L )⊥ . . . un ⊆ L⊥ y como. el ortogonal del mayor subespacio vectorial de V contenido en L y en L . para cada v ∈ V. es decir. por lo tanto. (c) Por el apartado (b). es decir. por construcción. se sigue que ur−1 . Veamos cómo es la proyección ortogonal sobre L = u . . . pues.4. Dicho de otro modo. L⊥ ∩ L = {0}. dim( L) + dim( L⊥ ) = dim(V ) y dim( L⊥ ) + dim(( L⊥ )⊥ ) = dim(V ). por el apartado (e). (d) Si v ∈ L⊥ ∩ L. . Sea u un vector no nulo de un espacio vectorial euclídeo V. existe un único v1 ∈ L tal que v − v1 ∈ L⊥ . esto es.3. . ur } es un base ortonormal L (lo que siempre se puede conseguir aplicando el método de Gram-Schmidt a la ampliación a V de una base de L). u 2 MANUALES UEX 133 Definición V. Dado un subespacio vectorial L de V. por el apartado (f) de la proposición anterior tenemos que V = L ⊕ L⊥ . esto es el ortogonal de L + L . para todo u ∈ L⊥ . de donde se sigue que v ∈ L⊥ . concluimos que L = ( L⊥ )⊥ . . existe α ∈ R tal que v1 = αu y (v − αu) · u = 0. v·u v1 = u.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (b) Supongamos que L ⊆ L y sea v ∈ ( L )⊥ . . lo que se conoce por proyección ortogonal sobre el vector u : dado v ∈ V. el ortogonal de L ∩ L . . Dado v ∈ V. es el menor subespacio vectorial de V que contiene a L⊥ y a ( L )⊥ . entonces v · u = 0. . por el apartado (d). .

. La proyección ortogonal π L es un endomorfismo de V de imagen L y núcleo L⊥ . es v · v1 v · vr v +. . Proyección ortogonal sobre un subespacio. Luego.7. . 2 1 v1 vr 2 Demostración.. Dado un subespacio vectorial L de V. . Teorema V.4. para todo u ∈ L. vr } una base ortogonal de L. La demostración es un sencillo ejercicio que se propone al lector. Si v1 es la proyección ortogonal de v sobre L. . Sean ahora B una base de V y A ∈ Mn (R) la matriz del producto escalar de V respecto de B . entonces su proyección ortogonal sobre L.5. Basta comprobar que v − v · v1 v1 2 v1 − . Sean L un subespacio vectorial de un espacio vectorial euclídeo V y v ∈ V. . + (v · ur ) ur .6. . Demostración. MANUALES UEX 134 Lema V. v1 ) ≤ d(v. se define la proyección ortogonal sobre L como la aplicación π L que asigna a cada vector v ∈ V su proyección ortogonal sobre L.+ vr . − v · vr ur 2 vr ∈ L ⊥ . Demostración. Sea u ∈ L distinto de v1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Proposición V. entonces la proyección ortogonal de v ∈ V sobre L es (v · u1 ) u1 + . . entonces v − u = v − v1 + v1 − u. y se sigue que v − u ≥ v − v1 y se da la igualdad si. ur } de L.4. o dicho de otro modo. Entonces. . Si dim( L) = r. el único vector v1 ∈ L tal que v − v1 ∈ L⊥ .. El teorema anterior afirma que la distancia de v ∈ V a L es igual a la distancia de v a su proyección ortogonal sobre L. entonces d(v. las columnas de B ∈ Mn×r (R) son las coordenadas respecto de B de los vectores de una base de L y C = AB. . v−u 2 = v − v1 2 + v1 − u 2 . v1 ) = v − v1 ≤ v − u = d(v. . Sea V un espacio vectorial euclídeo de dimensión n > 0. entonces se cumple que . sólo si. rg(π L ) = dim( L). es decir. d(v. en particular. el vector de L más próximo a v. Nótese que si en la proposición anterior consideramos una base ortonormal B L = {u1 .4. u). es decir. para todo u ∈ L. Sean L un subespacio vectorial de V y B L = {v1 . v = v1 . con v − v1 ∈ L⊥ y v1 − u ∈ L. u). Si v ∈ V. (v − v1 ) · (v1 − u) = 0. .

Demostración. como A es invertible (véase el comentario posterior a la definición V.4.2. en este caso. entonces la aplicación lineal Rn → Rn . en } de Rn es ortonormal.4. Basta tomar B igual a la union de una base ortonormal de L con una base ortonormal de L⊥ . se tiene que rg(C ) = rg( AB) = rg( B) = r. basta observar que xt Ct Cx > 0. . dado cualquier u ∈ Rr . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Proposición V. Demostración. 5. . . Si L tiene rango r. Obsérvese que de la proposición anterior se deduce que la matriz de una proyección ortogonal es simétrica e idempotente. Así pues. existe una base ortonormal B de V tal que la matriz de π L respecto de B es Ir 0 0 0 . Por otra parte. . En primer lugar. para todo x ∈ Rr . . . por ser xt Ct Cx el cuadrado de la norma de Cx para el producto escalar usual de Rn . . v − Pv ∈ L⊥ . MANUALES UEX 135 A lo largo de esta sección consideraremos el espacio vectorial Rn con el producto escalar usual . yn )t ∈ Rn . . es decir.9. se tiene que Ct C es simétrica e invertible3. sabemos que. Además. La proposición anterior no es más que un caso particular de una propiedad que estudiaremos con más detalle en la siguiente sección. xn )t e y = (y1 . se tiene que (v − Pv) Bu = (v − Pv)t ABu = (v − C (Ct C )−1 Ct )v)t ABu = vt ABu − vt C (Ct C )−1 Ct ) ABu = vt ABu − vt ( AB(( AB)t ( AB))−1 ( AB)t ) ABu = vt ABu − vt ABu = 0. .8. la base usual B = {e1 . x → Px es la proyección ortogonal sobre im( P) (compruébese). Proposición V. Para ver que es invertible.1). . La matriz de π L respecto de B es P = C ( C t C ) −1 C t . . el recíproco de esta afirmación es cierto en el siguiente sentido: si P ∈ Mn (R) es una matriz simétrica e idempotente. 3La comprobación de que es simétrica es elemental. n donde x = ( x1 . Además. Matrices simétricas reales (y matrices hérmiticas) x·y = i =1 ∑ xi yi . dado v ∈ Rn se tiene que Pv = C (Ct C )−1 Ct v ∈ L.

. xn yn (b) Sea m ∈ N. entonces Am es simétrica.   . Si A ∈ Mn (R) es simétrica. yn  x1 y1   . (c) x · ( p( A)y) = ( p( A)x) · y. . .   . . Demostración. . .  = ( Ax) · y. basta aplicar el apartado (a) a la matriz Am .1.  . para cualquier p( x ) ∈ R[ x ]. + c1 x + c0 ∈ R[ x ]. (b) x · ( Am y) = ( Am x) · y.  yn    t  x1 . Demostración. para cualquier m ∈ N. por consiguiente. (a) Si x = ( x1 . para todo x e y ∈ Rn . MANUALES UEX 136 y como λ y µ son distintos se concluye que u · v = 0. se cumple que (a) x · ( Ay) = ( Ax) · y. .  . (c) Sea p( x ) = cm x m + .   .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Diagonalización de matrices simétricas reales.  x · ( Ay) = ( x1 . Demostración.5. xn )t e y = (y1 . . . .5. Si A es simétrica. es decir que ℵ A ( x ) no tiene factores irreducibles de segundo grado. Si A es simétrica. Si A ∈ Mn (R) es simétrica.  =  A  . . xn  t   y1 . x n ) A  . . entonces existe P ∈ Mn (R) ortogonal tal que Pt AP es diagonal. respectivamente. . en particular. toda matriz simétrica es congruente con una matriz diagonal. Proposición V.5. por consiguiente. Si A es simétrica. Teorema V. . λ(u · v) = (λu)v = ( Au) · v = u · ( Av) = u · (µv) = µ(u · v).2. . Sean λ y µ dos autovalores distintos de A y u y v autovectores de A asociados a λ y a µ.    ( x1 . entonces p( A) = cm Am + .    y1  . yn )t ∈ Rn .  =  At  . . En primer lugar vamos a probar que todas las raíces del polinomio característico de A son reales.  . + c1 A + c0 In es simétrica. . Lema V. . .   . entonces   y1  . xn ) A  . yn y como A = At . entonces dos autovectores asociados a autovalores distintos de A son ortogonales.3. basta aplicar el apartado (a) a la matriz p( A). . Entonces. . . . .

v ∈ ker( A − λIn ). . Entonces. es decir. entonces ( A − aIn )2 (v) = 0. Por tanto. tenemos que ( A − aIn )(v) · ( A − aIn )(v) + b2 (v · v) > 0. Sean A ∈ Mn (R) simétrica. donde α = a + bi ∈ C \ R. con lo que. luego. . . . . ⊕ ker( A − λr In ). entonces ¯ z ∈ Cn es un autovector de A asociado a α y v = z − z ∈ Rn es un vector no nulo de ker(( A − ¯ ¯ aIn )2 + b2 In ). . B = ∪Bi es una base ortonormal de autovectores. en cuyo caso. n. . al suponer que el polinomio característico ℵ A ( x ) tiene algún factor irreducible de segundo grado.4. Probemos ahora que si λ es una raíz de ℵ A ( x ) con multiplicidad m. . tendremos que la dimensión de (ker( A − λIn )) es m (véase el teorema III. lo que es contradictorio con b = 0. ≥ λn los autovalores (posiblemente repetidos) de A y P ∈ Mn (R) una matriz ortogonal tal que Pt AP = D = (dij ) ∈ Mn (R) es diagonal con dii = λi . Para obtener una base ortonormal de autovectores. . . .10(a)). Corolario V. . Por la proposición V. que la matriz A es diagonalizable. i = 1.2. u n \ { 0 } . tomamos una base ortonormal Bi en cada uno de los subespacios ker( A − λi I ).5. donde la igualdad ( A − aIn )2 (v) · v = ( A − aIn )(v) · ( A − aIn )(v) se debe a la simetría A − aIn (véase el lema V. Si v ∈ ker( A − λIn )2 . .5. 4Si α ∈ C \ R es un autovalor de A y z ∈ Cn es un autovector de A asociado a α. . si ( A − aIn )v = 0. como los vectores v y ( A − aIn )v son no nulos. entonces ker( A − λIn ) = ker( A − λIn )2 . ( A − λIn )v = 0. Si ui denota a la columna i-ésima de P. llegamos a una contradicción. y b2 v = 0. .5. Además. Tomemos un vector no nulo4 v ∈ ker(( A − aIn )2 + b2 In ).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Supongamos que un factor irreducible de ℵ A ( x ) es p( x ) = ( x − α)( x − ¯ α) = ( x − a)2 + b2 .1(a)). Con esto queda probado que Rn = ker( A − λ1 In ) ⊕ . v · Av | v ∈ ui . 0 = ( A − aIn )2 (v) + b2 v · v = ( A − aIn )2 (v) · v + b2 v · v = ( A − aIn )(v) · ( A − aIn )(v) + b2 (v · v). entonces 0 = ( A − λIn )2 v · v = ( A − λIn )v · ( A − λIn )v. v 2 MANUALES UEX 137 . entonces λi = ui · Aui = m´ x a para cada i = 1. es decir. .5. λ1 ≥ . n.

entonces λi = ui · Aui . j j y la igualdad se alcanza en v = ui . Si A ∈ Mn (R) es simétrica de rango r. Tomando Q = PR. observamos que si ui es un autovector ortonormal asociado a λi . un con v = 1} . . existe una matriz ortogonal P ∈ Mn (R) tal que Pt AP = D = (dij ) ∈ Mn (R) es diagonal. . entonces existe Q ∈ Mn (R) invertible tal que   Ip 0 0 t Q AQ =  0 − Iq 0  0 0 0 donde I p e Iq son las matrices identidad de ordenes p y q. un con v v = ∑n=i α j u j . . Demostración. es decir. i = 1.5. como (αv) · A(αv) v · Av = . . . Corolario V. pues. . v ∈ ui . |dii | 1 si dii = 0 . . con ∑n=i α2 = 1. . n. con p + q = r. . . si dii = 0. puesto que Pt AP = D y dii = λi . . respectivamente. i = 1. n. 138 . . . a para cada i = 1.3. . . n. Sea R = (rij ) ∈ Mn (R) la matriz diagonal tal que rii = MANUALES UEX √1 . Según el teorema V. se obtiene el resultado buscado. . . .5.5. Sea.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. . v 2 αv 2 para todo α ∈ R y v ∈ Rn no nulo. basta demostrar que λi = m´ x {v · Av | v ∈ ui . . . i = 1. . . entonces j j j v · Av = = 1. y ordenando debidamente las entradas de la diagonal de Qt AQ. . ∑ αj uj j =i n n · A( ∑ α j u j ) = j =i n ∑ αj uj j =i n j =i n · ∑ α j ( Au j ) j =i n j =i n = ∑ αj uj j =i · ∑ α j (λ j u j ) j =i n = ∑ λ j α2 ≤ λ i ∑ α2 = λ i . Por otra parte. En primer lugar. n.

Proposición V. de donde se sigue que λ ≥ 0 si A es semidefinida positiva y λ > 0 si A definida positiva. Como A es simétrica. . . i = 1. . en particular. entonces todos sus autovalores reales son no negativos. Sea A ∈ Mn (R). . Demostración. Obsérvese que la definición de matriz (semi)definida positiva es consistente con la definición de forma bilineal (semi)definida positiva. todos sus autovalores son no negativos. y sólo si. para todo v ∈ Rn no nulo. vt Av = ( Pw)t A( Pw) = wt ( Pt AP)w = i =1 ∑ λi wi2 . Recíprocamente. son los autovalores (posiblemente repetidos) de A.8. diremos que A es definida positiva. si A es definida positiva.5. Sea A ∈ Mn (R) una matriz simétrica. por el teorema V. . para todo v ∈ Rn . . En efecto. . Como P es invertible.5. No obstante. si vt Av ≥ 0. de hecho solo nos van a interesar la matrices simétricas (semi)definidas positivas y sus propiedades. tiene todos sus autovalores en R. n y positivo si λi > 0. luego.5. wn )t ∈ Rn tal que Pw = v. i = 1. También se puede definir los conceptos de matriz semidefinida y definida negativa de la forma obvia. A es semidefinida positiva si. . la proposición V. n. Definición V. . vt Av > 0. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Matrices simétricas (semi)definidas positivas.3. Si A es semidefinida positiva. todos sus autovalores son positivos. . .6. vt Av es no negativo si λi ≥ 0. . n. . existe una matriz P ∈ Mn (R) ortogonal tal que Pt AP es diagonal. . y positivos. . vn )t ∈ Rn . sea v = (v1 . . i = 1. Por consiguiente.5. A es definida positiva si. Sean λ ∈ R un autovalor de A y v ∈ Rn un autovalor de A asociado a λ. nosotros solamente consideraremos matrices semidefinidas y definidas positivas.7. si A es semidefinida positiva. . y sólo si. . vt Av = vt ( Av) = vt (λv) = λ(vt v) = λ v 2 . T2 : V × V → R es una forma bilineal (semi)definida positiva si. Luego.5. . Demostración. Si A es definida positiva. la matriz de T2 respecto de cualquier base de V es (semi)definida positiva (compruébese). MANUALES UEX 139 . Entonces. n donde λi . y sólo si. Corolario V. existe un único w = (w1 .7 permite concluir que todos los autovalores de A son no negativos. Diremos que A ∈ Mn (R) es semidefinida positiva. entonces todos sus autovalores reales son positivos. Si además.

entonces.8. por el corolario V. QQt = ( PRP)( PRP)t = PRPPt RPt = PR2 Pt = PDPt = A. y rij = 0.3.5. Corolario V. A−1/2 A−1/2 = ( PR−1 Pt )( PR−1 Pt ) = P( R2 )−1 Pt = PD −1 Pt = A−1 .5. Finalmente. entonces existe una matriz simétrica A1/2 tal que A = A1/2 A1/2 . todas las entradas de la diagonal de D son no positivos. Tomando A−1/2 = PR−1 Pt se obtiene el resultado buscado. Demostración. Lo cual se demuestra exactamente √ igual que antes tomando R = (rij ) ∈ Mr×n (R) tal que rii = dii . existe Q ∈ Mn (R) tal que A = QQt .3. Demostración. . Si A es semidefinida positiva. i = 1. si i = j. por el corolario V. Sea A ∈ Mn (R) simétrica. . MANUALES UEX 140 Nota V. . . el corolario anterior se suele redactar en los siguientes términos: sea A ∈ Mn (R). además. Sea R = (rij ) ∈ Mn (R) la matriz diagonal tal que √ dii .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Corolario V.5. todas las entradas de la diagonal de D son no negativos. . Si A es simétrica y semidefinida positiva. rii = 0 si dii = 0 Tomando A1/2 = PRPt se obtiene el resultado buscado. en efecto. En efecto.5.8. n. n. por el corolario V. 0 si dii = 0 Tomando Q = PRP se obtiene el resultado buscado. por lo que R es invertible. A1/2 A1/2 = ( PRPt )( PRPt ) = PR2 Pt = PDPt = A.5. . i = 1.5. .5. Si A es simétrica. Sea A ∈ Mn (R). rii = .11. existe Q ∈ Mr×n (R) tal que A = QQt . A menudo. r. existe una matriz ortogonal P ∈ Mn (R) tal que Pt AP = D = (dij ) ∈ Mn (R) es diagonal. En efecto. Según el teorema V. Si A es definida positiva existe una matriz A−1/2 tal que A−1 = A−1/2 A−1/2 . existe una matriz ortogonal P ∈ Mn (R) tal que Pt AP = D = (dij ) ∈ Mn (R) es diagonal. si dii = 0.5. Según el teorema V. Sea R = (rij ) ∈ Mn (R) la matriz diagonal tal que √ dii . . . si A es definida positiva. . . . además.8.9. i = 1.10. . si dii = 0. . todos las entradas de la diagonal de D son no negativos. semidefinida positiva y tiene rango r.

0  . Por el corolario V. . existe una matriz ortogonal P ∈ Mi (R) tal que   λ1 .13. existe una única matriz Q ∈ Mn (R) triangular inferior tal que A = QQt . como A es simétrica y definida positiva. i = 1.  a1i . . . n − 1. todos sus menores principales son positivos. donde p j denota a la columna j-ésima de P.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Corolario V. Para cada matriz ortogonal P ∈ Mn (R) se tiene que A = ( BP)( BP)t . .12. Luego.. . Terminamos esta sección mostrando otra condición necesaria y suficiente para que una matriz simétrica sea (semi)definida positiva. . Sea A ∈ Mn (R) simétrica. . MANUALES UEX 141 es decir. 1 n Obsérvese que P está unívocamente determinada y puede comprobarse fácilmente que P es ortogonal y que BP es triangular inferior. Sea a11  . A es definida positiva si. b t −1 ⊥ 1 n y pn−i ∈ bt . pn ∈ Rn sean de norma 1 y satisfagan que p n ∈ b t . . Luego. j = 1.5.. por lo que B también es invertible. .10. . . Si A es simétrica y definida positiva. . . es invertible. . . Demostración. de donde se sigue que | Ai | = λ1 · · · λi es no j negativo si A es semidefinida positiva y es positivo si A es definida positiva. Demostración. . . . . sabemos que existe B ∈ Mn (R) tal que A = BBt . entonces 0 λ j = ut Au j ≥ 0. .  i . Ai es la submatriz de A que se obtiene al eliminar las últimas n − i filas y columnas. y sólo si. Sea A ∈ Mn (R). ... entonces A es semidefinida positiva. . las filas de B son linealmente independientes. bt −i−1 . .5. . . Por ser Ai una matriz simétrica. . . pn ⊥ . Ai =  .5. . Si b1 . para cada B ∈ Mn (R) existe P ortogonal tal que BP es triangular inferior. construimos P de tal manera que sus columnas p1 . n. Esta descomposición se conoce como factorización de Cholesky de A. . .  ∈ M (R).  Pt A i P =  . λi pj ∈ Rn . bn ∈ M1×n (R) son las filas de B. Proposición V. . . pn−i+1 . basta probar que. . ai1  .. Además. . . . .. Si todos sus menores principales son no negativos. . . aii 0 Si u j = .

 0 0 De donde se sigue que cambio de la base {u1 . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Para probar la implicación contraria de la segunda afirmación procederemos por inducción en n. en } la base usual de Rn . un } a la . . . si v = ∑n=11 α j u j + αn un . Consideremos el vector n −1 un = en − Por ser i =1 ∑ et Aui n ui .. · λn−1 · (ut Aun ) = | Q|2 | A| > 0. . entonces n j vt Av = n −1 j =1 ∑ λ j α2 + α2 (utn Au) ≥ 0 (> 0. Finalmente. λi et Aui n λi = 0. Sean P ∈ Mn−1 (R) una matriz ortogonal tal que Pt An−1 P es diagonal y uj = pj 0 ∈ Rn . . λn−1 son todos estrictamente positivos. un−1 . . . donde p j denota a la j-ésima columna de P. . n − 1. . . Como An−1 es definida positiva. A es definida positiva. . λi ut Aui = et Aui − n n tenemos que si Q es la matriz del base usual de Rn . .. un−1 } es una base de e1 . . es decir. . . . siendo {e1 . . . el resultado es evidentemente cierto. . .  λ1  . 0 . . 0 0 . λ n −1 . . 0 ut Aun n    . Sea n > 1 y supongamos que el resultado es cierto para toda matriz simétrica de orden menor que n − 1 cuyos menores principales sean positivos. .  | D | = λ1 · . 142 . . Qt AQ =  . . . en−1 .... Sea An−1 ∈ Mn−1 (R) la matriz obtenida eliminando la última fila y la última columna de A. j = 1. por hipótesis de inducción. . .. ut Aun > 0.  . . es claro que {u1 . .. . n MANUALES UEX − luego. . n j respectivamente). Para n = 1. sabemos que sus autovalores λ1 .

Demostración. El concepto análogo a matriz simétrica para las matrices con coeficientes complejos es el de matriz hermítica.5.14. 61. Sea A ∈ Mn (C).5. Demostración. También se comprueba fácilmente que el método de Gram-Schmidt tiene perfecto sentido en Cn . entonces |λ| = 1. donde se deduce la existencia de bases ortonormales y la factorización QR de matrices complejas invertibles.15. 94). es una matriz triangular superior.5 de [IR99] p. Por otra parte. v) → u∗ v es simétrica y definida positiva (compruébese). (a) Existe una matriz Q ∈ Mn (C) unitaria tal que Q∗ AQ = T es triangular5 (b) A es normal si. Proposición 2. por lo se proponen como ejercicio al lector. Veamos a continuación una serie de resultados sobre diagonalización de matrices hermíticas.4 de [BCR07] o la demostración del Teorema 2. J. MANUALES UEX 143 y por consiguiente que T = Q∗ AQ = RJR−1 . sabemos que su forma canónica de Jordan. Sea P ∈ Mn (C) tal que P−1 AP = J. existe Q unitaria tal que Q∗ AQ es diagonal. hemos preferido añadir referencias de las mismas para facilitar la tarea si fuese necesario. (a) Como A ∈ Mn (C). entonces todos sus autovalores son reales. Proposición V. En realidad no es imprescindible usar la forma canónica de Jordan para demostrar este apartado: véanse la sección la sección 6. (b) Si A es unitaria. Es conveniente advertir que en el espacio vectorial Cn también podemos definir un “producto escalar usual”: la aplicación bilineal Cn × Cn −→ C. que es triangular superior. y sólo si. para todo autovalor λ de A.16. normales y unitarias.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Matrices hermíticas. Definición V. Teorema V. (u.1 de [IR99] p. como P es invertible existen Q unitaria y R triangular superior e invertible tales que P = QR. no obstante. 62 donde también se demuestra (b) que nosotros proponemos como ejercicio. sólo que ahora Q es unitaria en vez de ortogonal (véase el ejercicio 2. La mayoría de las demostraciones de estos resultados son similares o consecuencias directas de las realizadas con anterioridad. Una matriz hermítica A ∈ Mn (C) es 5La descomposición A = QTQ∗ se conoce como factorización de Schur de A. Combinando ambas igualdades se sigue que J = P−1 AP = ( QR)−1 A( QR) = R−1 Q∗ AQR. (a) Si A es hermítica. Sea A ∈ Mn (C).5.12 de [IR99] p. .

. . . xn ) son las coordenadas de x ∈ Rn respecto de un base B de V. . donde aij ∈ R. . . Observemos que la matriz de una forma cuadrática q de V no es única.j=1 aij xi x j se escribe   x1 q ( x ) = q ( x1 . de hecho. Proposición 2. n} y ( x1 . . xn ) Pt AP  . . . Obsérvese que una forma cuadrática sobre V no es más que un polinomio homogéneo de grado 2 en n variables con coeficientes en R. la forma cuadrática n q(x) = ∑i. para todo v ∈ V \ {0}. Proposición 2. .17.7 de [IR99] p. Demostración.8 de [IR99] p. x n ) = ( x1 . son reales no negativos. Si A ∈ Mn (C) es una matriz hermítica. definida positiva. Proposición V. Proposición V. . xn donde P ∈ Mn (R) es la matriz del cambio de la base B a la base B . . . . (b) semidefinida positiva si v∗ Av ≥ 0. 66.1. 6. se verifica: (a) A es definida positiva si.  . cuando A es invertible la matriz A∗ A es.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (a) definida positiva si v∗ Av > 0. Además. para todo v ∈ V. Si A = ( aij ) ∈ Mn (R). . . . j ∈ {1. i. xn ) = ( x1 . . si B es otra base de V y ( x1 .5. y sólo si. 67.j=1 ∑ n aij xi x j . Por otra parte. y sólo si. . . Demostración. . . . . Dada una matriz A ∈ Mn (C) se verifica que A∗ A es una matriz hemítica y semidefinida positiva. . . . .  . xn MANUALES UEX 144 donde ( x1 .6. . . . . Sea B y B bases de V. entonces   x1 q(x) = q( x1 . . todos sus autovalores son reales positivos (b) A es semidefinida positiva si.5. x n ) A  . . Formas cuadráticas Definición V. xn ) son las coordenadas de x respecto de B . . Una forma cuadrática en V es una aplicación q : V → R tal que q(x) = i. . xn ) son las coordenadas de x ∈ Rn respecto de B .18. .

x3 ) = x1 + 3x1 x2 + 6x2 − x2 x1 + x2 x3 + x3 + 3x3 x2 se puede escribir 1 ( x1 . . Sean V = R3 y B su base usual. .  q ( x ) = ( x1 . . x3 ) = x1 + 3x1 x2 + 6x2 − x2 x1 + x2 x3 + x3 + 3x3 x2 2 2 2 = x1 + 2x1 x2 + 6x2 + 4x2 x3 + x3 . .6. .2. x2 . . x2 .  3 6 3  0  1  1  x1 . La forma cuadrática 2 2 2 q( x1 .  . x3 )  −1 0 Como 2 2 2 q( x1 .6. x n ) S  .3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplo V. 4  .  . x3 ) 0  1 6 2  x  1 0  . Sabemos que A puede escribirse. Existe una única matriz simétrica S tal que  x1  . x2 . xn también se puede escribir 1 q ( x1 . . 2 2  MANUALES UEX 145 . de forma única. . x2 . Sean q una forma cuadrática de V y B una base de V. . . existe una matriz simétrica asociada a q respecto de B . x2 . . x3 )  0 0 o también. xn ) son las coordenadas de x ∈ V respecto de B . es decir. Sea A ∈ Mn (R) una de las matrices de q respecto de B .  2  . . 1 xn Proposición V. como la suma de una matriz simétrica y otra antisimétrica (ejercicio 4): A= 1 1 ( A + At ) + ( A − At ). 1  1 q ( x1 . x2 . x2 . x3 ) = ( x1 .  . x3 ) = ( x1 . 1 xn  2 6 0  x  1 0  . Demostración. . . xn donde ( x1 .

 . . . . . . .  . entonces existe una base B de V. . . . xn i =1 MANUALES UEX 146 . .  ( x1 . x n ) S  . . La unicidad de S se sigue de la unicidad de la descomposición de A como suma de una matriz simétrica y otra antisimétrica.  . . . xn ) H  . Llamaremos matriz de la forma cuadrática q de V respecto de B a la única matriz simétrica S ∈ Mn (R) tal que   x1  . . . . xn ) H  .  ( x1 . xn luego  x1  .1) q(x) = ( x1 . . Definición V. . . . . . . . . xn  xn   x1  .  = ∑ dii xi .  q ( x ) = ( x1 . . . entonces      t x1 x1  .   x1 . x n ) H  . . . . . xn xn Rn .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Por otra parte.6. .  . concretamente aquella tal que la matriz del cambio de base de B a B es P. . . . Sea B una base de V. . . x n ) H  .6. .4. . . si A es la matriz (simétrica) de la forma cuadrática q respecto de B . de tal manera que q se puede escribir también como   x1 n  . x n ) A  . . Por consi  . . . x n ) S  . xn ) D  .    . . xn ) son las coordenadas respecto de B de x ∈ Rn .  = −( x1 . Por tanto.   = ( x1 . . . . . xn donde ( x1 . xn Recordemos ahora que para cualquier matriz simétrica A ∈ Mn (R) existe una matriz ortogonal P ∈ Mn (R) tal que Pt AP = D = (dij ) ∈ Mn (R) es diagonal.  = 0. . . q ( x ) = ( x1 . .  2 (V.  = ( x1 . si S = 1 ( A + At ). xn donde ( x1 .  =  x1 . xn ) H t  . xn ) son las coordenadas respecto de B de x ∈ guiente. entonces 2    x1 x1  .   . si H ∈ Mn (R) es antisimétrica.

. . .6. . Una forma cuadrática q es definida positiva si q(x) > 0. para todo x ∈ Rn . xn donde ( x1 . . . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA donde ( x1 . . . . .  . Si T2 : V × V → R es una forma bilineal simétrica. . . x n ) A  . xn ) son las coordenadas de x ∈ Rn respecto de B . . . A T2 se le denomina forma bilineal simétrica asociada a la forma cuadrática q. y) = MANUALES UEX 147 . x ) es una forma cuadrática. . Definición V. .5. xn ) son las coordenadas de x ∈ Rn respecto de B . .6. entonces   x1 q ( x ) = q ( x1 . x n ) = ( x1 . Es inmediato comprobar que las anteriores correspondencias establecen una biyección (de hecho. T2 (x. Una forma cuadrática q sobre Rn es semidefinida positiva si q(x) ≥ 0. si q : V → R es una forma cuadrática. x n ) = ( x1 . . De manera análoga se definen las formas cuadráticas definidas negativas y semidefinidas negativas. .   x1 q ( x ) = q ( x1 . . Observemos que si A = ( aij ) ∈ Mn (R) es la matriz simétrica de q respecto de B . . entonces la aplicación q : V → R definida por q( x ) = T2 ( x. xn donde ( x1 .  . .1) se conoce como forma canónica de q. x n ) A  . . . . un isomorfismo lineal) entre el espacio de las formas cuadráticas de V y el de las forma bilineales simétricas sobre V. La expresión (V. . . para todo x ∈ Rn no nulo. Formas cuadráticas y métricas simétricas. . Recíprocamente. . entonces la aplicación T2 : V × V → R definida por 1 (q(x + y) − q(x − y)) 4 es bilineal y simétrica. Si A es la matriz de T2 respecto de B . . . entonces A es la matriz de T2 respecto de B . xn ) son las coordenadas de x ∈ V respecto de la base B .

Ejercicio 3. = 1. {1. y el producto escalar T2 ( P. T2 (u1 . (0. v j ) = δij . 2. Q) = P(0) Q(0) + P (1) Q (1) + P (2) Q (2). vn } es una base de V tal que T2 (vi . u3 ) T2 (u3 . 1). {(1. 1. donde δij es la función Delta de Kronecker.6 para n = 3. donde u1 = (1. 0) y u3 = (1. y2 )) = x1 x2 + x1 y2 + x2 y1 + 2y1 y2 . . En el R-espacio vectorial R2 consideramos la aplicación T2 : R2 × R2 (( x1 . ( x2 .1. Sean V un R-espacio vectorial de dimensión n > 0 y T2 una forma bilineal sobre V. Ejercicio 5. u1 ) = 5. Ejercicio 6. 0. 2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema V Ejercicio 1. 1). 2 5 1  3 6 . y1 ). x2 } en el espacio V de los polinomios de R[ x ] con grado menor o igual que 2. = 0. u3 ) = −1. = 4. Ejercicio 4. entonces T2 es un producto escalar sobre V. y el producto escalar T2 ( P. 3. u2 ) T2 (u2 . . y1 ). Aplicar el método de Gram-Schmidt para calcular bases ortonormales. Comprobar la fórmula del cambio de base en el ejemplo V. Sobre R3 consideramos una forma bilineal T2 : R cuya matriz asociada respecto de la base usual de R es Determinar si T2 es simétrica cuando A es:      −1 2 3 1 1 −1 1 ( a)  2 4 1  . x2 } en el espacio V de los polinomios de R[ x ] con grado menor 1 ¯ o igual que 2. todo subespacio vectorial de un espacio vectorial euclídeo hereda una estructura natural de espacio vectorial euclídeo. Probar que si B = {v1 . 4 Ejercicio 2. Probar que la restricción del producto escalar de V a L dota a este último de estructura de espacio vectorial euclídeo. . (c)  2 3 1 5 −1 1 6 1 R3 × R3 −→ A ∈ M3 (R). Q) = 0 P( x ) Q( x )dx. y2 )) MANUALES UEX 148 −→ R → T2 (( x1 . . T2 (u1 . . {1. 0)} en R3 . (b)  1 2 1  . con el producto escalar usual. 1 − 1) (0. u2 ) = 0. 2. Sean V un espacio vectorial euclídeo y L ⊆ V un subespacio de V. u2 = (−1. Hallar la matriz respecto de la base usual R3 de la métrica simétrica T2 : R3 × R3 −→ R definida por T2 (u1 . a partir de la bases dadas en los siguientes espacios vectoriales euclídeos: 1. 1). x. es decir. 2. ( x2 . x. Ejercicio 7. u3 ) T2 (u2 .

Ejercicio 11. Ejercicio 8. B una base de V y T2 la forma bilineal sobre V cuya matriz respecto de B es   2 2 3  2 3 4 . 1. Calcular el ángulo que forman el vector v con el vector u de coordenadas (1. T2 ). 2) respecto de B . Usar el apartado anterior para calcular A−1 . 3. 0) para el producto escalar T2 . Probar que T2 es un producto escalar.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. T2 ). −2) y el ángulo que forman los vectores u1 = (1. T2 ). 3. 3 4 6 Hallar una base de V respecto de la cual la matriz de T2 sea diagonal. Hallar una base ortonormal del espacio vectorial euclídeo (R3 . 3. MANUALES UEX 149 . 1. Ejercicio 10. Obtener una base ortonormal del espacio vectorial euclídeo (R2 . Probar que T2 es un producto escalar. Calcular el módulo del vector v ∈ R3 de coordenadas (1. 0) respecto de B . Sea 4 A =  −4 4   −4 4 9 −4  −4 10 la matriz respecto de la base usual de R3 de un producto escalar que dota de estructura de espacio vectorial euclídeo a R3 . 2. Sobre R3 se considera la forma bilineal T2 cuya matriz en la base usual es   3 2 −1  2 2 0 . Probar que T2 es producto escalar. 2. 2. −2 − 2) y u2 = (2. 3. Sobre R3 consideramos la forma bilineal T2 cuya matriz en la base B usual es   3 1 1 A= 1 2 0  1 0 1 1. Hallar una base ortonormal R3 . 2. Ejercicio 9. Calcular el módulo de v = (1. −1 0 2 1. Encontrar una base de R3 respecto de la cual la matriz del producto escalar sea diagonal. Hallar una base ortonormal del espacio vectorial euclídeo (R3 . 0. 0. Sean V un R-espacio vectorial de dimensión 3.

1. Hallar una base de V. Consideramos el espacio vectorial euclídeo R2 [ x ] de los polinomios de grado de menor o igual que 2 con el producto escalar R2 [ x ] × R2 [ x ] ( p( x ). 1)} tiene matriz 1 A= 1 0  1 2 √ 2  0 √ 2 . Sea V el espacio vectorial de las matrices simétricas reales de orden dos. Calcular una base ortonormal para T2 . 1) y determinar la distancia de v a L. Ejercicio 15. 1. 2. 0. x2 }. 3 MANUALES UEX 1. 3. Escribir la matriz de T2 en la base usual de R3 . Calcular los módulos de los vectores de la base B . y) = 4x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + x3 y3 . 2. x. B) −→ R −→ A · B = tr( AB) es un producto escalar sobre V y obtener su matriz en la base hallada en el apartado (a). Hallar una base ortonormal de R2 [ x ]. 1. 1. Calcular una base ortonormal de V para el producto escalar anterior. Calcular la proyección ortogonal del vector v = (0. (0. 0. 0). Ejercicio 13. 0. 0). Calcular las ecuaciones. 1). q( x )) −→ R −→ p( x ) · q( x ) = p(0)q(0) + p(1)q(1) + p(2)q(2). 3. 4. Probar que la aplicación V×V ( A. Ejercicio 14. 150 . Calcular la matriz del producto escalar en respecto de la base B = {1. Consideremos en R4 el producto escalar euclídeo T2 ( x. Calcular la distancia de v1 a π. v2 = (1. 1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 12. 3. 0) sobre el subespacio L = (1. Consideremos en R3 el producto escalar T2 que en la base B = {v1 = (1. así como los ángulos que forman dichos vectores entre sí. del subespacio ortogonal al plano π que en la base usual tiene ecuación z = 0. 2. en la base B. v3 = (0.

x3 . x2 . B la base usual de R4 y T2 la forma bilineal simétrica cuya matriz respecto de B es   1 0 0 1  0 1 1 0     0 1 1 0 . 1)} una base de R3 . = 0. v3 . Sobre R3 consideramos el producto escalar cuya matriz respecto de B es   1 1 √ 0 A= 1 √ 2  2 0 2 3 que lo dota de estructura de espacio vectorial euclídeo. v1 · v2 v2 · v2 = 3. = 1. que dota a V de estructura de espacio vectorial euclídeo. Probar L⊥ es un subespacio de V. para cada A y B ∈ M2 (R). z) ∈ R3 | z = 0}. 3. 4. Consideramos el producto escalar definido por v1 · v1 = 7. v4 } una base de V. = 2. Sea L el subespacio de V definido por {( x1 . = 2. definimos L⊥ = {v ∈ V | T2 (v. ¿Contradicen los apartados anteriores a las propiedades vistas para del subespacio ortogonal de un subespacio de un espacio vectorial euclídeo? Justificar la respuesta. se considera el producto escalar dado por la igualdad A · B := tr( At B). Dado el subespacio L = {( x. calcular L⊥ . Calcular la matriz del producto escalar respecto de la base usual de R3 . y. 0. Ejercicio 17. 1. 1). 2. 1. 3. B = {v1 . = −1. u) = 0. v2 . obtener una base de L⊥ . Dado el subespacio L de V generado por los vectores u1 = v2 + v4 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 16. Hallar una base de V ⊥ . Sea B = {v1 = (1. MANUALES UEX 151 . 1. x4 ) | x1 − x4 = x2 − x3 = 0}. esto es. 2. Sean V un R-espacio vectorial de dimensión 4. v1 · v3 v2 · v3 v3 · v3 = 3. Calcular una base ortonormal de R3 . v3 = (0. Sean V = R4 . 0). v2 = (1. v1 · v4 v2 · v4 v3 · v4 v4 · v4 = −1. = 1. 1 0 0 1 Si L es un subespacio de V. Sobre V = M2 (R). Ejercicio 19. 1. Ejercicio 18. u2 = 2v1 + v2 + v3 y u3 = v3 − 2v4 − v5 . ∀ u ∈ L}. Comprobar que ( L⊥ )⊥ = L. el espacio vectorial de las matrices reales de orden 2.

Dar un ejemplo de una matriz con coeficientes complejos tal que rg( At A) = rg( A). entonces el rango de A es m si. Si A ∈ Mn (R) es simétrica y P es una matriz invertible. . {v1 . y sólo si. la proyección ortogonal de (−1. . −3. L un subespacio de V. entonces el rango de A es n si. −2. la matriz AAt es definida positiva. entonces A es definida positiva si. en R4 con su producto escalar usual. Probar que rg( At A) = rg( A At ) = rg( A) = rg( At ). Probar que ker( A) = ker( B) y deducir de ello que rg( A) = rg( B). −1) sobre L = (1. . Ejercicio 23. . . vr respecto de B . . y sólo si.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 1. 0). Si A ∈ Mn (R) es simétrica de rango r. entonces existe una matriz B ∈ Mn×r (C) de rango r tal que A = BBt . existe una matriz Q invertible tal que A = Qt Q.  A ( A t A ) −1 A t  . existe una matriz P invertible tal que Pt AP = In . Sea A ∈ Mn (R). 2. las matrices At A y AAt son semidefinidas positivas. Ejercicio 20. 2. Si A ∈ Mm×n (R). 2. Aplicar lo anterior para calcular. Ejercicio 22. Probar las siguientes afirmaciones: 1. y sólo si. . Calcular el ortogonal del subespacio L formado por las matrices diagonales de M2 (R). consideremos la matriz B = At A. . . MANUALES UEX 152 . Si A ∈ Mn (R) es simétrica. Ejercicio 21. . . 3. (3. 1. λn 3. Además. 3. 2. 7. 4. entonces A es definida positiva si. Dado un vector v = λ1 u1 + · · · + λn un . y sólo si. lo es Pt AP. 2. y sólo si. vr } una base de L y A ∈ Mn×r (R) la matriz cuyas columnas son las coordenadas de v1 . 0.  . . Sean B = {u1 . Si A ∈ Mm×n (R). . si A es semidefinida positiva. entonces B puede tomarse real. Dada A ∈ Mn (R). Si A ∈ Mm×n (R). un } una base ortonormal de un espacio vectorial euclídeo V. entonces A es (semi)definida positiva si. Si Si A ∈ Mn (R) es simétrica. 0) . 6. demostrar que las coordenadas de la proyección ortogonal de v sobre L respecto de B son   λ1  . 5. Determinar la proyección ortogonal de cada matriz C ∈ M2 (R) sobre L. Probar que la matriz At A es invertible. la matriz At A es definida positiva.

q3 ( x. tal que ¯ Qt AQ sea una matriz diagonal D 3. q1 ( x. 2. Comprobar que dichas columnas forman una base ortogonal para T2 . Escribir la expresión de q en coordenadas para las bases dadas por las columnas de P. q2 ( x. Escribir. t) = −4x2 + 4xy − y2 − 9z2 + 6zt − t2 . tal que Rt AR = I3 . 6. y la inversa de A es B= − − entonces B111 = A11 − A12 A221 A21 . Sea T2 la forma bilineal simétrica que. y. Comprobar que las columnas de Q forman una base ortogonal para T2 y que las de R forman una base ortonormal para T2 . 4. y. 7. si es posible. y) = xy. en la base usual de R3 tiene matriz A y sea q la forma cuadrática asociada a T2 . q6 ( x. 3. y. Ejercicio 25. Dada la matriz A =  1 2 0 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 24. con A11 y A22 matrices cuadradas. 4. Las columnas de P forman una base ortonormal para el producto escalar usual de R3 . z. 0 0 3 1. MANUALES UEX 153 . 1. de Q y de R. z. que pueda expresarse como producto de matrices de transformaciones elementales. q5 ( x. z) = −4x2 − 5y2 − 2z2 + 4xz. Aplicar los distintos criterios para determinar si las siguientes formas cuadráticas son definidas positivas (negativas) o semidefinidas positivas o negativas. Escribir una matriz ortogonal P tal que P−1 AP sea una matriz diagonal D. Escribir también la forma reducida de cada una de ellas. que pueda expresarse como producto de matrices de transformaciones elementales del tipo Tij y Sij (λ). q4 ( x. y. Consideremos la matriz cuadrada A= A11 A21 A12 A22 . B11 B21 B12 B22 . 5. Probar que si A es simétrica y definida positiva. Escribir una matriz Q. t) = 2xt + 2yz.   1 1 0 Ejercicio 26. 5. z) = x2 + 4y2 − 4xy. 6. y. z) = 3x2 + 16y2 + 139z2 + 12xy + 30xz + 92yz. 2. Comprobar que T2 es un producto escalar. una matriz R.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 154 .

Un sistema de ecuaciones lineales se puede escribir matricialmente como Ax = b. Pero ¿qué ocurre cuando A−1 no existe? ¿Cómo podemos determinar si el sistema tiene alguna solución. G A G = G. la {1}-inversa. A G es simétrica. es decir. Si A es cuadrada e invertible. G A es simétrica. que es la cumple las cuatro condiciones. dos. la inversa MANUALES UEX 155 (G1) (G2) (G3) (G4) A G A = A. La mayoría de estas generalizaciones surgen al exigir a la inversa generalizada o seudoinversa G de una matriz dada A ∈ Mm×n (R) que cumpla una. que es la que cumple la primera de las cuatro condiciones y. con A ∈ Mm×n (R) y b ∈ siendo x ∈ Rn el vector que queremos calcular. aquellas que tienen determinante no nulo. es la relacionada con el cálculo de soluciones de sistemas de ecuaciones lineales. y en este caso.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA VI Inversas generalizadas. hay muchas situaciones en las que podemos encontrarnos con una matriz rectangular (no cuadrada) o singular. entonces x = A−1 b. Al final de este tema veremos que las respuestas a todas la preguntas anteriores se pueden expresar en términos de inversas generalizadas. por último. que aparece a menudo en Estadística y Probabilidad así como en otros campos de la Matemática Aplicada. cuántas hay y cómo podemos calcularlas? El teorema de Rouche-Fröbenius responde parcialmente la última pregunta. pero no nos indica cómo calcular las soluciones en caso de existir. y aún así sea necesario calcular otra matriz que de alguna manera se comporte como una matriz inversa. . pues da un criterio para determinar si un sistema es compatible. Mínimos cuadrados L a inversa de una matriz está definida para todas las matrices cuadradas que no son singulares. tres o cuatro de las siguientes condiciones: RM . Existen diversas generalizaciones del concepto de matriz inversa. Una de estas situaciones. En este tema nos centraremos en el estudio de la inversa de MoorePenrose. Sin embargo.

Finalmente. Quizá lo más interesante. por ser un aspecto poco tratado en los libros sobre inversas generalizadas. Tal y como se apuntó al principio. veremos que la inversa de Moore-Penrose permite calcular la solución aproximada mínimo cuadrática de norma mínima de un sistema incompatible. es la interpretación geométrica que damos al final de la sección La siguiente sección trata exclusivamente sobre la inversa (generalizada) de Moore-Penrose. si A es invertible A+ = A−1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 156 mínimo cuadrática. La primera sección del tema está dedicada a la descomposición en valores singulares de una matriz. Finalmente. siendo P∆Qt la descomposición en valores singulares de A. Tras la definición de la descomposición en valores singulares. Ambas matrices son simétricas semidefinidas positivas y tiene el mismo rango que A. A continuación demostramos que toda matriz tiene inversa de Moore-Penrose y que ésta es única. En la práctica 9 veremos otro método para calcularla. que es la que cumple la primera y la tercera de las cuatro condiciones.2. usando la interpretación geométrica de la descomposición en valores singulares. Es interesante destacar que si la matriz A tiene inversa a izquierda y/o a derecha. lo que claramente pone de manifiesto la relación entre las dos primeras secciones del tema. se estudian las matrices At A y A At con A ∈ Mm×n (R). Estos resultados darán sentido y serán la clave para definir la descomposición en valores singulares de A. La demostración de la existencia consiste en comprobar que la inversa de Moore-Penrose es A+ := Q∆−1 Pt . En primer lugar. por tanto sus autovalores son reales no negativos y el número de autovalores positivos coincide con el rango de A. la mayoría de las inversas generalizas surgen al MANUALES UEX . La inversa mínima cuadrática resuelve el problema de la aproximación mínimo cuadrática de la solución de un sistema de ecuaciones lineales. y demostramos que son equivalentes. en particular. En la tercera sección nos ocupamos de otras inversas generalizadas. Introduciremos la inversa de Moore-Penrose de una matriz A ∈ Mm×n (R) desde una perspectiva álgebro-geométrica y la calcularemos usando la llamada descomposición en valores singulares de A.4. el resto de la sección se dedica a mostrar sus propiedades. y la mostramos en el teorema VI. Al principio de la sección damos dos definiciones de inversa de Moore-Penrose. La {1}-inversa se aplica para determinar la compatibilidad de los sistemas de ecuaciones lineales y caracterizar todas las soluciones. y con ellas concluimos la sección. La otra definición de inversa de Moore-Penrose tiene un sabor más geométrico. entonces la inversa de Moore-Penrose es una inversa a izquierda y/o derecha. A continuación. damos la interpretación geométrica de la inversa de Moore-Penrose. mostramos algunas de las propiedades de la inversa de Moore-Penrose.

A . el capítulo 6 de [Bas83]. este tema tiene multitud de utilidades en Estadística y Probabilidad. Es interesante resaltar que para cualquier inversa mínimo cuadrática. En concreto. el capítulo 8 de [Sea82]. por lo que buscamos los vectores x tales que Ax − b 2 es mínima. A continuación. Para los sistemas incompatibles recurrimos a las inversas mínimo cuadráticas. si ( At A)− es una inversa generalizada de At A. (G1). usamos las inversas generalizadas para estudiar su compatibilidad y damos una fórmula que describe todas las soluciones en términos de una inversa generalizada A− de A. luego. de A. dos. este es un tema completamente nuevo y con el que alumno ni siquiera suele estar familiarizado. Usando lo estudiado en el tema 5 sobre proyecciones ortogonales. a las segundas las llamaremos inversas mínimo. y por supuesto. pues todas las inversas que estudiamos en esta asignatura cumplen.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA exigir que una cierta matriz cumpla una. utilizamos estas inversas generalizadas para resolver el problema de una forma similar a como se hizo en el caso compatible. entonces las inversas generalizadas son inversas a izquierda y lo mismo ocurre cuando A tiene inversa a derecha. podemos definir las inversas mínimo cuadráticas como las matrices B tales que AB es la matriz de la proyección ortogonal sobre la imagen A respecto de la base usual correspondiente. [RM71] que es un libro de referencia básica sobre inversas generalizadas. se cumple que AA = AA+ . se muestran algunas propiedades de las inversas generalizadas de At A. Como hemos dicho en repetidas ocasiones. retomamos los sistemas de ecuaciones lineales. concretamente. Además. En este caso. el capítulo 5 de [Sch05] (que es el que hemos usado principalmente para la elaboración del tema). siendo b1 la proyección ortogonal de b sobre la imagen de A. Por consiguiente. A modo de ejemplo. Sin embargo. mostramos su expresión general y estudiamos sus propiedades. En esta sección estudiamos las inversas generalizadas que cumplen (G1) y aquellas que cumplen (G1) y (G3). En la última sección del tema. teniendo en cuenta la relación de las inversas mínimo cuadráticas con la proyección ortogonal. véase. al menos. Finalmente. concluimos que los vectores buscados son las soluciones del sistema Ax = b1 . por ejemplo. entonces ( At A)− A es una inversa mínimo cuadrática de A. tres o cuatro de las condiciones (G1)-(G4). mostramos que si A tiene inversa a izquierda. Por citar un ejemplo de uso de MANUALES UEX 157 . cuyo nombre se justifica en la última sección del tema. A las primeras las llamaremos inversas generalizadas a secas. Estas propiedades son de suma utilidad en la obtención de inversas generalizadas mínimo cuadráticas. el sistema de ecuaciones Ax = b ¯ ¯ no tiene solución. ilustramos la relación de las inversas generalizadas con la forma reducida estudiada en el tema II. damos una expresión general para todas las inversas generalizadas de una matriz a partir de una inversa generalizada dada.

En los capítulos 10 y 12 de [CnR05] se pueden encontrar multitud de ejercicios sobre mínimos cuadrados e inversas generalizadas. . por lo que interesarán las soluciones aproximadas mínimo cuadráticas de Aβ = y. sabemos cómo son todas las soluciones del sistema Aβ = µ. por el teorema del rango. y sólo si. se tiene que rg( A) = n − dim(ker( A)) = n − dim(ker( At A)) = rg( At A). como queríamos demostrar. Es más. Demostración. 158 Usando ahora que rg( A) = rg( At ) se obtiene el resultado buscado. y sólo si. luego rg( A) = rg( At A) = rg( A At ). rg( A) = m. pero en este caso consideramos un sistema de n generadores de L.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS la inversa generalizada en Estadística. La demostración de la igualdad ker( At ) = ker( A At ) se hace de forma completamente análoga por lo que deja como ejercicio al lector. En particular. hay todo un capítulo dedicado a estos temas.1. respectivamente. El parámetro β se puede expresar en términos de µ como β = A− µ. Finalmente. rg( At ) = m − dim(ker( At )) = m − dim(ker( A At )) = rg( A At ). MANUALES UEX de donde se sigue que Av = 0. una matriz A ∈ Mm×n (R) de rango dim( L). y generalmente la de norma mínima. luego es claro que ker( A) ⊆ ker( At A). 1. (b) At A y A At son simétricas y semidefinidas positivas. de modo que 0 = vt 0 = vt ( At A)v = (vt At )( Av) = ( Av)t ( Av). β una solución del sistema de ecuaciones Aβ = µ. esto es. At A es definida positiva si. retomemos los modelos lineales normales comentados anteriormente. rg( A) = n. en términos de A− y µ. que según se ve en este tema está complemente determinadas por las inversas mínimo cuadrática y la inversa de Moore-Penrose. Sea A ∈ Mm×n (R).1. siendo A− una inversa generalizada de A. si v ∈ ker( At A). Se cumple que: (a) ker( A) = ker( At A) y ker( At ) = ker( A At ). (a) En primer lugar recordamos que ker( A) = {v ∈ Rn | Av = 0}. No obstante. Así. y A At es definida positiva si. Descomposición en valores singulares (SVD) Comenzamos esta sección estudiando algunas de las propiedades de At A y de A At con A ∈ Mn (R). es decir. podemos expresar la media µ mediante su vector de coordenadas β respecto de las columnas de A. También en [MS06]. Proposición VI. para ello supongamos que estamos en las condiciones del modelo lineal normal. Recíprocamente. en general µ es desconocido. se tiene que ( At A)v = 0.

entonces Au y Av también son linealmente independientes. que coincide con el rango de A. Nótese que Av = 0. λ es un autovalor de A At y Av es autovector de A At asociado a λ. Sea A ∈ Mm×n (R).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (b) Es claro que At A y A At son simétricas. Demostración. basta cambiar A por At . r. Finalmente. El recíproco es similar y se deja como ejercicio al lector. Entonces. (c) Si u es un autovector de A At asociado a σi2 = 0. Sea λ un autovalor no nulo de At A y v un autovector de At A asociado a λ. y por lo tanto a que tenga rango n. Se cumple que: (a) At A y A At tienen los mismos autovalores no nulos. si αAu + βAv = 0. MANUALES UEX 159 . entonces At u es un autovector de At A asociado a σi2 . At A ∈ Mn (R) es definida positiva si. según la proposición anterior. semidefinidas positivas y tienen el mismo rango que A. Proposición VI.2. de tal que forma que para demostrar que son semidefinidas positivas basta ver que todos sus autovalores son no negativos. es decir. esto es equivalente a que sea invertible. λ ∈ R un autovalor de At A y v ∈ Rn un autovector de At A asociado a λ. entonces 0 = At (αAu + βAv) = α( At A)u + β( At A)v = λ(αv + βv).1. La demostración de que la condición necesaria y suficiente para que A At sea definida positiva es que A tenga rango m es similar. Sea. en otro caso λv = At Av = 0. La demostración de que todos los autovalores A At son no negativos es totalmente análoga. luego. todos los autovalores son positivos. de donde se sigue que λ ≥ 0. En efecto. pues ( At A)t = At ( At )t = At A y ( A At )t = ( At )t At = A At . Teniendo en cuenta que las matrices At A y A At son simétricas. 0 ≤ Av 2 = ( Av)t ( Av) = vt ( At A)v = vt (λv) = λ(vt v). se sigue que ambas diagonalizan mediante una matriz de paso ortogonal y tienen r autovalores estrictamente positivos (no necesariamente distintos) y el resto nulos. Si u y v son dos autovectores linealmente independientes de At A asociados a λ. (b) Si v es un autovector de At A asociado a σi2 = 0. entonces Av es un autovector de A At asociado a σi2 . λ = 0. Sea ahora λ un autovalor no nulo de At A. Al ser ambas matrices simétricas podemos garantizar que todos sus autovalores son reales. por el apartado (a). Entonces ( A At ) Av = A ( At A)v = A(λv) = λ( Av). Veamos que además tienen los mismos autovalores. y sólo si. (d) La multiplicidad de los autovalores no nulos de At A coincide con la de los de A At . pues. lo que no es posible por hipótesis.

1.3. Al igual que antes. se tiene que la multiplicidad de λ coincide con la dimensión del subespacio propio correspondiente.3) . concluimos que los autovalores no nulos de At A y de A At tienen la misma multiplicidad. la identidad anterior implica que (VI.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS de donde se sigue que 0 = αv + βv y por lo tanto que α = β = 0. MANUALES UEX Partiendo Q como Q = ( Q1 | Q2 ). Sea A ∈ Mm×n (R).1. podemos encontrar una matriz ortogonal Q ∈ Mn (R) tal que Qt At AQ = ∆2 0 0 0 .1. escribiremos 0 para denotar a cualquier matriz nula. de donde se sigue que 160 (VI. De aquí que los denotemos 2 2 σ1 . el recíproco es similar y se deja como ejercicio al lector.2) Qt At AQ1 = ∆2 1 ( AQ2 )t ( AQ2 ) = Qt At AQ2 = 0(n−r)×(n−r) .1) y (VI. Nótese que los autovalores de no nulos de At A (y los de A At ) son positivos. Forma reducida ortogonal. σr siendo r = rg( A) = rg( At A) = rg( A At ). .1.1. Como At A es una matriz simétrica de orden n. Finalmente. donde la matriz D ∈ Mm×n (R) es una matriz de la forma ∆ 0(m−r)×r 0r×(n−r) 0(m−r)×(n−r) y ∆ es una matriz diagonal con entradas positivas en su diagonal. donde Q1 es una matriz n × r. . tales que Pt AQ = D. Demostración. Si A tiene rango r > 0. como At A y A At son diagonalizables. Sea ∆2 ∈ Mr (R) la matriz diagonal cuyas entradas en la diagonal son los r autovalores positivos de At A (que son los mismos que los autovalores positivos de A At ). 2 AQ2 = 0n×(n−r) . . existen P ∈ Mm (R) y Q ∈ Mn (R) ortogonales. por el argumento anterior. De ahora en adelante. Luego. Las entradas diagonales de ∆2 son los autovalores positivos de At A (que coinciden con los de A At ). por simplicidad en la notación. y sólo especificaremos su orden cuando exista posibilidad de confusión. . Sea ∆ la matriz diagonal cuyas entradas en la diagonal son las raíces cuadradas positivas de las correspondientes entradas en la diagonal de ∆2 .4. Nota VI. Teorema VI. puesto que At A es definida positiva.

.3) y (VI. En primer lugar observamos que las columnas de P1 son ortogonales.1.3. ≥ σr > 0.1. .1. Sea A ∈ Mm×n (R). Si A tiene rango r > 0. entonces la descomposición en valores singulares de A se puede reescribir como sigue. .4) t P1 AQ1 t AQ P2 1 t P2 AQ1 = 0(m−r)×r Usando ahora (VI. Siguiendo la notación del teorema VI. en efecto. Nota VI. σ2 . es obvio que las columnas de Q forman una base ortonormal de autovectores At A. obtenemos que Pt AQ = t P1 AQ2 t AQ P2 2 = ∆−1 Qt At AQ1 1 t P2 AQ1 ∆−1 Qt At AQ2 1 t P2 AQ2 0 0 = ∆ −1 ∆ 2 0 ∆−1 Qt At 0n×(n−r) 1 t P2 0n×(n−r) = ∆ 0 Definición VI. donde P2 es cualquier matriz de orden m × (m − r ) que la haga ortogonal. 1 donde ∆ ∈ Mr (R) es diagonal con entradas positivas en su diagonal. σr con la ordenación σ1 ≥ σ2 ≥ .7. También es importante destacar que las columnas de P forman una base ortonormal de autovectores de A At ya que (VI.1.1.6) A At = PDQt QDPt . t t se tiene que P2 P1 = P2 AQ1 ∆−1 = 0(m−r)×r ó. equivalentemente.1.1.3 se llama descomposición en valores singulares o SVD de A. .5.1.1).1.4).1.6. con P1 ∈ Mm×r (R) y Q1 ∈ Mn×r (R). entonces existen t P1 ∈ Mm×r (R) y Q1 ∈ Mn×r (R) tales que P1 P1 = Qt Q1 = Ir . Si volvemos a considerar particiones P y Q como P = ( P1 | P2 ) y Q = ( Q1 | Q2 ). t P1 P1 = ( AQ1 ∆−1 )t ( AQ1 ∆−1 ) = (∆−1 )t Qt At AQ1 ∆−1 = ∆−1 ∆2 ∆−1 = Ir . Corolario VI.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Sea P1 = AQ1 ∆−1 ∈ Mm×r (R). 1 Sea ahora P = ( P1 | P2 ) una matriz ortogonal de orden m.1. y 1 (VI.5) At A = QDt DQt . (VI.1. los valores singulares de A son las entradas de la diagonal de ∆. . Sea A ∈ Mm×n (R). . se llaman valores singulares de A. Por consiguiente.1. Por la demostración del teorema VI. MANUALES UEX 161 .3. Los valores singulares se denotan como σ1 . La descomposición A = PDQt dada en el teorema VI.7) A = P1 ∆Qt . (VI. y por lo tanto (VI. Las raíces cuadradas positivas de los autovalores de At A (y de A At ).

en la descomposición A = P1 ∆Qt .1. √ t −2/ 6) . El número de valores singulares es el rango de A.1.1.3 se elige una matriz semiortogonal Q1 verificando (VI.8) y tomar posteriormente Q1 = At P1 ∆−1 . Alternativamente.1. 1/ 3. que el rango de A es 2 y que los dos valores singulares de √ √ A son σ1 = 28 y σ2 = 12. Se sigue de (VI. Ejemplo VI. mientras que las columnas de P1 y Q1 son bases ortogonales de im( A) e im( At ).1.7) se llama descomposición en valores singulares corta o SVD corta de A. A=  −2 4 1  1 1 1 En primer lugar. la elección de la matriz se1 miortogonal P1 verificando (VI. calculamos los autovalores y la matriz  18 −10 At A =  −10 18 4 4 autovectores normalizados de  4 4 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La expresión (VI. y sus respectivos autovectores √ √ √ √ √ √ √ normalizados son (1/ 2.8) t P1 AAt P1 = Qt At AQ1 = ∆2 . Es claro. respectivamente. 4 2 2 2 Los autovalores son σ1 = 28. σ2 ) = . pero P1 viene dada por P1 = AQ1 ∆−1 . verificando (VI.1. Téngase en cuenta que en la demostración del teorema VI. se podría haber seleccionado primero P1 verificando (VI. Por tanto la matriz . √ 28 √0 ∆ = diag(σ1 . 1/ 6. (1/ 3. 1 Sin embargo. las columnas de P2 generan ker( At ) y las columnas de Q2 generan ker( A). σ2 = 12 y σ3 = 0. es decir. Q2 ∈ M3×1 (R) y Q = ( Q1 | Q2 ) ∈ M3 (R).8.1. De esta descomposición en valores singulares se puede obtener gran cantidad de información sobre la estructura de la matriz A. Por tanto. Hallemos la descomposición en valores singulares corta de la siguiente matriz   2 0 1  3 −1 1  . 0)t .8).1.1.6) que P1 y Q1 son matrices semiortogonales.8) depende de la elección de la matriz Q1 .5) y de (VI. 1/ 3)t y (1/ 6. matrices cuyas columnas son mutuamente ortogonales y de norma 1. −1/ 2. Análogamente. 0 12 MANUALES UEX 162 Sean Q1 ∈ M3×2 (R) la matriz cuyas columnas son los dos primeros autovectores.

1. En efecto.9. Si P es una matriz cuyas columnas forman una base ortonormal de autovectores de A. La descomposición en valores singulares de un vector es muy fácil de construir. p1 = δ−1 v y q1 = 1. Ejemplo VI. entonces A At = A2 . Por consiguiente. la descomposición en valores singulares corta de A es √   1/√14 1/2 √ √ √  2/ 14 1/2  28 √0 1/√2 −1/√2   √0 . 0 1/2 √ 1/ 28 0 √ 0 1/ 12 Por consiguiente. Esta bonita relación entre los autovalores y los valores singulares no ocurre en general. Consideremos la matriz A= 6 6 −1 1 . los valores singulares de A serán los valores absolutos de los autovalores de A.3 será idéntica a P excepto para aquella columnas asociadas a autovalores negativos de A que serán −1 veces la correspondiente columna de P. En efecto. su descomposición en valores singulares es de la forma v = p1 δq1 . . entonces la descomposición de valores singulares de A es precisamente la descomposición A = PDPt estudiada en el tema V. los valores singulares de A están directamente relacionados con sus autovalores. y los autovalores de A2 son los cuadrados de los autovalores de A. Si A es semidefinida positiva. MANUALES UEX 163 Cuando la matriz A es simétrica. si v ∈ Mm×1 (R) es un vector no nulo de Rm .1. si A es simétrica. √  −3/ 14 1/2  1/ 3 1/ 3 1/ 3 0 12 0 1/2 Nota VI.1.10.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA P1 ∈ M4×2 (R) es P1 = AQ1 ∆−1   √ √   2 0 −1 1/√2 1/√3  3 −1  1  = −1/ 2 1/√3   −2 4 1  0 1/ 3 1 1 1 √   1/√14 1/2  2/ 14 1/2   √ =  −3/ 14 1/2  . con δ = √ vt v. entonces la matriz Q del teorema VI.

y también existen B−1/2 y C −1/2 simétricas tales que B−1 = B−1/2 B−1/2 y C −1 = C −1/2 C −1/2 (véase el corolario V. Consideremos las descomposiciones Rn = ker( T )⊥ ⊕ ker( T ) y Rm = im( T ) ⊕ im( T )⊥ .9). Corolario VI. ⊥ . Si X t B−1 X = YC −1 Y. B = ( P1 P1 ) A. Luego. C −1/2 Y = UB−1/2 X. Si At A = Bt B. luego. Además. es decir.1.12. Sean A y B ∈ Mm×n (R). Corolario VI. Por ser B y C simétricas y definidas positivas existen B1/2 y C1/2 simétricas tales que B = B1/2 B1/2 y C = C1/2 C1/2 . Sean X y Y ∈ Mm×n (R) y B y C ∈ Mm (R) simétricas definidas positivas. entonces existe una matriz ortogonal U ∈ Mm (R) tal que B = U A.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Como 72 0 A At = . Demostración. Si la descomposición en valores singulares de A es A = P1 ∆Qt . ⊥ ker( T ) 164 dim(ker( T ) ) = n − dim(ker( T )) = rg( A) = dim(im( T )). La comprobación de que U = P1 P1 ∈ Mm (R) es ortogonal se deja como ejercicio al lector. Como t t X1 X1 = X t B−1/2 B−1/2 X = X t B−1 X = YC −1 Y −1 = Y t C −1/2 C −1/2 Y = X2 X2 . De modo que basta tomar A = B1/2 UC −1/2 para concluir que Y = AX y que ABAt = C1/2 UB−1/2 BB−1/2 U t C1/2 = C. Demostración. 1 entonces la descomposición en valores singulares de B es B = P1 ∆Qt con 1 t t P1 = BQ1 ∆−1 . es A. Obsérvese que φ = T| es inyectiva. mientras que los autovalores de A son 4 y 3. Y = C1/2 UB−1/2 X. 0 2 √ √ √ los valores singulares de A son 72 = 6 2 y 2.5. respectivamente.1. entonces existe una matriz invertible A ∈ Mm (R) tal que Y = AX y C = A B At . por el corolario VI. Sean A ∈ Mm×n (R) y T : Rn → Rm la aplicación lineal cuya matriz respecto de las bases usuales de Rn y Rm . Sean X1 = B−1/2 X y X2 = C −1/2 Y. MANUALES UEX Interpretación geométrica de la descomposición en valores singulares.11. obtenemos que existe una matriz U ortogonal tal que X2 = UX1 .11. Veamos ahora algunas aplicaciones inmediatas de las descomposición en valores singulares.

H. Dada una matriz A ∈ Mm×n (R).2. De modo que.2. E. A+ A es simétrica. es decir.2. Este hecho. A A+ es simétrica. (1920). R. Bulletin of the American Mathematical Society 26: 394-395. que forman las columnas de Q1 y la base ortonromal de im( T ) que forman las columnas de P1 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Por lo tanto. 1 1Moore. On the reciprocal of the general algebraic matrix. Uno de las particularidades más importantes de la inversa de MoorePenrose que la distingue de otras inversas generalizadas.1. (G4) ( A+ A)t = A+ A. En primer lugar probamos la existencia de A+ . se establece en el siguiente resultado. existe una única matriz A+ ∈ Mn×m (R) verificando las condiciones (G1)-(G4) de la definición VI. considérese la esfera S de radio uno en Rn . que verifica las siguientes condiciones. Entonces la matriz de φ respecto de la base ortonormal de ker( T )⊥ .1 Demostración. entonces las cuatro condiciones de la definición VI. Si A no es nula. Definición VI. entonces tiene rango r > 0.2. 2Penrose.7. (G3) ( A A+ )t = A A+ .1. Supongamos que A = P1 ∆Qt es una descomposición en valores singula1 res de A. H. La aplicación lineal T envía esta esfera a un elipsoide de Rm . por el corolario VI. es decir. que denotaremos por A+ . Proceedings of the Cambridge Philosophical Society 51: 406-413. junto con su existencia. Penrose2. La inversa de Moore-Penrose de un matriz A ∈ Mm×n (R) es la matriz de orden n × m. (G1) A A+ A = A.2. (1955). y 1 A = P1 ∆Qt . A generalized inverse for matrices. La inversa de Moore-Penrose Una inversa generalizada de utilidad en aplicaciones estadísticas es la desarrollada por E. φ establece un isomorfismo de ker( T )⊥ con im( T ). Moore1 y R. es ∆. (G2) A+ A A+ = A+ .1 se cumplen trivialmente para A+ = 0n×m . sabemos que existen P1 ∈ Mm×r (R) y t Q1 ∈ Mn×r (R) tales que P1 P1 = Qt Q1 = Ir . MANUALES UEX 165 . Teorema VI. Si A es la matriz nula. es que está unívocamente definida. Los valores singulares son simplemente las longitudes de los semiejes del elipsoide. Para conseguir un punto de vista más visual de los valores singulares y de la descomposición en valores singulares. 2.

es decir. entonces t A A+ A = P1 ∆Qt Q1 ∆−1 P1 P1 ∆Qt = P1 ∆∆−1 ∆Qt = P1 ∆Qt = A.3. Usando estas dos identidades y la condición (G2) de la definición VI. La inversa de Moore-Penrose de 2  3 A=  −2 1   0 1 −1 1   4 1  1 1 MANUALES UEX 166 .2. De modo que. como B y C son idénticas. encontramos que AB = ( AB)t = Bt At = Bt ( ACA)t = Bt At ( AC )t = ( AB)t AC = ABAC = AC y BA = ( BA)t = At Bt = ( ACA)t Bt = (CA)t At Bt = CA( BA)t = CABA = CA. 1 1 1 1 t t t t A+ A A+ = Q1 ∆−1 P1 P1 ∆Qt Q1 ∆−1 P1 = Q1 ∆−1 ∆∆−1 P1 = Q1 ∆−1 P1 = A+ .2. es decir. Como acabamos de ver en la demostración del teorema VI. Nótese t que si definimos A+ = Q1 ∆−1 P1 . Ejemplo VI.2.2 la inversa de Moore-Penrose de una matriz A está relacionada explícitamente con la descomposición en valores singulares de A. Usando estas condiciones.1. supongamos que B y C son dos inversas de Moore-Penrose. dos matrices de orden n × m que verifican las condiciones (G1)-(G4) de la definición VI. Ahora. podemos considerarla como una función de las matrices que componen la descomposición en valores singulares de A.2. la inversa de Moore-Penrose es única. A+ = Q1 ∆−1 P1 es una inversa de Moore-Penrose de A. y por lo tanto se demuestra la existencia de inversas de Moore-Penrose. 1 t A+ A = Q1 ∆−1 P1 P1 ∆Qt = Q1 Qt es simétrica.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS donde ∆ ∈ Mr (R) es diagonal con entradas positivas en su diagonal. vemos que B = BAB = BAC = CAC = C. 1 1 t Por consiguiente. 1 t t A A+ = P1 ∆Qt Q1 ∆−1 P1 = P1 P1 es simétrica.

para todo u y v ∈ Rn . Además. . que es más útil en determinadas ocasiones.2. La siguiente definición alternativa. Luego.4. Recuérdese que si L es un subespacio vectorial de Rm . .4. . se sigue que AA+ = P1 P1 = P1 ( P1 P1 ) P1 . MANUALES UEX 167 . Esta definición aplica el concepto de matrices de proyecciones ortogonales. Demostración. (b) A+ A es la matriz de la proyección ortogonal de Rn sobre im( A+ ) ⊆ Rn respecto de la base usual de Rn . la proyección ortogonal sobre L es la aplicación lineal π L : Rm −→ Rm . donde v1 es el único vector de Rm tal que v − v1 ∈ L⊥ . . 7 7 Nótese que. La definición VI. ur } es una base ortonormal de L la matriz de π L respecto de la base usual de Rm es u1 ut + . De donde se sigue que (v − A A+ v) ∈ im( A)⊥ . r 1 Teorema VI. Por otra parte. . Sea A+ la inversa de Moore-Penrose de A.1 es la definición de inversa generalizada dada por Penrose. como hemos apuntando antes. como las columnas de P1 forman una base ortonormal de t t t im( A). Entonces. es la definición original de Moore. por la proposición + es la matriz de la proyección ortogonal sobre im( A ) V. lo único que necesitamos para calcular la inversa de Moore-Penrose es conocer su descomposición en valores singulares.8 es √ √   √ 2 1/√3 1/ √ 1/ 28 0 √ A+ =  −1/ 2 1/√3  · 0 1/ 12 0 1/ 3  √ √ √ 10 1  0 1/ 14 2/ 14 −3/ 14 = · 4 1/2 1/2 1/2 1/2 84 7 13 1 7  −2 7 16 7  . si {u1 . La inversa de Moore-Penrose es la única matriz A+ ∈ Mn×m (R) tal que (a) A A+ es la matriz de la proyección ortogonal de Rm sobre im( A) ⊆ Rm respecto de la base usual de Rm .2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA del ejemplo VI. v → v1 ∈ L. . + ur ut .1.8 se sigue que AA respecto de la base usual de Rm . Sea A ∈ Mm×n (R). de (G1) y de (G3) se sigue que (v − A A+ v)t Au = vt Au − vt ( A A+ )t Au = vt Au − vt A A+ Au = vt Au − vt Au = 0.

y de que las columnas de B están en im( B). mientras que las condiciones (G1) y (G2) siguen del hecho de que las columnas de A están en im( A). es decir. Si v1 es la proyección ortogonal de v sobre im( T ).8). se tiene que T ◦ T + (v) = T (φ−1 (v1 )) = φ(φ−1 (v1 )) = v1 . T + ( v ) = φ −1 ( v 1 ) donde v1 es la proyección ortogonal de v sobre im( T ). por el teorema VI. es decir. Las condiciones (G3) y (G4) son inmediatas ya que las matrices de las proyecciones ortogonales son simétricas (véase la proposición V. la unicidad de la inversa de Moore-Penrose implica que B = A+ . y por lo tanto A BA = ( A B) A = A. la matriz de T + respecto de las bases usuales de Rm y Rn es A+ . Luego.2. Por otro lado. En cuanto la unicidad. 168 . la composición T + ◦ T es la proyección ortogonal de Rn en im( T + ) ⊆ Rn . T + ◦ T (u) = φ−1 ( T (u)) = u1 .2. y por lo tanto BA B = ( BA) B = B. Sea T + : Rm → Rn la aplicación lineal definida de la siguiente manera.4. la inversa de Moore-Penrose de A. Según vimos en la interpretación geométrica de la descomposición en valores singulares. donde u1 es la proyección ortogonal de u sobre ker( T )⊥ = im( T + ). MANUALES UEX para todo v ∈ Rn .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La demostración de que A+ A es la matriz de las proyección ortogonal sobre im( A+ ) ⊆ Rn respecto de la base usual de Rn se obtiene de igual modo usando (G2) y (G4). existe φ−1 : im( T ) → ker( T )⊥ . la restricción φ de T a ker( T )⊥ establece un isomorfismo de ker( T )⊥ en im( T ). intercambiando los papeles de A y A+ . se obtiene que A+ es la inversa de Moore-Penrose de A. Ahora.2. Con la notación anterior.4. Tomando ahora las bases usuales de Rm y Rn en cada uno de los casos. Demostración. la composición T ◦ T + es la aplicación proyección ortogonal de Rm en im( T ) ⊆ Rm . Interpretación geométrica de la inversa de Moore-Penrose. veamos que una matriz B verificando (a) y (b) debe también satisfacer la definición VI.5. Luego. es decir. Sean A ∈ Mm×n (R) una matriz de rango r y T : Rn → Rm la aplicación lineal cuya matriz respecto de las bases usuales de Rn y Rm es A.1. Proposición VI. respectivamente.

( At A ) + = A + ( A + )t y ( A At ) + = ( A + )t A + .6. Luego.2. si At A = In . (e) Como A+ verifica las condiciones (G1)-(G4). dada en el apartado (e). tenemos que At A A + ( A + )t At A = At A A + ( A A + )t A = At A A + A A + A = At A A+ A = At A. rg( A) = m. Entonces. si las columnas de A son ortogonales. A+ = ( At A)−1 At y A+ A = In . si. y sólo si. Aquí. solamente veremos la igualdad ( At A)+ = A+ ( A+ )t . ( A A+ )+ = A A+ y ( A+ A)+ = A+ A. y sólo si. MANUALES UEX 169 . Sea A ∈ Mm×n (R). se cumple que (VI. A+ = At ( A At )−1 y A A+ = Im . Proposición VI. A+ = At . nótese que ( At A)( A+ ( A+ )t ) = At A( At A)+ = At AA+ ( A+ )t = At ( A+ ( A A+ )t )t At ( A + A A + )t = At ( A + )t = ( A + A )t . dejando los restantes apartados como ejercicios para lector. ( A+ )+ = A. A+ ( A+ )t verifica las condiciones (G1) y (G2) de la inversa de MoorePenrose de ( At A)+ . si. rg( A) = n.9) rg( A) = rg( A+ ) = rg( A A+ ) = rg( A+ A). es decir. A + ( A + )t At A A + ( A + )t = A + ( A A + )t A A + ( A + )t = A + A A + A A + ( A + )t = A + A A + ( A + )t = A + ( A + )t = ( At A ) + . Demostración. A+ = A−1 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Obsérvese que. A + = ( At A ) + At = At ( A At ) + . (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) (αA)+ = α−1 A+ . Además. Cada uno de los apartados se demuestra usando simplemente las condiciones (G1)-(G4) o la interpretación geométrica de la inversa de Moore-Penrose. Luego. por definición. si A es cuadrada e invertible. ( A + )t = ( At ) + . se cumplen las siguientes igualdades im( T ◦ T + ) = im( T + ) = im(φ−1 ) = ker( T )⊥ y im( T ◦ T + ) = im( T ). Algunas propiedades básicas de la inversa de Moore-Penrose. no nulo. para todo α ∈ R.2.

Ejemplo VI.7. A+ A = I3 como podemos comprobar    −3 8 13 2 1  1  1 2 1 A+ A = = 6 −2  2 10 2 1 0 14 14 5 −4 −3 6  −3 6 . Sea A= 1 2 2 1 1 0 . . podemos usar la propiedad (i). pues ( A+ ( A+ )t )( At A) = ( At A)+ At A = A+ ( A+ )t At A = A+ ( A A+ )t A = A+ A A+ A = A+ A.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS y como A+ A es simétrica por definición. en efecto.2. 5 De hecho las propiedades (h) e (i) de la proposición VI.6 proporcionan fórmulas para calcular la inversa de Moore-Penrose de matrices que tienen rango pleno por columnas o por filas3. Ilustremos su utilidad con un ejemplo. respectivamente. La inversa a izquierda (a derecha. MANUALES UEX Sin embargo. 3Se dice que una matriz A ∈ M m×n (k) tiene rango pleno por filas si rg( A ) = m y diremos 170 que tiene rango pleno por columnas si rg( A) = n. obtenemos que A At = y por tanto A + = A t ( A A t ) −1 1 1  = 2 14 1   2 1  0 5 −4 −4 6  −3 8 1  = 6 −2  . respectivamente) si existe no tiene por qué ser única. se sigue que la condición (G3) se cumple para ( At A)+ = A+ ( A+ )t . Si calculamos A At y luego ( A At )−1 . y podemos comprobar que A A+ = I2 . la condición (G4) también se cumple. respectivamente).6 dan una condición necesaria y suficiente para que una matriz A ∈ Mm×n (R) tenga inversa a izquierda y/o a derecha. Como rg( A) = 2. Esto demuestra que ( At A)+ = A+ ( A+ )t .2.2.   −3 8 1 1 1 2 1  A A+ = 6 −2  = 2 1 0 14 14 5 −4 14 0 0 14 = I2 . es decir. pueden existir multitud de inversas a izquierda (a derecha. Las propiedades (h) e (i) de la proposición VI. Análogamente. 14 5 −4  6 4 4 5 y ( A A t ) −1 = 1 14 5 −4 −4 6 .

es decir. . BAB = QRt P−1 PRQ−1 QRt P−1 = B. . . de la inversa de Moore-Penrose.. . .. . 3. . A+ también será una {i1 . Obsérvese que la inversa de Moore-Penrose de R es Rt . . En esta sección.ir ) es una {i1 . ..3. ir }inversa de A que la inversa de Moore-Penrose..4) . 3. En efecto. . 2. . 4}. . por simplicidad.. se dirá que la A(i1 . 4}-inversa de A. ABA = PRQQ−1 Rt PP−1 RQ = A. ir }-inversas de A. 1-4.ir ) a cualquier matriz que cumpla las condiciones i1 . . Nótese que para cualquier subconjunto propio {i1 .3. . 2}-inversa de A. . Según la definición anterior. entonces B = QRt P−1 es una {1. Como en muchos casos. según el subconjunto de las condiciones 1-4 que la inversa generalizada ha de cumplir. A+ = A(1.. . . . la inversa de Moore-Penrose de A es una {1. trataremos brevemente otras dos inversas generalizas que tienen aplicación en estadística. Ejemplo VI. Otras inversas generalizadas La inversa de Moore-Penrose sólo es una de las muchas inversas generalizadas que han sido desarrolladas en los últimos años. .. Definición VI. 2. De hecho.2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 3. Sea A ∈ Mm×n (R). .2.1. hay muchas {i1 . . Ambas se pueden definir usando las condiciones (G1)-(G4) ó. 2 1 2 2 La forma reducida de A es PAQ−1 1 =R= 0 0  0 1 0 0 0 0  0 0  0 MANUALES UEX 171 . ir entre las condiciones 1-4. ir }-inversa de A. Veamos un caso concreto: sea A la matriz   1 1 1 2  1 0 1 0 . ir } de {1. Si A tiene rango r y P ∈ Mm (R) y Q ∈ Mn (R) son matrices invertibles tales que R = P−1 AQ es la forma reducida por filas de A. .3. podemos definir diferentes clases de inversas generalizadas. puede ser más fácil calcular una {i1 . Sea A ∈ Mm×n (R). . Denotaremos por A(i1 . pero no será la única.. ir }-inversa. .

MANUALES UEX Demostración. y cualquier inversa generalizada de A se puede expresar en la forma de B para ciertas E. Si A tiene rango r > 0 y A=P ∆ 0 0 0 Qt es una descomposición en valores singulares de A. Nótese que ABA = P ∆ 0 0 0 Qt Q 0 0 ∆ −1 F Qt E G Pt P ∆ 0 0 0 Qt =P =P ∆ ∆ −1 ∆ 0 ∆ 0 0 0 172 Qt = A. y Q=  1 0 −1 0  0 1/2 0 −1/2 Entonces. y escribiremos A− en vez de A(1) . F ∈ M(n−r)×r (R) y G ∈ M(n−r)×(m−r) (R). cuyas aplicaciones serán discutidas en la última sección de este tema.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS con  0 0 1 0  0 0 0 1  . B = QRt P−1 =   0 1 0  0 −1 1/2 1  1 P= 2  1 0 1  1 0  0  El resto de esta sección está dedicado a la {1}-inversa y a la {1. En la siguiente sección veremos que para resolver sistemas de ecuaciones lineales. solamente necesitaremos matrices que verifiquen la primera condición de las definición de inversa de Moore-Penrose. F y G. Nos referiremos a tales {1}inversas de A simplemente como inversas generalizadas de A. entonces para cada E ∈ Mr×(m−r) . la matriz B=Q ∆ −1 F E G Pt es una inversa generalizada de A. 3}-inversa de A. Sabemos que otra forma de calcular una inversa generalizada de una matriz consiste en conocer su descomposición en valores singulares.3. Proposición VI. .3. Veamos que la descomposición en valores singulares permite determinar todas las inversas generalizadas de una matriz dada. una inversa generalizada de A es   0 0 0  0 0 0  . Sea A ∈ Mm×n (R).

si A es invertible. si tomamos otra vez E y F nulas pero √ G = 1/ 6 0 . Se pueden construir otras inversas generalizadas de A mediante distintas elecciones de E. 3 −2/ 6 Si tomamos E. 12 2 2 −2 −2 De hecho.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y por lo tanto B es una inversa generalizada de A independientemente de la elección de E.3. F y G. Ejemplo VI.3 es B = Q∆−1 Pt . F y G.3.2. obtenemos que ∆Qt BP1 ∆ = ∆ 1 de donde se sigue que Qt BP1 = ∆−1 . Escribiendo esta igualdad en forma divida por bloques e igualando las matrices superiores izquierdas de ambos lados. la única inversa generalizada de A es A−1 . por ejemplo.4.2. o equivalentemente. F y G iguales a matrices nulas y usamos la ecuación de B dada en la proposición VI. como P Pt = Im y Q Qt = In .3. 1 Cuando A ∈ Mm (R) es invertible. cualquier inversa generalizada B. si escribimos Q = ( Q1 | Q2 ) y P = ( P1 | P2 ). de A. la matriz B de la proposición VI. se puede expresar como B = Q Qt B P Pt = Q Qt 1 Qt 2 B ( P1 | P2 ) Pt = Q Qt B P1 1 Qt B P1 2 Qt B P2 1 Qt B P2 2 Pt . que tendrá la forma requerida si somos capaces de probar que Qt B P1 = ∆−1 . esto es. 1 Como B es una inversa generalizada de A. Por otra parte. la inversa de A. MANUALES UEX 173 . La matriz 1  1 A=  0 0 1 1 1  2 1 1  1 1 −1 −1 1 −1 1 −1  √ −1 2 1  0  1  0 −1 0  0 0 −1 −1  1/2 1/2   −1/2  −1/2 √ −1/ 2 √ 1/√3 1/ 6 tiene rango r = 2 y su descomposición en valores singulares (larga) de A es 0 √ 3 0 0  √  0 1/√2 0   1/√3 0  1/ 6 0  0 √ 1/ √  . con Q1 ∈ Mn×r (R) y P ∈ Mm×r (R).3 obtenemos que una inversa generalizada de A es   5 5 1 1 1  −1 −1 −5 −5  . entonces. Por tanto. según la demostración del teorema VI. sabemos que la matriz anterior es la inversa de Moore-Penrose de A. A B A = A. ( Pt A Q)( Qt B P)( Pt A Q) = Pt A Q.

podemos usar el ejercicio 5. rg( A) = n si. es 2. Para demostrar (e). es decir. Entonces (a) (b) (c) (d) (e) (f) (g) ( A− )t es una inversa generalizada de At . no está garantizado que A sea la inversa generalizada de A− . la matriz A = diag(0. en este caso. rg( A) = m si. por tanto rg( A) = rg( A A− ) = rg( A− A). ( A+ )+ = A. nótese que como A = A A− A. 6 0 2 −2 0 Obsérvese que esta matriz tiene rango 3. Ejemplo VI.5.6. Sin embargo. A A− = Im . y sólo si. y sea A− ∈ Mn×m una inversa generalizada de A. Una elección de inversa generalizada para A es . De (e) se sigue que rg( A) = m si. por ejemplo. si α ∈ R es no nulo. si B y C son invertibles. mientras que la inversa de MoorePenrose tiene el mismo rango que A que. A− A = In . 2. rg( A) = rg( A A− A) ≤ rg( A− A) ≤ rg( A− ). sabemos que la inversa de Moore-Penrose de A+ es A. Algunas de las propiedades de la inversa de Moore-Penrose no se cumplen para las {1}-inversas. Proposición VI. Las propiedades (a)-(d) se comprueban fácilmente. sin más que verificar que se cumple la condición (G1). Veamos ahora algunas propiedades de las {1}-inversas. A− = A−1 de forma única. 4). para obtener que rg( A) = rg( A A− A) ≤ rg( A A− ) ≤ rg( A) y rg( A) = rg( A A− A) ≤ rg( A− A) ≤ rg( A). Por ejemplo. La demostración de (g) es análoga y se deja como ejercicio al lector. Además. α−1 A− es una inversa generalizada de αA.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS entonces obtenemos la inversa generalizada   3 2 1 0 1 0 −1 −2 −3  . y sólo si.3. Considérese. A A− es invertible. rg( A) = rg( A A− ) = rg( A− A) ≤ rg( A− ). cuando A− es una inversa generalizada arbitraria. Demostración. si A es cuadrada e invertible. y sólo si. Sea A ∈ Mm×n (R).3. Multiplicando a izquierda por ( A A− )−1 la expresión ( A A − )2 = ( A A − A ) A − = A A − MANUALES UEX 174 implica (f). C −1 A− B−1 es una inversa generalizada de BAC. en general.

A− es invertible. Demostración. observamos primer lo siguiente A( At A)− At A = AA+ A( At A)− At A = ( AA+ )t A( At A)− At A = ( A + )t At A ( At A ) − At A = ( A + )t At A = ( AA+ )t A = AA+ A = A. 2. entonces (a) (( At A)− )t es una inversa generalizada de At A. sea B una inversa generalizada de A y C = B − A− . Sea A− ∈ Mn×m (R) una inversa generalizada de A ∈ Mm×n . y cada inversa generalizada B de A se puede escribir de esta forma para C = B − A− . se cumple que A− + C − A− ACAA− es una inversa generalizada de A. Demostración. por lo tanto su única inversa generalizada es A−1 = diag(1. (b) La matriz A( At A)− At no depende de la elección de inversa generalizada ( At A ) − . Trasponiendo la expresión At A( At A)− At A = At A se obtiene At A(( At A)− )t At A = At A. por tanto. 1/2. Como A A− A = A. Entonces. Aquí. Teorema VI. Si ( At A)− es una inversa generalizada cualquiera de At A. MANUALES UEX 175 . A− + C − A− ACAA− es una inversa generalizada de A. se tiene que A( A− + C − A− ACAA− ) A = AA− A + ACA − AA− ACAA− A = A + ACA − ACA = A. (c) A( At A)− At es simétrica. Para probar (b) y (c). Sean A ∈ Mm×n (R).8. Todas las inversas generalizadas de una matriz A se pueden expresar en términos de cualquier inversa generalizada particular. aún en el caso de que ( At A)− no lo sea.3. 4). como ABA = A. Entonces para cualquier matriz C ∈ Mn×m (R).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA A− = diag(1.7. se tiene que A− + C − A− ACAA− = A− + ( B − A− ) − A− A( B − A− ) AA− = B − A− ABAA− + A− AA− AA− = B − A− AA− + A− AA− = B. Veamos ahora algunas propiedades de las inversas generalizadas de At A. independientemente de la elección de A− y C. Proposición VI.3. Por otra parte. de donde se sigue (a). 1/4).

y por tanto AA+ . de At A. ( At A)− .3. Proposición VI.8 donde ya demostramos las igualdades A ( At A ) − At A = A y A ( At A)− At = AA+ . Sea A ∈ Mm×n (R). En la siguiente sección veremos que la {1. estas inversas generalizadas se suelen llamar inversas mínimo cuadráticas.3) . Como AA A = A y ( AA )t = AA . podemos probar que AA = AA+ AA = ( AA+ )t ( AA )t = ( A+ )t At ( A )t At = ( A+ )t ( AA A)t = ( A+ )t At = ( AA+ )t = AA+ . es única.3. Demostración. (VI.3. Consecuentemente.5 también se aplican a A (en el contexto de las {1}-inversas. entonces para cada par de matrices F ∈ M(n−r)×r (R) y G ∈ M(n−r)×(m−r) (R). se cumple que AA = AA+ . Entonces.3. y las denotaremos A en vez de A(1. MANUALES UEX Corolario VI. donde la igualdad se sigue de la identidad A( At A)− At A = A probada más arriba. Sea A ∈ Mm×n (R).10) A ( At A ) − At = = A( At A)− At ( A+ )t At = A( At A)− At ( AA+ )t A( At A)− At AA+ = AA+ .3. 3}-inversa es útil para hallar soluciones aproximadas mínimo cuadráticas de sistemas de ecuaciones lineales incompatibles. A .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Entonces.10) ya que A+ . entonces las propiedades dadas en la proposición VI. La simetría de A( At A)− At se sigue de la simetría de AA+ . que ( At A)− At es una inversa mínimo cuadrática. de A. (b) ( At A)− At es una inversa mínimo cuadrática de A para cualquier inversa generalizada.3. El apartado (b) se sigue de la demostración de la proposición VI. la matriz B=Q ∆ −1 F 0 G Pt 176 . (a) para cualquier inversa mínimo cuadrática. ¡claro!). (b) sigue de (VI.10.9. Como las inversas mínimo cuadráticas de A son también {1}-inversas de A. Veamos algunas propiedad más de las inversas mínimo cuadráticas. es decir. Si A tiene rango r > 0 y A=P ∆ 0 0 0 Qt es una descomposición en valores singulares de A.

Demostración.1. entonces ˆ por tanto. Dados A ∈ Mm×n (R) y b ∈ Rm . es decir. Supongamos que B y C son inversas generalizadas de A. C verifica la misma condición ya que ACb = AC ( ABb) = ( ACA) Bb = ABb = b.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA es una mínimo cuadrática de A. Nota VI. x = A− b es una solución particular. por lo tanto ABA = ACA = A. de A se cumple que AA− b = b. y el sistema es compatible. El siguiente resultado proporciona una condición necesaria y suficiente alternativa de compatibilidad usando una inversa generalizada. La demostración es consecuencia directa de la proposición VI. ABb = b. Mínimos cuadrados.4. Recíprocamente. supongamos que para una inversa ˆ generalizada. Si x = A− b. Sistemas de ecuaciones lineales (II). es decir. Una consecuencia obvia de este resultado es que cuando el sistema Ax = b sea compatible. de A se tiene que AA− b = b. Entonces. Demostración. de A. se obtiene que ˆ ˆ AA− b = AA− Ax = Ax = b.3. En primer lugar.3. A− . MANUALES UEX 177 ˆ Ax = AA− b = b.2. y sólo si. A− . y cualquier inversa mínimo cuadrática de A se puede expresar en la forma de B para ciertas F y G. para alguna inversa generalizada. supongamos que B verifica la condición de compatibilidad de la proposición VI. .1. A− . Multiplicando esta igualdad a izquierda por AA− . entonces una solución suya será x = A− b. b = Ax. El teorema de Rouche-Fröbenius es útil para determinar si el sistema de ecuaciones lineales Ax = b es compatible.4. supongamos que el sistema es compatible y ˆ ˆ sea x una solución. El sistema de ecuaciones Ax = b es compatible si. pero no nos dice cómo calcular una solución del sistema cuando es compatible.4. Proposición VI. Además. donde A− es una inversa generalizada de A. es una solución. como queríamos probar. consideramos el sistema de ecuaciones lineales Ax = b con m ecuaciones y n incógnitas. 4. x = A− b. ˆ en cuyo caso.

una inversa generalizada de A es 0  0 A− =   0 0  0 0 1 −1  0 0  .1. sin importar qué inversa generalizada estemos usando. Por ejemplo.3. la inversa de Moore-Penrose de A es   −1/6 1/3 1/6  1/5 −1/5 0  . solamente hay que verificar la condición para una inversa generalizada de A. esta no es la única inversa generalizada de A.3.2.4.2. A+ =   −1/6 1/3 1/6  2/5 −2/5 0 Según lo expresado en la nota VI. una solución particular del sistema de ecuaciones Ax = b es  0  0   A− b =   2  1/2 No obstante. si una inversa generalizada de A verifica la condición de compatibilidad de la proposición VI. Consideremos el sistema de ecuaciones Ax = b. donde 1 A= 1 2  1 0 1 1 1 2  2 0  2  3 b =  2 . para usar la proposición VI. 0  1/2 Usando esta inversa generalizada observamos que 1 AA− b =  1 2   1 0 1 1 1 2    0 0 0 2 3  0 0 0   0  2   0 1 0  2 5 0 −1 1/2     3 3  2  =  2 .4.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Por tanto.1. 5 5   1 0 0 = 0 1 0 1 1 0 Por tanto. todas las inversas  MANUALES UEX 178 . Ejemplo VI. 5  y Según vimos en el ejemplo VI.4.4.

4.11) es independiente de la elección de las inversas generalizadas de A y B.4. Supongamos que el sistema es compatible y que la matriz X es ˆ una de sus soluciones.4. si A− y C − cumplen la condición de compatibilidad. En consecuencia. Multiplicando a izquierda por AA− y a derecha por C − C. B ∈ Mm×q (R) y C ∈ M p×q (R).11) se verifica para una elección particular de A− y B− . podemos comprobar que si la condición de compatibilidad (VI. Recíprocamente. obtenemos que ˆ ˆ AA− BC − C = AA− A XCC − C = A XC = B. independientemente de la elección de la inversa generalizada A− . es compatible si.     Podemos considerar que el sistema de ecuaciones Ax = b es un caso particular de sistemas de ecuaciones lineales de la forma AXC = B con B ∈ Mm×q (R). por tanto. Sea A ∈ Mm×n (R). X será una matriz de incógnitas de orden n × p.4. la condición de compatibilidad (VI. entonces x = A− b es una solución.2. Por consiguiente. y observamos que X es una solución del sistema. X = A− BC − es una solución particular. por tanto B = A XC.4. C ∈ M p×q (R) y. ˆ Demostración. Usando un argumento similar al de la nota VI.11) AA− BC − C = B. El siguiente resultado da una expresión general para todas las soluciones de un sistema de ecuaciones. El sistema de ecuaciones AXC = B.3). definiˆ ˆ mos X = A− BC − . Por tanto. entonces nuestro sistema tiene más de una solución (véase el ejemplo VI.      −1/6 1/3 1/6 1 3  1/5 −1/5  1/5 0   A+ b =  2 =  −1/6  1 1/3 1/6  5 2/5 −2/5 0 2/5 es otra solución del sistema de ecuaciones. si A− varía según la elección de A. El siguiente resultado da una condición necesaria y suficiente para que exista una solución X. donde A− y C − son inversas generalizadas de A y C. se cumple que (VI. Hemos visto que si un sistema de ecuaciones Ax = b es compatible. ˆ en cuyo caso. entonces se cumple para todas las inversas generalizadas de A y B. para algunas inversas generalizadas A− y C − .4. y sólo si. MANUALES UEX 179 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA generalizadas de A la verifican. Proposición VI.4.

12) xy = A− b + ( In − A− A)y ˆ es una solución del sistema. entonces Axy = AA− b + A( In − A− A)y = b + ( A − AA− A)y = b. x. Demostración. y3 .    2 − y1 1/2 − y2/2  donde y = (y1 . para cada y ∈ Rn . Por otra parte.3. pues AA− A = A.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Teorema VI. ˆ ˆ ˆ ˆ A− b + ( In − A− A)x = A− b + x − A− Ax = x. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R) tales que el sistema de ecuaciones Ax = b es compatible.5 es la siguiente: .4. y2 . (VI. Consecuentemente. tenemos que     0 0 0 1 1 1 2  0 0 0   A− A =  1 0 1 0   0 1 0  2 1 2 2 0 −1 1/2   0 0 0 0  0 0 0 0   =  1 0 1 0  0 1/2 0 1 usando la primera de las dos inversas generalizadas dadas en el ejemplo.4.4. Luego. 180 Una consecuencia inmediata del teorema VI. ˆ luego x = xx .1.4.6. ˆ Ejemplo VI. y4 )t es un vector arbitrario. AA− b = b. Entonces. si x es una solución arbitraria. Para el sistema de ecuaciones estudiado en el ejemplo VI. pues Ax = b. y A− una inversa generalizada de A. existe y ∈ Rn tal que ˆ x = xy .4. y para cualquier solución.5. entonces ˆ ˆ A− Ax = A− b.4. Como Ax = b es compatible. xy es una solución independientemente de la elecˆ ción de y ∈ Rn . Consecuentemente. por la proposición VI. una solución del sistema de ecuaciones es MANUALES UEX xy = A− b + ( I4 − A− A)y    0 1 0  0   0 1   =  2  +  −1 0 1/2 0 −1/2  0 0 y1 0 0   y2  0 0   y3 0 0 y4   y1    y2 = .

A− A = In . Si x ∈ Rn fuese una ¯ ellas. Obsérvese que si x ∈ Rn es una solución aproximada mínimo cuadrática del sistema de ecuaciones Ax = b. Sin embargo. Sean A ∈ Mm×n (R) y b ∈ Rm . esto es. el sistema de ecuaciones Ax = b es incompatible. Ax)2 | x ∈ Rn } = m´n{ Ax − b ı ı coord.4.4. Basta tener en cuenta la proposición VI.3. ¯ Nota VI. Ax)2 . 2 | x ∈ Rn } ¯ ¯ = m´n{( Ax − b)t ( Ax − b) | x ∈ Rn } = ( Ax − b)t ( Ax − b) ı coord.9. Sean A ∈ Mm×n (R) y b ∈ Rm tales que b ∈ im( A). entonces la distancia al cuadrado de Ax − b a 0 es la suma al t ( A x − b ) en coordenadas ¯ ¯ cuadrado de sus componentes. Cualquier vector que minimice esta suma de cuadrados se llama solución aproximada mínimo cuadrática.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Corolario VI. Nótese que x = A− b es la única solución del sistema Ax = b ˆ si. In − A− A = 0.4. la solución es única si. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R) tales que el sistema de ecuaciones Ax = b es compatible. Según vimos en el tema III. MANUALES UEX 181 para todo x ∈ Rn . En otras palabras. para todo y ∈ Rn .4. para cualquier inversa generalizada A− de A. y sólo si. Si usamos la distancia para el producto escalar ¯ usual de Rm . entonces x verificará aproximadamente las ecuaciones de nuestro siste¯ ma si Ax − b es próximo a 0. con xy definido como en (VI.7. El sistema tiene solución única si. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R) tales que el sistema de ecuaciones Ax = b es compatible. y sólo si. y sólo si.4. es decir. ˆ Demostración.13) ¯ ¯ ( Ax − b)t ( Ax − b) ≤ ( Ax − b)t ( Ax − b).4.12). entonces d(b. ( Ax − b) respecto de la base usual de Rm .5(g) y el corolario VI. . El sistema tiene solución única si. y sólo si. si. rg( A) = n. y sólo si. para todo y ∈ Rn .8. Soluciones aproximadas mínimo cuadráticas de sistemas de ecuaciones lineales.4. Demostración.7. im( A))2 = m´n{d(b. en algunas situaciones puede ser interesante conocer algún vector o un conjunto ¯ de vectores que estén “cerca” de verificar las ecuaciones. Se dice que x ∈ Rn es una solución (aproximada) mínimo cuadrática del sistema de ecuaciones Ax = b si cumple la desigualdad (VI. x = xy . ¯ Definición VI. = ¯ Ax − b 2 ¯ = d(b. ( In − A− A)y = 0.10. Corolario VI.

es solución del sistema Ax = AA+ b.12. y b ∈ Rm .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS donde las igualdades indicadas lo son en coordenadas respecto de la base usual de Rm .13.4. las soluciones aproximadas mínimo cuadráticas de Ax = b son las soluciones del sistema de ecuaciones Ax = b1 donde b1 es la proyección ortogonal de b sobre im( A). AA+ b = b1 . AA+ = AA para cualquier inversa mínimo cuadrática A de A. 2 0 2 5  −1/6 2/5 1/3 −2/5  . si b1 es la proyección ortogonal de b sobre im( A). esto es.4. Es una consecuencia inmediata de la proposición VI. Según vimos en el tema V. volviendo al problema que nos ocupa. Las soluciones aproximadas mínimo cuadráticas del sistema Ax = b son precisamente las soluciones del sistema Ax = AA+ b. Según la nota VI.4.9.   1  5 22  Una inversa mínimo cuadrática de A es  −1/6 1/5 1  A = 1/3 −1/5 10 1/6 0 Como 5 1  0  AA b= 10  5 0  0 2 0 4 5 0 5 0  0 4  1 4  0  6 8 5 MANUALES UEX 182 . en el único vector v1 ∈ L tal que v − v1 ∈ L⊥ . la distancia de un vector v ∈ V a un subespacio vectorial L de V se alcanza en la proyección ortogonal de v sobre L.4. las soluciones aproximadas mínimo cuadráticas son las del sistema de ecuaciones lineales Ax = b1 . Demostración. 1/6 0   1     = 1  1  = b. tenemos que x es solución aproximada mínimo cuadrática del sistema Ax = b si. sin mas que tener en cuenta que. Consideremos el sistema de ecuaciones Ax = b con     1 1 2 4  1 0 1   1     A=  1 1 2  y b =  6 .2. Entonces x = A b es una solución aproximada mínimo cuadrática del sistema Ax = b. Así. Demostración. por el teorema ¯ VI.3. Sean A ∈ Mn×m (R) una inversa mínimo cuadrática de ¯ A ∈ Mm×n (R).4. Proposición VI. Corolario VI. por la proposición VI. Sean A ∈ Mm×n (R) y b ∈ Rm . Como. Ejemplo VI.10. y sólo si.11.4.11.

Una solución aproximada mínimo cuadrática es       4 8 −1/6 1/5 −1/6 2/5  1  1   A b =  1/3 −1/5 17  .4. Entonces. existe y ∈ Rn tal que x = xy .11.14) ¯ Ax = AA b.14. se com¯ prueba fácilmente que xy es una solución aproximada mínimo cuadrática de ¯ Ax = b. para toda inversa mínimo cuadrática A de A. Sin embargo.1. (VI.4. para alguna inversa mínimo cuadrática de A. MANUALES UEX 183 Demostración. por la proposición VI.4. Por la proposición VI.12 también es cierto. como. por la proposición VI. siendo A una inversa generalizada (cualquiera) de A. Usando que.1 se sigue que el sistema es incompatible. y para cualquier solución ¯ ¯ ¯ aproximada mínimo cuadrática.15) ¯ xy = A b + ( In − A A)y una inversa es una solución aproximada mínimo cuadrática del sistema. Recíprocamente. (VI. x. Luego. se sigue que la igualdad es independiente de la inversa mínimo cuadrática que elijamos. entonces .4.9.4. 1/3 −2/5    6  = 15 25 1/6 0 1/6 0 5 Veamos ahora que el recíproco del corolario VI.14 se sigue que x es solución aproximada mínimo cuadrática de Ax = b si.3. Ahora.3. b ∈ Mm×1 (R) y A mínimo cuadrática de A. Sean A ∈ Mm×n (R). si x es una solución aproximada mínimo cuadrática de Ax = b.9.4. Teorema VI.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA de la proposición VI. y sólo si.15. existe una inversa ¯ generalizada A− de A tal que x = A− AA+ b. x es una solución del sistema de ecuaciones Ax = AA+ b.12 y VI. Si x es una solución aproximada mínimo cuadrática del sistema Ax = b. por la proposición VI. entonces existe una inversa mínimo ¯ cuadrática A de A tal que x = A b. ¯ Demostración. Sean A ∈ Mm×n (R) y b ∈ Rm . AA = AA+ . AA+ = AA .4.4. ¯ Nótese que de los corolarios VI. ¯ Ax = AA b. ¯ Corolario VI.4. para cada y ∈ Rn .4. Una simple comprobación demuestra que A− AA+ es una inversa mínimo cuadrática de A. basta tomar ¯ ¯ ¯ y = x − A b y comprobar que x = xy .

del teorema de Pitágoras se sigue que ¯ xy 2 = A+ b 2 + ( In − A+ A)y 2 ≥ A+ b 2 = x+ 2 MANUALES UEX 184 y la igualdad se alcanza si.17. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Como A+ es.16. se tiene que todas las soluciones aproximadas mí¯ nimo cuadráticas de Ax = b son de la forma xy = A+ b + ( In − A+ A)y.4. Calculemos todas las soluciones aproximadas mínimo cuadrática del sistema de ecuaciones del ejemplo VI.4. Demostración. Terminamos esta sección calculando la solución óptima mínimo cuadrática de un sistema de ecuaciones lineales.4.8 − y3  y3 es una solución aproximada mínimo cuadrática para cada y3 ∈ R. una inversa mínimo cuadrática de A. Por otra parte. en particular. En primer lugar.4.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejemplo VI.2 − y3 =  2. que no es otra cosa que la solución aproximada mínimo cuadrática de norma (euclídea) mínima. por el teorema VI. luego x+ = A+ b.13. 0 0 0 de tal forma que ¯ xy = A b + ( I3 − A A)y 0 1  = 5 10 0   2 0 −2 5 0 0   4 4  1 −4    6 0 5   0  + 0  0 0 0 0   −1 y1 −1   y2  1 y3  2. La solución óptima mínimo cuadrática del sistema de ecuaciones Ax = b es x+ = A+ b.15. Corolario VI. al ser A+ b ortogonal a ( In − A+ A)y. y sólo si ( In − A+ A)y = 0. observamos que   1 0 1 A A =  0 1 1 . . para algún y ∈ Rn .

¿cómo son los valores singulares de αA en comparación con los de A? Ejercicio 3. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios del tema VI Ejercicio 1. la columna i-ésima de P y Q. y usar la proposición VI. Calcular la inversa generalizada de Moore-Penrose de AAt . 2 0 1 Ejercicio 5. probar que.6(g) para hallar A+ . 3. entonces ( A+ )2 es la inversa de Moore-Penrose de A2 . Probar que si A+ ∈ Mn×m (R) es la inversa de Moore-Penrose de A ∈ Mm×n (R). .2. si vi y ui denotan. Calcular la descomposición en valores singulares (larga y corta) de la matriz 1 2 2 1 A= . Sea A ∈ Mn (R). Consideremos la matriz  1 −1 A =  0 −1 3 2  2 2 . si U ∈ Mm (R) y V ∈ Mn (R) son matrices ortogonales. 2. i = 1. Probar que si A es simétrica. respectivamente.6(h) para calcular la inversa de MoorePenrose de   1 1 1  0 1 0     0 1 1 . entonces 1. . Usar A+ para calcular la matriz de proyección ortogonal de Rn sobre im( A) y de Rm sobre im( At ). AA+ = A+ A. Sea A ∈ Mm×n (R). Sea A ∈ Mm×n (R).2. 2. . Probar que los valores singulares de A son los mismos que los de At . Si A tiene rango r y su descomposición en valores singulares (larga) es A=P ∆ 0 0 0 Qt . 1. 1 1 1 −1 Ejercicio 2. MANUALES UEX 185 . Ejercicio 7. entonces. Probar que los valores singulares de A son los mismos que los de U AV. vi = (1/σi ) At ui . A+ es simétrica. Ejercicio 6. Usar la proposición VI. −1 1. r. Si α = 0 es un escalar. 2. Ejercicio 4.

Ejercicio 17. con B ∈ Mn× p (R). Sean A ∈ Mm×n (R) y B ∈ Mn×m (R). Sea A ∈ Mm×n (R) simétrica y de rango r. encontrar una matriz simétrica A tal que A+ = A que no sea idempotente. Probar que si rg( A) = 1. y sólo si. A21 A22 . Calcular la inversa de Moore-Penrose de   2 1 0 0 0  1 1 0 0 0     0 0 1 2 0 . 2. con B ∈ Mm× p (R). A+ = A. 2. At B = 0. Ejercicio 10. Sea A ∈ Mn (R) una matriz divida por bloques de la siguiente manera A11 A12 A= . entonces AB( AB)+ = AA+ . B+ A+ = 0. Probar que si A y B son definidas positivas. rg( A) = rg( B). Probar que B+ − A+ es semidefinida positiva si. Ejercicio 12. donde α = tr( A+ A). Sean A ∈ Mm×n (R) y B ∈ Mn× p (R). Hallar una inversa generalizada de A de rango 3 y que sea diagonal. Es decir. 3). 3. Probar que 1. Ejercicio 13. entonces ABAt ( ABAt )+ A = A. rg( B) = n). Ejercicio 11. Ejercicio 14. Ejercicio 15. y sólo si. entonces A+ = λ−2 A. Probar que si A tiene un autovalor λ no nulo de multiplicidad r.    0 0 1 2 0  0 0 0 0 4 MANUALES UEX 186 Ejercicio 16. si A es idempotente. 2. Sea A ∈ Mm×n (R). Consideremos la matriz diagonal A = diag(0. 1. A+ B = 0 si. Probar que ( AB)+ = B+ A+ si At ABBt = BBt At A. Ejercicio 8. Hallar una inversa generalizada de A que no sea diagonal. Hallar una inversa generalizada de A de rango 2. Demostrar que el recíproco de 3. Sean A ∈ Mm×n (R) y B ∈ Mm×n (R) simétricas y semidefinidas positivas tales que A − B también es semidefinida positiva. Sea A ∈ Mm×n (R). entonces A+ = α−1 At . Sean A ∈ Mm×n (R) y B ∈ Mn×m (R). Ejercicio 9. no es cierto en general. Probar que si B tiene rango pleno por filas (es decir. AB = 0 si.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 3. y sólo si.

respectivamente. Ejercicio 21. Sea Ax = b un sistema de ecuaciones compatible. rg( In − A− A) = n − rg( A) y rg( Im − AA− ) = m − rg( A). A− BB− es idempotente. Probar que si B es una inversa generalizada de A. Ejercicio 23. Probar que B es la inversa de Moore-Penrose de A si. Ejercicio 19. y sólo si. AA− . y sólo si. Ejercicio 25. Probar que A+ = At ( AAt )− A( At A)− At . Probar que la matriz B es una inversa generalizada de A si. Si A tiene rango r > 0 y A=P ∆ 0 0 0 Qt es una descomposición en valores singulares de A. entonces x = Bb es una solución. . tal que x = Bb. existe una inversa generalizada B de A. B es una inversa mínimo cuadrática de A y A es una inversa mínimo cuadrática de B. A− A. entonces − A111 0 0 0 es una inversa generalizada de A. B− A− es una inversa generalizada de AB si. Sean A ∈ Mm×n (R) y B ∈ Mn× p (R). y sólo si. Ejercicio 18. Sean A ∈ Mm×n (R) y B ∈ Mn× p (R). Ejercicio 20. Probar que B− A− será una inversa generalizada de AB para cualquier elección de A− y B− si rg( B) = n. entonces para cada F ∈ M(n−r)×r (R) la matriz B=Q ∆ −1 F 0 0 Pt Ejercicio 24. Probar que si rg( A11 ) = rg( A) = r. y para ˆ ˆ cualquier solución x. Ejercicio 22. Sean A ∈ Mm×n (R) y B ∈ Mn×m (R). In − A− A e Im − AA− son idempotentes. Sean A ∈ Mm×n (R) y ( AAt )− y ( At A)− inversas generalizadas arbitrarias de AAt y At A. Probar que: 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA con A11 ∈ Mr (R). AB es idempotente y rg( A) = rg( AB). Sea A ∈ Mm×n (R). Probar que para cualquier elección de A− y B− . Sean A ∈ Mm×n (R) y A− una inversa generalizada de A. 2. MANUALES UEX 187 es una mínimo cuadrática de A de la forma ( At A)− At y cualquier inversa mínimo cuadrática de A de la forma ( At A)− At se puede expresar en la forma de B para cierta F.

3. Probar que el sistema es compatible. y 1 1 0 188 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 26. 4. C= 1 0  y B= 2 1 3 2 1 0 1 1. Consideremos el sistema de ecuaciones Ax = b. donde A ∈ M4×3 (R) es la matriz de ejercicio 4 y   1  3   b=  −1  . Dar la expresión para solución general. 2. Consideremos el sistema de ecuaciones AXC = B. existe una matriz Y tal que ˆ = XY . ¿Cuántas soluciones linealmente independientes hay? Ejercicio 28. Probar que el sistema de ecuaciones es compatible. Hallar una solución de este sistema de ecuaciones. Hallar el número r de soluciones linealmente independientes. 3. Hallar la expresión de la solución general de este sistema. A= . B ∈ Mm×q (R) y C ∈ M p×q (R). 0 1. donde X ∈ M3 (R) es una matriz de incógnitas y   1 −1 4 2 1 3 1 . XY = A− BC − + Y − A− AYCC − ˆ es una solución. MANUALES UEX Ejercicio 29. donde A ∈ M3×4 (R) es la matriz de ejercicio 3 y   1  1 . Calcular la solución óptima mínimo cuadrática del siguiente sistema de ecuaciones para todos los valores de α ∈ R :     1 1 1 x  1 α  =  0 . 2. Probar que el sistema de ecuaciones es compatible. y para cualquier solución. Consideremos el sistema de ecuaciones Ax = b. Probar que para cualesquiera inversas generalizadas A− y C − . X. 2. 4 1. con A ∈ Mm×n (R). y una matriz arbitraria Y ∈ Mn× p (R). X Ejercicio 27. Ejercicio 30. Sea AXC = B un sistema de ecuaciones compatible. Dar un conjunto de r soluciones linealmente independientes.

y sólo si. Probar que ˆ 1. Resolver la versión perturbada del problema anterior m´n A2 z − b 2 . ı ˆ ¿Qué le ocurre a x − y cuando δ se aproxima a cero? 3. se evita el cálculo de At A que puede producir problemas de mal condicionamiento. Sea A ∈ Mm×n (R) y b ∈ Rm . Para esta situación. Consideremos la perturbación de A E1 = 0 0 δ 0 donde δ es un número positivo pequeño. ı ˆ ¿Qué le ocurre a x − z cuando δ se aproxima a cero? . Probar que x es una solución ˆ aproximada mínimo cuadrática del sistema Ax = b si. donde A2 = A + E2 . el anterior sistema ampliado contendrá menos entradas no nulas que el sistema de ecuaciones normales. 0)t . 2. Además. Ahora consideremos la perturbación de A E2 = 0 0 0 δ MANUALES UEX 189 donde δ es un número positivo pequeño. (véase la sección 3 del tema VIII). donde ı A= 1 0 0 0 y b= 1 0 . Ejercicio 32. la solución x = (1. Consideremos el problema de calcular la solución de norma mínima del problema de mínimos cuadrados m´n Ax − b 2 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA ˆ Ejercicio 31. y evitará los problemas de memoria que suelen dar los algoritmos de resolución. Resolver la versión perturbada del problema anterior m´n A1 y − b 2 . donde A1 = A + E1 . x forma parte de una solución del sistema ampliado Im At A 0 y ˆ x = b 0 No es extraño encontrar problemas de mínimos cuadrados en los que la matriz A es muy grande pero contiene muchos ceros.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 190 .

algunos ya conocidos como la suma directa de matrices (véase la sección 3 del tema III). la inversa. En particular. Estrechamente relacionado con el producto Kronecker se halla el operador vec. En la primera sección de este tema. llamado producto de Kronecker. una matriz con una expresión aparentemente complicada se puede escribir de una forma realmente simple sin más que aplicar uno o más de estos operadores matriciales. En este tema. mostraremos algunas de las derivadas matriciales más comúnmente utilizadas en Estadística. Ni que decir tiene que existen otros operadores matriciales. produce una matriz divida por bloques tal que cada bloque es igual a un elemento de la primera matriz por la segunda (este producto ya fue definido a modo de ejemplo en el primer tema). echaremos un vistazo a un producto de matrices que es diferente del usual. Estas y otras aplicaciones del cálculo diferencial involucran a menudo vectores y matrices. los procesos de estimación tales como el método de máxima verosimilitud o el método de mínimos cuadrados usan las propiedades de optimización de las derivadas. y otros también importantes pero que no estudiaremos en esta asignatura. Este producto de matrices.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA VII Derivación matricial E l cálculo diferencial tiene multitud de aplicaciones en Estadística. como por ejemplo el producto de Hadamard de dos matrices que no es más que el producto entrada a entrada de cada una de ellas (véase el capítulo 8 de [Sch05]). Por ejemplo. que transforma matrices en vectores apilando las columnas una encima de otra. introduciremos brevemente algunos operadores matriciales especiales y estudiaremos algunas de sus propiedades. mientras que el llamado método delta para obtener la distribución asintótica de una función de variables aleatorias usa la primera derivada para obtener una aproximación por una serie de Taylor de primer orden. El primero de los operadores que estudiamos en esta sección es el producto de Kronecker de matrices. Posteriormente mostramos sus propiedades básicas y su relación con la traza. o vectorización. En muchas ocasiones. ya que serán MANUALES UEX 191 . La elección de estas propiedades no es casual. las inversas generalizas y el determinante.

el producto de Kronecker y la traza. Todas las que aparecen en esta sección las diferenciales y derivadas son calculadas con detalle. como es nuestro caso. en ella definimos y estudiamos las primeras propiedades del diferencial de una función matricial de variable matricial. La vectorización de una matriz consiste en construir un vector apilando las columnas de la matriz una encima de otra. para la parte correspondiente a la diferenciación matricial y el capítulo 8 de [Sch05] para la sección sobre los operadores matriciales. Terminamos esta sección introduciendo las matrices de conmutación que permiten relacionar la vectorización de una matriz y la de su traspuesta. La segunda sección es la que da nombre al tema. las funciones que a cada matriz le asignan su traza o su determinante. A continuación estudiamos el operador vec.4 de [BS98]). Conviene advertir que existen otras definiciones de derivada matricial (véanse.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 192 las que utilicemos para calcular las diferenciales de la funciones matriciales usuales. conviene destacar que vec no es más que una aplicación lineal de Mm×n (R) en Rmn . es decir. por ejemplo. El resto de la sección se dedica a las propiedades básica de la diferencial y su relación con algunas de las operaciones matriciales tales como la trasposición. La bibliografía utilizada para este tema ha sido [Sch05] y [MN07]. al estudio de la diferencial de una función vectorial de variable vectorial. definimos la diferencial de F ( X ) en A como la única aplicación lineal dF ( A) tal que vec(dF ( A)) = dvec( F ( A)). y las funciones que a cada matriz le asignan su inversa o su inversa de MoorePenrose. aquella que tiene como entrada (i. j)-ésima a la derivada parcial del entrada i-ésima de vec( F ( X )) con respecto a la entrada j-ésima de vec( X ). principalmente la teoría de los capítulos 8 y 9 del segundo. Así. Las propiedades estudiadas de la vectorización son las que relacionan el operador vec con la traza y el producto de matrices. Esta estrategia permite reducir el estudio de la diferencial de una función matricial de variable matricial. Nuestra elección resulta útil cuando se está interesado fundamentalmente en aplicar a funciones matriciales resultados matemáticos relativos a funciones vectoriales. La clave de la definición de diferencial es la vectorización de la función matricial y de la matriz de variables. y establecer la propiedad que relaciona la vectorización con el producto de Kronecker. . las secciones 3 y 4 de [MN07] y la sección 5. y definir la derivada de una función matricial de variable matricial como la derivada de vec( F ( X )) respecto de vec( X )t . a excepción de la diferencial de la inversa de Moore-Penrose de la que solamente se muestran sus expresiones. En tema finaliza con el cálculo de las diferenciales y derivadas de algunas funciones escalares y matriciales de variable matricial. por ejemplo.

2. . se puede demostrar que existen matrices de permutación P y Q tales que Pt ( A ⊗ B) Q = B ⊗ A. . am1 B am2 B . . .. Definición VII. . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. . . y se denota A ⊗ B. . respectivamente. . . . en ⊗ u1 . . . a1n B  a21 B a22 B . . . general. e1 ⊗ uq . .20. y {e1 . .1. . . e1 ⊗ u p . . en ⊗ u p } y {e1 ⊗ u1 . respectivamente. siendo esta la definición más común del producto de Kronecker. . . A diferencia de la multiplicación de matrices el producto de Kronecker A ⊗ B se puede definir independientemente de los órdenes de A y B. Sin embargo. . . Se llama producto de Kronecker 1 de A por B. . . . . . = 0 0 0 0 2 6 4 8 4 8 . . . 1Sea T : Rn → Rm la aplicación lineal cuya matriz respecto de las bases usuales {e . respecto de la bases {e1 ⊗ u1 . . el producto de Kronecker no es. Ejemplo VII. El lector familiarizado con el producto tensorial puede apreciar que el producto de Kronecker de A y B no es más que la matriz de la aplicación T ⊗ S : Rn ⊗ R p → Rm ⊗ Rq .1. Sean A= Por un lado se tiene que A⊗B = mientras que por otro B⊗A = 1A 3A 2A 4A 0B 1B 2B 0 1 2 y B= 1 3 0 0 1 3 2 6 1 3 0 0 2 4 2 4 2 4 . es A. . ..1. . tal y como demostraremos en la proposición VII. . . . . . respectivamente. em } de Rn y Rm . . . y sea S : R p → Rq la aplicación lineal cuya matriz respecto de las bases usuales {u1 . al igual que la multiplicación.  .1. . conmutativo. amn B Este producto es conocido más concretamente como producto de Kronecker a derecha. es B.  .1)  . . .  ∈ Mmp×nq (R). . . em ⊗ u1 . a2n B    (VII. . em ⊗ uq } de Rn ⊗ R p y Rm ⊗ Rq . Sean A = ( aij ) ∈ Mm×n (R) y B ∈ M p×q (R). . = . e } n 1 MANUALES UEX 193 A pesar de que el producto de Kronecker no es conmutativo.1. u p } y {u1 . Algunos operadores matriciales El producto de Kronecker. uq } de Rq y R p . . a la matriz por bloques   a11 B a12 B .

3.. Entonces (VII. Sea A.. . Veamos ahora una interesante propiedad que involucra tanto al producto de Kronecker como al producto usual de matrices..1. B y C matrices cualesquiera con coeficientes en R y a ∈ Rm y b ∈ Rn . ( A + B) ⊗ C = ( A ⊗ C ) + ( B ⊗ C ). ( A ⊗ B )t = At ⊗ Bt .  .  ( AC )1n BD  ..  F1n . para todo α y β ∈ R.1.. . ( AC )mn BD . . . .2) es     a11 B ..IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS A continuación enunciamos algunas propiedades básicas del producto de Kronecker. . ( AC )m1 BD . . Demostración. Proposición VII. . abt = a ⊗ bt = bt ⊗ a. . y por tanto se sigue el resultado buscado. . (αA) ⊗ ( βB) = αβ( A ⊗ B). .  . Fmn .1. . a1r B c11 D . .. Demostración.2) es  ( AC )11 BD  . c1n D F11  . si B y C tienen el mismo orden.  . Las demostraciones son consecuencia directa de la definición de producto de Kronecker por lo que se dejan como ejercicio al lector. .. AC ⊗ BD =  .2) ( A ⊗ B)(C ⊗ D ) = AC ⊗ BD. Nuestro siguiente resultado demuestra que la traza del producto de Kronecker A ⊗ B se puede expresar fácilmente en términos de la traza de A y de la traza B cuando ambas son matrices cuadradas. si A y B tienen el mismo orden. amr B cr1 D r . . . Sean A = ( aij ) ∈ Mm×r (R). . MANUALES UEX 194 El miembro de la derecha de (VII.4. .1. En el capítulo 5 de [BS98] se puede encontrar una demostración completa de cada una de ellas. B ∈ M p×s (R). (a) (b) (c) (d) (e) (f) (g) α ⊗ A = A ⊗ α = αA. C = (c jl ) ∈ Mr×n (R) y D ∈ Ms×q . am1 B donde Fij = . . .   . Teorema VII..  . .1. para todo α ∈ R. A ⊗ ( B + C ) = ( A ⊗ B) + ( A ⊗ C ). = .. ( A ⊗ B ) ⊗ C = A ⊗ ( B ⊗ C ). . crn D Fm1 j =1 ∑ aij c jl BD = ( AC)ij BD. . El miembro de la izquierda de (VII.

tenemos que Ahora. necesitamos estudiar primero la inversa del producto de Kronecker. Usando expresión (VII.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Proposición VII.1. (c) ( A ⊗ B)− = A− ⊗ B− . A− y B− . Sean A ∈ Mm (R) y B ∈ Mn (R).5. Demostración. La verificación de (b) y (c) se deja como ejercicio al lector. sin embargo. Sea A ∈ Mm×n (R) y B ∈ M p×q (R). entonces ( A ⊗ B)−1 = A−1 ⊗ B −1 .1. Demostración. y A ⊗ B es invertible. Se cumple que | A ⊗ B| = | A|n | B|m . basta observar que | A ⊗ B| = |( PD1 Qt ) ⊗ ( P D2 ( Q )t )| = |( P ⊗ P )( D1 ⊗ D2 )( Qt ⊗ ( Q )t )| = |( P ⊗ P )||( D1 ⊗ D2 )||( Qt ⊗ ( Q )t )| = |( D1 ⊗ D2 )| = | A|n | B|m . ( P ⊗ P )t ( P ⊗ P ) = ( Pt ⊗ ( P )t )( P ⊗ P ) = ( Pt P) ⊗ (( P )t P ) = ( Im ) ⊗ ( In ) = Imn .1. | D1 ⊗ D2 | = | D1 |n | D2 |m por ser D1 y D2 matrices diagonales. La proposición VII. Demostración. respectivamente. (b) ( A ⊗ B)+ = A+ ⊗ B+ .1. de A y B. y análogamente con ( Q ⊗ Q )t . En efecto. MANUALES UEX 195 | D1 ⊗ D2 | = | A|n | B|m .4 se tiene que ( A−1 ⊗ B−1 )( A ⊗ B) = ( A−1 A ⊗ B−1 B) = Im ⊗ Iq = Imp .1.1. para cualquier inversa generalizada. Q y Q son ortogonales.1) cuando n = m. vemos que tr( A ⊗ B) = i =1 ∑ aii tr( B) = ∑ aii i =1 m m tr( B) = tr( A)tr( B). P . Usando el teorema VII. Por lo tanto. Además. . se comprueba fácilmente que D1 y D2 verifican la proposición. Existe un resultado análogo para el determinante. Como P.7. Entonces tr( A ⊗ B) = tr( A)tr( B). Se cumple que (a) si m = n y p = q. Proposición VII. sin más que tener en cuenta que P ⊗ P y Qt ⊗ ( Q )t = ( Q ⊗ Q )t también son matrices ortogonales. se tiene que | A| = | D1 | y | B| = | D2 |. Proposición VII. luego se cumple (a).6. es decir.5 da una expresión simplificada para la traza de un producto de Kronecker. respectivamente. Sean A = PD1 Qt y B = P D2 ( Q )t las descomposiciones en valores singulares (largas) de A y B. Sean A = ( aij ) ∈ Mm (R) y B ∈ M p (R).

para todo a ∈ Rm . Nota VII.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Nuestro último resultado sobre el producto de Kronecker identifica la relación entre el rango de A ⊗ B y los rangos de A y B.10.9. an MANUALES UEX Obsérvese que vec(a) = vec(at ) = a.  . . en cada caso.1.7 por lo que se deja como ejercicio al lector.1. Corolario VII. El operador que transforma una matriz en un vector apilando sus columnas una encima de otra se conoce como el operador vec. Si la matriz A ∈ Mm×n (R) tiene como i-ésima columna a ai ∈ Rm . 196 .1. rg( B)} ı ( A ⊗ B )t ( A ⊗ B ) −1 tr( A ⊗ B) | A ⊗ B| rg( A ⊗ B) = At ⊗ Bt = A −1 ⊗ B −1 = tr( A)tr( B) = | A|m | B|n = rg( A)rg( B) entendiendo que. Se cumple que rg( A ⊗ B) = rg( A)rg( B) Demostración. La demostración es completamente análoga a la de la proposición VII.1. El operador vec. Si A es la matriz 2 8 0 1 5 3 .8. Sean A ∈ Mm⊗n (R) y B ∈ M p×q (R). Sin comparamos las propiedades del producto ordinario de matrices y del producto de Kronecker se tiene ( AB)t ( AB)−1 tr( AB) | AB| rg( AB) = Bt At = B −1 A −1 = tr( A)tr( B) = | A| | B| ≤ m´n{rg( A). la matrices tienen los órdenes apropiados para que las fórmulas tengan sentido. Ejemplo VII.  vec( A) =  . entonces vec( A) es el vector de Rmn definido por   a1  .

b ∈ Rn y A y B dos matrices del mismo orden con coeficientes en R. . si Eij es la matriz de orden m × n cuya entrada (i.13. .  vec(abt ) = vec ((b1 a.  = b ⊗ a. Por ejemplo. .12. j)-ésima es 1 y el resto de sus entradas son ceros y ek es el vector k-ésimo de la base usual de Rmn . Sean a ∈ Rm . Se cumple que: (a) vec(abt ) = b ⊗ a. Se comprueba fácilmente que esta aplicación es un isomorfismo de espacios vectoriales. Eij → em( j−1)+i . Proposición VII. y que su inversa es Rmn −→ Mm×n (R). .11. En esta sección. desarrollaremos algunos propiedades básicas asociadas a este operador. Demostración. bn a)) =  . ek → Ec+1 r . . entonces vec es la aplicación lineal Mm×n (R) −→ Rmn . si a ∈ Rm y b = (b1 . Se cumple que tr( At B) = vec( A)t vec( B). (b) vec(αA + βB) = αvec( A) + βvec( B). respectivamente. bn a El siguiente resultado nos da este y otros resultados que se siguen de forma inmediata de la definición del operador vec.1. . Sean A y B ∈ Mm×n (R). con α y β ∈ R.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA entonces vec( A) es el vector         2 8 0 1 5 3     . .1. . Proposición VII. MANUALES UEX 197 .1. Obsérvese que. La traza del producto de dos matrices se puede expresar en términos de sus vectorizaciones. La demostración es un sencillo ejercicio que proponemos al lector. bn )t ∈ Rn . entonces abt ∈ Mm×n (R) y   b1 a  . donde c y r son el cociente y el resto de la división euclídea de k entre m.    Nota VII. .

bn las columnas de B. en un sistema de la forma Ax = b. . donde se mostraba una expresión general de la solución de AXC = B.14. . tenemos (Ct ⊗ A). Como es habitual denotemos a1 . . . . se puede usar para realizar el ejercicio 26 del tema VI. donde en lugar de A. es decir.1. . Se cumple que vec( ABC ) = (Ct ⊗ A) vec( B).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración.14. . . . que da la forma general de la solución de Ax = b.1. .15.  = vec( A)t vec( B). Usando de nuevo la proposición VII.1. i =1 i =1 bn Teorema VII. x y b. . el teorema VI. n i i . lo que.  tr( At B) = ∑ ( At B)ii = ∑ at bi = at . . respectivamente.1. En el tema VI. B ∈ Mn× p (R) y C ∈ M p×q (R). Sean A ∈ Mm×n (R).1. obtenemos que i =1 ∑ (ei ⊗ bi ) = ∑ vec(bi eti ) = vec ∑ bi eti i =1 i =1 p p p = vec( B). se tiene que vec( ABC ) = vec p A i =1 ∑ bi eti p C = = i =1 ∑ Ct ei ⊗ Abi = (Ct ⊗ A) ∑ (ei ⊗ bi ).12(a). at  . este segundo sistema de ecuaciones se puede expresar de forma equivalente como vec( AXC ) = (Ct ⊗ A)vec( X ) = vec( B). ∑ vec( Abi eti C) = i =1 p p donde ei es el elemento i-ésimo de la base canónica de R p . . . implica el resultado buscado. . Demostración.12(a). . MANUALES UEX 198 . vec( X ) y vec( B). Ejemplo VII. Así. estudiamos los sistemas de ecuaciones lineales de la forma Ax = b. b p son las columnas de B. entonces B se puede escribir como B= i =1 ∑ bi eti . En primer lugar observamos que si b1 . Como consecuencia.4. así como los sistemas de la forma AXC = B.5 del tema VI. an las columnas de A y b1 . Entonces   b1 n n  . Usando el operador vec y el teorema VII. junto con lo anterior. i =1 p i =1 ∑ vec p ( Abi )(Ct ei )t donde la segunda y la última igualdad siguen de la proposición VII.

Se cumple que tr( ABCD ) = vec( At )t ( Dt ⊗ B)vec(C ).13 se puede generalizar fácilmente al caso del producto de más de dos matrices.18.14. Usando la proposición VII. s13 s23 s33 r13 r23 1 MANUALES UEX 199 .1. C ∈ M p×q (R) y D ∈ Mq×m .16. Las matrices de covarianza y correlación resultantes son de la forma     s11 s12 s13 1 r12 r13 S =  s12 s22 s23  y R =  r12 1 r23  . Asimismo. B ∈ Mn× p (R). en un vector que son útiles cuando A tiene una estructura particular. Sean A ∈ Mm×n (R) y C ∈ Mn×m (R).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA La proposición VII. lo que completa la demostración. Por ejemplo.13 se sigue que tr( ABCD ) = tr( A( BCD )) = vec( At )t vec( BCD ).14 se deja como ejercicio al lector. Los operadores v y v son particularmente útiles cuando ˜ estamos manipulando matrices de covarianza y de correlación. y B y D ∈ Mn (R).1. si A es triangular inferior. Corolario VII. Una de estas transformaciones de A. que se denota v( A). Existen otras transformaciones de una matriz. v( A) es el vector que se obtiene ˜ apilando las porciones de columnas de A que están por debajo de la diagonal de A. Demostración.1. A ∈ Mm (R). La demostración de esta otra consecuencia del teorema VII.1. es decir. Sin embargo. sabemos que vec( BCD ) = ( Dt ⊗ B)vec(C ).1. Demostración. Ejemplo VII. (b) tr( ADt BDC ) = (vec( D ))t ( At Ct ⊗ B)vec( D ).1. consiste en construir ˜ m(m−1)/2 que se obtiene al eliminar de v( A ) las entradas coel vector de R rrespondientes a la diagonal de A. Corolario VII. por el teorema VII. Sean A ∈ Mm×n (R).1. otra transformación de A en un vector. consiste en construir el vector de Rm(m+1)/2 que se obtiene al eliminar de vec( A) las entradas correspondientes a los elementos de A que están por encima de la diagonal principal de A. v( A) contiene todos los elementos de A excepto los ceros de la parte triangular superior de A.17. que se denota v( A). De este modo. supongamos que estamos interesados en la distribución de la matriz de covarianza muestral o en la distribución de la matriz de correlación muestral calculadas a partir de una muestra de observaciones de tres variables diferentes. Se cumple que: (a) tr( ABC ) = vec( At )t ( Im ⊗ B)vec(C ).

s13 . r23 . r23 )t ˜ que contiene todas las variables aleatorias de R. Como C es arbitrario se sigue el resultado buscado. s33 )t . este nombre está justificado por el siguiente resultado: Proposición VII.1. s23 . Entonces K pm ( A ⊗ B) = ( B ⊗ A)Kqn . Finalmente.3) Kmn vec( A) = vec( At ).19. s13 . Como S y R son simétricas.1. Sea A una matriz arbitraria de orden m × n. obtenemos v( R) = (r12 . s23 .20. usando repetidas veces la expresión (VII. r12 .1. s13 . 200 . v( R) = (1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS respectivamente. Las matrices Kmn se llama matrices de conmutación. MANUALES UEX Demostración. vec( R) = (1. se escribe Kn en vez de Knn . s12 . 1)t . Denotaremos por Kmn la única matriz de orden mn × mn tal que (VII. r12 . 1. Sea C ∈ Mq×n (R). Ahora ya estamos en disposición de enunciar y demostrar el teorema anteriormente anunciado. s22 . r13 .14. Pero antes. Si m = n. r13 . r12 . 1)t . eliminando los unos no aleatorios de v( R). r23 . 1. de tal modo que vec(S) = (s11 . s23 . s22 .1. necesitamos introducir la siguiente notación. r23 . s12 . Esta propiedad es crucial para la diferenciación de productos de Kronecker. Sea A ∈ Mm×n (R) y B ∈ M p×q (R). se tiene que K pm ( A ⊗ B)vec(C ) = K pm vec( BCAt ) = vec( ACt Bt ) = ( B ⊗ A)vec(Ct ) = ( B ⊗ A)Kqn vec(C ). Entonces.3) y el teorema VII. r13 . hay elementos redundantes en vec(S) y en vec( R). Terminaremos esta sección mostrando una interesante propiedad que nos permite transformar el vec de un producto de Kronecker en el producto de Kronecker de los operadores vec. s12 .1. r13 . Notación VII. La eliminación de estos elementos se puede obtener usando v(S) y v( R ) v(S) = (s11 . Obsérvese que Kmn es una matriz de permutación que no depende de A. s33 )t .

esto es. . Con esta notación. columnas de In e Iq . Un desarrollo riguroso sobre este tema puede encontrarse. . . MANUALES UEX 201 Comenzamos recordando algunos conceptos básicos sobre funciones en el espacio euclídeo con el único objetivo de fijar la notación que se usará a lo largo de la sección. Asimismo. n q q de este modo obtenemos que vec( A ⊗ B) = i =1 j =1 ∑ ∑ vec(ai eti ⊗ b j (e j )t ) = ∑ ∑ vec((ai ⊗ b j )(ei ⊗ e j )t ) i =1 j =1 n q n n q = = i =1 j =1 n q ∑ ∑ ( ei ⊗ e j ⊗ ai ⊗ b j ) = q i =1 j =1 ∑ ∑ (ei ⊗ Kqm (ai ⊗ e j ) ⊗ b j ) i =1 j =1 ∑ ∑ ( In ⊗ Kqm ⊗ Ip )(ei ⊗ ai ⊗ e j ⊗ b j ) i =1 = ( In ⊗ Kqm ⊗ I p ) ∑ vec(ai eti ) n j =1 ∑ vec(b j (ei )t ) q = ( In ⊗ Kqm ⊗ I p )(vec( A) ⊗ vec( B)). Entonces. . n. i = 1. 2. j = 1. . . q. Sean ai . podemos escribir A y B como sigue A= i =1 ∑ ai eti n y B= j =1 ∑ b j ( e j )t . . una función vectorial con variable vectorial. . xn )t . vec( A ⊗ B) = ( In ⊗ Kqm ⊗ I p )(vec( A) ⊗ vec( B)). . Sea A ∈ Mm×n (R) y B ∈ M p×q (R).21. q. sean ei . . . i = 1. f m (x) con x = ( x1 . . n.1. por ejemplo. Diferenciación matricial Supongamos que f 1 . . . y e j . las columnas de A y B. . f m son funciones de Rn en R. . respectivamente. . Estas m funciones determinan la función f : Rn → Rm con m componentes definida por   f 1 (x)   . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teorema VII. f (x) =  . . . respectivamente. . en [Spi88]. . y b j = 1. . lo que completa la demostración. Demostración. . . . .

cada una de las componentes f i es diferenciable en a ∈ Rn . y responde a la siguiente expresión:   ∂ ∂ ∂x1 f 1 ( a ) . ∂xn f m ( a ) 1 En algunas situaciones concretas. F(X ) =   . . . Esta matriz de orden m × n se suele llamar primera derivada de f en a o matriz Jacobiana de f en a. Es decir. . Los conceptos para funciones vectoriales de variable vectorial se pueden extender fácilmente a la función matricial F ( X ) usando el operador vec. las funciones f j y las variables xi se ordenan en una matriz en vez de en un vector.4) vec dF ( A) . f (a) :=  . . F es una función de Mn× p (R) en Mm×q (R). . . u Nótese que u ∈ Rn y f (a + u) − f (a) − T (u) ∈ Rm .. ambas para el producto escalar usual. equivalentemente. La aplicación lineal T cuando existe es única. . . f 1q ( X )   . MANUALES UEX De este modo. si existe una aplicación lineal T : Rn → Rm tal que u→0 l´m ı f (a + u) − f (a) − T (u) = 0. f m1 ( X ) . por lo que en el numerador estamos usando la norma en Rm y en el denominador la norma en Rn .   t ∂x ∂ ∂ ∂x f m ( a ) . . . f mq ( X ) de variable matricial X de orden n × p. Así.. se suele designar por d f (a) y se denomina diferencial de f en a. . ∂xn f 1 ( a )   ∂ . y sólo si.2. . En muchas ocasiones es conveniente utilizar la matriz de d f (a) respecto de las bases usuales de Rn y Rm . . se define la diferencial de F en A ∈ Mn× p (R) como la única aplicación lineal dF ( A) que hace conmutativo el siguiente diagrama: M n × p (R) (VII. basta considerar la función f : Rnp → Rmq tal que f (vec( X )) = vec( F ( X )). . .M m × q (R) vec 202 ? Rnp d f (vec( A)) - ? Rmq . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La función f es diferenciable en a ∈ Rn si. el caso más general lo engloba una función matricial de orden m × q   f 11 ( X ) .

1. Ni que decir tiene que todas las propiedades que veremos a continuación sólo tendrán sentido allí donde exista la diferencial. En la siguiente proposición se indican algunas de las reglas de derivación para las operaciones más usuales entre expresiones matriciales.5) ∂ ∂ f (vec( A)) = vec( F ( A)). aquella que tiene como entrada (i. vec(dF ( A)) = d vec( F ( A)). (a) Derivada de la función constante. si consideramos las bases usuales de Rnp y Rmq .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Es decir. A la matriz (VII.2.2.3. (b) Derivada del producto por un escalar. Sean F y G dos matrices de orden m × q cuyos elementos son funciones de X. .2. Sea A una matriz de orden m × q cuyo elementos no dependen de los X. para cualquier α ∈ R se verifica que d(αF ) = α(dF ).2. j)-ésima a la derivada parcial de la entrada i-ésima de vec( F ( X )) con respecto a la entrada j-ésima de vec( X ). Existen otras definiciones de derivada matricial (véanse.4 de [BS98]). MANUALES UEX 203 dA = 0. La matriz de variables independientes X de orden m × p define una aplicación de Mm× p (R) → Mm× p (R) cuya derivada respecto de X en cualquier punto es la matriz identidad de orden mp. Sea F una matriz de orden m × q cuyos elementos son funciones de X. Proposición VII. ∂vec( X )t ∂vec( X )t es decir. Propiedades de la diferencial. escribiremos dF en vez de dF ( A) con objeto de aligerar un poco la notación. Ejemplo VII. En lo que sigue. Ahora. se tiene que la matriz Jacobiana de f en vec( A) ∈ Rnp es la matriz de orden mq × np (VII.5) la llamaremos derivada de F en A respecto de X. (c) Derivada de la suma. Entonces. Definición VII. las secciones 3 y 4 de [MN07] y la sección 5. por definición. Entonces.1 resulta útil cuando se está interesado fundamentalmente en aplicar a funciones matriciales resultados matemáticos relativos a funciones vectoriales. si F es una función matricial de X. d( F + G ) = dF + dG. como es nuestro caso.2.2.2. X denotará una matriz de orden n × p de variables independientes. Además. La elección de la definición VII. por ejemplo. Entonces.

Los apartados (a).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (d) Derivada del producto.4. Proposición VII. se concluye la igualdad buscada. Usando esta igualdad se comprueba fácilmente que (dF ) G + F (dG ) hace conmutativo el diagrama (VII. Sean F y G dos matrices de ordenes m × q y q × r. MANUALES UEX 204 . por la unicidad de la diferencial. Obsérvese que de (a) y (d) se sigue que d( AF ) = AdF. como vec( F ⊗ G ) = ( Iq ⊗ Ksm ⊗ Ir )(vec( F ) ⊗ vec( G )) y vec((d F ) ⊗ G + F ⊗ d G ) = ( Iq ⊗ Ksm ⊗ Ir )(vec(d F ) ⊗ vec( G ) + vec( F ) ⊗ vec(dG )).4). Sean F una matriz de orden m × q y G una matriz de orden r × s cuyos elementos son funciones de una matriz X de orden n × p de variables independientes. (b) Veamos en primer lugar que d(vec( F ) ⊗ vec( G )) = d(vec(vec( G )vec( F )t )) = vec((d vec( G ))vec( F )t + vec( G )d(vec( F )t )) = vec((d vec( G ))vec( F )t ) + vec(vec( G )(d vec( F ))t ) = vec( F ) ⊗ (d vec( G )) + (d vec( F )) ⊗ vec( G ) = vec( F ) ⊗ vec(dG ) + vec(d F ) ⊗ vec( G ) = vec(d F ) ⊗ vec( G ) + vec( F ) ⊗ vec(dG ) De modo que. entonces d(tr( F )) = tr(d F ). (b) y (c) se siguen de la definición de diferencial de una matriz en un punto. (c) Si q = m. d( FG ) = (dF ) G + F (dG ). Veamos ahora otras propiedades de la diferencial de una función matricial de variable X relacionadas con las operaciones específicas de las matrices.2.2. cuyos elementos son funciones de X. y se concluye que (dF ) G + F (dG ) = d( F G ). (b) d( F ⊗ G ) = (d F ) ⊗ G + F ⊗ d G. Demostración. (a) Como vec(d( Ft )) = d(vec( Ft )) = d(Kmq vec( F )) = Kmq d(vec( F )) = Kmq vec(dF ) = vec((dF )t ). respectivamente. Entonces. Demostración. Se cumple que (a) dFt = (dF )t . (d) Sabemos que las funciones vectoriales de variable vectorial cumplen que d( f g) = (d f ) g + f dg.

. En el capítulo 9 de [MN07] y en el capítulo 5 de [BS98] se pueden encontrar muchas más diferenciales y derivadas de funciones escalares y matriciales de variable matricial. (c) Basta usar la proposición VII. supondremos que X es una matriz de orden m × n de variable independientes.1.5. d(tr( F )) = d(vec( Im )t vec( F )) = vec( Im )t d(vec( F )) = vec( Im )t vec(d F ) = tr(d F ). con a ∈ Rm . triangularidad. Sea X una matriz de orden n × q de variables independientes.13 para obtener la igualdad buscada.3. de donde se sigue el resultado buscado. Si F ( X ) = XX t . Algunas derivadas matriciales de interés En la sección anterior ya hemos mostrado algunas diferenciales y derivadas de funciones escalares y matriciales de variable matricial. en efecto. Ejemplo VII. Sea x un vector de m variables independientes. en esta última sección veremos algunas más. ∂vec( X )t 3. ∂ F = ( In2 + Kn )( X ⊗ In ). De d( f (x)) = d(at x) = at dx. por ser vec un isomorfismo.2.1. Comencemos viendo algunas funciones escalares de X. MANUALES UEX 205 . y definimos la función f (x) = at x.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA concluimos que vec(d(( F ⊗ G ))) = d(vec( F ⊗ G )) = ( Iq ⊗ Ksm ⊗ Ir )d(vec( F ) ⊗ vec( G )) = vec((d F ) ⊗ G + F (d G )). . cuando consideremos funciones de la forma f ( X ) o F ( X ). entonces vec(dF ( X )) = vec(d( XX t )) = vec((dX ) X t + X (dX )t ) = vec( In (dX ) X t ) + vec( X (dX )t In ) = ( X ⊗ In )d vec( X ) + ( In ⊗ X )Knq d vec( X ) = (( X ⊗ In ) + Kn ( X ⊗ In ))d vec( X ) = ( In2 + Kn )( X ⊗ In )d vec( X ) luego.. es decir. Ejemplo VII. A partir de ahora. no consideraremos que X tenga ninguna estructura particular como pueden ser simetría.

Proposición VII. ∂vec( X )t (b) d| X | = tr(adj( X )dX ) y ∂ | X | = vec(adj( X )t )t . Sea x un vector de m variables independientes. Sean X una matriz de orden m y adj( X ) su matriz adjunta2.3.13. Entonces.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS concluimos que ∂ f = at . ∂xt Ejemplo VII.2. ∂vec( X )t MANUALES UEX 206 Demostración. ∂vec( X )t (c) si X es invertible. . con A ∈ Mm (R) simétrica.9 del tema III. (a) d(tr( X )) = tr(dX ) = vec( Im )t vec(dX ) = vec( Im )t d(vec( X )).1. en el apartado (a) la relación entre la diferencial y la deriva es directa. y definimos la función g(x) = xt Ax.3.3.2. Ahora. se sigue que ∂ g = 2xt A. Usando que d( g(x)) = d(xt Ax) = d(xt ) Ax + xt Adx = (dx)t Ax + xt Adx = ((dx)t Ax)t + xt Adx = 2xt Adx. Teniendo en cuenta que vec(tr( X )) = tr( X ) y vec(| X |) = | X |. d| X | = | X |tr( X −1 dX ) y ∂ | X | = | X |vec(( X −1 )t )t . (a) d(tr( X )) = vec( Im )t d(vec( X )) y ∂ tr( X ) = vec( Im )t . mientras que en los apartados (b) y (c) la relación entre la diferencial y la derivada es consecuencia directa de la proposición VII. usando la relación entre la diferencial y la derivada se obtiene la expresión para la derivada buscada. 2Definición I. ∂xt La traza y el determinante.

Una consecuencia inmediata del apartado (c) de la proposición anterior es el siguiente resultado. si k = j. Por tanto. Corolario VII. ∂vec( X )t MANUALES UEX 207 . ∂ | X | = (−1)i+ j | Xij |. d(log(| X |)) = tr( X −1 dX ) y ∂ log(| X |) = vec(( X −1 )t )t .3.4. ∂xij pues | Xik | no depende de la variable xij . Ejemplo VII. entonces X −1 = | X |−1 adj( X ). sin más que tener en cuenta que si X es invertible.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (b) Sabemos que | X | = ∑m 1 (−1)i+k xik | Xik |. Si F ( X ) = tr( X t X ) = tr( X X t ). Sea X una matriz invertible de orden m. t ∂vec( X ) | X | ∂vec( X )t usando ahora la relación entre la diferencial y la derivada se concluye el resultado buscado. ∂vec( X )t y usando la relación entre la diferencial y la derivada se obtiene la diferencial buscada. entonces dF ( X ) = d(tr( X t X )) = tr(d( X t X )) = tr((dX )t X + X t dX ) = tr((dX )t X ) + tr( X t dX ) = 2tr( X t dX ) = 2 vec( X )t vec(dX ). De donde se sigue que ∂ | X | = vec(adj( X )t )t . El apartado (c) sigue directamente del (b). luego. donde Xik es la submatriz de k= X que se obtiene eliminando la fila i-ésima y la columna k-ésima. Entonces.3.5. Usando la regla de la cadena de las funciones vectoriales de variable vectorial se tiene que ∂ 1 ∂ log(| X |) = | X | = vec(( X −1 )t )t . ∂ F = 2vec( X t )t . ∂vec( X )t Demostración.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejemplo VII. ∂vec( X )t La inversa y la inversa de Moore-Penrose. Calculando la diferencial de ambos lados de la igualdad Im = XX −1 .7 es el resultado que nos describe la diferencial y la derivada de la inversa de Moore-Penrose de una matriz. Si X X t es invertible y F ( X ) = | X X t |.6.3. ∂vec( X )t Demostración. ∂ F = 2 | X X t |vec(( XX t )−1 X )t . Multiplicando a izquierda por X −1 y despejando d( X −1 ). Si X es una matriz invertible de orden m. Proposición VII. El próximo resultado nos da la diferencial y la derivada de la inversa de una matriz invertible.3.3. entonces d( X −1 ) = − X −1 (dX ) X −1 y ∂ vec( X −1 ) = −(( X −1 )t ⊗ X −1 ). obtenemos que 0 = dIm = d( XX −1 ) = (dX ) X −1 + X (dX −1 ). Una generalización natural de la proposición VII. MANUALES UEX de donde sigue que d(vec( X −1 )) = vec(d( X −1 )) = −vec( X −1 (dX ) X −1 ) = −(( X −1 )t ⊗ X −1 )vec(dX ) = −(( X −1 )t ⊗ X −1 )d(vec( X )) lo que completa la demostración. 208 . entonces dF ( X ) = | X X t |tr(( X X t )−1 d( X X t )) = | X X t |tr(( X X t )−1 ((dX ) X t + X (dX )t )) = | X X t |tr(( X X t )−1 (dX ) X t ) + tr(( X X t )−1 X (dX )t ) = 2 | X X t |tr( X t ( XX t )−1 dX ) = 2 | X X t |vec(( X t ( XX t )−1 )t )t vec(dX ) = 2 | X X t |vec(( XX t )−1 X )t vec(dX ) luego.7. se tiene que d( X −1 ) = − X −1 (dX ) X −1 .

3. Si X es una matriz m × n y X + es su inversa de Moore-Penrose.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teorema VII. entonces dX + = ( In − X + X )(dX t )( X + )t ( X + )t + X + ( X + )t d( X t )( Im − XX + ) − X + (dX ) X + y ∂ = ( X + )t X + ⊗ ( In − X + X ) + ( Im − XX + ) ⊗ X + ( X + )t Kmn ∂vec( X )t − (( X + )t ⊗ X + ). MANUALES UEX 209 . El lector interesado puede encontrarla en la página 362 de [Sch05].8. La demostración de este teorema no es difícil aunque sí muy extensa.

Probar que 210 vec( AC + CB) = ( In ⊗ A) + ( Bt ⊗ In ) vec(C ). Sean A. dt Bc = (ct ⊗ dt )vec( B). (c ⊗ I p ) B = c ⊗ B. B ∈ M p×q (R) y c ∈ Rr . entonces A ⊗ B también es simétrica. tr( A ⊗ B). Ejercicio 2. . B ∈ Mn (R) y C ∈ Mm×n (R). Ejercicio 9. Sean A ∈ Mm×n (R). A( In ⊗ c) = A ⊗ ct . A = 0 ó B = 0. 2 Ejercicio 5. Si A y B son invertibles. Dadas las matrices A= 2 1 3 2 y B= 5 3 3 2 Calcular A ⊗ B. MANUALES UEX Ejercicio 7. Probar que vec( A ⊗ b) = vec( A) ⊗ b. 2. | A ⊗ B|. 3. Hallar el rango de A ⊗ B donde    2 6 5 A= 1 4  y B= 2 3 1 1 2 1 0  4 1 . Sean A ∈ Mm×n (R). Sean A ∈ Mm×n (R) y B ∈ Mn× p (R). B y C matrices cuadradas de orden m. entonces (vec(C ))t ( A ⊗ B)vec(C ) = (vec(C ))t ( B ⊗ A)vec(C ). Ejercicio 6. B ⊗ A. Si A y B son simétricas. 2. A ⊗ B = 0 si. Ejercicio 3. Probar que 1. Sean A ∈ Mm×n (R) y b ∈ R p . B ∈ Mn× p (R). c ∈ R p y d ∈ Rn . ABc = (ct ⊗ A)vec( B) = ( A ⊗ ct )vec( Bt ). Ejercicio 8. Probar que si C es simétrica.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema VII Ejercicio 1. Probar que 1. entonces A ⊗ B también es invertible. los autovalores de A ⊗ B y ( A ⊗ B ) −1 . Ejercicio 4. 2. Sean A ∈ Mm (R). Probar que 1. Probar que vec( AB) = ( I p ⊗ A)vec( B) = ( Bt ⊗ Im )vec( A) = ( Bt ⊗ A)vec( In ). y sólo si.

Ejercicio 15. Sean A ∈ Mm×n (R) y B ∈ M p×q (R). MANUALES UEX 211 . . . Ejercicio 12. . Ejercicio 11. 2. F ( X ) = tr( X 2 ).n ⊗ Iq ) (vec( A) ⊗ vec( B)) . . Hallar la diferencial y la derivada de 1. F ( X ) = | X 2 |. λr y ±(λi λ j )1/2 . Sean A ∈ Mm×n (R) de rango r y λ1 . vec( At ⊗ B) = (Kmq. 4. 5. . vec( A ⊗ Bt ) = ( In ⊗ K p. 2. . Ejercicio 13. Sean X una matriz invertible orden m de variables independientes. Calcular la diferencial y la derivada de 1. Usar que si A ∈ Mn×m (R). probar que 1. A ∈ Mm (R) y a ∈ Rm . Hallar la diferencial y la derivada la función f (x) = xt Ax . xt Bx Ejercicio 16. Si definimos P = Kmn ( At ⊗ A). 2. 3. los autovalores no nulos de P son λ1 . P es simétrica. tr( AX −1 ). m donde ei es el i-ésimo vector de la base canónica de Im . Probar que la matriz de conmutación Kmn se puede escribir como Kmn = i =1 ∑ (ei ⊗ In ⊗ eti ). Sean A ∈ Mm×n (R) y B ∈ M p×q (R) con mp = nq. tr( P) = tr( At A). Probar que tr( A ⊗ B) = vec( In ) ⊗ vec( Iq ) t vec( A) ⊗ vec( Bt ) . Calcular la diferencial y la derivada de f (x) = Ax y de g( x ) = Xa. . para todo i < j. λr los autovalores no nulos de At A. rg( P) = r2 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 10. P2 = ( AAt ) ⊗ ( At A). .mq (vec( A) ⊗ vec( B)) . Ejercicio 14. Ejercicio 17. x ∈ Rm y y ∈ R p m entonces (Kmn )t (x ⊗ A ⊗ yt ) = A ⊗ xyt . Probar que 1. Sea X una matriz de orden m de variables independientes. Sea A y B ∈ Mm (R) y x un vector de m variables independientes.

Ejercicio 22. vec( AXB). hallar la derivadas de 1. X t AX. Ejercicio 18. vec( AX −1 B). at X −1 a. Probar que ∂ ( X ⊗ X ) = ( In ⊗ Knm ⊗ Im ) ( Imn ⊗ vec( X ) + vec( X ) ⊗ Imn ) ∂vec( X )t Ejercicio 23. ∂vec( X )t Ejercicio 19. Sea A ∈ Mm (R) y X una matriz de orden m de variables independientes. Probar que ∂ vec(adj( X )) = | X | vec( X −1 )vec(( X −1 )t )t − (( X −1 )t ⊗ X −1 ) . Sean A ∈ Mn×m (R) y B ∈ Mm×n (R). Sean X una matriz invertible de orden m y adj( X ) su matriz adjunta. Probar que n ∂ vec( X n ) = ∑ ( X n−i )t ⊗ X i−1 . Ejercicio 20. Si X es una matriz invertible de orden m de variables independientes. Calcular las diferenciales y las derivadas de XAX t . Probar que ∂ | X t X | = 2| X t X |vec( X ( X t X )−1 )t . 2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. Sea X una matriz de orden m × n de variables independientes. ∂vec( X )t i =1 Ejercicio 21. Sea X una matriz de orden m × n de variables independientes con rango n. ∂vec( X )t MANUALES UEX 212 . Sean X una matriz de orden m de variables independientes y n un entero positivo. XAX y X t AX t .

Para ello comenzaremos definiendo el concepto de norma de forma axiomática en cualquier espacio vectorial real o complejo de dimensión arbitraria. lo es para la otra. que las normas equivalentes también conservarán la noción de continuidad en idéntico sentido. Es claro. La noción de norma matricial es una particularización de la noción de normas en los espacios vectoriales de las matrices cuadradas añadiendo una condición de compatibilidad con el producto de matrices. y concluiremos que las aplicaciones lineales entre espacios vectoriales de dimensión finita son funciones continuas.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA VIII Normas vectoriales y matriciales E n el tema V estudiamos el concepto de norma en los espacios vectoriales euclídeos. nos proponemos ahora estudiar este mismo concepto con mayor generalidad. Tras estudiar algunos resultados elementales sobre convergencia y funciones continuas en espacios normados. para todo v ∈ kn . y sólo si. dada una norma · en kn se puede definir una norma matricial ||| · ||| en Mn (k) tal que Av ≤ ||| A||| v . El par formado por un espacio vectorial V y una norma se conoce como espacio normado. El primer caso de norma matricial estudiado es el de las normas matriciales subordinadas a una norma vectorial. lo que a su vez nos permitirá hablar de límites y continuidad en los espacios normados. Estudiaremos algunas de sus propiedades elementales. introduciremos el concepto de normas equivalentes: diremos que dos normas son equivalentes si determinan la misma noción de convergencia. Esto es. estos espacios serán nuestro ambiente de trabajo en primera sección del tema. es decir. La introducción de una norma en un espacio vectorial nos permitirá definir la noción de convergencia para sucesiones de vectores. por tanto. un sucesión es convergente para de las normas si. Evidentemente. Terminamos esta primera sección del tema. mostrando que en los espacios de vectoriales de dimensión finita todas las normas son equivalentes. La segunda sección del tema se dedica al estudio de las normas matriciales. un ejemplo destacado será el caso de las normas definidas a partir de un producto escalar en un espacio vectorial real de dimensión finita. siendo ||| A||| el menor número real que verifica la desigualdad para MANUALES UEX 213 .

v = 0. para todo u y v ∈ V.4 y 1.5 y el capítulo 3 de [Cia82] 1. Normas vectoriales. Por otra parte.1. aquellas que guardan relación con el radio espectral de la matriz. como 0 = 0 = v−v ≤ v + −v = 2 v . principalmente. para todo v ∈ V. (b) λv = |λ| v . Es conveniente recordar ahora que gran parte de los resultados estudiados en los temas III y V serán fundamentales para alcanzar nuestro objetivo de relación las normas matriciales (y en particular la subordinada a la norma usual de n ) con el radio espectral. v → v tal que: (a) v = 0 si. Una norma sobre V es una aplicación V → R. es por esto por lo que dedicamos gran parte de nuestros esfuerzos a estudiar sus propiedades más interesantes. En esta segunda sección no todas las normas consideras serán subordinadas. Espacios normados A lo largo de este tema k denotará R ó C. MANUALES UEX 214 Definición VIII. (c) u + v ≤ u + v . Para la elaboración de este tema hemos seguido esencialmente las secciones 2. . se mostrarán ejemplos de normas no subordinadas y en todo momento se especificará qué resultados son sólo válidos para normas subordinadas y cuáles son válidos en general.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS todo v ∈ kn . 2. Se dirá que un sistema está mal condicionado si pequeñas modificaciones en la matriz o en el término independientes producen grandes cambios en la solución del sistema. indistintamente. La última sección del tema se dedica el estudio del condicionamiento de sistemas de ecuaciones lineales Ax = b con A ∈ Mn (k) invertible y b ∈ kn . y en esta sección V y W serán espacios vectoriales sobre k de dimensión arbitraria. y sólo si. La herramienta clave para la detección de un buen o mal condicionamiento será las normas matriciales. pues ya se vislumbró en el tema IV) que el mayor autovalor en módulo de una matriz cuadrada rige el comportamiento asintótico de las sucesiones de potencias de matrices.4 y el capítulo de 3 de [IR99] y las secciones 1. tal y como estudiaremos al final de la sección.1. A continuación se muestran los ejemplos de normas matriciales subordinadas más comunes y se dan sus expresiones expresiones explícitas. Tal vez la norma matricial subordinada más importante es la que proviene de la norma usual de n . mientras no se indique lo contrario. La condición (c) se suele denominar desigualdad triangular. para todo λ ∈ k y v ∈ V.3. se tiene que v ≥ 0. Esta relación pondrá de manifiesto (de nuevo.

vn ) → v = v2 + . que se llama norma usual de Cn . |vn |}. i) La función Rn → R. se cumple que v∗ v = v 2 para todo v ∈ Cn .8. .1. para todo v ∈ Rn . MANUALES UEX 215 Definición VIII. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplos VIII.2 y los siguientes. Como v − u = u − v se deduce la desigualdad (VIII. . se tiene que vt v = v 2 . . + v2 es n 1 una norma sobre Rn . . vn ) → v 2 = |v1 |2 + . v = (v1 . + | v n |. . en este caso. .3. . También son normas sobre Rn las dos siguientes: v v 1 ∞ = | v1 | + . . en este caso. . Nótese que. + |vn |2 es una norma sobre Cn . . . Ejemplos VIII. . a Nota VIII. para todo par de vectores u y v ∈ V las desigualdades u v = = v + (u − v) ≤ v + u − v . . . . Esta norma se suele denominar norma usual de Rn y se denota · 2 .4.2. u − v ≤ u−v . . Ejemplos de espacios normados son los del ejemplo VIII. 2 Obsérvese que la norma usual de Rn es la norma del espacio vectorial euclídeo Rn para el producto escalar usual estudiada en el tema V. + | v n |. 2 También son normas sobre Cn las dos siguientes: v v 1 ∞ = | v1 | + . |vn |}. . Obsérvese que. u + (v − u) ≤ u + v − u . La desigualdad triangular de la norma determina. v ∈ V. Otros espacios normados se verán en el ejemplo XII. = m´ x{|v1 |. . .1.1. v = (v1 .1. . = m´ x{|v1 |.5. a ii) La función Cn → R.1.1) para todo u.1. . Nótese que un subespacio vectorial de un espacio normado es un espacio normado con la misma norma restringida al subespacio. . Un espacio vectorial con una norma se llama espacio normado.1. . .

b]. R[ x ]≤n . para todo u y v ∈ V. las normas definidas en los ejemplos VIII. . En el espacio vectorial de las funciones continuas reales de [ a. Por ejemplo. algunos espacios vectoriales están tradicionalmente equipados de una norma usual. además. ii) Sea [ a. b]. Evidentemente. y sólo si. es posible definir diferentes normas sobre el mismo espacio vectorial (véase el ejemplo VIII. u − v = 0 si.iii)-iv) son las usuales.2. R) en R son normas: f −→ f f −→ f f −→ f 1 = = a b f ( x )dx a b 2 ∞ f ( x )2 dx 1/2 = sup | f ( x )| x ∈[ a.1. con la norma definida por . donde V es un espacio vectorial y · es una norma sobre V. MANUALES UEX Análogamente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS i) En el espacio vectorial de los polinomios con coeficientes reales de grado menor o igual que n. (c) u − w ≤ u − v + v − w . R). + | x n |2 . Por consiguiente.. u − v ≥ 0. (a) Demostración. la aplicación R[ x ]≤n −→ R.6. u = v.” . para todo u y v ∈ V.. cuando digamos el espacio normado kn entenderemos que la norma es v 2 = | x1 |2 + . 216 . . Sea (V. La demostración de esta proposición se deja como ejercicio al lector. Proposición VIII.4. b]. p( x ) −→ || p( x )|| = i =0 ∑ ( p(i)) n 1/2 2 es una norma. De modo que cuando queramos considerar normas distintas a la usual en estos espacios diremos algo como “consideremos el espacio . para definir un espacio normado necesitamos especificar tanto el espacio vectorial como la norma. · ).. (b) u − v = v − u . las siguientes aplicaciones de C([ a.1..1. No obstante.2.9.i)). · ) un espacio normado.b] Obsérvese que esta última aplicación está bien definida por el teorema A. Podemos decir pues que un espacio normado es un par (V. b] un intervalo cerrado de R. C([ a.

es decir. para todo u.1. (b) absolutamente homogénea por homotecias. v) := u − v . La convergencia en un espacio normado tiene las propiedades básicas de la convergencia en R : MANUALES UEX 217 . · ) tiene una estructura natural de espacio métrico determinada por la métrica d(u.1. y se usa para definir el concepto de convergencia. v). v) := u − v es una métrica sobre V. definiciones. Además.8. Sea (V. u − v proporciona una medida de la distancia entre u y v.6. Por consiguiente. es decir. Todo espacio normado (V. v). para todo u y v ∈ V y λ ∈ k. En general. Corolario VIII. Mientras que v se puede interpretar como la magnitud de v. De la proposición anterior se deduce que la aplicación d : V × V → R. topología. v + w) = d(u. La demostración de la segunda parte del corolario se deja como ejercicio al lector. siempre que tengamos un espacio normado. Convergencia en espacios normados. (u. si para todo ε > 0 existe un número N tal que para todo n ≥ N se tiene que vn − v < ε. etc. · ) un espacio normado. esta métrica es (a) invariante por traslaciones. v) → d(u. Según el corolario anterior. d(u + w.7. La primera parte es consecuencia directa de la proposición VIII. d(λu. λv) = |λ| d(u. Demostración. · ) un espacio normado. Diremos que una sucesión (vn )n∈N de elementos de V converge a v ∈ V. En este caso se escribe l´mn→∞ vn = v o simplemente vn → v. tenemos un espacio métrico con todas sus propiedades. v y w ∈ V. en pocas palabras el valor absoluto de la diferencia de dos números reales es la distancia entre éstos y la convergencia trata sobre “acercarse tanto como se desee al punto límite”. la norma sobre un espacio vectorial juega un papel similar. Definición VIII. El valor absoluto es un norma en R.1. ı La definición anterior es bastante más simple si recurrimos al concepto de convergencia de los números reales: vn → v en V significa que vn − v → 0 en R. De modo que podemos recuperar la noción de convergencia de los espacios métricos.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Sea (V.

9. existe δ > 0 tal que v0 − v V < δ implica que f (v0 ) − f (v) W < ε. y recíprocamente. f es acotada en B[0. Las siguientes afirmaciones son equivalentes: (a) (b) (c) (d) f es continua en un punto. · una norma sobre V. siendo (λn )n∈N una sucesión de escalares y λ un escalar. e1/n t ∈ R3 es convergente al vector v = l´mn→∞ vn = (0. · V ) y (W. 1]. f es continua. · W ) dos espacios normados y f : V → W es una aplicación lineal. (a) ⇒ (b) Basta comprobar que f es continua en v0 ∈ V si. 218 Demostración. Lo cual es evidente si tenemos en cuenta que si para cada ε > 0 existe δ > 0 tal que v0 − v V < δ implica f (v0 ) − f (v) W < ε. entonces λn vn → λv.10. 1)t . aplicando la desigualdad (VIII. Todas estas propiedades se demuestran de la misma manera que se hacia en el caso de la convergencia en R. De este modo concluimos que f (u) W = f (v/δ) W = f (v)/δ W = f (v) W /δ < 1/δ. y sólo si. 1 − 1/n2 . Dados u ∈ V y ε > 0 cualesquiera basta tomar δ = ε y v ∈ V con u − v < δ para que. (b) ⇒ (c) Como f es continua en 0 se tiene que existe δ > 0 tal que 0 − v V = v V < δ implica que f (0) − f (v) W = f (v) W < 1. ı Al igual que ocurre con el concepto de convergencia. Si vn → v y λn → λ. Existe M > 0 tal que f (v) W ≤M v V . 1). para todo v ∈ V. Si f es continua en todo v ∈ V. entonces un + vn → u + v.1. Sea R. Ejemplo VIII.1. Sean (V.12. lo es en 0. la continuidad en espacios métricos tiene su traducción inmediata a los espacios normados. Si un → u y vn → v. MANUALES UEX . por lo que su comprobación de deja como ejercicio al lector.1. se dice que es continua en V. Por tanto. si u ∈ B(0. Se dice que una aplicación f : V → W es continua en v0 si para cada ε > 0. 1. luego f (v) W < 1. es decir. Sean (V. · W ) dos espacios normados.1. u V < 1. Proposición VIII.1).11. Definición VIII. entonces (v0 − v) − 0 V < δ implica f (v0 − v) − f (0) W < ε. Proposición VIII. se verifique u − v < ε.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Una sucesión convergente tiene un único límite. La sucesión de vectores (vn )n∈N de R3 con vn = 2/n3 . v → v es continua. se tiene que v = δu cumple que v V < δ. · V ) y (W. La aplicación · : V → Demostración.

esto es vn − v → 0 si. existen dos números positivos m y M tales que m v ≤ v para todo v ∈ V. 1]. entonces para cada n ∈ N existe vn ∈ V tal que 1 vn > vn .1. La condición del teorema es usada a menudo como definición de equivalencia de normas. Esta contradicción demuestra que el número m con la propiedad requerida ha de existir. basta tomar δ = ε/M para concluir que f es continua en 0.14.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (c) ⇒ (d) Si M es la cota de f en B[0. Es claro que la condición implica la equivalencia de las normas · y · . (d) ⇒ (a) Por hipótesis. Teorema VIII. El siguiente teorema proporciona un criterio práctico para la equivalencia de normas. y sólo si. existe M > 0 tal que f (v) W < M v V .1. Definición VIII. dos normas · y · sobre un espacio vectorial V son equivalentes si para cualquier sucesión (vn )n∈N en V y v ∈ V. para todo v ∈ V. Teorema VIII. Sea V un espacio vectorial de dimensión finita n > 0. de donde se sigue que f (v) W < M v V . y sólo si. Demostración. vn − v → 0. Sean · y · dos normas sobre un espacio vectorial V. entonces f (v/ v V ) W < M. Supongamos pues que las normas son equivalentes. y sólo si. .15. Dos normas sobre el mismo espacio vectorial se dicen equivalentes si definen la misma convergencia. Más concretamente. n Definamos 1 vn wn = √ . vn − v → 0 si. La existencia del número M se demuestra análogamente. para todo v ∈ V.1. Las normas · y · son equivalentes si. Terminamos esta sección mostrando algunos resultados sobre espacios normados de dimensión finita. n vn ≤M v . wn > n wn = n. MANUALES UEX 219 √ √ Entonces wn = 1/ n → 0. Si no existe m > 0 tal que m v ≤ v para todo v ∈ V. Por otra parte.13. vn − v → 0. dado ε > 0. Ahora. Todas las normas sobre V son equivalentes.

. en el espacio vectorial de las funciones reales continuas en el intervalo [0. 0 = f (w) = w implica que w = 0. . R). vn } una base de n V.1. en efecto. . Como V es isomorfo a Rn . existe un número positivo M2 tal que · 1 ≤ M2 · V . Sean (V. . . 0. . en la base estándar de Rn . i = 1. Finalmente. Supongamos que dim(V ) = n y sea {v1 . sea M1 := m´ x1≤i≤n f (vi ) W . Sea S := {u ∈ Rn | u ∞ = 1}. Entonces.1] f 1 = 1 0 f ( x )dx no son equivalentes. . 0). . n f (v) = ∑i=1 λi f (vi ). 1]. La función f es continua respecto de la norma · ∞ . . . . Nótese que m = 0. . λn ) ∞ := m´ x{|λ1 |. . 1. MANUALES UEX 220 Corolario VIII. De hecho vamos a probar que cualquier norma · sobre Rn es equivalente a la norma (λ1 . . . dado v = (λ1 . si (λ1 . donde M := n · m´ xi ei . . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. . para todo u ∈ S. . se tiene que u := v/ v ∞ pertenece a S. en otro caso.16. . · W ) dos espacios normados dimensión finita sobre k. f alcanza un máximo y un mínimo en S. . . . a Definamos ahora la función f : Rn → R. · V ) y (W. . . pero 0 ∈ S. el conjunto S es compacto para la norma · ∞ . . entonces (λ1 . λn ) ∈ Rn se tiene que v = i =1 ∑ λi ei n ≤ i =1 ∑ | λi | n ei ≤ n · m´ x |λi | a i m´ x ei a i =M v ∞ . donde e1 = (1. las normas · ∞ y · 1 definidas por f ∞ = sup | f ( x )| y x ∈[0. a Sea e1 . . . la aplicaa n ción · 1 : V → k. λn ) := v es una norma sobre Rn . existen λi ∈ k. Dado v ∈ V. Cualquier aplicación lineal f : V → W es continua. v → f (v) := v . . Es decir. pues | f (u) − f (v)| = u − v ≤ u − v ≤ M u − v ∞. Luego. . . . Por ejemplo. . . Por otra parte. λn ) ∈ Rn son las coordenadas de v ∈ V respecto de alguna base de V. De donde se sigue que v / v ∞ = u ≥ m y por consiguiente que m v ∞ ≤ v . . Luego. 1]. . cualquier norma · sobre V induce una norma en Rn . Sea m := f (w) tal que w ∈ S con f (w) ≤ f (u). . dado v ∈ Rn . y como todas las normas sobre V son equivalentes. De modo que basta demostrar que todas las normas sobre Rn son equivalentes. . C([0. n tales que v = ∑i=1 λi vi . u ≥ m para todo u ∈ S. etcetera. e2 = (0. |λn |}. . 0). El resultado anterior no es generalizable a espacios vectorial de dimensión arbitraria. . v → v 1 = ∑i=1 λi es una norma sobre V. Demostración.

A = 0. para todo v ∈ V no nulo. si Av = 0. veamos que toda norma vectorial tiene asociada una norma matricial. al tratarse de una norma.2. tenemos que |||λA||| = sup u =1 λAu = sup |λ| Au = |λ| sup u =1 u =1 Au = |λ| ||| A|||. 0 = |||0||| = ||| A + (− A)||| ≤ ||| A||| + ||| − A||| = 2||| A|||. Las propiedades (a)-(c) aseguran que toda norma matricial es una norma sobre el espacio vectorial Mn (k) y la propiedad (d) proporciona la “compatibilidad” de la norma con el producto de matrices. Una norma matricial es una aplicación ||| · ||| : Mn (k) → R verificando las siguientes propiedades: (a) ||| A||| = 0 si. (d) ||| A B||| ≤ ||| A||| ||| B|||. {u ∈ V : u = 1}. podemos considerar u := v/ v . por el teorema A. para todo A y B ∈ Mn (k). de donde se sigue la igualdad de los dos supremos. tenemos garantizado que sup{ Au : u = 1} < ∞. entonces Av = 0 para todo v ∈ V de donde se sigue que A es la matriz nula. MANUALES UEX 221 . Veamos ahora que se trata de una norma matricial. en efecto.4. Por otra parte.2. que es un compacto de V. es una norma matricial. (b) |||λA||| = |λ| ||| A|||. Sea · una norma vectorial sobre V = kn . se cumple que ||| A||| ≥ 0 para todo A ∈ Mn (k). f (v) W = i =1 ∑ λi f ( vi ) W 1 n ≤ i =1 ∑ λi n f ( vi ) V W ≤ i =1 a ∑ λi 1m´≤xn ≤i n f ( vi ) W = M1 v ≤ ( M1 M2 ) v De donde se sigue el resultado buscado. para todo A ∈ Mn (k) y λ ∈ k. La primera propiedad es trivial. para todo A y B ∈ Mn (k). luego. La aplicación A −→ ||| A||| := sup v =0 ||| · ||| : Mn (k) −→ R.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA De tal forma. Av = sup Au v u =1 Demostración.1. Dado v = 0. Normas matriciales Definición VIII. 2. (c) ||| A + B||| ≤ ||| A||| + ||| B|||. Es claro que. y sólo si. Proposición VIII. en efecto. Antes de mostrar algún ejemplo de norma matricial. La aplicación ||| · ||| está bien definida debido a la continuidad de la aplicación u → Au (que podemos entender como la composición de las aplicaciones continuas u → Au → Au ) sobre la esfera unidad.9.2.

2.3. (b) ||| A||| = ´nf{λ ≥ 0 : Av ≤ λ v . No obstante. ≤ ||| A||| ||| B|||.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Para la siguiente propiedad ||| A + B||| = sup u =1 ( A + B)u ≤ sup u =1 Au + sup u =1 Bu = ||| A||| + ||| B|||. De forma habitual utilizaremos las siguientes normas matriciales subordinadas: ||| A|||1 := sup u =1 Au 1 . ABu A v v ≤ v ||| A||| Por consiguiente. Sea ||| · ||| una norma matricial subordinada a una norma vectorial · sobre V = kn . Si v = 0.2. Veamos ahora algunas propiedades importantes de las normas matriciales subordinadas. ı (c) Existe u ∈ V tal que Au = ||| A||| u . para todo u en la esfera unidad.2. ||| A|||2 := sup Au u =1 2 y ||| A|||∞ := sup Au u =1 ∞ . Definición VIII. para todo A ∈ Mn (k) y v ∈ V.14).2. particular. entonces ABu = 0 ≤ ||| A||| ||| B|||. Proposición VIII. MANUALES UEX 222 . (b) y (d) se obtienen directamente de la proposición VIII. sea u ∈ V tal que u = 1 y llamemos v = Bu.4. Para demostrar (c) basta tener en cuenta la continuidad de la aplicación v → Av sobre la esfera unidad (que es compacta) para concluir que el supremo de la proposición VIII. conviene advertir que existen normas matriciales que no están subordinadas a ninguna norma vectorial (véase la proposición VIII.5.2. Demostración. De este modo.2. Ejemplo VIII. Los apartados (a). entonces Au = ||| A||| u . v ∈ V }.2 se alcanza (véase el teorema A. ABu = Av = A v v = v v = ||| A||| Bu ≤ ||| A||| ||| B|||. Se cumple que: (a) Av ≤ ||| A||| v . si u ∈ V con u = 1 verifica ||| A||| = Au .9).2. Finalmente.4. en otro caso.2. (d) ||| In ||| = 1. en u =1 ||| A B||| = sup ( A B)u ≤ ||| A||| ||| B|||. La norma ||| · ||| dada en la proposición VIII.2 se denomina norma matricial subordinada a la norma vectorial · .

(a) Para todo v ∈ V se verifica que Av 1 = = i =1 n ∑ |( A v)i | = ∑ ∑ aij v j i =1 j =1 n n n ≤ i =1 n ∑ ∑ |aij ||v j | j =1 n n j =1 ∑ ∑ |aij | |v j | i =1 n = j =1 ∑ |v j | ∑ |aij | ≤ i =1 n ∑ |aij | 1≤ j ≤ n m´ x a i =1 n v 1. Para facilitar su compresión conviene recordar la definición III.7.6. para todo v ∈ V. Dada A ∈ Mn (k). donde j0 es un subíndice que verifica i ≤ j ≤ n i =1 n n m´ x a i =1 Como para este vector se tiene que u n 1 =1y n Au 1 = = i =1 ∑ |( Au)i | = ∑ |ai j0 u j0 | = ∑ |ai j0 | i =1 i =1 1≤ j ≤ n i =1 n m´ x a ∑ |aij | n u 1.2. Consideremos el vector u ∈ V de coordenadas 1 si i = j0 . (b) ||| A|||2 = n (c) ||| A|||∞ = m´ x1≤i≤n ∑ j=1 | aij |.10 donde se introdujeron los conceptos de espectro y de radio espectral de una matriz. entonces M = ||| A|||. MANUALES UEX 223 ∑ |aij | = ∑ |ai j0 |.2. ( A∗ A) = ( A A∗ ) = ||| A∗ |||2 .2.5. Como es habitual denotaremos V = kn . Demostración. es decir. n (a) ||| A|||1 = m´ x1≤ j≤n ∑i=1 | aij |.4. Teorema VIII.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota VIII. si existe una constante M ≥ 0 tal que para una norma matricial subordinada ||| · ||| a una norma vectorial · sobre V = kn . ui = δi j0 = 0 si i = j0 . a la vista del apartado (b) de la proposición VIII.2. . Sea A = ( aij ) ∈ Mn (k). la norma ||| · |||∞ viene dada por la a mayor de todas las cantidades que se obtienen al sumar los módulos de los elementos de cada fila.2. A continuación mostremos expresiones explícitas para las normas matriciales subordinadas del ejemplo VIII. se verifica (a) Av ≤ M v . (b) Existe u ∈ V tal que Au = M u . la norma ||| · |||1 viene dada por la a mayor de todas las cantidades que se obtienen al sumar los módulos de los elementos de cada columna. es decir.

como Av Av 2 2 2 = ( Av)∗ ( Av). .18). si v ∈ V \ {0} es un autovector de A∗ A asociado a λ (es decir. 2 de donde se sigue que 224 ||| A|||2 = como queríamos probar. como la matrices A A∗ y A∗ A son hermíticas tienen todos sus autovalores reales (véanse las proposiciones V. de donde se sigue que ( A ∗ A ) = ( A A ∗ ). . como los autovalores de A∗ A son números reales no negativos (véanse la proposiciones V. Consecuentemente. n siendo Q∗ v = (w1 . Además.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS de donde se sigue que ||| A|||1 = m´ x a 1≤ j ≤ n i =1 ∑ |aij |.5.2.5. A∗ Av = λv).18 y V. Av 2 2 ≤ ( A∗ A) ∑ |wi |2 = ( A∗ A) (( Q∗ v)∗ Q∗ v) = ( A∗ A) (v∗ QQ∗ v) i =1 n = ( A∗ A) (v∗ v) = ( A∗ A) v 2 . . MANUALES UEX Por consiguiente.14).15). Por tanto. es normal y lo por tanto diagonalizable por una matriz de paso unitaria (véase el teorema V. usando los mismos argumentos que en la demostración de la proposición VI. se cumple que λ := max1≤ j≤n λ j ( A∗ A) = ( A∗ A). Por otra parte. n (b) Por un lado. .5. para todo v ∈ V. 2 Por otra parte.5. es decir. . Q∗ A∗ AQ = D = diag(λi ( A∗ A)). lo que hace que se tenga que A∗ A = QDQ∗ .1. ( A ∗ A ).5. se comprueba que sp( A A∗ ) = sp( A∗ A). como la matriz A∗ A es hermítica.17 y V. wn )t . se sigue que = ( Av)∗ Av = v∗ A∗ Av = v∗ QDQ∗ v = ( Q∗ v)∗ D (Q∗ v) = i =1 ∑ λi ( A∗ A)|wi |2 . entonces Av 2 2 = ( Av)∗ Av = v∗ A∗ Av = λ v∗ v = λ v 2 2 = ( A∗ A) v 2 .

2. n 1 ∑ |aij | = ∑ |ai0 j |. 1≤ i ≤ n m´ x a j =1 j =1 n Como |u j | = 1. lo que hace que se tenga que 1≤ i ≤ n m´ x |( Au)i | ≤ a j =1 ∑ | a i0 j |. . . . Consideremos ahora el vector u ∈ V de componentes uj = siendo i0 un subíndice tal que a i0 j | a i0 j | si si ai0 j = 0. j = 1. . n. 2. Por otra parte. . . . entonces u ∞ =1y n |( Au)i | = j =1 ∑ aij u j n ≤ j =1 ∑ |aij | |u j | = ∑ |aij | ≤ ∑ |ai0 j | j =1 j =1 n n n para todo i = 1. ai0 j = 0. MANUALES UEX 225 j =1 a i0 j =0 j =1 ∑ | a i0 j |. n. . como n n n |( Au)i0 | = j =1 n ∑ a i0 j u j = ∑ | a i0 j | = j =1 a i0 j =0 n ∑ a i0 j u j = j =1 a i0 j =0 ∑ a i0 j a i0 j = | a i0 j | j =1 a i0 j =0 ∑ n | a i0 j |2 | a i0 j | = entonces Au ∞ = m´ x |( Au)i | = |( Au)i0 | = a 1≤ i ≤ n j =1 a ∑ |ai0 j | = 1m´≤xn ∑ |aij | ≤i j =1 n = ∑ |aij | 1≤ i ≤ n m´ x a j =1 n u ∞ . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (c) Para todo v ∈ V se verifica que Av ∞ = m´ x |( Av)i | = m´ x a a 1≤ i ≤ n 1≤ i ≤ n j =1 ∑ aij v j n ≤ m´ x a 1≤ i ≤ n j =1 ∑ |aij | |v j | n ≤ 1≤ i ≤ n j =1 m´ x a ∑ |aij | n v ∞ .

(a) Según se ha visto en el apartado (b) del teorema VIII. |λn |2 De esta forma. el apartado anterior nos asegura que que ||| A|||2 = ||| Q∗ AQ|||2 = ||| D |||2 = ( D ∗ D ).15. se concluye que ||| A|||∞ = m´ x a 1≤ i ≤ n j =1 ∑ |aij |. sp( D ∗ D ) = |λ1 |2 . 2 2 ||| A|||2 = ( AA∗ ) = ( AQQ∗ A∗ ) = (( AQ)( AQ)∗ ) = ||| AQ|||2 .7. |λ2 |2 . ||| A|||2 = ( A∗ A) = ( A∗ Q Q∗ A) = (( Q∗ A)∗ ( Q∗ A)) = ||| Q∗ A|||2 . . si sp( A) = {λ1 . es decir. 226 . De los apartados (a) y (c) del teorema VIII.7 se deduce que ||| A∗ |||1 = ||| A|||∞ . Como se ha visto en el teorema VIII. Demostración. se concluye que 2 1≤ i ≤ n ||| A|||2 = ( D ∗ D ) = m´ x |λi |2 = a 2 1≤ i ≤ n m´ x |λi | a = ( A )2 . . . 2 2 luego.2. existe una matriz Q unitaria tal Q∗ AQ = D = diag(λi ( A)). luego.2. esta norma tiene buenas propiedades desde el punto de vista teórico. (b) Si A es normal.2.9.2. Sea A ∈ Mn (k). n Nota VIII.5.7 las normas ||| · |||1 y ||| · |||∞ son fácilmente calculables a partir de los elementos de la matriz. veamos algunas: Proposición VIII. . (a) La norma ||| · |||2 es invariante por transformaciones unitarias. por el teorema V.2. . Por tanto. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Así. No obstante. entonces ||| A|||2 = ( A). . dada Q ∈ Mn (k) tal que Q Q∗ = In se cumple que ||| A|||2 = ||| AQ|||2 = ||| QA|||2 = ||| Q∗ AQ|||2 (b) Si A es normal. . ||| Q∗ AQ|||2 = ||| AQ|||2 = ||| A|||2 . a diferencia de lo que ocurre con la norma ||| · |||2 . entonces D ∗ = diag(λi ) y D ∗ D = diag(|λi |2 ). 2 2 2 MANUALES UEX Por otra parte.8. λn }.

ain )t y b j = (b1j . j = 1.2. A = 0.j=1 | aij |2 . . n. por lo que A∗ A = (αij ) siendo αij = ∑n=1 aki akj para i. para todo A y B ∈ Mn (k).11. (b) |||λA||| F = |λ| ||| A||| F . n. por lo que: Para la cuarta propiedad aplicamos la desigualdad de Cauchy-Schwarz1 a los vectores ai = ( ai1 . . i. entonces A∗ = ( a ji ). Sea A ∈ Mn (k). . Como ya hemos dicho.j=1 ∑ n | aij |2 = tr( A∗ A) = tr( A A∗ ) Demostración. . bnj )t . . i. 2. . consecuente tr( A∗ A) = i =1 ∑ αii = ∑ n n | aki |2 . entonces ||| A|||2 = ( A).10. En particular.2. . n Lema VIII. 2. y sólo si. . Vamos a construir una de ellas (que.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota VIII. . . kn se cumple que |u∗ v| ≤ u v MANUALES UEX 227 (a) ||| A||| F = 0 si. Sea A = ( aij ) ∈ Mn (k). por otra parte.k =1 Proposición VIII.2. Entonces tr( A∗ A) = ∑i. no es otra que la norma usual de Mn (k) considerado como espacio vectorial de dimensión n2 sobre k) que servirá como complemento práctico a la norma ||| · |||2 . Demostración. existen normas matriciales que no están subordinadas a ninguna norma vectorial. .12. para α = v∗ u/v∗ v. Como A = ( aij ). para todo A ∈ Mn (k) y λ ∈ k. entonces ||| A|||2 = ( A∗ A) = ( In ) = 1. 1Desigualdad de Cauchy-Schwarz: para todo u y v ∈ para todo u. (a) Si A es hermítica. b2j . La aplicación ||| · ||| F es la norma usual de Mn (k) considerado como espacio vectorial de dimensión n2 sobre k. y se da la igualdad cuando u = αv. . . . (c) ||| A + B||| F ≤ ||| A||| F + ||| B||| F . ai2 . (b) Si A es unitaria. . La aplicación ||| · ||| F : Mn (k) → R dada por ||| A||| F := es una norma matricial. . . los elementos k diagonales son de la forma αii = k =1 ∑ aki aki = ∑ |aki |2 k =1 n n para i = 1.

.j=1 ∑ n k =1 ∑ |aik |2 n l =1 ∑ |blj |2 b ∑ n | aik |2 j. La norma ||| · ||| F dada en la proposición VIII. Demostración. para todo A ∈ Mn (k).2. .12 se denomina norma de Fröbenius.5. invariante por transformaciones unitarias. Además. como los autovalores de A∗ A son números reales no negativos (véanse la proposiciones V. se verifica que ||| A|||2 = tr( A∗ A) = tr( A∗ Q Q∗ A) = tr(( Q∗ A)∗ ( Q∗ A)) = ||| Q∗ A|||2 F F ||| A|||2 = tr( A A∗ ) = tr( AQ Q∗ A∗ ) = tr( AQ( AQ)∗ ) = ||| AQ|||2 F F y ||| Q∗ AQ|||2 = ||| AQ|||2 = ||| A|||2 .7.18 ).k =1 n n 2 aik bkj ≤ i. λn }. . √ ||| A|||2 ≤ ||| A||| F ≤ n ||| A|||2 . F F F Finalmente.17 y V. Así.l =1 ∑ n |blj |2 = ||| A|||2 ||| B|||2 .5. F F Definición VIII.14. por el teorema VIII.2.2. si Q es una matriz unitaria. entonces MANUALES UEX ( A∗ A) ≤ donde sp( A∗ A) i =1 ∑ λi ≤ n n ( A ∗ A ). Entre las principales propiedades de la norma de Fröbenius destacamos: Proposición VIII.(d) se obtiene que ||| · ||| F no está subordinada si n ≥ 2. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS obteniendo ||| AB|||2 = F = i. La norma de Fröbenius ||| · ||| F es una norma matricial no subordinada. Por otra parte. 2 228 . por la proposición VIII.2. si n ≥ 2. Como ||| In ||| F = √ n = 1 si n ≥ 2.5. = {λ1 . se tiene que ||| A|||2 = ( A∗ A) ≤ 2 i =1 ∑ λi = tr( A∗ A) = ||| A|||2 ≤ n F n ( A∗ A) = n ||| A|||2 .2.j=1 k =1 ∑ ∑ i.13.

Dado ε > 0 tomamos δ > 0 suficientemente pequeño para que j = i +1 ∑ n δ j−i |tij | < ε MANUALES UEX 229 Dδ = diag(1.ε ≤ ( A) + ε. δ. El interés por la norma de Fröbenius es que también se calcula directamente a partir de los elementos de la matriz y.5.2.16. . (a) Para toda norma matricial (subordinada o no) se verifica que ( A) ≤ ||| A|||.2. Demostración. (b) Considerando de nuevo la inmersión natural A ∈ Mn (k) → Mn (C). . existen una matriz triangular superior T = (tij ) ∈ Mn (C) y una matriz unitaria Q ∈ Mn (C) tales que Q∗ AQ = T. en el caso de una matriz y norma matricial cualquiera. δ2 . puede usarse para obtener cotas de la norma ||| · |||2 . . Teorema VIII.15. . . es decir. Sabemos que las matrices normales verifican que su norma ||| · |||2 coincide con su radio espectral. (b) Para todo ε > 0 existe una norma matricial ||| · ||| A.14. Sea A ∈ Mn (k). subordinada o no. Ya se ha comentado que el teorema VIII. En el caso general (es decir. Sabemos que los elementos de la diagonal de T son los autovalores de A que denotaremos λ1 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota VIII. λi si j = i y cero en otro caso.ε (que se puede tomar subordinada) tal que ||| A||| A. según la última parte de la proposición VIII. (a) Sean v ∈ V = Cn un autovector asociado al autovalor λ de A ∈ Mn (k) → Mn (C) de módulo máximo. . j)-ésimo de la matriz − Dδ 1 Q−1 AQDδ = ( QDδ )−1 AQDδ es δ j−i tij si i < j. δn−1 ). λ n . . Av = λv con |λ| = ( A) y w ∈ V tal que la matriz vwt ∈ Mn (C) es no nula.7 proporciona la manera de calcular la norma ||| · |||1 y la norma ||| · |||∞ de una matriz A ∈ Mn (k) a partir de los elementos que la componen y que no ocurre así con la norma ||| · |||2 . con coeficientes complejos) el resultado se convierte en desigualdad: el radio espectral es siempre menor o igual que la norma de la matriz. . de donde se sigue el resultado buscado al ser |||vwt ||| > 0.2.15(a). . Entonces ( A) |||vwt ||| = |λ||||vwt ||| = |||λ vwt ||| = ||| Avwt ||| ≤ ||| A||| |||vwt |||.2. por el teorema V. Si para cada δ > 0 consideramos la matriz diagonal entonces el elemento (i.

La noción de convergencia de una sucesión de vectores (véase la definición VIII.ε depende de la matriz A y de ε. La sucesión de matrices Am = converge a la matriz 1+ m m2 +3 1 2 m + m2 4 m − 3 m4 1−e ∈ M2 (R) MANUALES UEX A = l´m Am = ı m→∞ 1 0 0 0 .2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS para i = 1. a 1≤ i ≤ n Convergencia de las iteraciones de una matriz. .2. basta considerar Mn (k) como espacio vectorial de dimensión n2 . Sea A ∈ Mn (k). ||| · ||| A. y consideramos la aplicación ||| · ||| A. si ı m→∞ l´m ||| Am − A||| = 0. Teorema VIII. ∞ . Diremos que una sucesión de matrices ( Am )m∈N de Mn (k) converge a un matriz A ∈ Mn (k). ı (b) l´mm→∞ Am v = 0. Concretamente. Claramente.ε = |||( QDδ )−1 B( QDδ )|||∞ .ε es una norma matricial subordinada a la norma vectorial v → ( QDδ )−1 v Además.17. 230 .19.ε = |||( QDδ )−1 A( QDδ )|||∞ = m´ x a = m´ x a 1≤ i ≤ n j = i +1 ∑ δ j−i |tij | + |λi | 1≤ i ≤ n j = i +1 ∑ n δ j−i |tij | + m´ x |λi | < ε + ( A).2. . n − 1. Definición VIII. n ||| A||| A. y lo denotaremos A = l´mm→∞ Am . Son equivalentes: (a) l´mm→∞ Am = 0.1. ı (c) ( A) < 1.8) incluye el caso de las matrices. .ε : Mn (C) → R dada por ||| B||| A. Sea ||| · ||| una norma matricial sobre Mn (k). ı Ejemplo VIII. Nótese que ||| · ||| A. .18. El siguiente resultado caracteriza la convergencia a cero de las potencias sucesivas Am de una matriz cuadrada A. para todo v ∈ V = kn .

la hipótesis ||| A||| < 1 implica m→∞ l´m ||| Am ||| = 0. ı ı (b) ⇒ (c) Procedemos por reducción al absurdo. (d) ⇒ (a) Claramente. o bien encontrar una norma matricial para la que ||| A||| < 1. El siguiente resultado muestra que la norma de las sucesivas potencias de una matriz se comporta asintóticamente como las sucesivas potencias de su radio espectral: MANUALES UEX 231 es decir. entonces existe un autovalor (complejo) λ = λ( A) ∈ sp( A) con |λ| ≥ 1. para todo m ∈ N. ı En la práctica. m→∞ l´m ı Am v = l´m |λ|m v = 0. ı m→∞ (c) ⇒ (d) Por el teorema VIII. entonces l´mm→∞ Am v = 0 y. ı . como Av = λv entonces Am v = λm v para todo m ∈ N y. l´mm→∞ Am = 0. así. Demostración.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (d) Existe una norma matricial ||| · ||| (que se puede tomar subordinada) tal que ||| A||| < 1. Por tanto. Tomando 0 < ε < 1 − ( A) se obtiene que ||| A||| A. l´mm→∞ Am v = 0. Por definición.ε tal que ||| A||| A. ≤ ||| A|||m . . m→∞ l´m Am = 0 ⇐⇒ l´m ||| Am ||| = 0. ||| Am ||| = ||| Am−1 A||| ≤ ||| Am−1 ||| ||| A||| ≤ . .2. En efecto. por tanto. como para todo v ∈ V se verifica que Am v ≤ ||| Am ||| v . Si ( A) ≥ 1.16.ε ≤ ( A) + (1 − ( A)) = 1. (a) ⇒ (b) Sea ||| · ||| la norma matricial subordinada a una norma vectorial · . dado ε > 0 existe una norma matricial ||| · ||| A. el resultado anterior se utiliza del siguiente modo: si se quiere demostrar que las potencias sucesivas de una matriz A convergen a cero. basta considerar un autovalor v ∈ Cn \ {0} asociado a λ para llegar a contradicción. ı ı m→∞ Por tanto. bastará probar que todos los autovalores (complejos) de A tienen módulo menor que uno.ε ≤ ( A) + ε. Volveremos a estas cuestiones en el siguiente tema.

2. respectivamente. es decir. Tomando ahora raíces m-ésimas se obtiene la desigualdad buscada. sino una “medida” de las MANUALES UEX 232 magnitudes en cuestión. si el problema está bien o mal condicionado. Si el número de condición es menor que 1 o está próximo a 1. el teorema VIII. 0 = l´m ||| Am ||| = l´m ı ı ε m→+∞ m→+∞ Am ( ( A) + ε)m = l´m ı ||| Am ||| . . basta probar que para cada ε > 0 existe m0 ∈ N tal que ||| Am |||1/m < ( A) + ε.16(a) asegura que ( A)m = ( Am ) ≤ ||| Am |||. tomando límite.2. por consiguiente. según sea cercano a 1 o esté alejado de éste. para todo m ≥ m0 . el error del dato no se amplificará mucho y el error del resultado será. se da la igualdad. para todo m ∈ N y. a lo sumo. Si A ∈ Mn (R) y ||| · ||| es una norma matricial (subordinada o no) entonces l´m ||| Am |||1/m = ( A).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Teorema VIII.19 obtenemos que l´mm→+∞ Am = ı ε 0. 3. para todo m ≥ m0 . Las técnicas que se emplean en el condicionamiento de un problema están fuertemente ligadas a la estructura del mismo. En general. Número de condición de una matriz Diremos que un problema está mal condicionado cuando pequeños cambios en los datos dan lugar a grandes cambios en las respuestas. dado ε > 0 definimos la matriz Aε = A . para todo m ∈ N. Para ello. que ( A) ≤ ||| Am |||1/m . Para demostrar que. del mismo orden que el error 2Aquí la doble barra no significa necesariamente una norma. ( A) + ε Como ρ( Aε ) < 1. Como ( A)m = ( Am ). ı m→+∞ Demostración. aplicando el teorema VIII.20.2. para todo m ∈ N. m→+∞ ( ( A ) + ε )m De donde se sigue que existe m0 ∈ N tal que ||| Am ||| < ( ( A) + ε)m . a la hora de resolver un problema y = P( x ) se intenta definir un número de condición2 κ = κ ( x ) ≥ 0 de forma que ¯ ¯ x−x P( x ) − P( x ) κ (x) P( x ) x Este número indicará.

33.1  5. Si consideramos las perturbaciones de los datos A y b     10 7 8.99 4.1.98 8.9  A + ∆A =   8  33. Para casos concretos. el error final será una gran amplificación del dato. 23.1  7. (R. Wilson) Consideremos el sistema lineal Ax = y A es la matriz simétrica  10 7  7 5 A=  8 6 7 5 que tiene por matriz inversa a  A −1 b donde b es el vector b = (32.3.04   6 5   y  22. si este número de condición toma valores muy grandes.6   u + ∆u =   −34  y u + δu =  4.08 5. 1)t .2  137   −12. La solución exacta de dicho sistema es u = (1.98 30. Ejemplo VIII.1 7. Como por ejemplo ocurre con la resolución de sistemas lineales Ax = b con A ∈ Mn (k). mediante la introducción del número de condición de una matriz. 31)t 8 6 10 9  7 5   9  10 25  −41 =  10 −6  −41 10 −6 68 −17 10   −17 5 −3  10 −3 2 y cuyo determinante es 1.1 Como se aprecia pequeños cambios en el dato A han producido un resultado muy alejado de la solución original u. por    −81 9. 1.89 9  6.2 32. como veremos en breve.S.5 22 −1.99 9 9. así como la forma precisa de medir el tamaño de las perturbaciones y de los errores. MANUALES UEX 233 . por el contrario. cuando se perturba ligeramente el dato b se obtiene un resultado u + δu muy distante de u. 1.  las soluciones exactas de los sistemas lineales ( A + ∆A)x = vienen dadas. podemos definir fácilmente el número de condición. respectivamente. En esta sección daremos la justificación de estas propiedades sorprendentes.9 b y Ax = b + δb   .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA en el dato. Análogamente.

3. En el supuesto de que se tome como segundo miembro. u b Parece claro. por otra parte. como. En general. En el caso particular en que tomemos la norma ||| · ||| p . Au = b ⇒ b ≤ ||| A||| u ⇒ se tiene que δb δu ≤ ||| A||| ||| A−1 ||| . se verifica que A(u + δu) = b + δb ⇒ A δu = δb ⇒ δu = A−1 δb.3. Veamos cómo definir el condicionamiento de un sistema lineal Ax = b. u b 234 . 1 ≤ p ≤ ∞. ||| A||| 1 ≤ . De hecho. escribiremos cond p ( A) = ||| A||| p ||| A−1 ||| p .3.2. Sean ||| · ||| la norma matricial subordinada a una norma vectorial · y A ∈ Mn (k) una matriz invertible. que la cantidad ||| A||| ||| A−1 ||| servirá como número de condición para resolver un sistema lineal Ax = b. entonces se verifica que δb δu ≤ cond( A) . en lugar del vector b. Sea ||| · ||| una norma matricial y A ∈ Mn (k) una matriz invertible. u b MANUALES UEX Teorema VIII. una perturbación de éste b + δb. se tiene la siguiente definición: Definición VIII. El número cond( A) = ||| A||| ||| A−1 ||| se denomina número de condición (o condicionamiento) de la matriz A respecto de la norma ||| · |||. si denotamos u a la solución del sistema Ax = b y u + δu a la solución del sistema perturbado. se tiene que δu ≤ ||| A−1 ||| δ b .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Sean A ∈ Mn (k) una matriz invertible y b ∈ kn no nulo. 1 ≤ p ≤ ∞. pues. luego a partir de la norma matricial ||| · ||| subordinada a una norma vectorial · . cuando escribamos cond( A) nos estaremos refiriendo al condicionamiento de una matriz respecto de una norma matricial ||| · |||. Si u y u + δu son las soluciones respectivas de los sistema Ax = b y Ax = b + δb. con b = 0 y δb ∈ kn .

aplicando nuevamente la proposición VIII. el número de condición es un medida de la sensibilidad del sistema a las perturbaciones en el término independiente. Por la proposición VIII. considerando los sistemas lineales Ax = b tendremos. con lo que δu = A−1 δb = ||| A−1 ||| δb Por tanto. Cuando se consideran perturbaciones de la matriz A en lugar de perturbaciones del vector b. u b donde u y u + δu son las soluciones de los sistemas Ax = b y Ax = b + δb. respectivamente. definimos b = Au. Demostración. u b b . Así pues.2. y b = Au = ||| A||| u .5 existe u ∈ kn tal que Au = ||| A||| u . A partir de este vector u. pero el número cond( A) sigue siendo una buena herramienta para medir el condicionamiento del problema. se tiene el siguiente resultado: MANUALES UEX 235 δb δb δu = ||| A|||||| A−1 ||| = cond( A) . como antes.5.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Además. Por otro lado. según el resultado anterior.2. y Ax = b + δb. el resultado que se obtiene no es tan nítido. En concreto. existe δb ∈ kn tal que A−1 δb = ||| A−1 ||| δb . Veamos la optimalidad. La desigualdad propuesta en el enunciado ya se ha demostrado previamente. Por tanto. cond( A) es el número más pequeño que verifica la desigualdad anterior en el siguiente sentido: para cada matriz A invertible existen b y δb ∈ kn \ {0} tales que δb δu = cond( A) . que Aδu = δb y así δu = A−1 δb.

Demostración.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Teorema VIII. Por el teorema VIII. finalmente. (c) cond(λA) = cond( A). para todo matriz B ∈ Mn (k). u + ∆u ||| A||| es más. para todo λ ∈ k \ {0}.3. para todo λ ∈ k no nulo se tiene que cond(λA) = |||λA||| |||(λA)−1 ||| = |λ| |λ−1 | ||| A||| ||| A−1 ||| = cond( A).3. A continuación recogemos algunas propiedades de demostración inmediata que verifica el número de condición de una matriz. MANUALES UEX Demostración. |||∆A||| ∆u ≤ cond( A) (1 + O(||| A|||) . 236 . Sean ||| · ||| la norma matricial subordinada a una norma vectorial · y A ∈ Mn (k) una matriz invertible. Otros resultados similares a los anteriores sobre el número de condición como medida de sensibilidad de un sistema de ecuaciones lineales a cambios en los datos se pueden encontrar en el apartado 3. ||| B||| ≥ ( B).2 de [QSS07]. u ||| A||| Además. Proposición VIII. ||| In ||| ≥ ( In ) = 1. se verifica que ∆u |||∆A||| ≤ cond( A) . cond( A) el número más pequeño que verifica la desigualdad anterior en el siguiente sentido: para toda matriz A invertible existen b ∈ kn \ {0} y ∆A ∈ Mn (k) tales que ∆u |||∆A||| = cond( A) . Sea ||| · ||| una norma matricial (subordinada o no) y A ∈ Mn (k) una matriz invertible.1.5. Si u y u + ∆u son las soluciones respectivas de los sistemas lineales Ax = b con b = 0. Se verifican las siguientes propiedades: (a) cond( A) ≥ 1. en particular.16(a). Por otra parte.2. respectivamente. La demostración de este resultado puede consultarse en [Cia82]. de modo que se verifica que 1 ≤ ||| In ||| = ||| A A−1 ||| ≤ ||| A||| ||| A−1 ||| = cond( A). (b) cond( A) = cond( A−1 ). y ( A + ∆A)x = b. u + ∆u ||| A||| donde u y ∆u son las soluciones de los sistemas Ax = b y ( A + ∆A)x = b.4. cond( A) = ||| A||| ||| A−1 ||| = ||| A−1 ||| ||| A||| = cond( A−1 ) y.

2. Es decir. λn }. De la proposición VIII.9 se deduce que: (a) Si A es normal y sp( A) = {λ1 . si Q∗ Q = In . Por otra parte.7. (c) En el caso particular de que A sea unitaria entonces cond2 ( A) = 1. respectivamente. por lo que los autovalores de A∗ A son reales y positivos.16 y el apartado (a) anterior). si consideramos como norma matricial la subordinada a ||| · |||2 se tiene que: Proposición VIII. se tiene que cond2 ( A) es invariante por transformaciones unitarias.3. ( A) µ( A) MANUALES UEX 237 .3. λmín Nota VIII. .2. En primer lugar hemos de tener en cuenta que A∗ A es hermítica y definida positiva por ser A una matriz invertible (véase la proposición V. Demostración. entonces cond2 ( A) = ||| A|||2 ||| A−1 |||2 = ( A) ( A−1 ) = siendo µ( A) = m´n1≤i≤n |λi |. . el menor y el mayor de los autovalores de la matriz A∗ A. Sea A ∈ Mn (k) una matriz invertible. (d) Como la norma ||| · |||2 es invariante por transformaciones unitarias. para matrices normales el número de condición cond2 es el menor de todos.7 se verifica que ||| A|||2 = ( A∗ A) = λmáx 2 y ||| A−1 |||2 = (( A−1 )∗ A−1 ) = ( A−1 ( A−1 )∗ ) = (( A∗ A)−1 ) = 2 1 . . . Se verifica que cond2 ( A) = λmáx λmín donde λmáx y λmín son. Sea A ∈ Mn (k) una matriz invertible.6.18). es decir. cond2 ( A) = cond2 ( A Q) = cond2 ( Q A) = cond2 ( Q∗ AQ). aplicando el teorema VIII.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Además. ı (b) Si A ∈ Mn (k) es una matriz invertible y normal se verifica que cond( A) = ||| A||| ||| A−1 ||| ≥ ( A) ( A−1 ) = cond2 ( A) para cualquier norma matricial subordinada ||| · ||| (véase el teorema VIII.5.2.

6. Ejemplo VIII. 4. 1)t . el sistema Ax = b siempre está bien condicionado para ||| · |||2 . lo que puede dar una idea de lo sofisticado de estas técnicas.1)t . La idea aquí expuesta es la de un precondicionador por la izquierda.1  La solución del sistema Ax = b es u = (1.8. −1. b =  23  A=  8 6 10 9   33  7 5 9 10 31 y  0.2. mientras que la solución del sistema Ax = b + δb es MANUALES UEX u + δu = (9.01015004839789.84310714985503.3. b = Cb. las transformaciones unitarias conservan el número cond2 ( A). el ejemplo de Wilson. 238 . • Por ambos lados: M = C2 . 1.85805745594495 y λ4 0. λ2 3. además.1   δb =   0.28868534580212. x = My. el sistema lineal Ax = b estará tanto mejor condicionado cuando más próximo a 1 esté cond( A). −0. Como hemos visto en la proposición VIII.6. Sin embargo. • Simétricos: M = CCt . con más detalle. Un posible elección. En el caso de que A sea una matriz unitaria.3. Analicemos ahora. x = Cy. La idea básica es sencilla: tomar una matriz invertible M de forma que la matriz A = MA tenga un condicionamiento pequeño. −12. se hace necesario utilizar un precondicionador. b = Cb. lo que no es sencillo es. A = CAC. 30. ya que cond2 ( A) = 1. 1. de fácil cálculo. es considerar M = D −1 siendo D = diag( A). Consideremos     10 7 8 7 32   7 5 6  5   . A = CACt . Por tanto. A y = b. A y = b. después. También se suelen tomar precondicionadores: • Por la derecha: A = AM. x = Ct y.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Hagamos unas consideraciones finales respecto al problema que nos ocupa en esta sección.1  . siempre se verifica que el numero de condición de una matriz es un número mayor o igual que 1.5. bastará resolver el sistema A x = b siendo b = Mb. Cuando se necesita resolver un sistema lineal Ax = b siendo A una matriz invertible con un número de condición elevado. precisamente.1  −0. El polinomio característico de A viene dado por ℵ A ( x ) = det( A − xI4 ) = x4 − 35x3 + 146x2 − 100x + 1 y tiene como raíces aproximadas los números λ1 λ3 0. encontrar esta matriz M.

3. el apartado (a) de la nota VIII. tras las pequeñas modificaciones en los datos. se observó anteriormente.7 determina λ 2984. cond2 ( A) = 4 λ1 Por tanto. por ser A simétrica. MANUALES UEX 239 .092701675342.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA De esta forma. no es de extrañar el mal comportamiento que.

Ejercicio 4. Probar que para todo p ≥ 1 se verifica que √ v ∞ ≤ v p ≤ p n v ∞. . 2. Estudiar cómo se puede aplicar el resultado anterior para obtener aproximaciones de los autovalores de la matriz A. 1 2 Ejercicio 3. . Probar que un espacio normado toda sucesión de Cauchy está acotada. n 1 cond∞ ( A) ≤ cond2 ( A) ≤ n cond∞ ( A). . Ejercicio 6. se verifica que 1≤ j ≤ n ∞ = l´m v ı p→∞ p. n 1 cond1 ( A) ≤ cond∞ ( A) ≤ n2 cond1 ( A). Ejercicio 5. m´n |λ − λ j | ≤ ı Av − λv v 2 2 . 1. Demostrar las siguientes desigualdades: 1 cond2 ( A) ≤ cond1 ( A) ≤ n cond2 ( A). Concluir que v para cualquier v ∈ Cn . MANUALES UEX Ejercicio 7. Si A es normal y cond2 ( A) > 1. . Probar que ( Am ) = ( A)m .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema VIII Ejercicio 1. Probar que v ∞ ≤ v 2 ≤ √ n v ∞ 1 v 1≤ v ∞ ≤n v n √ v 2≤ v 1≤ n v para todo v ∈ Cn . para cualquier v = (v1 . . . n2 240 . Sea A ∈ Mn (k) una matriz invertible. cond2 ( A) ≤ cond2 ( B)2 . . para todo m ∈ N. . entonces cond2 ( B) < cond2 ( A). Sean A ∈ Mn (C) una matriz invertible tal que A = B2 . λn }. Probar que para todo λ ∈ R y v ∈ kn no nulo. Sea A ∈ Mn (k) una matriz hermítica con sp( A) = {λ1 . 2. Sea A ∈ Mn (k). vn )t ∈ Cn . Probar que: 1. Ejercicio 2.

y tratamos algunos aspectos relacionados con su resolución y la forma de sus soluciones. por ejemplo. la fórmula de Cramer) collevan un número de operaciones prohibitivo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA IX Métodos directos de resolución de sistemas lineales de ecuaciones H emos estudiado los sistema de ecuaciones lineales en varias ocasiones a lo largo de la asignatura. ya que el mal condicionamiento del sistema o la propagación de errores de redondeo sólo nos permitirán trabajar con buenas aproximaciones en el mejor de los casos. de Cholesky y QR. En este tema estudiaremos el método de eliminación gaussina (que ya apareció en el tema II cuando estudiamos las formas reducidas de una matriz) y las factorizaciones LU. Con el ánimo de contextualizar los métodos y factorizaciones que aquí estudiaremos. Cuando hablamos de métodos directos nos referimos a aquellos “procedimientos algorítmicos” que en un número finito de pasos alcanzan la solución exacta del sistema. Por otra parte. donde el coste computacional de otros métodos (como. Si bien el término exacto sólo tendrá sentido desde un punto de vista teórico. en los temas II y VI dimos condiciones necesarias y suficientes para que un sistema tuviese una. si bien no nos ocuparemos del estudio de la complejidad de estos métodos. La clave del uso de la eliminación gaussina y las tres factorizaciones citadas como métodos de resolución de sistema de ecuaciones lineales reside en una misma idea: reducir la resolución del sistema a dado a la resolución de uno varios sistemas de ecuaciones lineales en forma triangular. infinita o ninguna solución. comentamos que la factorizáción LU (y su variante PA = LU) MANUALES UEX 241 . Es fundamental tener en cuenta que este tipo de métodos adquiere su mayor interés cuando tratamos resolver sistemas con matrices de órdenes altos. sí procuraremos incluir el coste computacional de cada uno de los métodos estudiados. En este tema nos vamos a ocupar de los métodos numéricos directos para la resolución de tales sistemas. Estos métodos no son de validez general (a excepción de la resolución basada en la factorización QR) por lo que en cada caso daremos condiciones necesarias y/o suficientes para su aplicación. por ejemplo.

La factorización de Cholesky es. donde L es una matriz triangular inferior e invertible de orden n ≥ 2. Como L es invertible por hipótesis. [QSS07] y algunas pinceladas de [QS06]. i = 1. por lo que guarda una estrecha relación con el cálculo de las formas reducidas y escalonadas de una matriz.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS consiste en descomponer la matriz del sistema como el producto de matriz triangular inferior L por una triangular superior U. 3. es decir. 242 Este algoritmo se puede extender a sistemas con n ecuaciones y n incógnitas se llama sustitución hacia adelante. de los sistemas compatibles de determinados (véase la definición II. [IR99]. Resolución de sistemas triangulares. en cierto sentido. Consideremos un sistema de tres ecuaciones lineales con tres incógnitas cuya matriz asociada es triangular inferior e invertible:      l11 0 0 x1 b1  l21 l22 0   x2  =  b2  . En el caso de un sistema Lx = b. 2.5. Eliminación Gaussiana y factorización LU Comenzaremos estudiando algunos métodos para resolución de los sistemas de ecuaciones lineales de la forma Ax = b con A ∈ Mn (k) invertible y b ∈ kn . el método . son no nulas. Ambas factorizaciones se apoyan en el método de eliminación gaussiana. i = 1. = (b3 − l31 x1 − l32 x2 )/l33 . La factorización QR consiste en descomponer la matriz del sistema como producto de matriz ortogonal por una triangular superior. de donde se sigue que podemos calcular secuencialmente los valores de las incógnitas xi . 2. 3. la análoga a la LU para matrices simétricas definidas positivas (está factorización ya apareció en el tema V). = (b2 − l21 x1 )/l22 . las entradas de su diagonal principal lii .1). el método usado para calcular tal descomposición es la versión numérica del método de ortonormalización de Gram-Schmidt. 1. como sigue x1 x2 x3 MANUALES UEX = b1 /l11 . l31 l32 l33 x3 b3 de forma abreviada Lx = b. La bibliografía empleada para la elaboración de este tema ha sido [Cia82]. estudiado en el tema IV.

. que tenga las mismas soluciones) de la forma Ux = b. Este último donde U ∈ Mn (k) es una matriz triangular superior y b sistema se podrá resolver usando el algoritmo de sustitución hacia atrás. l11 1 lii i −1 bi − j =1 ∑ lij x j . donde U es una matriz triangular superior e invertible de orden n ≥ 2. (1) (1) MANUALES UEX 243 . El método de eliminación gaussiana consiste el reducir un sistema de ecuaciones lineales Ax = b. Introduciendo los multiplicadores li1 = ai1 /ai1 . i = 2. Unas conclusiones similares se pueden obtener para un sistema de ecuaciones lineales Ux = b. En la práctica 11 exploraremos la implementación de los algoritmos sustitución hacia atrás y hacia adelante. en el apartado 3. . Como veremos a continuación el método de eliminación gaussiana no es más que una variante del método de GaussJordan estudiando en el tema II.2 de [QSS07] se pueden encontrar referencias sobre la propagación de errores de redondeo tanto para la resolución de sistemas triangulares mediante sustitución hacia adelante como hacía atrás. n. i = 2. ˆ ∈ kn . i = 2. Por otra parte. El número de multiplicaciones y divisiones para ejecutar este algoritmo es n(n + 1)/2. . De nuevo el coste computacional es del orden de n2 operaciones. . Por lo que la cuenta global de las operaciones del algoritmo de sustitución hacia atrás es del orden de n2 . y supongamos que (1) a11 = a11 es distinto de cero. En este caso el algoritmo se llama sustitución hacia atrás y en sus versión general puede escribirse como: xn = xi = bn . Vamos a denotar A(1) x = b(1) al sistema original. . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA tiene la siguiente forma: x1 = xi = b1 . . Eliminación gaussiana y factorización LU. . mientras que el número de sumas y restas es n(n − 1)/2. . n. u11 1 uii bi − j = i +1 ∑ n uij x j . con A ∈ Mn (k) invertible y b ∈ kn en otro ˆ equivalente (es decir. . ya que U será invertible al serlo A. .2. 3. n. .

Si definimos aij = aij − li1 aij . De forma análoga. .   que denotaremos A(2) x = b(2) . 0 . . Es claro que para k = n se consigue un sistema triangular superior A(n) x = b(n)   (1) (1) (1) a11 a12 ..  . .  . . .  .  . (k) A =   0  . .. . j = 2.. ... . .  .. .. obtenemos una sucesión finita de sistema equivalentes A(k) x = b(k) ... . a1n a2n . .  .. . .. . . . (1) denota los elementos de b(1) . . . .. . . . para i = 1... . n. . a1n  (2) (2)   0 a22 ... (1) (2) . .   . . . . n. akk . .  . i = 2.   . En general.  . (k) .. . (1) (2)             a22 . . a2n     .   . es posible eliminar la incógnita x1 es las filas distintas de las primera. n. akn . . n. (n) 0 ann MANUALES UEX . 0 (1) a12 a22 . bi donde bi sistema (1) (2) (2) (1) (1) = bi (1) − li1 b1 . . ya que solamente hemos realizado operaciones elementales por filas de tipo III en la matrices A(1) y b(1) . . k = 1. a1n a2n . .. (1) (2)       x1 x2 .. . bn (2) b1 (1)    . . . De este modo obtenemos un sistema       a11 0 .   . . . donde para k ≥ 2 la matriz A(k)  (1) a  11  0   . Obsérvese que este sistema es equivalente al anterior. . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (1) donde aij = aij . . xn   an2 (2) ann (2)   b (2)   2 = .. ... . . 0 . . . .. i. 0 (i ) es de la forma a12 (1) (2) . . .. (k) ank (k) ann (k) 244 suponiendo que aii = 0..  . . .. . . .. . k − 1. .. sencillamente restándole a la fila i-esima la primera multiplicada por li1 y haciendo los mismo en el término independiente. . podemos transformar el sistema A(2) x = b(2) en otro equivalente donde la incógnita x2 haya sido eliminada de las filas 3. . .. .

i = k + 1. para k = 1. . . . definimos el multiplicador lik = aik /akk . . . . (k) El método de eliminación gaussiana requiere 2(n − 1)n(n + 1)/3 + n(n − 1) operaciones (sumas. . 0 −6 −12 Por lo que el método de eliminación gaussiana se ve interrumpido en el segundo paso.1. sin embargo se cumple que   1 2 3 A (2) =  0 0 −1  . El lector interesado puede encontrar un estudio sobre la propagación de errores de redondeo para el método de eliminación gaussiana en el apartado 3. n − 1 suponiendo que akk = 0. . .1) (IX. todos los pivotes akk . . n. multiplicaciones y divisiones) a lo que tendremos que añadir las n(n + 1)/2 necesarias para resolver el sistema Ux = b(n) .1. i. denotamos U la matriz triangular superior A(n) . Ignorando los términos de menor grado en la expresión anterior podemos concluir que el método de eliminación gaussiana tiene un coste de 2n3 /3 operaciones. . j = k + 1. La matriz 1  2 A= 7  2 4 8  3 5  9 (k) tiene todas las entradas de su diagonal no nulas. = bi (k) (k) (k) ( k +1) − lik bk . k = 1. .2) aij bi ( k +1) (k) (k) (k) (k) = aij − lik aij . . restas. n − 1 son distintos de cero. Desafortunadamente. . y sólo si. .1.2 de [QSS07]. n − 1. . i = k + 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Siendo consistentes con la notación hemos introducido previamente. Por tanto. n y tomamos (IX. . Con el objeto de resaltar la fórmula que transforma el sistema k-ésimo en el (k + 1)-ésimo. . ya que a22 = 0. n.1. . . . que A tenga todas las entradas sus entradas en diagonal no nulas no es suficiente para garantizar que los pivotes sean no nulos durante el proceso de eliminación. . Ejemplo IX. el método de eliminación gaussiana termina satisfactoriamente si. . (2) MANUALES UEX 245 . . serán necesarias alrededor de 1/6 n 4 n2 − 7 + 9 n operaciones para resolver el sistema Ax = b usando el método de eliminación gaussiana.2. Las entradas akk se llaman pivotes y deben ser no nulos para k = 1. Como hemos ido remarcando.

i=j . Según la igualdad IX. 1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Por consiguiente. .1.  . . . ln.  0   0   . . se necesitan condiciones más restrictivas sobre A para garantizar la aplicabilidad del método. ..  0 Lk =   0   . . se cumple que: (a) La matriz Lk es invertible y L−1 = In + k resp. . la misma factorización puede ser utilizada para resolver los diferentes sistemas de ecuaciones lineales que se obtienen al variar b. Volveremos a estas cuestiones más adelante. MANUALES UEX Lema IX. .) si t k ek .. ya que el mayor esfuerzo computacional (entorno a 2n3 /3 operaciones) se consume en el proceso de eliminación. k . . . .  . k )t ∈ kn k y ek es el vector k-ésimo de la base usual de kn . con U = A(n) .  . . En breve demostraremos que una condición necesaria y suficiente para que todos los pivotes sean no nulos es que la matriz A tenga todos sus menores principales de orden i = 1. . . . nótese que la matriz de ejemplo anterior no tiene esta propiedad. 1 −lk+1. Esto supone una considerable reducción de número de operaciones necesarias para resolverlos. . . Ahora nos vamos a ocupar de utilizar la eliminación gaussiana para calcular una factorización de la matriz A en producto de dos matrices..  . la matriz de paso a izquierda de A(k) a A(k+1) es 1  . . . . . .. A = LU.  0 . . . Las matrices simétricas definidas positivas. n.. . 1Una matriz A = ( a ) ∈ M (k) es diagonalmente dominante por filas (por columnas. .  .1. Como L y U sólo dependen de A y no del vector de términos independientes.  . . . . k .. . con lik = para cada k = 1.  0 (k) (k) aik /akk . Con la notación anterior. .. . 0 . lk+1.1. . . n − 1. 0.. −ln. n 246 n para todo i = 1. . n ij | aii | > j =1 j =i ∑ |aij |. ..1. Obsérvese que Lk = In − k et donde k = (0. 0 . k . n − 1. Otros tipos de matrices en las que la eliminación gaussiana se puede aplicar con total seguridad de éxito son las siguientes: Las matrices diagonalmente dominantes por filas o por columnas1.2. n (si | aii | > ∑i=1 | aij |. 0 . resp.).  . para todo j = 1. distintos de cero (véase el teorema IX.4). 0 1 .

1. − 1 1 Según lo anterior. n − 1. así como diversos ejemplos de resolución de sistemas de ecuaciones lineales usando dicha factorización. . En la práctica 11. Para el apartado (a) basta tener en cuenta que la matrices L j . ln1 ln2 . a LU = A tal que L es triangular inferior con unos en su diagonal principal y U es triangular superior. . n n se sigue que (IX. 2Un caso importante de matrices con esta propiedad son las simétricas (y hermíticas) defi- nidas positivas (véase la proposición V. ..5. y sólo si.  .13). . ..3. Definición IX. ... son producto de matrices elementales de tipo III. −1 ( Ln−1 Ln−2 · · · L1 ) =  . . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA n− (b) Ln−1 Ln−2 · · · L1 = ( In + ∑i=11 et ) y i  1 0  l21 1   .4. 0 0 .   0  1 Demostración. si denotamos L = ( Ln−1 Ln−2 · · · L1 )−1 = L1 1 · · · L−−2 L−−1 . Teorema IX... . n−1    . Dada una matriz A ∈ Mn (k) se llama factorización LU de A. .3) A = LU donde U es triangular superior y L es triangular inferior con unos en sus diagonal principal. .. j = 1. veremos la implementación de un algoritmo para el cálculo de la factorización LU..1. l32  . . . . para hallar la solución del sistema Ax = b sólo hay que resolver sucesivamente los dos sistemas triangulares siguientes Ly = b Ux = y. n − 1 de A son no nulos2.1. . . los detalles de ambas demostraciones se proponen como ejercicio al lector (ejercicio 1). De hecho nos da una condición necesaria y suficiente para que exista una única factorización LU de una matriz cuadrada. . el apartado (b) se comprueba de forma directa por inducción sobre n. La factorización LU de A existe y es única si. .  . los menores principales de orden i = 1. Sea A ∈ Mn (k). . . MANUALES UEX 247 El siguiente resultado establece una relación entre los menores principales de una matriz cuadrada y su factorización LU.  . Nótese que una vez que hemos calculado las matrices L y U. ln.

tomando i = n que | A| = | An | = u11 u22 · · · unn = 0. aii es decir. A partir de entonces. . con uii = aii − u. . de A son no nulos.1. . Ai−1 = L(i−1) U (i−1) .4). una de las entradas de la diagonal principal de U es no nula..  i . Si calculamos el producto de estos dos factores e igualamos los bloques a los de Ai . al ser la matriz U (k) no invertible. n − 1.4) A i = L (i ) U (i ) = L ( i −1) t 0 1 U ( i −1) 0t u uii . Según la igualdad (IX.  ∈ M (R).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. | Ai |. podemos garantizar que la factorización se puede calcular sin problemas hasta la etapa k + 1. concluimos que los vectores y u son las soluciones de los sistemas L(i−1) x = c y yU (i−1) = dt . n − 1. Ai es la submatriz de A que se obtiene al eliminar las últimas n − i filas y columnas. que Ai−1 posee una única factorización LU.. existe una única factorización LU de Ai .1... y lo mismo ocurre con la factorización.  a1i . Teniendo ahora en cuenta que que 0 = | Ai−1 | = | L(i−1) | |U (i−1) |. Es claro que el resultado es cierto para i = 1. .1. En primer lugar supongamos que los menores principales .4) 0 = | Ai | = | L(i) | |U (i) | = |U (i) | = u11 u22 · · · uii . supongamos que existe una única factorización LU de A. al menos. i = 1. y demostremos que Ai también tiene una única factorización LU. Luego. Si ukk es la entrada no nula de la diagonal de U de menor índice k. Comencemos suponiendo que A es invertible. Vamos a distinguir dos casos según A sea invertible o no. . Ai =  . . Sea ahora A no invertible y supongamos que. De modo que para que esto no ocurra (como es MANUALES UEX 248 . pues. concluimos que la existencia y unicidad de u y de . Ai = A i −1 dt c aii y busquemos una factorización de Ai de la forma (IX. Para ello consideramos la siguiente partición de la matriz Ai . Supongamos. por el teorema de RouchéFröbenius se tiene que o bien no existe o bien no es único. . por el teorema de Rouché-Fröbenius. de donde se sigue. Sea a11  . y veamos por inducción sobre i que existe una única factorización LU de A. Por (IX. Queremos demostrar que los menores principales de A son no nulos. . ai1  . . . Recíprocamente. y por consiguiente que | Ai | = 0. . i = 1.

El lector interesado puede encontrar una demostración de este resultado en [Golub G.  . es decir. . PA. Nótese que en el caso en que la factorización LU sea única. consideremos el caso de una matriz tridiagonal   b1 c1  a2 b2  c2     . Press. .. tenemos que | A| = | LU | = | L||U | = |U |. se sigue que | Ai | = 0. Baltimore and London.. . En particular. . . para todo i. Demostración.1. . entonces existe factorización LU. Philadelphia.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA nuestro caso) las entradas de la diagonal principal ukk de U tienen que ser no nulas hasta el índice k = n − 1 inclusive. .    . entonces |lij | ≤ 1. . . .. . el determinante de A es el producto de los pivotes: | A| = u11 · · · unn = k =1 ∏ akk .) si | aii | ≥ j =1 j =i ∑ |aij |.   . i = 1. Proposición IX. A= . Sea A ∈ Mn (k) si A es diagonalmente semidominante por filas o por columnas3. . resp. las matrices L y U de la factorización LU de A son bidiagonales de la forma     β 1 c1 1   . . resp. 1996]. .). para todo j = 1. Loan C. j = 1. 1989] o en [Higham N. de la igualdad | Ai | = u11 u22 · · · uii . n. Finalmente. . . Accuracy and Stability of Numerical Algorithms. n − 1. c n −1  αn 1 βn 3Una matriz A = ( a ) ∈ M (k) es diagonalmente semidominante por filas (por column ij nas. . n n para todo i = 1.  α2 1    β2 . n (k) Terminamos esta sección mostrando algunos resultados sobre la factorización LU de ciertos tipos especiales de matrices..  . . n (si | aii | ≥ ∑i=1 | aij |. n. . Matrix Computations. SIAM Publications. L=  y U= . si A es diagonalmente dominante por columnas. V. . y por consiguiente. .. . .    µan−1 bn−1 cn−1  an bn En este caso. The John Hopkins Univ. i=j MANUALES UEX 249 .5... .

i = 2. β i = bi − αi ci−1 . se requiere lo que se conoce como técnica de pivoteo que consiste en intercambiar filas (o columnas4) para evitar los pivotes nulos. Técnicas de pivoteo Como se ha apuntado anteriormente. precisamente 3(n − 1) para la factorización y 5n − 4 para la resolución de los sistemas bidiagonales. . . 4Como hacíamos en el tema II para calcular la forma reducida por filas.2. . En estos casos. . . sin más que intercambiar la fila segunda y la tercera de A(2) (es decir. n.1. Ejemplo IX.1. es decir. . i = n − 1. haciendo una operación elemental por filas de tipo I) obtenemos la matriz triangular buscada   1 2 3 A(2 ) =  0 −6 12  = U. 1. n. es decir. 2.1). . MANUALES UEX 250 . En este caso. que sea compatible indeterminado.1:   1 2 3 A= 2 4 5  7 8 9 en el que el método de eliminación gaussiana fallaba en la segunda etapa al aparecer un pivote nulo. 0 0 −1 En esta sección consideramos el caso de los sistemas de ecuaciones lineales de la forma Ax = b con A ∈ Mn (k) no necesariamente invertible y b ∈ kn . . x = (yi − ci xi+1 )/β i . . . Factorización PA = LU. i = 2. o que no tenga ninguna solución. βn i El algoritmo requiere 8n − 7 operaciones. αi = ai β i −1 . que sea incompatible (véase la definición II. Este algoritmo se puede aplicar a la resolución de sistema tridiagonales Ax = f resolviendo los correspondientes sistemas bidiagonales Ly = f y Ux = y. por lo que se admite la posibilidad de que sistema tenga infinitas soluciones. . para los que se cumplen las siguientes fórmulas: y1 = f 1 .5. xn = yn .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Los coeficientes αi y β i pueden ser fácilmente calculados a partir de las siguientes relaciones: β 1 = b1 . yi = f i − αi yi−1 . Consideremos de nuevo la matriz del ejemplo IX. el método de eliminación gaussiana (y por lo tanto la factorización LU) falla cuando uno encontramos un pivote nulo. .

.2. Obsérvese que A(k ) = Pk A(k) . Salvado este obstáculo podemos continuar con el método de eliminación gaussiana. . . n − 1. 0 (k) (k) . tomamos Lk = In y pasamos a la siguiente etapa.   . . Si aik = 0. no podemos conocer a priori qué filas debe 5Recuérdese que la matriz identidad es una matriz de permutación. . .  . a1n  (2)  (2)  0 a22 . Teniendo ahora en cuenta que L = ( MP−1 )−1 = PM−1 es triangular inferior con unos en su diagonal principal (ejercicio 5)... akn   0  . . concluimos que PA = LU.  L k −1 · · · L 1 A = A ( k ) =  (k) (k)   . (k ) MANUALES UEX 251 . . del forma que podemos hallar la matriz Lk . una matriz L triangular inferior con unos en su diagonal principal y una matriz U triangular superior tales que PA = LU. podemos afirmar que existen n − 1 matrices de permutación5. . Tomando ahora M = Ln−1 Pn−1 · · · L1 P1 y P = Pn−1 · · · P1 . y por lo tanto que MP−1 PA = U. . . .. . . . . . es decir. Desafortunadamente. . . Pk . tal que A(k+1) = Lk A(k ) = Lk Pk Lk−1 · · · L1 A es de la forma deseada. . tales que Ln−1 Pn−1 · · · L1 P1 A = A(n) = U. Existen una matriz permutación P. . . concluimos que MA = U. podemos establecer que una permutación adecuada de las filas la matriz A original hace factible el proceso de factorización completo. . . . Demostración. . a2n     . 0 akk .. . Supongamos que en la etapa k-ésima del método de eliminación gaussiana nos encontramos con un pivote nulo. Sea A ∈ Mn (k). . . 0 ank (k) .   . . . k = 1. ann (k) con akk = 0. n. entonces intercambiado las filas k-ésima y l-ésima de A(k) conseguimos una matriz A(k ) equivalente a A(k) (y por lo tanto equivalente a A) con akk = 0. Por consiguiente. . .. Según el teorema anterior..   .   (1) (1) (1) a11 a12 . . . . . . . para todo i = k.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teorema IX. en otro caso.2. existe l > k tal que alk = 0..  . a partir de A(k ) . donde Pk = Til es la matriz elemental de permutación de las filas i-ésima y l-ésima.

un pivote akk es demasiado pequeño puede amplificar la propagación de errores de redondeo. Existen otros casos en los que es conveniente aplicar esta técnica. un producto de matrices elementales de tipo I). por ejemplo. En correspondencia con ello. j = k. Si en el curso del proceso las filas k y l de A se permutan. . por lo que el tipo de factorización obtenida en este caso seria de la forma PAQ = LU. . n de la matriz A(k) ejecutando la correspondiente permutación de las filas de A(k) . ya que es posible que las entradas de la diagonal principal de U sean nulas. . existe y es única para cualquier matriz hermítica (simétrica si es de entradas reales) definida positiva (véase la definición V. Puesto que una permutación de filas implica cambiar el elemento pivotal. llamada factorización de Cholesky. Por tanto. Factorización de Cholesky 252 En el tema V vimos que cualquier matriz simétrica definida positiva A ∈ Mn (R) factoriza como sigue A = QQt con Q triangular inferior (véase el corolario V. . n.5. se suele elegir como elemento pivotal k-ésimo la mayor (en módulo) de las entradas aik . La factorización generada de esta forma devuelve la matriz original original salvo una permutación de filas. esta técnica recibe el nombre de pivoteo por filas. i. el proceso de busqueda de un pivote óptimo se puede extender a todas las entradas aij . Alternativamente.16). . Si bien hemos usado la técnica de pivoteo por filas para salvar la aparición de pivotes nulos. . (k) (k) (k) (k) MANUALES UEX 3. por lo que esta decisión ha de tomarse en cada etapa k en la que aparezca una entrada diagonal akk nula tal y como hemos hecho en la demostración del teorema. la misma permutación debe realizarse sobre las filas homólogas de P. En importante destacar que el sistema Ux = y podría no tener solución o poseer infinitas soluciones. para asegurar una mejor estabilidad. esta estrategia se conoce como técnica de pivoteo total y requiere permutaciones de columnas. concretamente obtenemos PA = LU. . donde P es una matriz de permutación (es decir.12). . .5.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS permutarse. i = k. ahora deberíamos resolver los siguientes sistemas triangulares Ly = Pb Ux = y. Veamos que tal descomposición.

Consideremos la siguiente partición de Ai − Ai = A i −1 v∗ v α . y busquemos una factorización de Ai de la forma Ai = Hi Hi∗ = Hi−1 h∗ 0 β Hi∗ 1 − 0 h β . . Sea a11  .1. −1 h∗ h = v∗ ( Hi−1 )∗ Hi−1 v = v∗ ( Hi−1 Hi∗ 1 )−1 v = v∗ Ai−1 v − −1 −1 0 < | A i | = α ( α − v ∗ A i −1 v ). según vimos al final del tema I . Ai es la submatriz de A que se obtiene al eliminar las últimas n − i filas y columnas. .3. Existe una única matriz triangular inferior H con diagonal real postiva tal que A = HH ∗ .  a1i . aii es decir.4 procederemos por inducción sobre i.. Supongamos.. Por la hipótesis de inducción. pues. Sea A ∈ Mn (k) una matriz hermítica definida positiva. Las entradas de la matriz triangular inferior H en la factorización de Cholesky de una matriz hermítica definida positiva A = ( aij ) ∈ Mn (R) se √ pueden calcular mediante el siguiente algoritmo: ponemos h11 = a11 y para MANUALES UEX 253 y. existe una matriz triangular inferior Hi−1 tal que Ai−1 = Hi−1 Hi∗ 1 . Obsérvese que Ai es hermítica y definida positiva por serlo A.. Al igual que en la demostración del teorema IX.  ∈ M (R). Ai =  . ambos hechos implican que α − h∗ h > 0 y por lo tanto que existe un único número real positivo β tal que β2 = α − h∗ h.  i . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Teorema IX. ai1  .1. con α ∈ R+ y v ∈ Ci−1 . que se cumple para i − 1 y veamos que también es válido para i. Demostración. El vector h∗ está unívocamente determinado porque Hi−1 es invertible.. Por otra parte. Forzando la igualdad con las entradas de Ai se obtienen las ecuaciones Hi−1 h = v y h∗ h + β2 = α. Como α > 0. Para i = 1 el resultado es obviamente cierto.

. Texts in Applied Mathematics. R. supondremos que la matriz identidad es una matriz de Householder (más concretamente. se trata un algoritmo bastante estable respecto a la propagación de errores de redondeo tal y como se ilustrará en la práctica 12. El método de Householder Existen versiones para los números complejos de las definiciones y resultados que veremos a continuación. entonces la correspondiente matriz de Householder es H(w) = In − 2 w wt . Nosotros nos centraremos en el caso real. Third edition. MANUALES UEX Por convenio. sea w un vector de Rn de módulo 1. luego. para todo λ ∈ R no nulo. hij = 1 h jj j −1 aij − i −1 k =1 ∑ hik h jk 1/2 2 .4. Además. 4. si w tiene módulo 1. en particular. que muchos autores adopten esta última expresión como definición de matriz de Householder. j = 1. 6En efecto. De aquí. para el caso complejo. . Entonces 254 H(w)t = In − 2wwt t = In − 2(wwt )t = In − 2wwt = H(w). New York. la matriz de Householder para el vector cero). . pero el lector interesado puede consultar [Stoer. Matrices de Householder.1. . Introduction to numerical analysis. Las matrices de Householder son simétricas y ortogonales6. J. Springer-Verlag. hii = aii − k =1 ∑ |hik | . Definición IX. Por otra parte. ww siendo w un vector no nulo de Rn . Además. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS i = 2. con el fin de simplificar algunos de los enunciados posteriores. . Llamaremos matriz de Householder a una matriz de la forma w wt H(w) = In − 2 t . El algoritmo anterior requiere del orden de (n3 /3) operaciones (la mitad de las requeridas por la factorización LU). n. . Bulirsch. conservan el producto escalar usual de Rn (ejercicio 6). . 2002]. por eso son muy estables en su aplicación numérica. notemos que debido a la “simetría” sólo hace falta almacenar la parte inferior de A y así H puede ser almacenada en la misma área. i − 1. Obsérvese que H(w) = H(λw). . 12..

entonces Hv = v 2 e1 . . que la primera componente del vector Hv siempre se puede tomar no negativa. H (w) es simétrica. su interés en Análisis Numérico Matricial proviene del siguiente resultado que nos permite elegir una simetría que alinea a un vector v ∈ Rn dado con el vector e1 de la base canónica de Rn .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Desde un punto de vista geométrico la matriz de Householder H(w) es la matriz de una simetría (o reflexión) respecto del hiperplano perpendicular a w. v1 < 0. es decir. donde e1 denota el primer vector de la base canónica de Rn . . esto es. . n Teorema IX. En primer lugar observamos que la hipótesis ∑i=2 v2 > 0 gai rantiza que los vectores v ± v 2 e1 no son nulos (condición necesaria para poder definir las correspondientes matrices de Householder). H(w)H(w)t = H(w)2 = In − 2 w wt 2 = In − 4w wt + 4(w wt )2 = In − 4w wt + 4(w wt )(w wt ) = In − 4w wt + 4w (wt w)wt = In − 4w wt + 4w wt = In . por otra parte. si w = v ± v 2 e1 y H = H(w).4. . Si ∑i=2 v2 = 0. Veamos ahora que las matrices de Householder propuestas verifican el resultado deseado: Hv = H(v ± v 2 e1 )v = v − 2 (v ± v 2 e1 )(vt ± v 2 et ) 1 v (vt ± v 2 et )(v ± v 2 e1 ) 1 (v ± v 2 e1 )(vt ± v 2 et )v 1 (vt ± v 2 et )(v ± v 2 e1 ) 1 v 2 ( v 2 ± v1 )(v ± v 2 e1 ) = v−2 2 v 2 ( v 2 ± v1 ) = v − ( v ± v 2 e1 ) = v−2 = v 2 e1 El vector w = v ± v 2 e1 se dice que es un vector de Householder de v. n Demostración. Más concretamente. v2 . H(w) es ortogonal. Existe una i matriz de Householder H tal que las últimas n − 1 componentes del vector Hv son nulas. . vn ) ∈ Rn tal que ∑i=2 v2 > 0.4. MANUALES UEX 255 De tal forma que podemos concluir que el teorema 1 es cierto en todos los casos. y además. entonces i In v = v 2 e1 H(v − v 2 e1 )v = v 2 e1 si si v1 ≥ 0.3.2. Sea v = (v1 . n Nota IX.

. . tómese H = In ). . tales que la matriz Hn−1 · · · H2 H1 A sea triangular superior. . β Nótese que si α = 0. Hn−1 . El método de Householder. 2 esto es. elegimos w = v + v 2 e1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS En la práctica. el módulo de w al cuadrado divido por dos. sea H = H(w) con w = 0 (en otro caso. el cálculo del vector Ha se efectúa hallando primero el producto escalar α := wt a. Sea A ∈ Mn (R). v 2 . Si a es un vector de Rn . k ≥ 1. El método de Householder consiste en encontrar n − 1 matrices de Householder. entonces a pertenece al hiperplano perpendicular a w. y luego el número wt w = v 2 ( v 2 ± v1 ). Si denotamos A1 = A. y a continuación el vector (wwt )a w ( wt a ) αw wwt = a− = a− Ha = a − 2 t a = a − w w β β β α = a − w. después hallamos el vector w = v ± v 2 e1 . procedemos de la siguiente forma: calculamos la norma de v para el producto escalar usual de Rn . H1 . si v1 ≥ 0 y w = v − v 2 e1 . Para la elección del signo (que precede a v 2 e1 ) nos guiamos por la presencia de la expresión (wt w) en el denominador de la matriz de Householder: para evitar divisiones por números demasiado “pequeños" (lo que puede tener consecuencias desastrosas en la propagación de errores de redondeo). es de la × × × × × × × × × × × × × × × × × × × × × × × × × × × × × × × ×       ← fila k-ésima       MANUALES UEX 256 ↑ columna k-ésima . β := Siguiendo con la notación anterior. cada matriz forma  × × × ×  × × ×   × ×      (k)  × Ak = ( aij ) =   ×     (k)  v ×    ×     × Ak = Hk−1 · · · H2 H1 A. si v1 < 0. por lo que Ha = a.

la factorización QR es única. La interpretación matricial del método de Householder nos conduce a un resultado tremendamente importante sobre factorización de matrices (cuadradas). Sin embargo. si ∑i=k+1 ( aik )2 = 0. los elementos de R se pueden elegir no negativos. en cuyo caso. Bajo estas condiciones.4. n Naturalmente. . si aik = 0.11).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota IX. Hn−1 es independiente de que A sea invertible7. (k) (k) Factorización QR. k ≤ i ≤ n. para todo i = k + 1. por ejemplo. Un primera versión del siguiente resultado ya apareció en el tema V como consecuencia del método de ortonormalización de Gram-Schmidt (véase el corolario V. n. a diferencia de lo que ocurre con el método de Gauss. observamos que la existencia de las matrices de Householder H1 . . Teorema IX. existe un vector w(k) ∈ Rn−k+1 tal que el vector H(w(k) )v(k) ∈ Rn−k+1 tiene todas sus componentes nulas excepto la primera.4. Designemos por v(k) al vector de Rn−k+1 cuyas componentes son los n elementos aik . los elementos de la fila k-ésima se ven modificados.3. por ˜ ˜ el teorema 1. . . Demostración. si A es invertible. Sea w(k) el vector de Rn tal que sus primeras (k − 1) componentes son ˜ nulas y las (n − k + 1) restantes son las del vector w(k) . 7¡De hecho tampoco depende de que A sea cuadrada! MANUALES UEX 257 Además. En primer lugar. y una matriz triangular superior R tales que A = QR. La distribución de los ceros en la matriz Ak es la misma que la que se obtiene en la etapa (k − 1)-ésima del método de Gauss. es decir. . Sea A ∈ Mn (R). . Existen una matriz ortogonal Q. . Si ∑i=k+1 ( aik )2 > 0. H2 . producto de matrices de Householder.5. el paso de la matriz Ak a la matriz Ak+1 es completamente diferente. . la matriz Ak ya tiene la forma deseada por lo que podemos tomar Ak+1 = Ak y Hk = In (véase la nota 1 para más detalle). de la matriz Ak = ( aij )(k) . las matriz Ik−1 0 Hk = ˜ 0 H(w(k) )v(k) (k) (k) es la matriz de Householder H(w(k) ) y se cumple que Ak+1 = Hk Ak .4. . por lo que toda matriz A ∈ Mn (R) se puede escribir de la forma A = ( Hn−1 · · · H2 H1 )−1 An .

258 . al menos. . n. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS tal que la matriz R := An sea triangular superior. . Bt B = Qt Q2 Qt Q1 = In . Luego. Corolario IX.4. cómo ( Bt )ii · ( B)ii = 1. . ( R1 )ii concluimos que ( B)ii = 1. Luego. existe una factorización A = QR tal que rii > 0. pero la inversa de una matriz triangular superior es triangular superior. . se deduce que − Qt Q1 = R2 R1 1 =: B. 2 (n) en particular B es una matriz triangular superior por ser producto de matrices triangular superiores. para todo i = 1. ya que Bt = B−1 es triangular inferior. Existen una matriz ortogonal Q ∈ Mm (R) y una matriz R ∈ Mm×n (R) con sus n primeras filas formando una matriz triangular superior y las m − n últimas nulas tales que A = QR. Sea A ∈ Mm×n (R). . con m ≥ n. Demostremos. la existencia de una descomposición QR ya está demostrada. i = 1. basta tomar la siguiente matriz de Householder   0   . . . El hecho de se puedan elegir los primeros n − 1 elementos de la diagonal principal de R = (rij ) ∈ Mn (R) no negativos es consecuencia del teorema 1 y de la nota 1. . De las igualdades A = Q1 R1 = Q2 R2 . . Por otra parte. n. . para todo i = 1. i = 1. pues. 2 1 de donde se sigue que B ha de ser diagonal. (n) (n)  . La matriz Q := ( Hn−1 · · · H2 H1 )−1 = H1 H2 · · · Hn−1 es ortogonal (recuérdese que las matrices de Householder − t cumplen que Hk 1 = Hk = Hk ). Además. . y MANUALES UEX ( R2 )ii > 0. R1 = R2 y Q1 = Q2 . Si el elemento rnn = ann fuese negativo. y por consiguiente que B = In . .6. . n. . . ( Bt )ii = ( B)ii = La factorización QR también se puede llevar a cabo en matrices no necesariamente cuadradas. .   . la unicidad de tal descomposición. Hn = H(w ) con w =   0   (n) (n) ann − | ann | Si la matriz A es invertible. n.

. . por ejemplo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. Para terminar indicamos una interpretación muy importante de la factorización QR de una matriz invertible A. . Calcula c = Qt b. las relaciones anteriores equivalen a un proceso de ortonormalización de Gram-Schmidt.4.   an = r1n q1 + r2n q2 + . m ≥ n es del orden de 2mn2 . . Si a1 . mediante sustitución hacia atrás. a2 . + rnn qn . Si A = ( A|0m×(m−n) ) ∈ Mm (R) y A = QR es su factorización QR. . Calcula la factorización QR de A.    a2 = r12 q1 + r22 q2 .   . El número de operaciones necesarias para llevar a cabo la factorización QR de una matriz de orden m × n. . . q2 . donde R = (rij ) ∈ Mn (R). Ahora bien. como los vectores qi forman un sistema ortogonal (pues son las columnas de una matriz ortogonal). La implementación del algoritmo para hallar la factorización QR de una matriz cuadrada que se deduce de la demostración del teorema IX. Resuelve el sistema triangular Rx = c. . . an y q1 . . qn son los vectores columna de la matrices A y Q respectivamente. . . Al igual que la factorización LU. MANUALES UEX 259 . la descomposición QR se utiliza para resolver sistemas de ecuaciones lineales Ax = b. entonces A = QR donde R es la matriz de orden m × n formada por las n primeras columnas de R .5 se verá en la práctica 12. la relación A = QR se escribe de la siguiente manera   a1 = r11 q1 .

producto de matrices elementales de tipo I). Ejercicio 3. . 0. 4 Halalr para qué valores de no se satisfacen las hipótesis del teorema IX. Sea A = ( aij ) ∈ Mn (R) tal que aij = 1 si i = j o j = n. n − 1. 260 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema IX Ejercicio 1. donde Lk = In − k et siendo k el k vector k al que se le han intercambiado las coordenadas i y j. Sean lij ∈ k. Si Tij ∈ Mn (k) es la matriz elemental de tipo I que intercambia las filas i y j. entonces PLk P−1 = Lk .1. .2. Probar que A admite factorización LU con |lij | ≤ 1 y unn = 2n−1 . k = 1. . . entonces Tij Lk Tij = Lk . Demostrar el lema IX. lk+1. 2. ¿Para qué valores de esta matriz no es invertible? ¿Es posible calcular factorización LU en este caso? Ejercicio 4. Sea 1 A = 2 3  1− 2 6  3 2 .1.4. Probar que 1. . 1 ≤ j < i ≤ n y Lk = In − t k ek donde k = (0. ln. Verificar que el número de operaciones necesarias para calcular la factorización LU de una matriz cuadrada de orden n es aproximadamente 2n3 /3. Si P ∈ Mn (k) es una matriz de permutación (es decir. donde Lk = In − k et siendo k el vector k al que se le han intercambiado k las coordenadas según la permutación definida por P. Ejercicio 2. k )t ∈ kn MANUALES UEX y ek es el vector k-ésimo de la base usual de kn . . Ejercicio 5. . . . aij = −1 si i > j y cero en otro caso. k . . . .

.. −1 y PM −1 son MP triangulares inferiores con Ejercicio 6. ( n −3) ( n −2) L1 . Sean w ∈ Rn de módulo 1 y H(w) = In − 2wwt la correspondiente matriz de Householder. = L n −1 L n −2 · · · L 2 De donde se sigue que unos en su diagonal principal.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 3.. se cumple que (H(w)u)t (H(w)v) = ut v. Si P1 . Probar que dados u y v ∈ Rn . entonces − − −1 MP−1 = Ln−1 Pn−1 · · · L2 P2 L1 P2 1 P3 1 · · · Pn−1 − − −1 = Ln−1 Pn−1 · · · L2 P2 L1 P2 1 P3 1 · · · Pn−1 −1 − = Ln−1 Pn−1 · · · P3 L2 L1 P3 1 · · · Pn−1 − − −1 = Ln−1 Pn−1 · · · P3 L2 P3 1 P3 L1 P3 1 · · · Pn−1 − − −1 = Ln−1 Pn−1 · · · P3 L2 P3 1 L1 P4 1 · · · Pn−1 −1 − − = Ln−1 Pn−1 · · · P3 L2 P3 1 P4 1 · · · Pn−1 L1 ( n −2) = . . P = Pn−1 · · · P1 y M = Ln−1 Pn−1 · · · L2 P2 L1 P1 . Pn−1 ∈ Mn (k) son matrices de permutación. MANUALES UEX 261 . . .

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 262 .

mostrando aquellos métodos que tienen un comportamiento asintótico relativamente “ejemplar”. para familias de matrices espaciales (esencialmente. La matriz M se llama precondionador del método. Aquí son fundamentales el estudio espectral de la matriz de B y los resultados sobre convergencia de las potencias de una matriz estudiados en el tema VIII.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA X Métodos iterativos de resolución de sistemas lineales de ecuaciones E n este damos una breve introducción a los métodos iterativos para la resolución de sistemas lineales. estos tres métodos parten de la idea común de descomponer la matriz A como la suma matriz diagonal D. En esta sección mostramos algunos resultados sobre la convergencia de estos métodos y exploramos algunos resultados que nos permiten su comparación. k ≥ 1. Al final de la sección consideramos el MANUALES UEX 263 . Tal es el comienzo de la primera sección de este tema. por ejemplo. una triangular inferior − E y otra triangular superior − F. para las matrices hermíticas definidas positivas y las matrices tridiagonales). y su elección será crucial para garantizar la convergencia. En la segunda sección mostramos un método muy general para construir métodos iterativos que consiste en descomponer la matriz A del sistema en la forma A = M − N con M invertible. y tal que la matriz B y el vector c se construyen a partir de un sistema Ax = b. y a continuación considerar distintas combinaciones en esta descomposición para elección de M. A continuación en la siguientes secciones mostramos distintos métodos iterativos derivados de distintas elecciones de M. y tomar B = M−1 N. En la tercera sección. Los métodos iterativos que consideraremos en este tema serán de la forma u(k+1) = Bu(k) + c. tomamos D = M. donde exponemos la idea general sobre los métodos iterativos y estudiamos condiciones necesarias y suficientes para que la sucesión de vectores (u(k) )k∈N converja a la solución del sistema Ax = b. se consigue el llamado método de Jacobi. Gauss-Seidel y de relajación (método SOR). así si. siendo el valor inicial u(0) arbitrario. se estudian los métodos de Jacobi.

es la introducción un determinado parámetro que se irá actualizando en cada iteración. en forma general. Para la elaboración de este tema hemos seguido el capítulo 4 de [QSS07] y el capítulo 5 de [Cia82]. Gauss-Seidel y de relajación. dado un sistema lineal Ax = b. También hemos usado [QS06]. damos un pequeño paso más allá y estudiamos la generalización de los métodos anteriores.1) es convergente si existe u ∈ V tal que m→∞ l´m u(k) = u ı 264 1Nótese que la condición I − B invertible garantiza que la solución del sistema x = Bx + c existe y es única. encontramos una matriz B ∈ Mn (k) y un vector c ∈ V tal que la matriz I − B es invertible la única solución1 del sistema lineal x = Bx + c es la solución de Ax = b. La forma del sistema x = Bx + c sugiere abordar la resolución del sistema lineal Ax = b mediante un método iterativo asociado a la matriz B del siguiente modo: dado un vector inicial u(0) ∈ V arbitrario. tangencialmente.1. Sobre la convergencia de los métodos iterativos Usaremos la siguiente notación en todo el tema V = kn . Para entender en qué consisten los métodos iterativos para resolución de sistemas lineales. no contemplados en las sección anterior.1. En la última sección del tema. Tal generalización se conoce como método de Richardson. El método iterativo dado por la expresión (X. cuya aportación principal. Definición X. Nosotros solamente nos ocuparemos de estudiar el primero con detalle. .1. En [Cia82] se da una introducción general a los métodos iterativos de Jacobi.1) u(k+1) = Bu(k) + c MANUALES UEX para k ∈ N ∪ {0}. se construye la sucesión de vectores (u(k) )k∈N de V dada por (X. con la esperanza de que converja a la solución del sistema lineal. mostrando resultados sobre su convergencia y precisión. 1. Casos particulares de este método. además de los de Richardson y otras variantes de éste (distintas del método del gradiente) de las que no nos ocuparemos en esta asignatura.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS problema la condición de parada de un método iterativo para dar una buena aproximación de la solución del sistema. A ∈ Mn (k) invertible y b ∈ V no nulo. supongamos que.1. En [QSS07] se muestran éstos métodos. son el método del gradiente y del gradiente conjugado.

(X. este vector u verifica u = Bu + c ó. que da un criterio fundamental de convergencia de los métodos iterativos. para todo ε 0 ∈ V ı m→∞ ⇐⇒ ( B) < 1 ⇐⇒ ||| B||| < 1 para una norma matricial ||| · |||. de la matriz B. en esencia. Au = b. si ε 0 fuese de norma 1. MANUALES UEX 265 Demostración. Así pues. en tal caso. Sea B ∈ Mn (k). Son equivalentes: a) El método iterativo asociado a la matriz B es convergente.1. ε k = Bk ε 0 ≤ ||| Bk ||| ≤ ||| B|||k . Por esta razón B se llama matriz de la iteración asociada al sistema lineal Ax = b.19 y de la relación (X. Nótese que. sólo involucra la matriz de iteración B considerada. el error en la iteraciones depende.2). para la norma matricial ||| · ||| subordinada a una norma vectorial · cualquiera.2) ε k = B ε k −1 = B 2 ε k −2 = .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA para cualquier vector inicial u(0) ∈ V. si para cada k ∈ N ∪ {0} denotamos el vector de errores cometido en cada iteración por ε k : = u(k) − u se verifica que ε k = u(k) − u = ( Bu(k−1) + c) − ( Bu + c) = B(u(k−1) − u) = Bε k−1 y. En otra palabras. c) Existe una norma matricial ||| · ||| (que se puede tomar subordinada) tal que ||| B||| < 1 Además.1). Criterios de convergencia para métodos iterativos. equivalentemente.1. = B k ε 0 . por ejemplo) que converja a la solución exacta. un método iterativo consiste en construir una sucesión de vectores (u(k) )k∈N de V (mediante la expresión (X. para todo ε 0 ∈ V ı m→∞ ⇐⇒ l´m Bk ε 0 = 0. . b) ( B) < 1. por tanto. Por otra parte.1. Obsérvese que el resultado siguiente. se tienen las equivalencias: . A partir del teorema VIII. .2. entonces El método es convergente ⇐⇒ l´m ε k = 0.

16).1. basta tener en cuenta que por (X. cuando más pequeño sea ( B). en caso de disponer de varios a nuestro alcance. para un método iterativo de la forma (X.2) se tiene que ||| Bk |||1/m = sup ε 0 =1 Bk ε 0 = sup ε 0 =1 εk . elegir aquel cuyo radio espectral sea menor (véase el teorema VIII.2.2. En el teorema VIII. por consiguiente.1. en primer lugar.16. se verifica que la convergencia para cualquier u(0) si. asegurar su convergencia (por ejemplo. como consecuencia del teorema VIII. Para luego. Sean Para el método iterativo · una norma sobre V y u ∈ V tal que u = Bu + c. A la hora de resolver un sistema lineal mediante un método iterativo deberemos.1. y sólo si. Además. ı Luego.2.1. tanto más rápida cuanto menor sea el radio espectral de matriz B que define el método. En esta línea. 2. en el caso de que el método iterativo converja. menor será el número de iteraciones necesario para reducir el error inicial. Este último resultado afirma que sup u (0) − u = 1 u(k) − u tiene el mismo comportamiento asintótico que ( B)k .2. u(0) ∈ V arbitrario u(k+1) = Bu(k) + c. k ∈ N ∪ {0}.2). Demostración.1) cuya matriz de iteración satisface las dos condiciones del principio. Por tanto.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Se plantea la cuestión de cómo elegir entre diversos métodos iterativos convergentes para la resolución de un mismo sistema lineal Ax = b. encontrando alguna norma para la cual ||| B||| < 1 o viendo que ( B) < 1). ( B) < 1. Cómo construir métodos iterativos MANUALES UEX 266 La estrategia que se va a utilizar para construir métodos iterativos consistirá en descomponer la matriz A en la forma A = M−N . En resumen. se tiene la siguiente: Proposición X. se verifica que k→+∞ l´m ı sup ε 0 =1 εk 1/m = ρ( B) donde ε k está definido en (X.20 vimos que l´mk→+∞ ||| Bk |||1/m = ρ( B). la convergencia de la sucesión (u(k) )k∈N será igual de rápida que la convergencia a cero de la sucesión de número reales ( ( B)k )k∈N y.

Es por esto por lo que requerimos que M sea una matriz cuya matriz inversa sea fácil de calcular. hermítica o simétrica definida positiva. entonces B = M−1 N = M−1 ( M − A) = I − M−1 A. para calcular u(k+1) . I − B = M −1 A es una matriz invertible. . En esta sección vamos a introducir tres de los métodos iterativos más usuales para la resolución de un sistema lineal Ax = b. . triangular o triangular por bloques. En la práctica. Gauss-Seidel y relajación . k ∈ N ∪ {0}. No obstante.3). cuanto más de A haya en M. tanto más se parecerá cada iteración al cálculo de la solución exacta (de hecho. Todos ellos comparten una idea básica en su construcción: separar la matriz del sistema en suma de dos matrices. Intuitivamente. Métodos de Jacobi.1. MANUALES UEX 267 3. . Nota X.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA donde M va a ser una matriz invertible tal que su matriz inversa sea fácil de calcular (en el sentido de que sea fácil de resolver el sistema asociado MX = In como ocurre. por ejemplo. A continuación describiremos una determinada descomposición de A que será la que usaremos como base en los diversos métodos iterativos que vamos a estudiar en esta sección. por lo que el sistema ( I − B)x = c tiene solución única. todos los métodos iterativos que vamos a estudiar responden a una descomposición M − N de la matriz A.2. Un método iterativo será aquel que mantenga un equilibrio entre estas dos estrategias enfrentadas. Como ya se ha comentado. La matriz M se suele llamar precondicionador de A. se resolverá el sistema Mu(k+1) = Nu(k) + b en vez de trabajar directamente con (X. y c = M −1 b De esta forma podemos considerar el método iterativo (X.2. en el caso límite M = A la solución se obtiene en la primera iteración). Con esta descomposición se verifica que: Au = b ⇐⇒ ( M − N )u = b ⇐⇒ Mu = Nu + b ⇐⇒ u = Bu + c donde B = M−1 N = In − M−1 A u(0) ∈ V arbitrario u(k+1) = Bu(k) + c. esto va en contra de la idea inicial de que el coste de cada iteración sea bajo. cuando M es una matriz diagonal.3) Como N = M − A. diagonal por bloques.2. ). Así.

Nosotros sólo nos ocuparemos de las descomposiciones por bloques de orden 1. en este caso. descomposiciones por puntos. triangular inferior y triangular superior por bloques de ordenes apropiados para que sea A = D − E − F. Ejemplo X. El lector interesado puede encontrar la versión por bloques de los métodos iterativos que estudiaremos a continuación en el apartado 5.3. .4 de [IR99].4) aii = 0 para i = 1. MANUALES UEX .3. 2. . siendo eij = E = (eij ) ∈ Mn (k). Dada una matriz A = ( aij ) ∈ Mn (k) invertible con (X. . .3. Claramente. E y F se eligen. respectivamente. 0 268 De forma análoga se podrían considerar descomposiciones D − E − F de A por bloques.3. es decir. Consideremos la matriz  2 −2 A= 2 3 0 donde  0 −1  2 siendo  0 0  y 0 ∈ R. las matrices D. E =  −2 0 − 0 0 0 2 0 F= 0 0  2 0 0  0 1 . . diagonal. . consideramos la siguiente descomposición de la matriz   −F  A= D −E que podemos escribir en la forma A = D−E−F donde D = diag( a11 . ann ). a22 . n. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Notación X.2. A = D − E − F    2 0 0 0 0 D =  0 3 0  . . y F = ( f ij ) ∈ Mn (k) − aij 0 si si i>j i≤j y f ij = − aij 0 si si i<j i≥j A esta descomposición de A la denominaremos descomposición D − E − F (por puntos) de la matriz A.1.

por ejemplo. .3.84865653915700. Au = b ⇐⇒ Du = ( E + F )u + b ⇐⇒ u = D −1 ( E + F )u + D −1 b que conduce al llamado método iterativo de Jacobi o método JOR (Jacobi Over-Relaxation method) u (0) ∈ V u ( k +1) o. es 0.97263258335935 y. .4) determina que la matriz M = D es invertible.3.5) puede escribirse.5) u (0) ∈ V Du(k+1) arbitrario arbitrario y N = E+F = D −1 ( E + F )u(k) + D −1 b.i+1 (u(k) )i+1 − . Ejemplo X. − ain (u(k) )n i −1 n = bi − ∑ aij (u(k) ) j − j =1 j = i +1 ∑ aij (u(k) ) j para i = 1. . 0 0 1/2 − 0 0 − /2 0 0 Así. el método de Jacobi también se conoce como método de las iteraciones simultáneas. − ai. Volviendo al ejemplo X.i−1 (u(k) )i−1 − ai. . Como se puede observar.2. . para = −3. para = −1 el radio espectral de J es 0. para = −5. coordenada a coordenada. k ∈ N ∪ {0} Nótese que la hipótesis (X. donde (u(k) ) j denota la coordenada j-ésima del vector u(k) . . las n componentes del vector u(k+1) pueden calcularse de forma simultánea a partir de las n componentes del vector u(k) . .3. . la matriz de Jacobi en este caso es      0 1 0 1/2 0 0 0 2 0 J = D −1 ( E + F ) =  0 1/3 0   −2 0 1  =  −2/3 0 1/3  .3. por los criterios de convergencia para métodos iterativos. es 1. (X. k ∈ N ∪ {0} = ( E + F )u(k) + b. en este MANUALES UEX 269 . La iteración definida en (X. n.08264845639125.3. de hecho. Luego. La matriz de este método es J = D −1 ( E + F ) = I − D −1 A que se denomina matriz de Jacobi. como aii (u(k+1) )i = bi − ai1 (u(k) )1 − . Consiste en tomar M=D Así pues.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Método de Jacobi.3. 2. se tiene. equivalentemente.

arbitrario ( D − E ) u ( k +1) = Fu(k) + b. . . 2. . . (u(k) )2 . n. . es decir. . . Método de Gauss-Seidel. . Tenemos así definido un nuevo método iterativo tomando M = D−E De esta forma Au = b ⇐⇒ ( D − E)u = Fu + b ⇐⇒ u = ( D − E)−1 Fu + ( D − E)−1 b que conduce al método iterativo de Gauss-Seidel u (0) ∈ V u ( k +1) arbitrario y N=F = ( D − E)−1 Fu(k) + ( D − E)−1 b. k ∈ N ∪ {0} u (0) ∈ V MANUALES UEX o. . k ∈ N ∪ {0} 270 Nótese que. Matricialmente. estas ecuaciones se escriben Du(k+1) = Eu(k+1) + Fu(k) + b. La matriz de este método es L1 = ( D − E)−1 F = In − ( D − E)−1 A que se denomina matriz de Gauss-Seidel. . . (u(k) )i−1 } Esta consideración nos sugiere la siguiente modificación en la descripción coordenada a coordenada de la k-ésima iteración del método de Jacobi: aii (u(k+1) )i = bi − i −1 j =1 ∑ aij (u(k+1) ) j − ∑ n aij (u(k) ) j j = i +1 para i = 1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS caso. en forma equivalente. . . que para los dos primeros valores de gente y que para el último no lo es. por (X. ( D − E)u(k+1) = Fu(k) + b. parece claro que una estrategia adecuada para mejorar la convergencia de ese método sería emplear las componentes ya calculadas {(u(k+1) )1 . la matriz M = D − E es invertible. el método de Jacobi es conver- A la vista del cálculo de la componente (u(k+1) )i en el método de Jacobi. (u(k+1) )2 . (u(k+1) )i−1 } en vez de utilizar las “antiguas" {(u(k) )1 .4).3.

es 1. el método de Jacobi es mejor que el de Gauss-Seidel (véase el ejemplo X. Aunque no siempre ocurre así: Ejemplo X. Además. Luego. Retornando de nuevo al ejemplo X. la matriz de GaussSeidel en este caso es     1/2 0 0 0 1 0 0 2 0 L1 = ( D − E)−1 F =  −1/3 1/3 =  0 −2/3 −1/3  . a este método se le denomina método de las iteraciones sucesivas. en principio.86037961002806.2. por los criterios de convergencia para métodos iterativos. en general. para = −3. 0  0 0 1 − /4 0 1/2 0 − /2 0 Así. 0 Así. la conveniencia de usar uno u otro está ligada al problema. las n componentes del vector u(k+1) debe obtenerse de manera sucesiva a partir de las componentes ya calculadas de u(k+1) y las restantes del vector u(k) .4. más “rápido" pues la matriz M contiene más elementos de A. es decir.3. E =  −2 0 0 2 −1 . para = −1 el radio espectral de L1 es 0. es 1. Consideremos la matriz 2 A= 2 1 donde   −2 0  3 0 2 D − E − F siendo   0 0 0 0 0 . Ejemplo X. se tiene que para el primer valor de el método de Gauss-Seidel es convergente y que para los dos últimos no lo es. para = −3. 1/2 J = D −1 ( E + F ) =  0 0   0 0 0 1/3 0   −2 0 1/2 −1 2 0 0 0 1 −  =  −2/3 0 0 −1/2 0 0    0 − /3  271 0 MANUALES UEX ∈ R. Podemos escribir. no podemos asegurar que un método iterativo sea mejor que otro. y F =  0 0 0 0 2 0 0 0  − .3).5. A =    2 0 0 0 D =  0 3 0  .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Contrariamente a lo que sucedía en el método de Jacobi.30515864914088.3. el método de Gauss-Seidel será. por ello.11506929330390 y para = −5. Luego.3.3. lo que pone manifiesto que. según lo dicho anteriormente. por ejemplo. Veamos ahora un ejemplo en el que el método de Gauss-Seidel sí funciona mejor que el método de Jacobi.

3. 0. no el que resultaría de aplicar directamente el método. En términos de coordenadas. La idea que subyace en el método de relajación es tomar como valor siguiente. para respectivamente.40824829046386. y. son = −7.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS y 1/2 L1 = ( D − E)−1 F =  −1/3 −1/4 Así. por ejemplo. sino una media ponderada de éste y el valor anteriormente hallado. 2. en cada paso del método iterativo. Luego. mientras que el de Gauss-Seidel es convergente.81649658092773. se tiene que para el primer valor de ambos métodos son convergentes.08012344973464. Así.17502381317383 respectivamente.84865653915700 = −4. para respectivamente. aplicando esta estrategia al método de Jacobi se obtiene u ( k +1) = α ( u ( k +1) ) J + (1 − α ) u ( k ) . lo que matricialmente se escribe como u(k+1) = αD −1 (b + ( E + F )u(k) ) + (1 − α)u(k) 1−α D + E + F u(k) + αD −1 b. 0. por ejemplo. son 1. Método de relajación. para el segundo valor de el método de Jacobi es divergente. y para el tercer valor de ambos métodos son divergentes. 1.03018084965341 1. . . es decir. . α 272 = αD −1 . para    0 0 0  0 1/3 0   0 0 1/2 0 y y y 2 0 0 0 0  − − 0  0  = 0  0 1 −2/3 −1/2  0 − /3  . Valor anterior: u(k) =⇒ Método: u(k+1) =⇒ Valor siguiente: αu(k+1) + (1 − α) u(k) para un factor de peso α = 0.6) (u(k+1) )i = α aii i −1 MANUALES UEX bi − j =1 ∑ aij (u(k) ) j − ∑ n aij (u(k) ) j + (1 − α)(u(k) )i j = i +1 para i = 1. por los criterios de convergencia para métodos iterativos. . α=0 donde (u(k+1) )J es el valor obtenido al realizar una iteración en el método de Jacobi a partir de u(k) . 0 = −1 los radios espectrales de J y de L1 son 0. n. tendríamos: (X.

  u (0) ∈ V  D α arbitrario 1− α α D − E u ( k +1) = + F u(k) + b. Au = b ⇐⇒ D −E u= α D −E α −1 D α −E y N= 1− α α D +F 1−α D+F u+b α 1−α D+F u+ α D −E α −1 ⇐⇒ u = b. Esto conduciría a las ecuaciones ( u ( k +1) ) i = α aii i −1 bi − j =1 ∑ aij (u(k+1) ) j − ∑ n aij (u(k) ) j + (1 − α)(u(k) )i j = i +1 para i = 1. equivalentemente. es u(k+1) = αD −1 (b + Eu(k+1) + Fu(k) ) + (1 − α)u(k) .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Este método. k ∈ N ∪ {0}. en términos matriciales. . . n. k ∈ N ∪ {0} MANUALES UEX 273 lo que conduce al método iterativo de relajación   u(0) ∈ V arbitrario . α Veamos ahora que la solución obtenida mediante el uso iterado de esta fórmula coincide con la del sistema Ax = b. . o equivalentemente. conocido como método de relajación-Jacobi. D − E u ( k +1) = α 1−α D + F u(k) + b. La matriz de A puede ser escrita como A = M − N siendo M= Por tanto.6) es razonable pensar (siguiendo la idea del método de Gauss-Seidel) que los resultados obtenidos se mejorarían si usáramos cada coordenada de u(k+1) desde el primer momento en que se haya calculado. no se utiliza apenas debido a que no constituye una mejora sustancial del método de Jacobi. lo que. Agrupando se tiene que ( D − αE)u(k+1) = ((1 − α) D + αF )u(k) + αb o.3.  u ( k +1) = D α −E −1 1− α α D + F u(k) + D α −E −1 b. . 2. A la vista de las ecuaciones dadas en (X.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La hipótesis (X.3. Nota X. entonces ( M−1 N ) < 1.4) hace que la matriz M = La matriz de este método es D α − E con α = 0 sea invertible. en la situación anterior. sea λ ∈ sp( M−1 N ) y v ∈ V \ {0} un autovector asociado al autovalor λ. Nótese que para α = 1 se tiene el método de Gauss-Seidel.7.3. Demostración. Por otra parte.6. MANUALES UEX Por consiguiente. (X. el método iterativo definido por la matriz B = M−1 N es convergente. El estudio de la convergencia de los métodos iterativos puede ser demasiado prolijo puesto que no existen teoremas que aseguren la convergencia para una clase general de matrices. No obstante.3. aquí presentamos un resultado de carácter general y sendas condiciones de convergencia para el método de relajación y el de Jacobi. que no contenga al origen. En primer lugar.3. Lema X. ( M∗ + N )∗ = M + N ∗ = ( A + N ) + N ∗ = ( A∗ + N ∗ ) + N = ( A + N )∗ + N = M ∗ + N por lo que la matriz M∗ + N es hermítica.7) M−1 Nv = λv. Algunos autores distinguen y denominan sobrerrelajación cuando α > 1 y subrelajación si α < 1. El estudio del método de relajación consiste en determinar (si existen): un intervalo I ⊂ R. Sea A ∈ Mn (k) una matriz hermítica definida positiva escrita como A = M − N con M ∈ Mn (k) invertible. En inglés el método de relajación se conoce como Successive Over-Relaxation method. Lα = D α −E −1 1− α α D + F = ( D − αE)−1 ((1 − α) D + αF ) denominada matriz de relajación. lo que hace coherente la notación L1 para la matriz asociada al mismo. pueden darse resultados parciales para determinados tipos de matrices. un parámetro de relajación óptimo α0 ∈ I tal que (Lα0 ) = inf{ (Lα ) | α ∈ I } Análisis de convergencia. tal que α ∈ I =⇒ (Lα ) < 1. 274 . recogiendo otros resultados en los ejercicios. por ser A hermítica. Si la matriz M∗ + N es definida positiva. es decir. de aquí que en muchas ocasiones se le denomine método SOR.

cuando A es hermítica y definida positiva el método de Gauss-Seidel es convergente. de donde se sigue que |λ| < 1. a partir de (X.3. α = 0. v = M−1 Nv =⇒ Mv = Nv =⇒ Av = ( M − N )v = 0. Como v∗ Av > 0 por ser A definida positiva y v = 0. Teorema de Ostrowski-Reich.3. en caso contrario se obtendría. se verifica que (v − w)∗ ( M∗ + N )(v − w) = (v − w)∗ M∗ (v − w) + (v − w)∗ N (v − w) = ( Mv − Mw)∗ (v − w) + (v − w)∗ ( Nv − Nw) = ( Mv − Nv)∗ (v − w) + (v − w)∗ ( Mw − Nw) = v∗ A∗ (v − w) + (v − w)∗ Aw = v∗ Av − v∗ Aw + v∗ Aw − w∗ Aw = v∗ Av − w∗ Aw por ser A = M − N y M∗ + N matrices hermíticas.8) w = M−1 Nv En primer lugar.3.7). Por otra parte.3. En particular. nótese que w = v.3. Ahora bien. entonces el método de relajación es convergente. Por tanto. En efecto.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA A partir de v construyamos el vector (X. La descomposición A = M − N asociada al método de relajación es D 1−α A= −E − D + F . a partir de (X. Si A ∈ Mn (k) es una matriz hermítica definida positiva y 0 < α < 2.9) v∗ Av − w∗ Aw = (v − w)∗ ( M∗ + N )(v − w) > 0 ya que v − w = 0 y M∗ + N es definida positiva.9) se obtiene que 0 < v∗ Av − w∗ Aw = v∗ Av − (λv)∗ A(λv) ¯ = v∗ Av − (λv∗ ) A(λv) = (1 − |λ|2 ) v∗ Av. (X. (X. α α MANUALES UEX 275 . obteniéndose así el resultado buscado A continuación vamos a dar una condición necesaria y suficiente para la convergencia del método de relajación. lo que contradice que A sea invertible al ser v no nulo.8). Demostración.3.8) y (X. entonces 1 − |λ|2 > 0. como Mw = Nv.

2 Aplicando el lema X. Linear Algebra Appl. Veamos ahora que la condición 0 < α < 2 es necesaria para la convergencia del método de relajación. D 1−α 2−α − E∗ + D+F = D. si A = ( a ) ∈ M (k) es hermítica. . el lector interesado puede encontrar en el artículo [J. α α α de modo que para valores del parámetro 0 < α < 2 se tiene que M∗ + N = v∗ ( M∗ + N )v = 2−α ∗ v Dv > 0 α pues D es definida positiva. . α = 0. ann ) se sigue que v∗ Dv = 276 i =1 ∑ aii |vi |2 > 0. n. n . 28 (1979). Ortega y R. Demostración. a22 . El radio espectral de la matriz de la relajación siempre verifica (Lα ) ≥ |α − 1|. −E 2En efecto. Por tanto. entonces e∗ Ae = a > 0. .7 concluimos el resultado. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Como la matriz A es hermítica se tiene que D − E − F = A = A∗ = D ∗ − E∗ − F ∗ . Teorema de Kahan. . Plemmons Extensions of the Ostrowski-Reich theorem for SOR iterations. . Consecuentemente. para n ij i ii i todo i = 1. en } la base usual de kn . . . 2. Por otra parte. se verifica que D ∗ = D y E∗ = F. . el método de relajación sólo puede ser convergente cuando 0 < α < 2. 177–191] generalizaciones del teorema de Ostrowski-Reich al caso en que A sea hermítica pero no necesariamente definida positiva.J.M.3. como D = diag( a11 . . o al caso en que A + A∗ sea definida positiva pero A no sea hermítica. Identificando en la igualdad anterior los elementos diagonales y los que quedan en la parte triangular inferior y superior de A. Existen extensiones del teorema de Ostrowski-Reich a situaciones más generales. siendo {e1 . Por definición 1− α α D D α MANUALES UEX det(Lα ) = det D −E α −1 1−α D+F α = det det +F . . . por ejemplo.

2.10) det(Lα ) = det det 1− α α D D α 1−α D+F α = det 1−α D α y det D −E α = det D α .7. Así. La matriz de iteración del método de Jacobi J = D −1 ( E + F ) verifica que − aij /aii si i = j. . . n.8. que una matriz A = ( a ) ∈ M (k) es diagonalmente dominante por filas si n ij | aii | > para todo i = 1. λ2 . Demostración. (J )ij = 0 si i = j. . . . . . a partir del teorema VIII.3. . Por otra parte. . matrices A = ( aij ) ∈ Mn (k) diagonalmente dominante por filas3. . En la aplicaciones concretas de los sistemas de ecuaciones lineales aparecen. el método de Jacobi es convergente. Proposición X. Si A ∈ Mn (k) es una matriz diagonalmente dominante por filas. λn } entonces det(Lα ) = λ1 · λ2 · · · λn . = (1− α ) n det( D ) αn 1 αn det( D ) = (1 − α ) n .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Como det entonces (X. i = 1. j =1 j =i ∑ |aij |. usando (X. Estas matrices son invertibles y además.   3Recuérdese. n 1 n n lo que permite concluir que (Lα ) ≥ i =1 ∏ | λi | ≥ |1 − α |. 2. Por tanto. n. aii = 0. se tiene que   |||J |||∞ = m´ x a ∑ 1≤ i ≤ n (J )ij = max1≤i≤n j =1 j =1 j =i ∑ |aii | j =1 j =i ∑ |aij | < 1.3. con mucha frecuencia. . n MANUALES UEX 277 n n | aij |  1 = m´ x  a  | aii | 1≤ i ≤ n n . Para este tipo de matrices se tiene el siguiente resultado de convergencia para el método de Jacobi. si sp(Lα ) = {λ1 .3. .10) se obtiene que i =1 ∏ | λ i | = |1 − α | n .

.3. bn tridiagonal de la     . tanto en el caso convergente como en el divergente. . Comparación de los métodos iterativos.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS De esta forma. Sean µ ∈ k \ {0} y A(µ) ∈ Mn (k) una matriz forma  b1 µ−1 c1  µa2 b2 µ −1 c 2   . por lo que solamente demostraremos el teorema de comparación de los radios espectrales de los métodos de Jacobi y Gauss-Seidel. A(µ) =  . det( A(µ)) = det( A(1)). Los autovalores de la matriz de Jacobi J = D −1 ( E + F ) son las raíces del polinomio ℵJ ( x ) = det( D −1 ( E + F ) − xIn ) que coinciden con la raíces del polinomio qJ ( x ) = det( xD − E − F ) = det(− D ) ℵJ ( x ).. para todo µ ∈ k no nulo. el método de Gauss-Seidel es más rápido que el método de Jacobi.   µan−1 bn−1 µ−1 cn−1 µan Entonces. Veamos a continuación que. aplicando los criterios de convergencia para métodos iterativos.9.   Comparación de los métodos de Jacobi y Gauss-Seidel. 278 . MANUALES UEX de tal forma que los métodos convergen o divergen simultáneamente. . . Demostración. se concluye el resultado. . Sea Q(µ) = diag(µ. Lema X. de donde se sigue el resultado buscado. además.. Se comprueba fácilmente que A(µ) = Q(µ) A(1) Q(µ)−1 . Demostración. Si A es tridiagonal. . Gauss-Seidel y de relajación. se pueden comparar de forma muy precisa los radios espectrales de las matrices de Jacobi. . y nos limitaremos a enunciar el resto de los teoremas. . . en el caso en que la matriz A es tridiagonal. El caso α = 1 es técnicamente más difícil que el caso α = 1. µn ) ∈ Mn (k). entonces los radios espectrales de las correspondientes matrices de Jacobi y de Gauss-Seidel está relacionados por (L1 ) = (J )2 . en caso de convergencia. µ2 .

además.3. Entonces. Comparación de los métodos de Jacobi y de relajación. (Lα0 ) = inf0<α<2 (Lα ) = α0 − 1 < (L1 ) = (J )2 < (J ) si (J ) > 0. 2) → (Lα ) alcanza un mínimo absoluto en α0 = 2 1+ 1 − (J )2 .3-6 de [Cia82]. Véase el teorema 5. se deducen las siguientes implicaciones √ λ ∈ sp(L1 ) no nulo ⇒ ± λ ∈ sp(J ). los autovalores de la matriz de Gauss-Seidel L1 = ( D − E)−1 F son las raíces del polinomio ℵL1 ( x ) = det(( D − E)−1 F − xIn ). en caso de convergencia. Lα0 . Además.9 se sigue que qL1 ( x2 ) = det( x2 D − x2 E − F ) = det( x2 D − xE − xF ) = x n qJ ( x ). entonces α0 = 1 y (L1 ) = (J ) = 0. Gauss-Seidel y de relajación para α ∈ (0. De esta relación funcional.3-5 de [Cia82]. Véase el teorema 5. del lema X. si (J ) = 0.10. 2). convergen o divergen simultáneamente. Demostración. Sea A una matriz tridiagonal tal que todos los autovalores de la matriz de Jacobi correspondiente son reales. Teniendo en cuenta la estructura tridiagonal de la matriz A. y el método de relajación para 0 < α < 2. Uniendo los resultados del Teorema de Kahan y la anterior comparación de métodos. la función α ∈ (0. definida positiva y tridiagonal por bloques.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA De la misma forma. obtenemos un resultado donde se pueden comparar los radios espectrales de las matrices J . existe un único parámetro de relajación óptimo α0 y se tiene que .3. {λ ∈ sp(J ) ⇐⇒ −λ ∈ sp(J )} ⇒ λ2 ∈ sp(L1 ). para todo x ∈ k. son convergentes. el método de Jacobi. L1 . Demostración. MANUALES UEX 279 Corolario X. Entonces los métodos de Jacobi. Sea A una matriz hermítica. De donde se sigue el resultado deseado. pues por continuidad esta expresión también es válida en x = 0. que coinciden con las raíces del polinomio qL1 ( x ) = det( xD − xE − F ) = det( E − D ) ℵL1 ( x ).

(X. no se puede trabajar directamente con esas cantidades. Ante la imposibilidad de calcular todas las iteraciones. entonces. Se llama vector residual k-ésimo de un método iterativo a r(k) := b − Au(k) = A(u − u(k) ). Una condición de parada de las iteraciones más adecuada viene dada a partir del vector residual. b Au 280 . al ser el vector u desconocido. Como ya se ha dicho. menor que la tolerancia admisible ε. El test más sencillo que podemos emplear es detener el proceso cuando la diferencia entre dos iteraciones consecutivas sea.12. u b Demostración. Es una consecuencia directa de la proposición VIII. es decir.3.11) sin que el vector u(k+1) esté próximo a u. k ∈ N ∪ {0}. ˜ En general.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Test de parada de las iteraciones.11) u ( k +1) − u ( k ) < ε u ( k +1) . Si u es una aproximación de la solución u del sistema Ax = b. ˜ Proposición X. la solución del sistema lineal Ax = b se obtiene como límite de la sucesión (u(k) )k∈N de iteraciones. cuando un método iterativo es convergente. A la vista del proposición anterior.3.3. pararemos las iteraciones cuando r(k) Au(k) − Au = < ε. se tiene que ˜ ˜ u − u ≤ ||| A−1 ||| · b − Au y MANUALES UEX ˜ ˜ b − Au u−u ≤ cond( A) . para la norma subordinada ||| · ||| a una norma vectorial · cualquiera. es razonable pensar que si u(k) está próximo a u. Por tanto. el valor de k ∈ N debe cumplir ε k = u(k) − u < ε u para alguna norma vectorial · .11. Con la notación anterior.5. en términos relativos. se plantea el problema de determinar k ∈ N tal que u(k) sea una “buena" aproximación de u. Es decir. Por supuesto. Si embargo. Si u es una aproximación de la solución de Ax = b se llama ˜ vector residual a b − Au. Definición X.2. entonces Au(k) está próximo a b. este test tiene el inconveniente de que puede cumplirse la relación (X.3. si se desea que el error relativo sea inferior a una cantidad prefijada ε > 0.

α (b) En el método de relajación podemos reescribir la iteración como D − E u ( k +1) = α y. para valores de k ∈ N tales que r(k) < ε b . resolviendo a continuación el sistema Dd(k) = r(k) y tomando u ( k +1) = u ( k ) + d ( k ) obtenemos la información necesaria para los test de parada así como la iteración siguiente u(k+1) sin ver incrementado sustancialmente el número de operaciones. debe procurarse que la comprobación de los test de parada no incremente en exceso el número de operaciones necesarias para realizar una iteración. de esta forma. es decir. r En el caso particular del método de relajación se tiene que ˜ (r(k) )i = bi − ( Au (k) )i MANUALES UEX 281 es decir. D ( u ( k +1) − u ( k ) ) = r ( k ) . Veamos cómo organizando los cálculos de forma adecuada esto puede conseguirse tanto en el método de Jacobi como en el de relajación: a) En el método de Jacobi podemos reescribir la iteración cómo Du(k+1) = b + ( E + F )u(k) = b − Au(k) + Du(k) = r(k) + Du(k) . . n}. para cada i ∈ {1. De esta forma calculando en primer lugar el vector r(k) (mediante la fórmula r(k) = b − Au(k) ).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA es decir. D ( k +1) D D ˜ u = Eu(k+1) − Du(k) + Fu(k) + u(k) + b = r(k) + u(k) α α α siendo ˜ r(k) = b − ( D − F )u(k) − Eu(k+1) . . Obviamente. 2. D (u(k+1) − u(k) ) = α˜ (k) . . En el caso particular del método de Jacobi. . se calculan ( r (k ) )i ( d (k ) )i ( u ( k +1) ) i = bi − ∑n=1 aij (u(k) ) j j = (r(k) )i /aii = ( u (k ) )i + ( d (k ) )i 1−α D + F u(k) + b.

De esta forma podemos considerar el método iterativo (X. . donde u ( k ) = ( u ( k +1) )1 .4.2. respectivamente. Es decir. Este método se conoce como el método de Richardson estacionario. k ∈ N ∪ { 0 } . permitiendo que α dependa del índice de iteración. . k ∈ N ∪ {0}. . se consigue el que se conoce como método de Richardson no estacionario MANUALES UEX (X. M = D y M = D − E. n}.3) puede ser generalizado introduciendo un parámetro α de relajación (o aceleración). ( u ( k +1) )2 . simplemente reseñar que las normas vectoriales que suelen emplearse con mayor frecuencia en este tipo de test son · 2 y · ∞ . para cada i ∈ {1. La matriz de iteración en la etapa k-ésima para este tipo de métodos es 282 con αk = α en el caso estacionario. 2.13) u(0) ∈ V arbitrario u ( k +1) = u ( k ) + α k M −1 r ( k ) .3). . . . .11). . . . . .12) u(0) ∈ V arbitrario u(k+1) = u(k) + αM−1 r(k) . . Procediendo como el caso del método de relajación. De forma más general. . Métodos iterativos estacionarios y no estacionarios Como en las secciones anteriores. ( u ( k +1) ) i −1 . (X. de tal modo que consideremos descomposiciones de A de la forma A= 1 αM− N. se calculan ˜ ( r (k ) )i ( d (k ) )i ( u ( k +1) ) i t = bi − ∑ij−1 aij (u(k+1) ) j − ∑n=i aij (u(k) ) j j =1 ˜ = α(r(k) )i /aii = ( u (k ) )i + ( d (k ) )i Para acabar.4. ( u ( k ) ) i . . denotemos por B = In − M−1 A la matriz de iteración asociada con el método iterativo (X.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS para i = 1. .3. . 4. n. ( u ( k ) ) n . Obsérvese que los métodos de Jacobi y Gauss-Seidel se pueden considerar métodos de Richardson estacionarios para α = 1. 2.2. donde r(k) es el k-ésimo vector residual (véase la definición X. Bαk = In − αk M−1 A.

y sólo si.4. De donde se sigue la desigualdad (1 − αRe(λi ))2 + α2 (Im(λi ))2 < 1. que implica de forma clara la desigualdad buscada. αk = α. calcular el parámetro de aceleracion. actualizar el vector residual r(k+1) = r(k) − αk Az(k) .4. 2Re(λi ) > 1. el método de Richardson estacionario no convergerá.12) también) en una forma más apropiada para el cálculo.4. Para cualquier matriz invertible M. . .4. Teorema X.4. Entonces se tiene que u(k+1) = u(k) + αk z(k) y r(k+1) = b − Au(k+1) = r(k) − αk Az(k) . Sea z ( k ) = M −1 r ( k ) el llamado vector residual precondicionado.1. i = 1. Demostración. el método de Richardson estacionario (X. entonces el método de Richardson estacionario MANUALES UEX 283 . α | λ i |2 donde sp( M−1 A) = {λ1 . ≥ λn > 0. n. En este caso se cumple el siguiente resultado de convergencia.13) (y. .12) es convergente si. . . Teorema X. . λn }. En resumen. Se pueden obtener resultados de convergencia más específicos bajo ciertas condiciones sobre el espectro de M−1 A. (X. Obsérvese que si los signos de las partes de reales de los autovalores de M−1 A no son constantes. Equivalentemente. n. Por el momento sólo nos ocuparemos del método de Richardson estacionario. . y sólo si. es decir. Por el criterio de convergencia para método iterativos. para todo k. . . λ1 ≥ λ2 ≥ . cuando |1 − αλi | < 1. actualizar la solución u(k+1) = u(k) + αk z(k) . i = 1. Si M es invertible y M−1 A tiene todos sus autovalores reales positivos. . el radio espectral de la matriz de iteración Bα = In − αM−1 A es estrictamente menor que 1.2. . . tenemos que el método de Richardson estacionario es convergente si.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Podemos escribir (X. un método de Richardson no estacionario requiere en su etapa (k + 1)-ésima las siguientes operaciones resolver el sistema Mz(k) = r(k) . . por lo tanto. .

.3. Por otra parte.1. El lector interesado en profundizar en este tema puede consultar el apartado 4. .4. La expresión óptima del parámetro α dada en el teorema X. resolver el sistema Ax = b es equivalente a calcular el valor mínimo de la forma cuadrática (no homogénea) Φ(x) = 1 t x Ax − xt b 2 MANUALES UEX 284 . Sea A una matriz simétrica definida positiva. . lo que proporciona el valor deseado para αopt . i = 1. k ≥ 0. En primer lugar observamos que. se obtiene el valor de ρopt buscado. Basta observa que A1/2 ε 2 A1/2 ε k . Sin más que sustituir. Un resultado similar se obtiene para cualquier M siempre que M. El método de Richardson estacionario para M = In es convergente y ε ( k +1) A ≤ ρ( Bα ) ε A. |1 − αλi | < 1.2 de [QSS07].14) ρopt = m´n Bα = ı α 2 λ1 + λ n el λ1 − λ n . si 0 < α < 2/λ1 . . Los resultados anteriores ponen de manifiesto que la elección del precondicionador es fundamental en el método de Richardson.12) es convergente si. Los autovalores de Bα son 1 − αλi . n. se comprueba que ρ( Bα ) es mínimo cuando 1 − αλn = αλ1 − 1 (véase la figura 4.4. A y M−1 A sean simétricas y definidas positivas (ejercicio 9). Además. n. si αopt = radio espectral de Bαopt es mínimo: (X. . i = 1. El método del gradiente.2 en [QSS07] p.12) es convergente si. 2 2 1/2 B A−1/2 . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (X.4. es decir. observamos que ε ( k +1) A = Bα ε k A = A1/2 Bα ε k 2 ≤ A1/2 Bα A−1/2 La matriz Bα es simétrica y definida positiva y semejante a lo tanto A1/2 Bα A−1/2 = ρ( Bα ). Corolario X. y sólo si 0 < α < 2/λ1 . La convergencia es consecuencia del teorema X.4.3. 138). el parámetro de aceleración óptimo se puede calcular dinámicamente en cada etapa k como sigue. A α Por = ε A. para las matrices simétricas definidas positivas. es decir. Además. λ1 + λ n Demostración. puesto que requiere el conocimiento del mayor y el menor autovalor de M−1 A.4. para α = 2/(λ1 + λn ). Demostración.2 es de un uso muy limitado en casos prácticos. . . y sólo si. para obtener la desigualdad buscada. luego (X. En el caso especial de las matrices simétricas definidas positivas.4.

De este modo. Por otra parte. La idea más natural es tomar la dirección descendiente de mayor pendiente Φ(u(k) ). seleccionar las direcciones apropiadas que nos permitan aproximarnos a la solución tanto como queramos. en determinar el valor mínimo u de Φ a partir de un punto u(0) ∈ Rn .4. entonces 1 Φ(u) = Φ(u + (v − u)) = ψ(u) + (v − u)t A(v − u). por consiguiente. obtenemos que el valor buscado de α es Φ ( u ( k +1) ) = (X. el gradiente de Φ es 1 (X. es decir. u es el mínimo de la función Φ. 2 Derivando respecto de α e igualando a cero el resultado. si Φ(u) = 0. Esto demuestra que el método del gradiente se mueve en cada etapa k a lo largo de la dirección d(k) = r(k) . En efecto. entonces u es solución del sistema original. El valor óptimo de la dirección que une el punto de partida u(0) con la solución u es obviamente desconocido a priori. 2 para todo u ∈ Rn . si u es solución.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA que se denomina energía del sistema Ax = b. Por consiguiente. lo que produce el llamada método del gradiente.17) ( r ( k ) )t r ( k ) αk = (k) = (r )t Ar(k) r(k) r(k) 2 2 A MANUALES UEX 285 .4. Por consiguiente. según (X.15). Φ(u(k) ) = Au(k) − b = −r(k) . si u = v.16) u ( k +1) = u ( k ) + α k d ( k ) . u(k+1) se calcula como (X. donde αk es el valor que fija la longitud de la dirección d(k) .4. Nótese que la relación anterior es equivalente a 1 v − u 2 = Φ ( v ) − Φ ( u ). la dirección del gradiente de Φ coincide con la del vector residual y puede ser calculada usando u(k) . pues. A 2 donde · A es la norma asociada al producto escalar cuya matriz respecto de la base usual de Rn es A. es decir. debemos de dar un paso desde u(0) en una dirección d(0) que nos permita fijar un nuevo punto u(1) desde el cual iterando este proceso alcancemos u. Para calcular el parámetro α escribamos explícitamente Φ(u(k+1) ) como una función del parámetro α 1 (k) (u + αr(k) )t A(u(k) + αr(k) ) − (u(k) + αr(k) )t b. en la etapa genérica k-ésima.15) Φ(x) = ( At + A)x − b. 2 Como consecuencia. El problema consiste. y por tanto Φ(v) > Φ(u).4.

donde λ y λ son los auton n 2 1 1 286 valores mayor y menor de A. ε(k+1) A ≤ ε E A lo que completa la demostración.17) para evaluar el parámetro de aceleración. Teorema X. . con γ ∈ R. y sea u E igual al vector generado al aplicar el método de Richardson estacionario para M = In con el parámetro óptimo a partir de u(k) . hasta la convergencia. . para k = 0. Demostración.3 y por la igualdad (X. podemos determinar un parámetro αk que minimize la función Φ(u(k) + αp(k) ). un mínimo local para Φ en esa dirección. Sea A una matriz simétrica y definida positiva. por (X. 1 . Por el corolario X.16). . respectivamente (véase la nota VIII. 4Recuérdese que. . cond ( A) = λ /λ . el método de Richardson no estacionario que emplea (X. u(k) + αopt r(k) . el método del gradiente se puede describir como sigue: dado u(0) ∈ Rn . 1. El método del gradiente consiste esencialmente en dos fases: elegir una dirección descendente (−r(k) ) y seleccionar. Por esta razón. ( k +1) Por consiguiente.4. . Resumiendo. tenemos que el vector u(k+1) . donde ε k = u(k) − u es el error cometido en cada iteración. Además. El método del gradiente es convergente para cualquier elección del dato inicial u(0) y ε ( k +1) A ≤ cond2 ( A) − 1 ε cond2 ( A) + 1 k A.4. para distinguirlo del método de Richardson estacionario o método del gradiente con parámetro constante. generado por el método del gradiente. se conoce como método del gradiente con parámetro dinámico o método de gradiente. dada una dirección p(k) . . .4.14). es decir. es el que minimiza la norma · A del error entre todos los vectores de la forma u(k) + γr(k) . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS que depende exclusivamente del vector residual en la etapa k-ésima.4.7). tenemos que4 εE ( k +1) ( k +1) ( k +1) ( k +1) ≤ cond2 ( A) − 1 ε cond2 ( A) + 1 k MANUALES UEX donde ε E = uE − u. cuando A es simétrica. Sean u(k) las solución generada por el método del gradiente en la etapa k-ésima. mediante la elección del parámetro αk .4.3. ya que. k = 0. La segunda fase es independiente de la primera.4. calcular r(k) = b − Au(k) αk = r(k) r(k) 2 2 A u ( k +1) = u ( k ) + α k r ( k ) .

MANUALES UEX 287 . . .3. La principal ventaja de este método es que ha de finalizar en n etapas (en aritmética exacta) ya que como sabemos el número máximo de vectores A-ortogonales en Rn es n. 5Obsérvese que en el método de gradiente dos direcciones consecutivas r(k) y r(k+1) siempre son A-ortogonales. una variante del método del gradiente es el método del gradiente conjugado que consiste esencialmente en elegir la sucesión de direcciones descendentes de la siguiente manera: p(0) = r(0) y p(k+1) = r(k+1) − β k p(k) . El lector interesado en los detalles del método del gradiente conjugado puede consultar el apartado 4. . . 1. de tal forma que las direcciones p(0) .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA En este sentido. . . sean mutuamente A-ortogonales5 y a continuación determinar el parámetro αk que minimize la función Φ(u(k) + αp(k) ). . k = 0. p(k+1) . 1. . .4 de [QSS07]. . . . k = 0.

Proporcionar una condición suficiente sobre β tal que los métodos de Jacobi y Gauss-Seidel converjan cuando se apliquen a la resolución de un sistema cuya matriz es A= −10 2 β 5 . Estudiar la convergencia de los métodos de Jacobi. Sea A ∈ Mn (k) una matriz hermítica e invertible descompuesta en la forma A = M − N con M invertible. Ejercicio 5. si 0 < α < 1 y λ ∈ k con |λ| ≥ 1. . . entonces 1−α−λ ≥ 1. Gauss-Seidel y de relajación para A. Idem si A es triangular inferior. Ejercicio 2. Probar que MANUALES UEX 1. . se considera el método iterativo u(k+1) = Bu(k) + c. Estudiar el comportamiento de la sucesión (u(k) ) cuando ( B) = 0. Ejercicio 3. 1 0 con ∈ R. Demostrar que si A = ( aij ) ∈ Mn (k) verifica | a jj | > i =1 i=j ∑ |aij | para j = 1. Sea A ∈ Mn (k) una matriz triangular superior. Ejercicio 7.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios del tema X Ejercicio 1. 288 . Ejercicio 4. . si A es de diagonal estrictamente dominante. λα 2. Ejercicio 6. entonces el método de Jacobi para A es convergente. n. Analizar las propiedades de convergencia de los métodos de Jacobi y Gauss-Seidel para la resolución de un sistema lineal cuya matriz es   0 1 A = 0 0 . A partir de un vector u(0) ∈ V dado. Sea A ∈ Mn (k). el método de relajación para A es convergente si 0 < α ≤ 1.

Sean A. 2. Ejercicio 9. entonces la sucesión ((u(k) )∗ Au(k) ) es monótona creciente. Construir matrices para las cuales el método de Jacobi asociado sea convergente y el método de Gauss-Seidel diverja y recíprocamente. M y M−1 A matrices simétricas definidas positivas. entonces A es definida positiva. Demostrar que si M∗ + N es definida positiva y ( M−1 N ) < 1. Ejercicio 8. MANUALES UEX 289 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. Se considera la sucesión u(k+1) = M−1 Nu(n) con u(0) ∈ V \ {0} arbitrario. Probar que el método de Richardson estacionario es convergente y ε ( k +1) A ≤ ρ( Bα ) ε A. k ≥ 0. Probar que si la matriz M∗ + N es definida positiva.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 290 .

veremos que cada una de las columnas de las matrices Uk forma una sucesión convergente de vectores que converge a un autovector de la matriz A. . Una observación previa digna a tener en cuenta es que debido a la imposibilidad de resolver por radicales de forma exacta una ecuación polinómica de grado mayor o igual que 5 (Teorema de Abel) es igualmente imposible calcular los autovalores de una matriz de orden mayor o igual que 5 mediante métodos directos. . y (eventualmente) todos los autovectores de una matriz simétrica1. el método QR revela la misma idea. para cualquier tipo de matrices. que viene 1Recuérdese que las matrices simétricas son diagonalizables con matriz de paso ortogonal (véase el teorema V. Para calcular aproximaciones numéricas de los autovalores de una matriz − A ∈ Mn (k). Esta idea es la base del método de Jacobi que estudiaremos en la primera sección del tema.3).5. . . λ2 . En este caso. Utilizando en cada iteración la factorización QR de la matriz − Uk 1 AUk obtenida. a una matriz diagonal o a una triangular. ı k→∞ donde los números reales λi son los autovalores de la matriz A. demostraremos que − l´m Uk 1 AUk = diag(λ1 . Además.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA XI Métodos iterativos para el cálculo de autovalores (y autovectores) E n este tema damos una breve semblanza de los métodos iterativos para el cálculo de los autovalores (y autovectores) de una matriz. al tratarse esencialmente del mismo problema. se suele construir una sucesión de matrices Uk 1 AUk convergente a una matriz cuyos autovalores sean conocidos. En general. λn ). cuando estos últimos son todos distintos. Este método se emplea cuando buscamos aproximaciones de todos los autovalores. MANUALES UEX 291 . por ejemplo. Las matrices Uk consideradas serán productos de matrices ortogonales elementales muy fáciles de construir. se obtiene un método iterativo general (y no sólo válido para las matrices simétricas). En la segunda sección sólamente consideraremos el caso de las matrices reales con todos sus autovalores reales.

MANUALES UEX converge a una matriz ortogonal cuyas columnas forman una base ortonormal de autovectores de la matriz A. en este tema sólo hemos entreabierto la puerta al estudio de los métodos iterativos para el cálculo de autovalores y autovectores. ya que este método se caracteriza por su eficiencia a la hora de calcular el autovalor de mayor o menor módulo. al final de la sección mostramos cómo se pueden calcular los autovalores bajo ciertas condiciones. Por el momento no nos preocuparemos de la elección efectiva de la pareja ( p. siguiendo un proceso bastante simple que vamos a describir y a estudiar a continuación. k ≥ 1.1) Uk := Q1 Q2 · · · Qk . Esto es a menudo suficiente si lo que nos interesa es conocer el radio espectral de una matriz dada. . El principio de cada transformación Ak −→ Ak+1 = Qt Ak Qk . Además. 292 . conviene advertir que esta condición es puramente técnica a afecto de simplificar nuestra breve introducción a los métodos iterativos para el cálculo de autovalores. . k consiste en anular dos elementos extradiagonales de la matriz Ak en posición simétrica. La sección finaliza con un pequeño análisis sobre la convergencia del método de la potencia y mostrando un método recurrente para el cálculo de pares autovalor/autovector a partir de pares previamente calculados.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS a ser completamente análogo al caso de las matrices complejas. k ≥ 1. λ2 . En la última sección estudiamos el método de la potencia para el cálculo de autovalores y autovectores. El lector interesado en profundizar en este tema puede comenzar con el capítulo 6 de [QS06]. λn ). k sea convergente a la matriz D = diag(λ1 . aunque quizá sería más apropiado decir. salvo permutación de los subíndices. k ≥ 1. Este tema se ha elaborado a partir del capítulo 4 de [QSS07] y usando también algunos aspectos del capítulo 6 de [Cia82]. 1. . Así mismo. En todo caso.1. q). . Como se ha comentado. ( Ak ) pq y ( Ak )qp . en ciertos casos. El método de Jacobi Partiendo de una matriz simétrica A1 := A ∈ Mn (R) el método de Jacobi consiste en construir una sucesión ( Qk )k∈N de matrices ortogonales “elementales" (en un cierto sentido que se determinará en breve) tales que la sucesión de matrices (también simétricas) Ak+1 := Qt Ak Qk = ( Q1 Q2 · · · Qk )t A( Q1 Q2 · · · Qk ). se puede concluir que la sucesión de matrices ortogonales (XI. para el cálculo de un autovalor y un autovector.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Comenzamos con un lema técnico que es la clave del método de Jacobi. Lema XI. π/4]. tal valor es la única solución de la ecuación cotan(2x ) = a pp − aqq 2a pq en (−π/4. q). se puede escribir de la siguiente manera b pp bqp b pq bqq = cos(θ ) sen(θ ) −sen(θ ) cos(θ ) a pp aqp a pq aqq cos(θ ) sen(θ ) −sen(θ ) cos(θ ) . Además.2) Q = In + R. Ahora.j=1 ∑ n a2 . en particular. existe un único valor de θ en (−π/4. entonces (a) B es simétrica y ||| B||| F = ||| A||| F . ij (b) La transformación de los elementos de índices ( p. θ un número real y (XI. Si A = ( aij ) ∈ Mn (R) es una matriz simétrica y B = Qt AQ = (bij ) ∈ Mn (R). p) y (q. n n i.1. Por otra parte. luego. se sigue que i. (q.14). 0) ∪ (0. para este valor de θ se cumple que 2 ∑ bii = ∑ a2 + 2a2 . Sean p y q dos números enteros tales que 1 ≤ p < q ≤ n. π/4] tal que b pq = 0. j)-ésima a   cos(θ ) − 1 si i = j = p ó i = j = q   sen(θ ) si i = p y j = q rij =  −sen(θ ) si i = q y j = p   0 en otro caso. pq ii i =1 n n i =1 Demostración. pues Bt = ( Qt AQ)t = Qt At Q = Qt AQ = B. ( p. ij (b) si a pq = 0. es decir.1. donde R ∈ Mn (R) tiene como entrada (i. (a) Es claro que B es simétrica. como la norma de Fröbenius es invariante por transformaciones unitarias (véase la proposición VIII.2.1. MANUALES UEX 293 .j=1 ∑ n 2 bij = ||| B||| F = ||| Qt AQ||| F = ||| A||| F = i.j=1 ∑ a2 .j=1 ∑ 2 bij = i. 0) ∪ (0. q). es unitaria. se comprueba fácilmente que la matriz Q es ortogonal. p).

0) en el primer intervalo y [0. Por otra parte. Finalmente. Luego. y su imagen es (−∞. tal valor de θ siempre existe y es único ya que la función y = cotan(2x ) es continua y estrictamente decreciente en los intervalos (−π/4. 2 se sigue que si θ se pudiese elegir tal y como se indica en el enunciado. +∞) en el segundo. 0) y (0. la función y = cotan(2x ) − aqq − a pp 2a pq corta al eje OX en un único punto. tendríamos que a pq cos(2θ ) + b pq = bqp = 0 y por lo tanto que 2 b2 + bqq = a2 + a2 + 2a2 . pp pq pp qq pq para todo valor de θ.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS de tal forma que el mismo razonamiento que el apartado (a) nos permite asegurar que 2 b2 + bqq + 2b2 = a2 + a2 + 2a2 . como aii = bii para todo i = p e i = q. pq ii i =1 n n Nota XI. i) La matriz Q es ortogonal para todo θ ∈ R. π/4]. como b pq = bqp es a pp − aqq sen(2θ ). De forma más 294 .1.2. ii) Solamente las filas y columnas p-ésima y q-ésima de la matriz A son modificadas por la transformación A → B = Qt AQ. pp pp qq pq Pero. concluimos que MANUALES UEX i =1 2 ∑ bii = ∑ a2 + 2a2 .

q . 0) ∪ (0. para todo θ ∈ R se tiene que bij = b ji es igual a  aij si i = p. q    a pj sen(θ ) + aqj cos(θ ) si i = q y j = p. q y j = p. q    a c − a s si i = p y j = p. π/4]. los elementos de la matriz B son. MANUALES UEX 295 La fórmula dadas en ii) para los elementos de B se pueden escribir de la forma siguiente   aij si i = p. q      a pj cos(θ ) − aqj sen(θ ) si i = p y j = p. iii) Gracias a las relaciones existentes entre las funciones trigonométricas. t0 = tan(θ ) con |θ | ≤ π/4. Ahora ya estamos en disposición de describir la etapa k-ésima del método de Jacobi. determinados por relaciones algebraicas obtenidas a partir de los elementos de A.   a pp − a pq t0 si i = j = p   a +a t  qq pq 0 si i = j = q    0 si i = p y j = q . c= 1 1 + t2 0 t0 1 + t2 0 (= cos(θ )) (= sen(θ )). q  pj  qj   a pj s + aqj c si i = q y j = p. q y j = p. a pesar de las apariencias. para ello. 2a pq   la raíz de menor módulo  si x0 = 0 del polinomio t2 + 2x0 t − 1 t0 =   1 si x0 = 0 es decir. q bij = b ji = . 2 ( θ ) + a sin2 ( θ ) − a sin(2θ ) si i = j = p  qq pq  a pp cos   a pp sin2 (θ ) + aqq cos2 (θ ) + a pq sin(2θ ) si i = j = q    a −a  si i = p y j = q a pq cos(2θ ) + pp 2 qq sin(2θ ) para todo θ ∈ R. calculemos los siguientes números reales: aqq − a pp x0 = (= cotan(2θ )). s= cuando el valor de θ es la única solución de la ecuación a pp − aqq cotan(2x ) = 2a pq en (−π/4.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA precisa. y finalmente.

. 0) ∪ (0. En este caso vamos recorriendo todos los elementos extradiagonales mediante un barrido cíclico.1. . . (2. . pues parece inútil anular aquellos elementos extradiagonales cuyo valor absoluto sea muy pequeño. q) con el siguiente orden (1.1 basta tomar Qk de la forma (XI. q) tales que | a• | < ε.1. 2).2) con θ ∈ (−π/4. La principal desventaja del método de Jacobi clásico es el coste en tiempo que supone la búsqueda del elemento extradiagonal de mayor absoluto en la matriz Ak . se puede construir una matriz ortogonal Qk ∈ Mn (R) tal que A k +1 = Q t A k Q k k con a pq ( k +1) (k) = aqp ( k +1) = 0. Método de Jacobi con umbral. por ejemplo. Procedemos como en el método de Jacobi cíclico. depende de k. q) con p = q tal que a pq = 0. . Método de Jacobi cíclico. π/4] verificando la ecuación cotan(2x ) = a pp − aqq 2a pq (k) (k) (k) . Demostración. mientras existan otro elementos de orden elevado.q cierto número real ε > 0 dado. (1. q) se elige de tal forma que | a pq | = m´ x | aij |. sucesivamente aunque usando siempre el mismo. n).3. . (2. 3). es decir. La pareja ( p. (n − 1. a i=j (k) (k) Entiéndase que la elección pareja ( p. En particular. A continuación distinguiremos tres estrategias para la elección de la pareja ( p. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS (k) Proposición XI. q). . . q) va variando en cada una de las etapas.1. MANUALES UEX Naturalmente. pasamos al siguiente (desde el punto de vista matricial esto equivale a tomar Qk = In ). si en la etapa k-ésima el elemento a pq es cero. Método de Jacobi clásico. elegimos las parejas ( p. Por el lema XI. para un p. 3). pero saltándonos aquellas parejas ( p. (1. Dada la matriz Ak = ( aij ) ∈ Mn (R) y fijado un par ( p. . n). . sp( Ak+1 ) = sp( Ak ). (k) 296 . n). .

. . Análisis de convergencia. designaremos por Sn al conjunto de todas las permutaciones del conjunto {1. . y k→∞ (k) (k) l´m Ak = diag(λσ(1) . necesitamos recordar el siguiente resultado sobre espacios normados que desempeñará un papel crucial en las demostraciones de los dos teoremas siguientes. Lema XI. Si (vn )n∈N ⊂ V es una sucesión acotada tal que (a) (vn )n∈N posee un número finito de puntos de acumulación. . aunque nos restringiremos al caso más sencillo (es decir.4.1. A continuación vamos a estudiar la convergencia del método de Jacobi. λ2 . · ) un espacio normado de dimensión finita.1. la sucesión ( Ak )k∈N es convergente. ı entonces la sucesión (vn )n∈N es convergente (a un único punto de acumulación). . Independientemente de la estrategia (e incluso del método) elegida. Demostración. 2. obtendríamos que la reducción a una matriz diagonal se podría realizar en un número finito de iteraciones. λn ∈ R los autovalores de A.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota XI. para todo k ≥ 1. . Para evitar situaciones triviales.1. Henrici y de H.5. al método clásico) y sin preocuparnos por la estimación de errores. Sea (V. . En la página 114 de [Cia82] se pueden encontrar las referencias a algunos trabajos de P. λσ(n) ) ı para alguna permutación σ ∈ Sn . Teorema XI. esto es el grupo simétrico n-ésimo. En otro caso. lo que no es posible en general. j)-ésima de la matriz Ak . . λσ(2) . Antes de demostrar el teorema de convergencia de los autovalores para el método de Jacobi clásico.M van Kempen realizados entre 1958 y 1968 sobre la convergencia de los métodos de Jacobi clásico y cíclico. La demostración se propone como ejercicio a lector. a Como es habitual. Al igual que antes. n}. Con la notación anterior. . .P. (b) l´mn→∞ vn+1 − vn = 0. siendo λ1 . denotaremos aij a la entrada (i. es muy importante tener en cuenta que los elementos anulados en una etapa dada puede ser reemplazados por elementos no nulos en una etapa posterior. Sea A ∈ Mn (R) una matriz simétrica y ( Ak )k∈N ⊂ Mn (R) la sucesión de matrices simétricas obtenidas mediante la aplicación del método de Jacobi clásico. . a partir de ahora supondremos que m´ xi = j | aij | > 0.6. . MANUALES UEX 297 .

. . que han de ser de la forma diag(λσ(1) . En primer lugar. ann ). se tiene que l´mk→∞ Ak = ı l´mk→∞ Dk . ı de modo que. λσ(2) . ı Según lo anterior. λσ(n) ) para alguna permutación σ ∈ Sn . ı Los números (k) ε k := ∑ | aij |2 = |||Ck |||2 . ya que hay n(n − 1) elementos extradiagonales. escribiremos Ak = ( aij ) = Dk + Ck con Dk := diag( a11 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. Dado un entero k ≥ 1. Combinando estas expresiones.1. . Demostremos en primer lugar que l´mk→∞ Ck = 0. F i=j (k) (k) (k) (k) verifican. . que ε k+1 = ε k + 2| a pq |2 . como det( Ak − xIn ) = det( A − xIn ). para todo k ≥ 1. En efecto. ||| Ak ||| F = ||| A||| F . . k ≥ 1. . luego. k ≥ 1. (k) (k) de donde se sigue que l´mk→∞ ε k = 0. λσ(n) ) para algún σ ∈ Sn . Si ( Dk )k∈N es una subsucesión de ( Dk )k∈N convergente a una matriz D. que ε k ≤ n(n − 1)| a pq |2 . . por el lema XI. y. De modo que basta demostrar que la sucesión ( Dk ) es convergenı te a diag(λσ(1) . observamos que la sucesión ( Dk ) es acotada. por el lema XI. se tiene que ℵ D ( x ) = det( D − xIn ) = l´m det( Ak − xIn ) = l´m ℵ A ( x ). considerando los coeficientes de los polinomios característicos. Veamos ahora que la sucesión ( Dk )k∈N tiene un número finito de puntos de acumulación. ||| Dk ||| F ≤ ||| Ak ||| F = ||| A||| F .1(b). a22 . se obtiene que ε k +1 ≤ 1− 2 n ( n − 1) εk. . como Ak = Dk + Ck . entonces se tiene que k→∞ MANUALES UEX l´m Ak = D ı con Ak = Dk + Ck y k→∞ l´m Ck = 0. λσ(2) .1. .1. ı ı k→∞ k→∞ k 298 Pero. por la estrategia adoptada por el método de Jacobi clásico. . . . y habremos terminado. .

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

para todo k pues sp( Ak ) = sp( A), concluimos que las matrices A y D = l´mk→∞ Dk tienen los mismos autovalores con idénticas multiplicidades. Por ı consiguiente, como D es una matriz diagonal (por ser límite de una sucesión de matrices diagonales), existe una permutación σ ∈ Sn tal que D = diag(λσ(1) , λσ(2) , . . . , λσ(n) ). La siguiente etapa en nuestra demostración consiste en ver que l´mk→∞ ( Dk+1 − ı Dk ) = 0. Para ello, observamos que  0 si i = p, q   ( k +1) (k) ¯ (k) −tan(θk ) a pq si i = p aii − aii =   ¯ (k) si i = q tan(θk ) a pq Como π (k) y | a pq | ≤ |||Ck ||| F 4 se concluye que l´mk→ ( Dk+1 − Dk ) = 0, al ser l´mk→∞ Bk = 0. ı ı ¯ |θk | ≤ De todo lo anterior, por el lema XI.1.5, se sigue que la sucesión ( Dk )k∈N es convergente, y necesariamente l´mk→∞ Dk = diag(λσ(1) , λσ(2) , . . . , λσ(n) ), ı para alguna permutación σ ∈ Sn . Terminamos esta sección mostrando un resultado sobre la convergencia del método de Jacobi para el cálculo de aproximaciones de los autovectores de una matriz simétrica con todos sus autovalores distintos. En primer lugar, recordemos que
t Ak+1 = Qt Ak Qk = Qt Qt −1 Ak−1 Qk−1 Qk = . . . = Uk AUk , k k k

donde Uk = Q1 Q2 · · · Qk . Teorema XI.1.7. Con la notación anterior, si todos los autovalores de la matriz A son distintos, entonces la sucesión (Uk )k∈N de matrices ortogonales converge a una matriz cuyas columnas forman un sistema ortonormal de autovectores de A. Demostración. En primer lugar, como todas las matrices Uk son ortogonales (y, en particular, unitarias) se tiene que Uk 2 = 1. Luego, la sucesión (Uk )k∈N es acotada. Veamos que la sucesión (Uk ) tiene un número finito de puntos de acumulación, que han de ser de la forma v σ (1) | v σ (2) | . . . | v σ ( n ) ∈ M n ( R ) , σ ∈ Sn ,

donde v1 , v2 , . . . , vn ∈ Rn son los vectores columna de la matriz ortogonal Q ∈ Mn (R) dada por la relación Qt AQ = diag(λ1 , λ2 , . . . , λn ).

MANUALES UEX
299

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Sea (Uk )k∈N una subsucesión de (Uk )k∈N convergente a una matriz (ortogonal) U . Según el teorema anterior, existe una permutación σ ∈ Sn tal que diag(λσ(1) , λσ(2) , . . . , λσ(n) ) = l´m Ak = l´m ((Uk )t AUk ) = (U )t AU , ı ı
k→∞ k→∞

lo cual demuestra nuestro aserto. Obsérvese que la hipótesis referente a que los autovalores de A son todos distintos se utiliza como hecho esencial para concluir la existencia de un número finito de puntos de acumulación. Finalmente demostremos que l´mk→∞ Uk+1 − Uk = 0. Por construcción, ı θk verifica tan(2θk ) = 2a pq
(k) aqq (k) (k) − a pp

,

|θk | ≤

π . 4

Usando el teorema anterior y de nuevo el hecho de que todos los autovalores de A son distintos, concluimos la existencia de un entero l tal que k ≥ l ⇒ | aqq − a pp | ≥
(k) (k) (k) (k)

1 min|λi − λ j | > 0 2

(como las parejas ( p, q) varían en cada etapa m, no podemos afirmar que las sucesiones ( a pp )k∈N y ( aqq )k∈N sea convergentes). Sin embargo, como l´mk→∞ a pq = 0, tenemos que ı
k →0

(k)

l´m θk = 0, ı

y por tanto que

k→∞

l´m Qk = In ı

(recuérdese que la expresión dada de la matriz Qk depende de θ). Por consiguiente, Uk+1 − Uk = Uk ( Qk+1 − In ), de donde si sigue que l´mk→∞ Uk+1 − Uk = 0 al ser (Uk )k∈N una sucesión ı acotada. Ahora ya tenemos todos los ingredientes necesarios para aplicar el lema XI.1.5 y terminar la demostración.

MANUALES UEX

2.

El método QR

300

En esta sección mostraremos el método QR para calcular aproximaciones de los autovalores y los autovectores de una matriz cuadrada con entradas reales que tenga todos sus autovalores en R. El caso de las matrices con entradas complejas es esencialmente similar, sólo que habría que adaptar la factorización QR a este caso, tomando Q unitaria en vez de ortogonal. El lector interesado en conocer los detalles del caso complejo puede consultar la sección 6.3 de [Cia82].

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Sea A ∈ Mn (R). Dada una matriz ortogonal Q0 ∈ Mn (R) definimos T0 = Qt AQ0 . Para cada k = 1, 2, . . . , el método QR consiste en: 0 determinar Qk y Rk tales que (XI.2.3) Qk Rk = Tk−1 entonces, sea Tk = Rk Qk En cada etapa k ≥ 1, la primera fase del método es la factorización QR de la matriz T (k−1) (véase el teorema IX.4.5). La segunda fase es simplemente el cálculo de un producto de matrices. Obsérvese que Tk = Rk Qk = Qt ( Qk Rk ) Qk = Qt Tk−1 Qk = . . . k k (factorización QR);

= ( Q0 Q1 · · · Q k )t A ( Q0 Q1 · · · Q k ),

k ≥ 0,

es decir, Tk es congruente con A con matriz de paso ortogonal. Esto es particularmente interesante para garantizar la estabilidad del método, ya que el número de condición de Tk no será peor que el de A (véase la la nota VIII.3.7(d)). Una implementación básica del método QR consiste en tomar Q0 igual a la matriz identidad de orden n, de tal forma que T0 = A. En cada etapa k ≥ 1 la factorizción QR de la matriz T (k−1) se puede calcular usando el algoritmo descrito en el teorema IX.4.5, cuyo coste computacional es del orden de 2n3 operaciones. En el capítulo 5 de [QSS07] se pueden encontrar otras implementaciones, así como variantes, del método QR. En el caso que nos ocupa, Q0 = In , se tiene el siguiente resultado de convergencia: Proposición XI.2.1. Sea A ∈ Mn (R) invertible y tal que sus autovalores son reales y son diferentes en módulo |λ1 | > |λ2 | > . . . > |λn |. Entonces   λ1 t12 . . . t1n  0 λ2 . . . t2n    l´m Tk =  . ı . . . .. . .   . k→∞ . . . . 0 0 ... λn Además, si A es simétrica la sucesión { Tk }k∈N tiende a una matriz diagonal. Demostración. Para la demostración, véase el teorema 6.3-1 de [Cia82]. Las hipótesis de la proposición anterior puede verificarse a priori usando los círculos de Gerhsgorin (véase la sección 5.1 de [QSS07] o el apartado 6.3 de [QS06]). No obstante, si los autovalores, aún siendo distintos, no están bien separados, puede ocurrir que la convergencia sea demasiado lenta, ya que

MANUALES UEX
301

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS
(k)

|ti, i−1 | es del orden de |λi /λi−1 |k , i = 2, . . . , n, para k suficientemente alto (véase la Propiedad 5.9 de [QSS07]).
Supongamos ahora que tenemos una aproximación de la igualdad Qt AQ = T siendo T triangular superior. Entonces, si Ax = λx, se tiene que Qt AQQt (λx), es decir, tomando y = Qt x, se cumple que Ty = λy. Por tanto, y es un autovector de T, luego para calcular los autovalores de A podemos trabajar directamente con la matriz T. Supongamos por simplicidad que λ = tkk ∈ C es un autovalor simple de A. entonces la matriz triangular superior T se puede descomponer como   T11 v T13 T =  0 λ wt  , 0 0 T33 donde T11 ∈ Mk−1 (C) y T33 ∈ Mn−k (C) son matrices triangulares superiores, v ∈ Ck−1 , w ∈ Cn−k y λ ∈ sp( T11 ) ∪ sp( T33 ). De esta forma tomando y = (yt −1 , y, yt −k ), con yt −1 ∈ Ck−1 , y ∈ C e k n k t yn−k ∈ Cn−k , el sistema homogéneo ( T − λIn )y = 0 se puede escribir como   ( T11 − λIk−1 )yk−1 + vy + T13 yn−k = 0 wt y n − k = 0  ( T33 − λIn−k )yn−k = 0 Como λ tiene multiplicidad 1, las matrices T11 − λIk−1 y T33 − λIn−k son invertibles, por consiguiente yn−k = 0 y la primera ecuación se transforma en ( T11 − λIk−1 )yk−1 = −vy. De donde se sigue, tomando y = 1 que una solución del sistema triangular anterior es   −( T1 1 − λIk−1 )−1 v . y= 1 0 El autovector x buscado es, por tanto, x = Qy. 3. El método de la potencia

MANUALES UEX

Sea A ∈ Mn (C) una matriz diagonalizable. Supongamos que los autovalores de A están ordenados como sigue (XI.3.4)

| λ1 | > | λ2 | ≥ . . . ≥ | λ n |.

302

Nótese que, en particular, |λ1 | es distinto de los otros módulos de los autovalores de A, es decir, que λ1 es el autovalor dominante de A. Sea {u1 , . . . , un } una base de Cn tal que u j es un autovector (de norma usual 1, es decir u j
2

=

u∗ u j ) asociado a λ j , j = 1, . . . , n y denotemos j

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

por P a la matriz de orden n cuya columna j-ésima es u j . Obsérvese que para garantizar la existencia de una base de Cn de autovectores de A es fundamental que A sea diagonalizable (véase el teorema III.3.4). Dado un vector inicial arbitrario q(0) ∈ Cn de norma usual 1, consideremos para k = 1, 2, . . . , la siguiente iteración basada en el cálculo de potencias de matrices, comúnmente llamado el método de la potencia: z( k ) (XI.3.5) q(k) ν(k)

= =

Aq(k−1)
2

= z(k) / z(k)

(q(k) )∗ Aq(k) .

Análisis de convergencia. Analicemos la convergencia de (XI.3.5). Por inducción sobre k podemos comprobar que (XI.3.6) q(k) = A k q (0) , A k q (0) 2 k ≥ 1.

Esta relación explica el papel jugado por la potencias de A en el método iterativo descrito. Supongamos que q (0) =
i =1

∑ αi ui
λi λ1
k

n

con αi ∈ C, i = 1, . . . , n. Como Aui = λi ui , i = 1, . . . , n, tenemos que (XI.3.7)
k A k q (0) = α 1 λ 1

u1 + ∑

αi α1 i =2

n

ui

,

k = 1, 2, . . .

q(k) =

k α1 λ1 u1 + v ( k ) k α1 λ1 u1 + v ( k ) 2

= µk

u1 + v ( k ) , u1 + v ( k ) 2

k donde µk es el signo de α1 λ1 y v(k) denota un vector que se tiende a cero cuando k tiende hacia infinito. Cuando k tiende hacia infinito, el vector q(k) se alinea, pues, con la dirección del autovector u1 , y se tiene la siguiente estimación del error en la etapa k-ésima.

MANUALES UEX
303

Como |λi /λ1 | < 1, i = 2, . . . , n, cuando k aumenta el vector Ak q(0) (y por tanto q(k) , por XI.3.6) tiende a poseer una componente significativamente grande en la dirección de u1 , mientras que las componentes en las otras direcciones u j , j = 1, disminuyen. Usando (XI.3.6) y (XI.3.7), obtenemos

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Teorema XI.3.1. Con la notación anterior, si α1 = 0, existe una constante C > 0 tal que (XI.3.8) donde ˜ q(k) = q ( k ) A k q (0) k α1 λ1
n 2

˜ q ( k ) − u1

2

≤C

λ2 λ1

k

,

k ≥ 1,

= u1 + ∑

αi α1 i =2
n

n

λi λ1

k

ui ,

k = 1, 2, . . . ,

Demostración. De (XI.3.7) se sigue que u1 + ∑ αi α i =2 1 λi λ1
k

u i − u1
2

=

i =2 n

i ∑ α1

α

λi λ1 αi α1
2

k

ui
2

i =2

λi λ1 αi α1
2

2k

1/2


que no es más que (XI.3.8) para C =

λ2 λ1

k

i =2

n

1/2

,

n ∑i=2 (αi /α1 )2

1/2

.

˜ La estimación (XI.3.8) expresa la convergencia de q(k) hacia u1 . Por consiguiente, la sucesión de cocientes de Rayleigh ˜ ˜ ( q(k) )∗ A q(k) = (q(k) )∗ Aq(k) = ν(k) (k) 2 ˜ q 2 convergerá a λ1 . Como consecuencia, l´mk→∞ ν(k) = λ1 , y la convergencia ı será más rápida cuanto menor sera el cociente |λ2 |/|λ1 |. Ejemplo XI.3.2. Consideremos la familia de matrices   α 2 3 13  5 11 10 8   , α ∈ R. Aα =   9 7 6 12  4 14 15 1 Queremos aproximar el autovalor con mayor módulo por el método de la potencia. Cuando α = 30, los autovalores de la matriz son λ1 = 39,396, λ2 = 17,8208, λ3 = −9,5022 y λ4 = 0,2854 aproximadamente. El método aproxima λ1 en menos de 30 iteraciones con q(0) = (1, 1, 1, 1)t . Sin embargo, si α = −30 necesitamos más de 700 iteraciones. El diferente comportamiento puede explicarse observando que en el último caso se tiene que λ1 = −30,634 y λ2 = 29,7359. Así, |λ2 |/|λ1 | = 0,9704, que está próximo a la unidad.

MANUALES UEX
304

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

En la sección 5.3 de [QSS07] se puede encontrar un test de parada para las iteraciones del método de la potencia, así como una variante de este método denominado método de la potencia inversa que consiste en aplicar el método de la potencia a la matriz ( A − µIn )−1 donde µ se elige próximo a un autovalor de A. Este método tiene un coste computacional más elevado que el método de la potencia, pero tiene la ventaja de que podemos elegir µ de tal forma que converja a cualquier autovalor de A. La elección de µ para este propósito se puede realizar usando los círculos de Gerhsgorin (véase la sección 5.1 de [QSS07] o el apartado 6.3 de [QS06]), por ejemplo. Los aspectos sobre la implementación de los métodos de la potencia y de la potencia inversa se pueden consultar en el apartado 5.3.3 de [QSS07] o en el capítulo 6 de [QS06]. Deflación. Supongamos que los autovalores de A ∈ Mn (R) está ordenados como en (XI.3.4) y supongamos que el par autovalor/autovector (λ1 , u1 ) es conocido. La matriz A se puede transformar la siguiente matriz particionada en bloques A1 = H AH = λ1 0 bt A2 ,

donde b ∈ Rn−1 , H es la matriz de Householder tal que Hu1 = αu1 para algún α ∈ R y la matriz A2 ∈ Mn (R) tiene los mismos autovalores que A excepto λ1 . La matriz H se puede calcular usando w = u1 ± u1 2 e1 (véase la definición IX.4.1). La deflación consiste en calcular el segundo autovalor λ2 de A aplicando el método de la potencia a A2 (supuesto que |λ2 | = |λ3 |). Una vez que conocemos λ2 , el autovector correspondiente u2 se puede calcular aplicando el método de la potencia inversa a la matriz A tomando µ próximo a λ2 y así sucesivamente con el resto de pares autovalor/autovector (si fuese posible).

MANUALES UEX
305

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Ejercicios del tema XI Ejercicio 1. Aplicar el método de Jacobi a las siguientes matrices:     9 1 −2 1 1 −1 3 4  1  −1 8 −3 −2  4 0 −1   ,  ,  −2 −3  3 7 −1  0 0 −3 

−2 4 −3 −2  , 7 −1  −1 6 y calcular (aproximaciones) de sus autovalores y autovectores.
1  2   3 4 2 1 4 3 3 4 1 2 4 3  , 2  1  9  1   −2 4 1 8 −3 −2 Ejercicio 2. Aplicar el método QR a las matrices del ejercicio 1 y calcular (aproximaciones) de sus autovalores y autovectores. Ejercicio 3. Este ejercicio muestra el método de Jacobi-Corbato, que, a partir del método de Jacobi clásico permite acelerar la busqueda de una pareja ( p, q) verificando a pq
(m)

1 

−2 −1

6 

4

−1 −3

1 

= m´ xi = j aij a
ai
(m)

(m)

.
(m)
iji
(m)

1. Consideremos los vectores am y bm de componentes

= m´ x aij a
j >i

(m)

= a

, i = 1, . . . , n,

bi

(m)

= ji

(m)

, i = 1, . . . , n,

respectivamente. Explicar cómo se pueden construir los vectores am+1 y bm+1 a partir de los vectores am y bm . 2. Deducir un proceso para determinar, a partir de am y bm , una pareja ( p, q) tal que a pq
( m +1)

= m´ x aij a
i=j

( m +1)

.

MANUALES UEX
306

Ejercicio 4. Verificar que el método de la potencia no es capaz de calcular el autovalor de módulo máximo de la matriz siguiente, y explicar porqué:   1/3 2/3 2 3  1 0 −1 2  . A=  0 0 −5/3 −2/3  0 0 1 0 Ejercicio 5. Supongamos que se satisfacen todas condiciones necesarias para aplicar el método de la potencias excepto que α = 0. Probar que en este caso la sucesión (XI.3.5) converge al par autovalor/autovector (λ2 , u2 ). Entonces,

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

estudiar experimentalmente el comportamiento del método calculando el par (λ1 , u1 ) para la matriz   1 −1 2 A =  −2 0 5  6 −3 6

MANUALES UEX
307

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

MANUALES UEX
308

Uno de los ejemplos más importantes de espacio de Hilbert es el espacio L2 de la funciones de cuadrado Lebesgue integrable que se estudiará en la asignatura de teorías de la medida y de la probabilidad. así como el espacio 2 la sucesiones de cuadrado sumable que será el que estudiaremos con cierto detalle en este tema. y la teoría de los espacios de Hilbert es núcleo alrededor del cual el análisis funcional se ha desarrollado. Éstos son los llamados espacios prehilbertianos. En este caso aparentemente no hay una diferencia sustancial con lo estudiado sobre ortogonalidad en el caso de dimensión finita. En la primera sección del tema estudiamos los espacios vectorial dotados de un producto escalar (sin preocuparnos de la dimensión). Los espacios de Hilbert tienen una estructura geométrica bastante rica. el producto escalar define una norma. podremos definir una noción de distancia entre sus vectores. En esta sección definimos este tipo de espacios y mostramos sus propiedades más importantes.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA TEMA XII Espacios de Hilbert l análisis funcional es una de las áreas centrales en la matemática moderna. En la segunda sección nos ocupamos de la ortogonalidad. será el ejemplo fundamental de espacio de Hilbert en esta asignatura. Otro ejemplo. como se verá. a poco que lo E MANUALES UEX 309 . finalizamos el tema estudiando con detalle el ejemplo de los espacios 2 que. Es destacable que. sin embargo. y por lo tanto métrico. es decir. por lo que podremos concluir que todo espacio prehilbertiano es un espacio normado. Tras estudiar algunas propiedades interesantes de la norma y la métrica definidas en los espacios prehilbertiano. ya que son espacios vectoriales dotados de un producto escalar que permite definir el concepto de ortogonalidad. al igual que en el caso de dimensión finita. De hecho el objetivo de este tema se centrará en la construcción de bases ortonormales (en un sentido a precisar que generalice el estudiado en los temas anteriores). Estos espacios de Hilbert han ido apareciendo a lo largo de la asignatura desde el tema V. también importante de espacio de Hilbert es el de espacio vectorial de dimensión finita dotado de un producto escalar.

a saber. . y sólo si. . (u. ¿qué ingrediente nos falta? El ingrediente que nos falta es la numerabilidad: todo espacio vectorial posee una base pero no necesariamente numerable. vn )t y u = (u1 . Para la elaboración de este tema hemos utilizado el capítulo II de [Ber77] y algunas cuestiones puntuales del capítulo 3 de [DP99]. para todo u y v ∈ V. .1. tal que (a) u · v = v · u. para todo λ ∈ k y u y v ∈ V. .1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS pensemos se echa en falta la noción de base ortonormal. un )t ∈ Cn . v2 . . 1. para todo u. (c) (λu) · v = λ u · v. El resultado final del tema será que esencialmente existen dos espacios de Hilbert separables sobre k = R ó C. llamada producto escalar. . Nótese que este espacio prehilbertiano no es más que el espacio vectorial euclídeo Rn con el producto escalar usual que fue estudiado con detalle en el tema V. vn )t y u = (u1 . . Así. un )t ∈ Rn . para todo u ∈ V. .1. u = 0. . el conjugado y traspuesto) de v. . . Téngase en cuenta que en todo espacio vectorial existen bases. v y w ∈ V. v2 . . Espacios prehilbertianos Definición XII. u2 . Recuérdese que este espacio prehilbertiano ya apareció en el tema V cuando comentamos el caso de las matrices hermíticas. (b) (u + v) · w = u · w + v · w. (d) u · u ≥ 0. . . luego. n MANUALES UEX donde v = (v1 . v) → u · v. si. Un espacio prehilbertiano es un espacio vectorial V sobre k junto con una aplicación V × V → k. n 310 donde v = (v1 . . ii) El espacio vectorial Cn es un espacio prehilbertiano con el producto escalar u · v = v∗ u = i =1 ∑ ui vi .2. kn y 2 . lo que nos llevará primero a definir la noción de espacio de Hilbert y posteriormente la de espacio de Hilbert separable. y u · u = 0. . . y que dado una sucesión de vectores linealmente independiente demostramos que podemos calcular un sistema ortogonal que genere el mismo espacio que la sucesión. y v∗ es el adjunto (es decir. todos nuestros esfuerzos hasta el final del tema consistirán en comprender qué condiciones hay que suponer en un espacio prehilbertiano para que exista una base ortonormal. u2 . Ejemplos XII. i) El espacio vectorial Rn es un espacio prehilbertiano con el producto escalar u · v = vt u = i =1 ∑ ui vi .

en un cierto sentido. = {( xn )n∈N | xn ∈ C tales que ∑∞=1 | xn |2 < ∞}. . ∞ con el producto escalar x·y = ¯ ∑ xn yn ∞ n =1 es un espacio prehilbertiano. escribiremos P para denotar un espacio prehilbertiano genérico. vi) El espacio vectorial de las funciones continuas en el intervalo [ a. con el producto escalar x·y = n =1 ∑ xn yn ∞ tiene una estructura de espacio prehilbertiano. donde a < b. n} ⊂ R → C el producto escalar f ·g= t =1 ∑ f (t) g(t) n define una estructura de espacio prehilbertiano. iv) El espacio vectorial V de las sucesiones de números reales casi nulas. Notación XII.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA iii) En el espacio vectorial complejo de las funciones f : {1. . Los axiomas (b) y (c) para un espacio prehilbertiano se pueden expresar como sigue: el producto escalar u · v es aditivo y homogéneo en el primer factor.3. el ejemplo más importante de espacio prehilbertiano. 1La demostración de que 2 MANUALES UEX 311 . . . v) El espacio vectorial de dimensión infinita1 2 = {( xn )n∈N | xn ∈ C tales que n =1 ∑ | x n |2 < ∞ }. esto es el conjunto de sucesiones de números reales x = ( xn )n∈N que son cero a partir de un cierto subíndice. Las dos primeras propiedades recogidas en el siguiente resultado afirman que el producto escalar es aditivo y homogéneo-conjugado en el segundo factor. Obsérvese que. es un espacio n vectorial no es trivial. por lo que la hemos añadido al final de esta sección. con el producto escalar f ·g= b a f ( x ) g( x )dx tiene estructura de espacio prehilbertiano. b]. En lo sucesivo.1. si V es un espacio prehilbertiano cualquiera y L es un subespacio vectorial de V. entonces L también es un espacio prehilbertiano. Tal y como veremos en el siguiente tema este espacio es.

1. en particular. (a) (b) (c) (d) u · (v + w) = u · v + u · w. v = 0. Entonces u+v ≤ u + v . ¯ u · (λv) = λ u · v. para todo u ∈ P . para todo u. v y w ∈ P . (d) (u − v) · w = (u + (−v)) · w = u · w + (−v) · w = u · w + (−1)v · w = u · w − v · w. u · 0 = 0 · u = 0. v y w ∈ P. Definición XII. para todo u y v ∈ P y λ ∈ k. 312 . y sólo si. Desigualdad triangular. cuando v = 0. v = |λ| v . En cuanto al (b). (e) Si u · w = v · w. MANUALES UEX Demostración. entonces u = v.5. (a) Usando los axiomas (a) y (b) de la definición de espacio prehilbertiano. El apartado (a) es inmediato a partir del axioma (d) de la definición de espacio prehilbertiano y de la relación 0 · 0 = 0. (c) u · 0 = u · (0 + 0) = u · 0 + u · 0. Análogamente se demuestra que 0 · u = 0.4. de donde se sigue que u = v. para todo w ∈ P . para todo v ∈ k y v ∈ P . (e) Supongamos que u · w = v · w. por el axioma (d) de la definición de espacio prehilbertiano. de donde se sigue que u · 0 = 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Proposición XII. La otra igualdad se demuestra de forma análoga. para todo w ∈ P .1.6. Sea P un espacio prehilbertiano. Proposición XII. (b) Usando los axiomas (a) y (c) de la definición de espacio prehilbertiano. Veamos finalmente que nuestra definición de norma en un espacio prehilbertiano verifica la desigualdad triangular. (u − v) · (u − v) = 0. y v = 0 si. ¯ basta observar que λv 2 = (λv) · (λv) = λλ (v · v) = |λ|2 v 2 . Sea P un espacio prehilbertiano. En un espacio prehilbertiano P se define la norma de v ∈ P como v := (v · v)1/2 .1. u · (v + w) = (v + w) · u = v · u + w · u = v · u + w · u = u · v + u · w. Demostración. (u − v) · w = u · w − v · w y u · (v − w) = u · v − u · w. Veamos que la definición anterior se ajusta a la definición de norma estudiada anteriormente. Sea P un espacio prehilbertiano. para todo u. (a) (b) v > 0. Entonces (u − v) · w = u · w − v · w = 0. ¯ ¯ u · (λv) = (λv) · u = λv · u = λ v · u = λ (u · v). para todo w ∈ P .

x = ( xn )n∈N de número complejos tales que n =1 p. es evidente que |Re(λ)| ≤ |λ|. ∞ la aplicación x = (∑∞ 1 | xn | p )1/p es una norma. Luego. La desigualdad n= triangular para esta norma es la desigualdad de Minkowski que veremos más adelante. y sustituyendo v por −v. En el tema VIII vimos algunos ejemplos de espacios normados. podemos concluir que todo espacio prehilbertiano es un espacio métrico. Se tiene que u + v 2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v = u 2 + v 2 + (u · v) + (v · u). de la sucesiones ∑ |xn | p < +∞.7.1.8. Demostración. De todo lo anterior se deduce que Corolario XII. MANUALES UEX 313 . Entonces u+v para todo u y v ∈ P . Todo espacio prehilbertiano P tiene una estructura natural de espacio normado determinada por la norma v := (v · v)1/2 . Recuérdese que todo espacio normado (V. Por consiguiente u + v 2 + u − v 2 = 2 u 2 + 2 v 2. v) := u − v . otro ejemplo de espacio normado es el siguiente: Ejemplos XII. Sea P un espacio prehilbertiano. 2 2 2 + u−v = 2( u + v 2 ). que u − v 2 = u 2 + v 2 − (u · v) − (v · u). Aplicando la desigualdad de CauchySchwarz en los pasos adecuados. u+v 2 = u = u ≤ u 2 2 2 + v + v + v 2 2 2 +u·v+v·u = u + 2Re(u · v) ≤ u +2 u 2 2 + v 2 2 +u·v+u·v + v + 2| u · v | v = ( u + v )2 . Demostración.1. i) Sea p un entero positivo. · ) tiene una estructura natural de espacio métrico determinada por la métrica d(u. La norma que hemos definido en un espacio prehilbertiano verifica la siguiente propiedad: Regla del paralelogramo. En el espacio vectorial.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA para todo u y v ∈ P . Si designamos por Re(λ) la parte real de un número complejo λ.

1. es decir. MANUALES UEX 314 . y los prehilberianos lo son. entonces la sucesión un · vn es una sucesión de Cauchy de escalares (y por lo tanto convergente).1) se sigue que su discriminante ha de ser negativo o cero. Entendiendo (v · v)µ2 − 2|u · v|µ + (u · u) como un polinomio de segundo grado en µ. Proposición XII. La segunda parte de la demostración se deja como ejercicio al lector. de la desigualdad (XII. (b) Si (un )n∈N y (vn )n∈N son sucesiones de Cauchy. para todo u y v ∈ P .1) (v · v)µ2 − 2|u · v|µ + (u · u) = (µλv − u) · (µλv − u) ≥ 0. evidentemente el segundo miembro tiende a cero cuando n tiende hacia infinito.1. (a) Si un → u y vn → v. Sea P un espacio prehilbertiano. Terminamos esta sección mostrando un resultado sobre convergencia en espacios prehilbertianos. |un · vn − um · vm | ≤ un − um vn − vm + um vn − vm + un − um vm . entonces (XII. Demostración. (b) Análogamente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Desigualdad de Cauchy-Schwarz. 4|u · v|2 − 4(u · u)(v · v) ≤ 0. está acotada). y concluimos que |u · v|2 ≤ (u · u)(v · v). entonces un · vn → u · v. se tiene que un · vn − u · v = (un − u) · (vn − v) + u · (vn − v) + (un − u) · v. y se da la igualdad cuando u = αv. Si µ ∈ R. se tiene que |un · vn − u · v| ≤ un − u vn − v + u vn − v + un − u v . Sea λ ∈ k tal que |λ| = 1 y λ(v · u) = |v · u|. Empleando la desigualdad triangular del módulo y la desigualdad de Cauchy-Schwarz.1. para todo m y como um y vm están acotados (pues toda sucesión de Cauchy en un espacio normado. |u · v| ≤ u v .9. para α = (u · v)/(v · v ). Entonces. Demostración. (a) Para todo n ≥ 1. el segundo miembro tiende a cero cuando n y m tienden hacia infinito. Sea P un espacio prehilbertiano.

p ≥ 1 al conjunto de todas las sucesiones ( xn ) de números complejos tales que ∑∞ 1 | xn | p < ∞. El conjunto de todas las sucesiones de escalares acotadas es un subespacio vectorial propio del espacio vectorial de la sucesiones de escalares. ) + ( y1 .) = (λx1 . x2 . basta demostrar que si ( xn ) e (yn ) ∈ p y λ ∈ C. . . . . q > 1 y 1/p + 1/q = 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Espacios p. El conjunto de todas la sucesiones de escalares convergentes es un subespacio vectorial propio del espacio vectorial de la sucesiones de escalares acotadas. . . Para comprobar la segunda propiedad es suficiente observar que n =1 ∑ |λxn | p = |λ| p ∑ |xn | p < ∞. x2 . En el siguiente caso la tarea es mucho más difícil. El conjunto de todas las sucesiones ( xn ) de escalares con la suma y multiplicación definidas como sigue ( x1 . entonces ( xn + yn ) ∈ p y (λxn ) ∈ p . . . λx2 . La verificación de que los anteriores son realmente espacios vectoriales es muy fácil. x2 + y2 . n= Vamos a demostrar que p es un espacio vectorial. . ) λ( x1 . Como p es un subconjunto de un subespacio vectorial. y2 . . concretamente el espacio vectorial de todas las sucesiones de números complejos. n =1 ∞ ∞ La condición de Minkowski ∑∞ 1 n= | xn + yn 1/p |p < ∞ se sigue de la siguiente desigualdad n =1 ∑ ∞ | xn + yn | p ≤ n =1 ∑ ∞ 1/p | xn | p + n =1 ∑ ∞ 1/p |yn | p . . Demostración. La demostración de la desigualdad de Minkowski se basa en la desigualdad de Hölder. Denotaremos por p . . ) = ( x1 + y1 . En primer lugar observamos que x1/p ≤ 1 1 x+ p q MANUALES UEX 315 Desigualdad de Hölder.) es un espacio vectorial sobre k. . Para cualquier par de sucesiones de números complejos ( xn ) e (yn ) se tiene que . Ambas desigualdades están demostradas a continuación. . Sean p > 1. n =1 ∑ | xn yn | ≤ ∑ | xn | n =1 ∞ ∞ 1/p p n =1 ∑ |yn | ∞ 1/q q . .

n obtenemos MANUALES UEX k =1 ∑ | xk | p n k =1 1/p ∑ |x j ||y j | k =1 ∑ |yk |q n 1/q ≤ 1 1 + = 1. . . Desigualdad de Minkowski.2) cuando bq ≤ a p . q Sumando estas desigualdades para j = 1. obtenemos que |xj | k =1 ∑ | xk | p n k =1 ∑ |yk |q n n 1/q ≤ 1 p |xj | p k =1 ∑ | xk | n + p 1 q ∑ |yk | n .1. Entonces 0 ≤ a p /bq ≤ 1 y por consiguiente tenemos que a b−q/p ≤ Como −q/p = 1 − q.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS para 0 ≤ x ≤ 1. pb Multiplicando en ambos miembros por bq obtenemos (XII. Sea p ≥ 1. . Para cualesquiera dos sucesiones ( xn ) e (yn ) de números complejos se tiene que 316 n =1 ∑ | xn + yn | ∞ 1/p p ≤ n =1 ∑ | xn | ∞ 1/p p + n =1 ∑ |yn | ∞ 1/p p . Sean a y b dos números reales no negativos tales que a p ≤ bq . Un argumento similar sirve para demostrar (XII. Usando (XII. ∑ | xk | p |y j | 1/p ∑ |yk |q |y j |q k =1 donde n ∈ N y 1 ≤ j ≤ n. obtenemos que a b1− q ≤ 1 ap 1 + . p q Hemos demostrado (XII.2) con a= n k =1 |xj | 1/p y b= n k =1 |y j | 1/q .1. p bq q 1 ap 1 q + q.2) ab ≤ ap bq + . Por consiguiente la desigualdad puede ser usada para cualesquiera a y b ≥ 0.1. p q tomando ahora n → ∞ conseguimos la desigualdad de Hölder. .1. .2) suponiendo que a p ≤ bq .

. Si u = ∑i=1 λi ui . n.2. Sucesiones ortonormales Definición XII. .2.  n =1 ∑ ∞ | xn + yn | ≤  p n =1 ∑ | xn | ∞ 1/p p + n =1 ∑ |yn | ∞ 1/p p   n =1 ∑ | xn + yn | ∞ 1−(1/p) p de donde se sigue la desigualdad de Minkowski. Como q( p − 1) = p. . i =1 Definición XII. Además. Si p > 1. Entonces. . un ∈ P . entonces se tiene que n ¯ v · u = ∑ λi (v · ui ) = 0. entonces es ortogonal a cualquier combinación lineal suya. pero no es reflexiva. por la desigualdad de Hölder.2.1. Si.3.2. Si v ∈ P es ortogonal a cada uno de los vectores u1 . . entonces se dice que S es un sistema ortonormal. Para p = 1 basta con usar la desigualdad triangular para el valor absoluto. todo vector es ortogonal a 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. . . La relación de ortogonalidad es simétrica. v = 1. n Demostración. entonces existe q tal que 1/p + 1/q = 1. Sea P un espacio prehilbertiano. 2. . λi ∈ k. Sea P un espacio prehilbertiano. además. i = 1. tenemos que n =1 ∑ | x n + y n | p = ∑ | x n + y n | | x n + y n | p −1 n =1 ∞ n =1 ∞ ∞ ≤ ∑ | x n | | x n + y n | p −1 + 1/p n =1 ∑ | y n | | x n + y n | p −1 1/q ∞ ≤ n =1 ∑ ∞ | xn | p 1/p n =1 ∑ ∞ | x n + y n | q ( p −1) 1/q + n =1 ∑ ∞ |yn | p n =1 ∑ ∞ | x n + y n | q ( p −1) . para todo v ∈ S. Proposición XII. Sea P un espacio prehilbertiano. Sistemas ortogonales. MANUALES UEX 317 . Se dice que dos vectores u y v ∈ P son ortogonales cuando u · v = 0. Se dice que un subconjunto arbitrario S de P \ {0} es un sistema ortogonal cuando u · v = 0 para cualquier par de elementos distintos de S.

Corolario XII. Entonces. . entonces u+v 2 318 = u 2 + v 2 . En un espacio prehilbertiano todo sistema ortogonal es linealmente independiente. . . . . para todo m y n. . para todo i = 1. 0. entonces la familia S1 = v |v∈S v es un sistema ortonormal. .2. . λn ∈ k.4. v(3) = (0. Demostración. . En efecto. es decir. la sucesión (cn )n∈N de término general cn (t) = cos(nt) forma un sistema ortogonal. vn ∈ S y λ1 . . . . Además. En el espacio prehilbertiano de las sucesiones casi nulas. 1. para todo i = 1. Ambos sistemas son equivalentes en el sentido de que generan el mismo subespacio vectorial de P . Sean P un espacio prehilbertiano y S ⊆ P un sistema ortogon nal. para ciertos v1 . (a) Teorema de Pitágoras. . . si S es un sistema ortogonal. n. . forman un sistema ortogonal.5. forma un sistema ortogonal. ). π ]. . iii) En el espacio prehilbertiano de las funciones f : {1. ii) En el espacio prehilbertiano de funciones continuas en el intervalo [−π. . . n. . . Análogamente. . n 2 . v(2) = (0. λ3 . . . . se sigue que λi = 0. 0.2. . la sucesión de funciones (sn )n∈N de término general sn (t) = sen(nt) constituye un sistema ortogonal. Si u y v ∈ P son ortogonales. . . . la sucesión v(1) = (λ1 . . cos 2πkt n | k = 0. i) Sea (λi )i∈N una sucesión cualquiera de escalares. λ2 . como vi > 0. 0. . . . . Supongamos que ∑i=1 λi vi = 0. ). . . v1 . sn · cm = 0. n} ⊂ R → C. Sea P un espacio prehilbertiano. . . π −π sen(mt) sen(nt)dt = 0 si m = n. 0= i =1 ∑ 0 · ( λi vi ) = ∑ ∑ λ j v j i =1 j =1 n n n · ( λi vi ) = i =1 ∑ | λ i |2 n vi 2 .6. . las n funciones no nulas del conjunto MANUALES UEX S= sen 2πkt n . . vn son linealmente independientes. Luego. Ejemplos XII.2. ). Teorema XII. 0. . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Cualquier sistema ortogonal de vectores puede ser normalizado. donde [ x ] denota el mayor entero menor o igual que x.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (b) Teorema de Pitágoras generalizado. . . vi + vn 2 = i =1 ∑ vi 2 2 i =1 ∑ n Igualdad de Parseval (caso finito). n −1 i =1 2 ∑ n −1 vi = i =1 ∑ vi 2 . (a) Como u y v son ortogonales. Supongamos que n > 2 y que el teorema es cierto para n − 1 vectores. 2 = i =1 para cada i ∈ {1. Como u y v son ortogonales. . . Si {v1 . de donde se sigue que u+v 2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v = u·u+v·v = u 2 + v 2. u · v = 0 = v · u. n− Sea u = ∑i=11 vi y v = vn . . Si {v1 . Es una consecuencia inmediata del teorema de Pitagoras generalizado. n}. . por lo que los detalles de su demostración se dejan como ejercicio al lector. vn } es un sistema ortogonal de vectores de P . . Si n = 2. (b) Procedemos por inducción sobre n. vn } es un sistema ortogonal n de vectores de P y v = ∑i=1 λi vi . entonces v y λi = ( v · vi ) / vi 2. MANUALES UEX 319 ∑ | λ i |2 n vi 2 . . Demostración. . . entonces i =1 ∑ vi n 2 = i =1 ∑ n vi 2 . . entonces v1 + v2 2 = v1 2 + v2 2 por el teorema de Pitágoras. es decir. Demostración. . tenemos que i =1 ∑ vi n 2 = u+v n −1 2 = u + vn 2 + v = 2 n −1 2 = vi 2 i =1 ∑ . Estamos ya en disposición de enunciar y demostrar el resultado principal de esta sección.

Proyección ortogonal. El vector v se llama proyección ortogonal de u en el subespacio L generado por { u1 . . Obsérvese que la desigualdad de Bessel para n = 1 es esencialmente la desigualdad de Cauchy-Schwarz. . 2 n Demostración. obtenemos la igualdad de Bessel. . v) es mínima. n. . los m primeros coeficientes son precisamente los requeridos par la mejor aproximación mediante u1 . . . . Dados λ1 . Además. . . . . . . tal que v es combinación lineal de u1 . por la igualdad de Parseval. . entonces en dicha aproximación mediante u1 . . . Para todo u ∈ P se cumple que u − ∑ ( u · ui ) ui i =1 n 2 = u 2 − ∑ | u · u i |2 . Por otra parte. . se tiene una descomposición u = v + w. . . Nota XII. ∑ i =1 | λ i | = ∑in=1 λi ui + ∑ | λ i |2 i =1 n 2 = u − ∑ λi ui i =1 n 2 = u = u = u 2 − 2 ¯ ¯ − ∑ λi u · ui − ∑ λi u · ui + ∑ λi λi i =1 n ∑ λi ui n ·u−u· n i =1 ∑ λi ui n i =1 n 2 − ∑ | u · u i |2 + ∑ | u · u i − λ i |2 i =1 i =1 i =1 n i =1 n En particular. MANUALES UEX 320 . la proyección ortogonal v de u es el vector de L tal que d(u. i = 1. resulta claro que la elección λi = u · ui . Obsérvese que. un . Es fácil ver que esta descomposición es única. Sean P un espacio prehilbertiano y {u1 . i = 1. . es claro que w · ui = 0. i =1 ∑ | u · u i |2 ≤ n u 2. n. luego w · v = 0. . . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Igualdad y desigualdad de Bessel. . un . según lo dicho anteriormente. solamente un conjunto de coeficientes da la mejor aproximación. haciendo λi = u · ui . i = 1. λn ∈ k. . . un } un sistema ortonormal de vectores de P. Obsérvese también que si n > m. y por lo tanto proporciona la mejor aproximación a u mediante una combinación lineal de u1 . . n. . para todo i = 1. . . i =1 n en particular. . . .7. un y w es ortogonal a ui . . n Por otra parte. . .2. Según la demostración de la igualdad de Bessel. . hace mínimo n al número u − ∑i=1 λi ui . . u n }. . n. si v = ∑i=1 (u · ui )ui y w = u − v. . . . Por lo tanto. . la desigualdad se deduce inmediatamente. . se tiene que ∑i=1 λi ui n 2 . um .

0. . . 0. donde e1 = (1. 0. n ∈ N. . la sucesión (u · ui )i∈N converge a cero cuando i tiende hacia infinito. . . Definición XII. . . MANUALES UEX 321 . en 2 la sucesión (ei )i∈N es ortonormal. . este resultado es válido para cualquier sucesión ortonormal en un espacio de Hilbert. e3 = (0. . . La sucesión (ei )i∈N es ortonormal.2. la sucesión (un )n∈N tal que un = vn / vn . (vm )m≥0 es una sucesión ortonormal. dado x = (λi )i∈N ∈ 2 . Es claro que. es ortonormal. . ). = = = 1 √ . para todo i ∈ N. e2 = (0. .2.10. . 0.9. sea e1 = (1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Sucesiones ortonormales. Corolario XII. iv) Con la misma notación que en el apartado anterior. ). es decir. 1. π 1 √ sen(nt). ). entonces para todo u ∈ P se cumple que i =1 ∑ | u · u i |2 ≤ ∞ u 2. Definimos v0 ( t ) v2n (t) v2n+1 (t) 0 si 1 si i = j. 0. 1.2. . .2.ii). n ∈ N. 0. i = j. 0. . . 0. para n ∈ N. se cumple que x · ei = λi . 1. . ). 1. Si (ui )i∈N es una sucesión ortonormal. como consecuencia de la desigualdad de Bessel. Una sucesión de vectores (vn )n∈N de P se llama sucesión ortonormal si {vn | n ∈ N} es un sistema ortonormal. iii) En el espacio prehilbertiano de las sucesiones casi nulas. e3 = (0. π n ∈ N.5. e2 = (0. . i) Si (vn )n∈N es una sucesión de vectores no nulos ortogonales entre sí. . . La condición de ortonormalidad de una sucesión de vectores se puede expresar en términos de la función delta de Kronecker: vi · v j = δij = Ejemplos XII. . ). ∞ se cumple que ∑i=1 |x · ei |2 < ∞. En particular. y vi = 1. ). . En particular. . Sea P un espacio prehilbertiano. ii) Con la notación del ejemplo XII. Entonces. Sea P un espacio prehilbertiano. 2π 1 √ cos(nt). si vi · v j = 0. . para i = j. . .8. . . . se tiene que c0 = 2π y sn 2 = cn 2 = π.

.3) u∼ i =1 ∑ ( u · ui ) ui ∞ se llama serie de Fourier generalizada de u. . Sea P un espacio prehilbertiano. . para cada n ∈ N. de forma que el espacio vectorial que genera {u1 . se trata de un algoritmo que proporciona un sistema ortonormal de vectores {u1 . . vn−1 . este conjunto de coeficientes proporciona la mejor aproximación de u en el espacio vectorial generado por {ui | i ∈ N}. . para cada j = 1. Demostración. . Sea w = vn − n −1 i =1 ∑ (vn · ui )ui . .3) es convergente. ∞ El corolario anterior asegura que la serie ∑i=1 |u · ui |2 es convergente para todo u ∈ P . . . un−1 . . . Supongamos que ya hemos construido los vectores ortonormales u1 . . . Definamos un = w/ w . Los vectores un se definen recursivamente. un−1 y por tanto de v1 . Sea u1 = v1 / v1 .2. no sabemos cuándo la serie (XII. Si (vi )i∈N es una sucesión de vectores linealmente independientes de P . . . . un } genera el mismo subespacio vectorial que {v1 . . . un es también una combinación lineal de v1 . En otras palabras.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. Como hemos reseñado. . . vn linealmente independientes. La segunda es consecuencia de la condición necesaria de convergencia de series de números reales. ya que w = 0 implicaría que vn es una combinación lineal de u1 . vn }. MANUALES UEX 322 esto es válido. . Sin embargo. . . . Terminamos esta sección mostrando un procedimiento sistemático (aunque infinito) para “ortonormalizar” cualquier sucesión linealmente independiente de vectores de un espacio prehilbertiano: Proceso de ortonormalización de Gram-Schmidt (caso general). . . . . . . . . la sucesión (u · ui )i∈N es un elemento de 2 . . . es el mismo que el generado por {v1 . Los escalares λi = u · ui son los coeficientes generalizados de Fourier de u respecto de la sucesión ortonormal (ui )i∈N . . . . un−1 . . . La expansión (XII. en este caso. vn . . . v j }. . en contra de la independencia de la sucesión (vi )i∈N .2. un } . en general. De modo que podemos decir que una sucesión ortonormal en P induce una aplicación de P a 2 . . u j }. . El lector puede verificar fácilmente que toda combinación lineal de u1 . volveremos a esta cuestión en el siguiente tema. . El proceso de Gram-Schmidt se puede aplicar a un conjunto finito de vectores v1 . Para la primera afirmación. n − 1. . entonces w es ortogonal a u1 . basta tener en cuenta que la desigualdad de Bessel se verifica para todo n ∈ N. . . . existe una sucesión ortonormal (ui )i∈N tal que {u1 . y viceversa. . . .

Veamos que V no es completo construyendo una sucesión de Cauchy que no tenga límite en V. . . Espacios de Hilbert Definición XII. . . . . 1/n. . . 0. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA tal que el espacio vectorial generado por u1 . con el producto escalar u·v = i ≥1 ∑ ui vi tiene una estructura de espacio prehilbertiano. (v(n) )n∈N es una sucesión de Cauchy de elementos de V. . El siguiente ejemplo muestra que no todos los espacios prehilbertianos son espacios de Hilbert. que existen espacios prehilbertianos que no son completos. . . . 0. La sucesión propuesta es (v(n) )n∈N con v (1) v (2) v (3) v(n) = (1. . v = (λ1 . . Un espacio prehilbertiano completo se llama espacio de Hilbert. v(n) ) = v(m) − v(n) tiende a cero cuando n tiene hacia infinito. 0. . . Luego. 0. . . 0) .). Si ı n ≥ N. v j . . Si P es un espacio prehilbertiano de dimensión finita.1.) = (1.2. u j es el mismo que el generado por v1 . 1/2. . 1/2. 1 1 . . En particular: Corolario XII. . . 0 . Sabemos que el espacio vectorial V de las sucesiones de números reales casi nulas. . . tal que l´mn→∞ v(n) = v. 0. 1/3. .2. λ2 . . .) n+1 m = k = n +1 ∑ 1 k . . . . . 2 m 2 Para todo m > n ≥ 1. Dado que la serie ∑k≥1 1/k2 es convergente. . . 1/2. k k =1 MANUALES UEX 323 .3. . 0. .11. λ N .) = (1. entonces P posee una base de vectores ortonormales. entonces existe un elemento de V. . . . Ejemplo XII. n 2 2 1 v(n) − v = ∑ − λk . v(m) − v(n) 2 = (0.) . = (1.3. 3. Supongamos ahora que la sucesión es convergente en V. 1/3. es decir. se cumple que d(v(m) . . . .

3. en contradicción con que v esté en V. ∑i≥1 xi − xi pertenece a 2. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS haciendo tender n hacia infinito. Dado ε > 0. x(2) . . el ejemplo más importante es el siguiente. como r es arbitrario. Veamos que el espacio vectorial del conjunto de todas las sucesiones x = ( xn )n∈N de números complejos tales que ∑∞ 1 | xn |2 < ∞ con el producto escalar n= x·y = ¯ ∑ xn yn 2. . . . para todo k ≥ 1. Vamos a demostrar que ∑i=1 | xi |2 < ı 2 y que ( x(n) ) ∞. .2. MANUALES UEX i =1 ∑ r xi − xi (n) 2 <ε supuesto que n ≥ N. . . se tiene que (n) 2 xi (m) − xi (1) ≤ j =1 ∑ ∞ xj (n) (m) − xj (n) 2 = x(m) − x(n) 2 . haciendo tender m hacia infinito. Supongamos que x(1) .i)-ii)). ∞ existe xi ∈ C tal que l´mn→∞ xi = xi . siempre que n ≥ N. Sin embargo.3. n ≥ N. x(n) . Fijemos un entero positivo r. (N) 324 En particular. xi . supuesto que m. para todo m. por lo . Para todo i ∈ N. El espacio de Hilbert 2 . Ejemplo XII. de donde se sigue que λk = 1 ∈ k. n ≥ N. Como el conjunto de los números complejos es completo. . de componentes i-ésimas es una sucesión de Cauchy. . .4) i =1 ∑ ∞ xi − xi (n) 2 < ε. .1. sea N ∈ N tal que x(m) − x(n) 2 < ε. (XII. Ejemplos de espacios de Hilbert son Rn y Cn con sus productos escalares usuales (véase el ejemplo XII. (N) 2 < ε. . . . por lo tanto la sucesión ( xi − xi (N) ) i ∈N sumándole la sucesión ( xi )i∈N se obtiene ( xi )i∈N . es una sucesión de Cauchy en Sea x(n) = (n) ( x i ) i ∈N . entonces se tiene que (2) (n) i =1 ∑ r xi (m) − xi (n) 2 ≤ x(m) − x(n) 2 < ε. es decir. luego la sucesión xi . xi .3. . obtenemos que ∑k≥1 |1/k − λk |2 = 0. que la sucesión x = ( xi )i∈N está en n∈N converge a x. ∞ n =1 es completo.

0. que tiende a cero cuando n tiende hacia infinito. ∞ Lema XII. por tanto. 0. de (XII. para m > n > 0. Consideremos ahora x = (λi )i∈N ∈ 2 ¿Qué sentido se le puede dar a la ∞ ∞ expresión x = ∑i=1 λi ei ? Parece natural definir ∑i=1 λi ei como el límite de la n sucesión de “sumas parciales" xn = ∑i=1 λi ei . .) es una sucesión que tiene a lo sumo un número finito de términos no nulos. (ui )i∈N una sucesión ortonormal ∞ y (λi )i∈N una sucesión de escalares. . . . 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA tanto. . Notación XII. . . . (ui )i∈N una sucesión ortonormal ∞ y (λi )i∈N una sucesión de escalares tales que ∑i=1 |λi |2 < ∞. . λ2 . escribiremos v = n i =1 ∑ vi . La sucesión (xn )n∈N n de término general xn = ∑i=1 λi ui es de Cauchy. . . 0.3. este límite existe y su valor es x.4) se sigue que x − x(n) < ε. λn+1 .3. λn+2 . n es claro que x = ∑i=1 λi ei . . 0. . Si x = (λ1 . 1. se podría escribir x= i =1 ∑ λi ei . Luego.). para todo n ≥ N. ∞ entendiendo que λi = 0 para todo i > n.5.) 2 = i = n +1 ∑ ∞ | λ i |2 tiende a cero cuando n tiende hacia infinito. ∞ 2 es convergente. por la igualdad de Parseval (caso finito). Sean P un espacio prehilbertiano. . . e3 = (0. .). e2 = (0. . .3. ya que x − xn 2 = (0. Veamos que esta situación es general para sucesiones ortonormales arbitrarias en espacios de Hilbert. . En el espacio de Hilbert 2 . Basta tener en cuenta que. . la serie ∑i=1 |λi | MANUALES UEX 325 . 0. λn . Sean H un espacio de Hilbert. . . consideramos la sucesión ortogonal (en )n∈N tal que e1 = (1. . y sólo si. Teorema XII. 0.6. Si (vi )i∈N una sucesión de vectores en un espacio prehilbertiano P tal que l´m ı n→∞ i =1 ∑ vi = v ∈ P . .). . x(n) converge a x. La serie ∑i=1 λi ui es convergente si.4.3. . x = ( xi )i∈N pertenece a 2 . Por lo tanto. Demostración. Base ortonormal de un espacio de Hilbert. . se tiene que xm − xn 2 = i = n +1 ∑ m 2 λi ui = i = n +1 ∑ m λi ui 2 = i = n +1 ∑ m | λ i |2 .

entonces de la igualdad de Parseval (caso finito) i = n +1 ∑ m 2 λi ui = i = n +1 ∑ m | λ i |2 .3. por el lema XII. (a) Sean xn = ∑i=1 λi ui e yn = ∑i=1 µi ui .3. ¿Cuándo se puede concluir que x = y? Desde luego se tiene que (y − x) · ui = y · ui − x · ui = 0. ∞ para m > n > 0.3. por el apartado ı n n ¯ ¯ (a) de la proposición XII. pues los n 2 forman una sucesión de Cauchy en R. Sean H un espacio de Hilbert y (ui )i∈N una sucesión orto∞ ∞ normal. y. ∞ ¯ se tiene que x · y = ∑i=1 λi µ j . números µn = ∑i=1 |λi | Proposición XII. (b) x · ui = λi . (b) Es un caso particular del apartado (a). por lo tanto.9. ∞ ∞ (c) x 2 = ∑i=1 |λi |2 = ∑i=1 |x · ui |2 . para todo i ∈ N. se podría concluir que . Sin embargo.10. resulta claro que la convergencia es absoluta. puede ocurrir que converja a un vector distinto de x. sustituyendo (λi )i∈N y (µi )i∈N por (|λi |)i∈N y (|µi |)i∈N .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS ∞ n Demostración.j λi µ j (ui · u j ) = ∑i=1 λi µ j . siendo la serie absolutamente convergente. i ∈ N. Por definición l´mn→∞ xn = ı x y l´mn→∞ yn = y. pues. de donde se sigue que xn · yn → x · y.1. Esto implica la convergencia de la serie ∑∞ 1 λi ui debido a la completitud de H. n= ∞ Recíprocamente.3. De los resultados anteriores y del corolario XII. (c) Basta tomar x = y en el apartado (a). ∞ ¯ (a) x · y = ∑i=1 λi µi . n n Demostración. por el corolario XII. 326 Luego.6.2. respectivamente. en el sentido del teorema XII. Dado x ∈ H.3. se puede considerar el vector y = ∞ ∑i=1 λi ui . se sigue la convergencia de la serie ∑i=1 |λi |2 . entonces la sucesión xn = ∑i=1 λi ui es una sucesión de Cauchy. los escalares λi = x · ui . Supongamos que x = ∑i=1 λi ui e y = ∑i=1 µi ui . para todo i = j. si la serie ∑i=1 λi ui es convergente. de acuerdo con el teorema XII. que (un )n∈N es una sucesión ortogonal en un espacio de Hilbert H.7. para todo i ∈ N.5. siendo (ui )i∈N una sucesión ortonormal.10 se sigue que en un ∞ espacio de Hilbert H la serie ∑i=1 (x · ui )ui es convergente para todo x ∈ H. Dado que xn · yn = ∑i. y · ui = λi = x · ui . Además.7. Entonces.6.2. por la proposición XII. Si ∑i=1 |λi |2 < ∞. con µi = 1 y µ j = 0. verifican que i =1 ∑ | λ i |2 ≤ ∞ x 2 < ∞. MANUALES UEX Supongamos.

. sea x ∈ H y supongamos que la sucesión ortonormal (ui )i∈N es total. .10. una sucesión de vectores (vi )i∈N ⊂ H se llama sucesión total cuando z · vi = 0.). es total. 0. . 1. no está contenido en ningún otro sistema ortogonal de H.3. 1.). . . Aquí el nombre de total hace referencia a la siguiente propiedad: un sistema ortogonal de un espacio de Hilbert H es total si. 0. . si z ∈ P es ortogonal a todo vector de S . Entonces. e3 = (0. la sucesión de vectores e1 = (1. i) En un espacio prehilbertiano P cualquiera. . y sólo si. .). . implica que x = 0. el propio P es un conjunto total de vectores. para todo v ∈ S. . para todo x ∈ P .). x= para todo x ∈ H. luego z = 0. una sucesión ortonormal (ui )i∈N de vectores de H es total si. será ortogonal a cualquier combinación lineal de vectores de S . 1. e2 = (0. 0. Sea y= i =1 ∑ ( x · ui ) ui . 1. v3 = (1. . . . 0. . . luego z = 0. 0. Proposición XII. Definición XII. Se dice que un subconjunto arbitrario S de H es un conjunto total cuando el único vector z ∈ H tal que z · v = 0. . En efecto. Sea H un espacio de Hilbert. para todo i ∈ N. ∞ x= i =1 ∑ ( x · ui ) ui . Sea H un espacio de Hilbert. es el cero. . 0. ∞ MANUALES UEX 327 Demostración. En particular. . y sólo si. en particular.3.9. cuya comprobación proponemos como ejercicio al lector (ejercicio 12). ∞ i =1 ∑ ( x · ui ) ui . v2 = (1. es z = 0. Ejemplos XII. Recíprocamente. 1.). .8. entonces es claro que x · ui = 0. ii) Cualquier sistema de generadores S de un espacio prehilbertiano P es un conjunto total. . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA x = y si los vectores de la sucesión (ui )i∈N tuviesen la siguiente propiedad: el único vector de H que es ortogonal a ui . z · z = 0. pues si z · x = 0. en particular z · z = 0. . para todo i ∈ N. . para todo i ∈ N =⇒ z = 0.3. Si cada x ∈ H admite la representación . . 0.). También lo es la sucesión v1 = (1. iii) En el espacio de Hilbert 2 .

3. Recíprocamente. ∞ 328 Nota XII. y por lo tanto l´m u − ∑ (u · ui )ui ı i =1 n 2 n→∞ = 0. si se cumple (XII. . que H es de dimensión finita. y por lo n tanto es nulo.11. y sólo si. i = 1.3. . de donde se sigue que {u1 .5) para todo x ∈ H. . (XII. de donde se sigue que la sucesión (ui )i∈N es total.3. entonces v − ∑i=1 (v · ui ) ui es ortogonal a ui . para todo j ∈ N. .3. un } que es ortonormal y total. v = ∑i=1 (v · ui ) ui . se tiene que ( x − y ) · ui = x · u j − i =1 ∑ ( x · ui ) ui ∞ · uj = x · uj − i =1 ∑ ( x · ui ) · ∞ ui · u j = x · u j − x · u j = 0. .6.12.10 y XII.5).3. Como. . Si v ∈ H es un vector n arbitrario. i =1 n converge a cero cuando n tiende hacia infinito. por consiguiente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Esta suma existe en H por el corolario XII. al ser (ui )i∈N total se sigue que x − y = 0 y. Por consiguiente. un } es una base de H y.10. Igualdad de Parseval (caso general). . Se dice que una sucesión ortonormal (ui )i∈N en un espacio de Hilbert H es una base ortonormal si todo x ∈ H admite una única representación MANUALES UEX x= con λi ∈ k para todo i ∈ N. . La implicación directa es consecuencia inmediata de las proposiciones XII. i =1 ∑ λi ui . el término de la derecha de la igualdad de Bessel.3. por lo tanto. Una sucesión ortonormal (ui )i∈N en un espacio de Hilbert H es total si. n. ∞ = u 2 − ∑ | u · u i |2 . . por la proposición XII. u − ∑ ( u · ui ) ui i =1 n 2 x 2 = i =1 ∑ | x · u i |2 . Sea H un espacio de Hilbert que contiene un conjunto finito de vectores {u1 .10 y el teorema XII.3. . Así. . entonces. que ∞ x = ∑ i =1 ( x · u i ) u i .7(c).2. Definición XII.3. . . Demostración.

Espacios de Hilbert separables. para todo i ∈ N. entonces 0 = x−x ∞ 2 ∞ i =1 = i =1 ∑ ( x · ui ) ui − ∑ λi ui i =1 = i =1 ∑ ∞ 2 ( x · ui ) − λi ui = i =1 ∑ |(x · ui ) − λi |2 . Proposición XII. Pero antes necesitamos introducir algunos conceptos generales sobre espacios métricos. . 2.10 se tiene que x= i =1 ∑ ( x · ui ) ui . basta comprobar la unicidad de tal representación. y sólo si.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA en un espacio de Hilbert de dimensión finita una base ortonormal es una base formada por vectores ortonormales. Veamos ahora que una sucesión ortonormal total (ui )i∈N en un espacio de Hilbert H es una base ortonormal de H.13. Por ser (ui )i∈N una base ortonormal. tal que z · ui = 0. Supongamos que (ui )i∈N es una base ortonormal en un espacio de Hilbert H.9 es una base ortonormal del espacio de Hilbert 2 que denominaremos base usual (o base canónica) de 2 . a continuación vamos a dar una condición necesaria y suficiente para que un espacio de Hilbert tenga una base ortonormal. La sucesión (en )n∈N descrita en el ejemplo XII. según la proposición XII.14. para todo i ∈ N. Una sucesión ortonormal en un espacio de Hilbert es base ortonormal si. concluimos que z = 0. De donde se sigue que (x · ui ) = λi .3. . Ejemplo XII.3. ∑ λi ui . En efecto. Demostración.3. Si x= para ciertos λi ∈ k. Sea z ∈ H. tales que z = ∑∞ 1 λ j u j . es total. j = 1. existen unos únicos λ j ∈ k.7. ∞ 2 ∞ ∞ para todo x ∈ H. . Teniendo en cuenta que j= 0 = z · ui = j =1 ∑ λj uj ∞ · ui = λi . luego. No todos los espacios de Hilbert tienen bases ortonormales. para todo i ∈ N.3. MANUALES UEX 329 .3. . por la proposición XII.

podemos considerarlo como una subsucesión de {vi | i ∈ N}. Las siguientes condiciones son equivalentes: (a) H es separable. Sea H un espacio de Hilbert. Es claro que S es total. .1. Por hipótesis. contiene una sucesión total.3. B es una base ortonormal de H (veánse la proposición XII.17. es decir. d) un espacio métrico. Si S no es un conjunto finito. Demostración.3. existe un sistema ortonormal B que genera el mismo espacio vectorial que S . z = 0.3. Sean (vi )i∈N una sucesión densa en un espacio de Hilbert H y z ∈ H tal que z · vi = 0. por el razonamiento anterior. existe una subsucesión (vi )i∈N de (vi )i∈N convergente a z. por el proceso de ortonormalización de Gram-Schmidt. Toda sucesión densa en un espacio de Hilbert es total. (a) ⇒ (b) Si H es separable. . de donde se sigue que z = 0.16. Basta tener en cuenta que los elementos del subconjunto S = {α1 u1 + .3.17. En cualquier caso. y por lo tanto a todo vi . Definición XII.3.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Definición XII. Dado que todo espacio de Hilbert es. z 2 = 0. si para cada x ∈ X existe una subsucesión de ( xn )n∈N que converge a x. (b) H tiene una base ortonormal (ui )i∈N .14 y la nota XII. Se dice que un espacio métrico ( X.18. entonces contiene alguna sucesión densa. Demostración. en consecuencia. Teorema XII. i ∈ N. Se dice que una sucesión ( xn )n∈N de elementos de X es densa. luego. y concluimos que la sucesión (vi )i∈N es total. pero vi · z = 0. Sea ( X. + αi ui | αi ∈ 2Recuérdese que un espacio topológico es denso si posee un subconjunto denso y MANUALES UEX 330 numerable. Luego. . un espacio métrico. Lema XII. para todo n ∈ N. De cualquier conjunto de vectores podemos extraer un subconjunto linealmente independiente que genera el mismo espacio vectorial. d) es separable2 si contiene alguna sucesión densa. en efecto. para todo i ∈ N. Este sistema ortonormal es total. diremos que un espacio de Hilbert es separable si es separable como espacio métrico. si z es ortogonal a todos los elementos de S también lo será a cualquier combinación lineal suya. sea S un subconjunto linealmente independiente de {vi | i ∈ N} que genera al mismo espacio vectorial que {vi | i ∈ N}. Sea (vi )i∈N una sucesión total de elementos de H. por la proposición XII. por el lema XII.9.12) (b) ⇒ (a) Sea (ui )i∈N una sucesión ortonormal total en H. Por consiı guiente.3.3. en particular.15. l´mi→∞ (vi · z) = z · z = z 2 .

y el subconjunto S = {(α1 + iβ 1 )u1 + . tal conjunto se llama base ortonormal del espacio. + (αi + iβ i )ui | αi . MANUALES UEX 331 . puede ser imposible enumerar los elementos de B en forma de sucesión. Se puede demostrar que todo espacio de Hilbert (separable o no) contiene un subconjunto ortonormal total B .22.20. ı Ejemplo XII.3. i ∈ N} forman un sucesión n densa en H si k = C.3. Nota XII. El espacio de Hilbert clásico. un isomorfismo de espacios vectoriales. este espacio de Hilbert no es separable ya que para cualquier sucesión de funciones ( f n )n∈N de H existen funciones no nulas f ∈ H tales que f · f n = 0. para todo x ∈ H. Definición XII. en virtud del teorema XII. (b) Si H tiene dimensión n > 0. Es más.3.3. β i ∈ Q. Sin embargo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Q. Espacios de Hilbert isomorfos.18. Se comprueba fácilmente que el isomorfismo de espacios de Hilbert es una relación de equivalencia. Se dice que un espacio de Hilbert H1 es isomorfo a un espacio de Hilbert H2 si existe una aplicación lineal biyectiva3 T : H1 → H2 tal que T (x) · T (y) = x · y. . . Sea H el espacio vectorial de todas las funciones f : R → C que se anulan en todo R excepto en una cantidad numerable de puntos y tales que ∑ | f (x)|2 < ∞.19. sólo podremos encontrar subconjuntos ortonormales totales numerables en los espacios de Hilbert separables. Sin embargo. i ∈ N} forman una sucesión densa en H si k = R. para todo x e y ∈ H1 . 3Esto es. Sea H un espacio de Hilbert separable.3. ya que l´mn→∞ ∑i=1 (x · ui )ui = x. Teorema XII. para todo n ∈ N. (a) Si H es de dimensión infinita.21. entonces es isomorfo a 2 . entonces es isomorfo a kn . La aplicación T se dice que es un isomorfismo de espacios de Hilbert. f ( x )=0 H tiene estructura de espacio de Hilbert con el producto escalar f ·g= f ( x ) g( x )=0 ∑ f ( x ) g ( x ).

y µn = y · un . se sigue que cualesquiera dos espacios de Hilbert de este tipo son isomorfos. T es una aplicación biyectiva de H a 2 . 2.3. se tiene que T ( x ) · T ( y ) = ( λ n ) n ∈N · ( µ n ) n ∈N = n =1 ∑ λn µ¯n = ∑ (x · un )(y · un ) n =1 n =1 ∞ ∞ = n =1 ∑ (x · ∞ (y · un )un = x · ∑ (y · un )un ∞ = x · y. . respectivamente. en cierto sentido. . cualquier espacio de Hilbert separable de dimensión infinita es isomorfo al espacio 2 sobre R. De modo que. Sea x ∈ H. MANUALES UEX 332 . Además. donde λn = x · un .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración.6. con x e y ∈ H y n ∈ N. (a) Sea (un )n∈N una sucesión ortonormal total en H. (b) La demostración de este apartado se deja como ejercicio al lector. i = 1. Definimos T (x) = (λn )n∈N . Como cualquier espacio de Hilbert separable de dimensión infinita sobre los complejos es isomorfo al espacio 2 complejo. Así. . para λn = x · un . Por el teorema XII. Lo mismo ocurre para los espacios de Hilbert reales. que se llaman espacios de Hilbert clásicos real y complejo. . Se comprueba fácilmente que es lineal. concluimos que T es un isomorfismo de H a 2 . existe un único espacio de Hilbert separable de dimensión infinita real y un único espacio de Hilbert separable de dimensión infinita complejo.

para todo u. Ejercicio 4. . Ejercicio 8. . si V está definido sobre los reales. cumple la regla del paralelogramo. . donde B∗ es la matriz adjunta (esto es. 1 u·v = u+v 2− u−v 2 . Probar que. ı Ejercicio 7. . Probar que 1. En el espacio prehilbertiano de las sucesiones eventualmente nulas. Sea P el espacio prehilbertiano de las intervalo [−1. En este caso. Probar que. 1. Probar que. se cumple que w−u 2 2 + w−v 2 = 1 u−v 2 2 +2 w− u+v 2 . v y w. ). en cualquier espacio prehilbertiano. para algún α ∈ [0. . 1/n. 1].MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios del tema XII Ejercicio 1. ). . v = αu + (1 − α)w. 1. ( A. Esta igualdad se conoce como identidad de Apolonio. u − v + v − w = u − w si. . ). . Ejercicio 2. MANUALES UEX 333 . 4 2.2 son efectivamente espacios prehilbertianos. 0. Sean P un espacio prehilbertiano y ( xn )n∈N e (yn )n∈N dos sucesiones de elementos de P . 4 La igualdades anteriores se conocen como identidades de polarización. . si l´mn→∞ xn = 0 e (yn )n∈N es acotada. u·v = Ejercicio 5. probar que 1. en cualquier espacio prehilbertiano. Probar que la aplicación V × V −→ C. . · ) un espacio normado. si V está definido sobre los complejos 1 u+v 2 − u−v 2 +i u+iv 2 −i u−iv 2 . 1. . y sólo si. Ejercicio 6. ı entonces l´mn→∞ ( xn · yn ) = 0. la traspuesta conjugada) de B es un producto escalar. 1]. v3 = (1. Sea (V. 0. Sea V = Mn (C). ortonormalizar la sucesión de vectores v1 = (1. La sucesión ( xn )n∈N de término general   0 si −1 ≤ t ≤  nt si 0 <t< xn (t) =   1 si 1/n ≤ t ≤ es de Cauchy.1. . . 0. y sólo si. funciones continuas en el 0. Ejercicio 3. v2 = (1. Comprobar que los espacios prehilbertianos del ejemplo XII. Probar que · proviene de un producto escalar si. . 1. . B) −→ tr( B∗ A).

Probar que 1. . . MANUALES UEX 334 . + x n 2 . . . Si H1 . . 1. define un producto escalar en H. . Ejercicio 9. . 2. . . . Sea H = C 1 ([ a. esto es. Ejercicio 11. Sean H1 . . . . . . . x = Ejercicio 12. entonces H tiene una estructura natural de espacio de Hilbert donde la norma de x = ( x1 . el espacio vectorial de las funciones reales diferenciables de derivada continua en [ a. ¿Es · un producto escalar en H ? ¿Es H un espacio de Hilbert? Ejercicio 10. xn ) e y = (y1 . Probar que un sistema ortogonal de un espacio de Hilbert H es completo si. yn ) ∈ H. + x n · y n . . . . b]. × Hn . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. xn ) ∈ H es x1 2 + . P no es un espacio de Hilbert. Probar que para cualquier x en un espacio de Hilbert se cumple que x = sup y =1 | x · y|. . entonces x · y = x1 · y1 + . La sucesión anterior no es convergente en P . y sólo si. . 3. Sea H = { f ∈ H | f ( a) = 0}. Si x = ( x1 . . Para f y g ∈ H se define f ·g= b a f ( x ) g ( x )dx ¿Es · un producto escalar en H? 2. . Hn espacios prehilbertianos y H = H1 × . . b]). . Hn son espacios de Hilbert. no está contenido en ningún otro sistema ortogonal de H.

y no para ser leídas como una novela. se debe introducir el comando. Introdúzcase el siguiente comando en la pantalla de we„vef 1 bb va‘I P Q“ Hay una serie de ideas a destacar en este comando.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 1 Vectores y MATLAB E sta y todas las demás prácticas están pensadas para ser trabajadas delante de un ordenador con we„vef instalado. Aunque we„vef es un entorno que trabaja con matrices. En vez de eso. Para introducir un vector. Se usa este operador para asignar valores a variables. Más aún. 1. pulsar la tecla “Enter" para ejecutarlo y ver el resultado. Se debe introducir lo que aparece tras el indica- dor. Para comprobar que el vector fila ‘IDPDQ“ ha sido asignado a la variable v introdúzcase el siguiente comando en el indicador de we„vef. 1El símbolo >> es el indicador de MATLAB. se desea que se verifique el resultado. en esta práctica se aprenderá cómo introducir vectores por filas o por columnas y a manejar algunas operaciones con vectores. Entonces se pulsa la tecla “Enter" para ejecutar el comando. Prerrequisitos: ninguno. los elementos del vector separados por espacios y un cierre de corchete. se escribe una apertura de corchete. Vectores fila La introducción de vectores fila en we„vef es muy fácil. cada vez que se presente un comando de we„vef. Se pueden usar también comas para delimitar las componentes del vector El signo = es el operador de asignación de we„vef. MANUALES UEX 335 bb va‘IDPDQ“ . Asegúrese de que se comprende perfectamente lo que se obtiene antes de continuar con la lectura.

Si no se proporciona un incremento. Se puede suprimir la salida de un comando de we„vef añadiendo un punto y coma. 336 . Elimina la salida. sobre todo cuando hay que pintar funciones.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bb v 1. bb xPaHXPXIH Se puede ir incluso hacia atrás. Rangos.2. bb xIaHXIH Se puede seleccionar el propio incremento. bb xaHXFIXIH MANUALES UEX 1. we„vef asume que es 1. bb xRaHXpiGPXPBpi Hay veces. Esto se realiza fácilmente con we„vef con la estructura ini™ioXin™rementoXfin.1. Algunas veces es necesario introducir un vector con componentes a intervalos regulares. bb xaHXFIXIHY Es muy útil cuando la salida es muy grande y no se desea verla. bb xQaIHXEPXI O se le puede echar imaginación. que se precisan un gran número de componentes en un vector.

MANUALES UEX 337 2. también se puede entender como un vector fila de longitud 3. Aunque se puede entender al vector v como una matriz con 1 fila y 3 columnas. pruébese el siguiente comando: bb length@vA Es también fácil escribir vectores columna en we„vef. Para ello.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. bb wa‘RYSYT“ Observe que los símbolos de punto y coma delimitan las filas de un vector columna. en la barra superior selecciónese el menú hesktop y actívese la opción ‡orksp—™e. Se puede obtener el tamaño de un vector v con el comando bb size@vA La información que devuelve indica que el vector v tiene 1 fila y 3 columnas. Vectores columna . Es posible obtener una lista de las variables en el espacio de trabajo en cualquier momento mediante el comando bb who Se puede obtener incluso más información acerca de las variables con bb whos Se eliminar la asignación hecha a una variable con bb ™le—r x bb who Obsérvese que también se da el tamaño de cada variable. Por ejemplo. Introdúzcase el siguiente comando en el indicador. Espacio de trabajo de we„vef.3. Pruébense los siguientes comandos. Es posible mantener una ventana con la lista de variables usadas y su tamaño.

Indexado de vectores. Aunque se puede ver al vector w como una matriz de 3 filas y 1 columna. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bb bb bb bb w who whos size@wA El resultado indica que el vector w tiene 3 filas y 1 columna. Transposición. MANUALES UEX 338 bb xa‘IHDIQDIWDPQDPUDQIDQWDRQDSI“ Ahora pruébense los siguientes comandos. bb ya@IXIHA9 O un vector columna a un vector fila. Por ejemplo. es posible acceder fácilmente a cada una de sus componentes con los comandos de we„vef.2. Una vez que se ha definido un vector. bb yay9 2. introdúzcase el siguiente vector. El operador en we„vef para transponer es el apóstrofe simple 9. bb length@wA 2.1. Pruébese el siguiente comando. bb x@PA bb x@UA Se puede cambiar fácilmente el contenido de una componente. Se puede cambiar así un vector fila a un vector columna. también es posible pensar en él como un vector columna de longitud 3.

Operaciones con vectores Un gran número de operaciones en las que intervienen vectores y escalares se pueden ejecutar con we„vef. Sin embargo. Estúdiense las salidas de los siguientes comandos. Operaciones entre vector y escalar. we„vef sí lo permite. 3. no se puede sumar un escalar a un vector. bb bb bb bb bb yaIXS yCP yEP PBy yGP Por supuesto. estas operaciones son igualmente válidas para vectores columna.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb x@TAaIHH Se puede también acceder a un rango de elementos bb x@‘IDQDS“A bb x@IXQA bb x@IXPXlength@xAA 3. el comando yCP añadirá 2 a cada componente del vector. si y es un vector. bb bb bb bb bb wa@IXQXPHA9 wCQ wEII FIBw wGIH MANUALES UEX 339 . Las operaciones entre escalares y vectores son directas.1. Desde el punto de vista teórico. Por ejemplo.

3. Introdúzcanse los siguientes comandos. considérense los siguientes vectores.a+b mostrará 340 . Operaciones con componentes. Para multiplicar los vectores — y ˜ componente a componente. ejecútese el siguiente comando de we„vef. luego el vector b y por último el a+b 2Como no aparece punto y coma que suprima la salida. el comando a. estas operaciones son válidas para vectores columna.2.2 bb —D˜D—C˜ bb —D˜D—E˜ De nuevo. bb —aIXQD˜aRXUD—C˜ MANUALES UEX 3. Operaciones entre vectores. bb —D˜D—B˜ El último comando devuelve un error porque ∗ es el símbolo de we„vef para la multiplicación de matrices. se pueden obtener resultados no esperados si no se recuerda que we„vef es un entorno que trabaja con matrices. bb —a@IXQA9D˜a@RXTA9 bb —C˜D—E˜ Sin embargo. bb —a@IXQA9D˜a@RXTA9 bb —D˜D—FB˜ primero el vector a.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 3.b. y en este caso hay un problema de compatibilidad entre los ordenes de las “matrices" a y b. En primer lugar. bb —aIXQ bb ˜aRXT La adición y sustracción de vectores es natural y fácil. También pueden ocurrir errores si se intenta añadir vectores de diferente tamaño.

con incremento de 1 escríbase bb xaIXIH bb yaxF”PEPBxEQ Supóngase ahora que se quiere evaluar la expresión sen( x )/x para valores de x entre −1 y 1 con incrementos de 0.4. por ejemplo. Con un poco de práctica se aprenderá como evaluar expresiones más complejas. para evaluar la expresión x2 − 2x − 3 para valores de x entre 1 y 10. La salida se calcula multiplicando las primeras componentes de los vectores — y ˜. El operador de we„vef para la división componente a componente es FG bb —D˜D—FG˜ Para elevar cada componente de un vector a una potencia. Supongamos. Expresiones más complicadas. úsese F¢ bb —D—F”P 3. MANUALES UEX 341 .∗ es el operador de we„vef para la multiplicación elemento a elemento.1 unidades. etc.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA El símbolo .3 bb xaEIXFIXI bb yasin@xAFGx Los operadores por componentes también funcionan con vectores columna. bb xd—t—a@IXIHA9 bb xd—t—F”P 3Escribiendo help elfun se obtiene una lista de las funciones elementales de MATLAB. a continuación las segundas componentes.

(1. escribe el comando we„vef que calcula el coseno de cada componente de x. escribe el comando de we„vef que eleva al cuadrado cada componente de x. Un vector fila que contenga los números pares entre 2 y 1000. Ejercicio 3. 3. Si xaEIXFIXI. Escribe el comando we„vef que genera cada uno de los siguientes vectores. Si xalinsp—™e@HDPBpiDIHHHA. Si xa‘HDIDRDWDITDPS“. ¿cuál es la entrada número 12 de yaHFSF”k? MANUALES UEX 342 . escribe el comando de we„vef que eleva cada componente de x a 2/3. Ejercicio 5. Un vector columna que contenga los números impares entre 1 y 1000. escribe el comando we„vef que calcula la raíz cuadrada de cada componente de x. Si xaHXPXPH. Ejercicio 4. −3 2. Si xaHXpiGPXPBpi. Ejercicio 6. 3).   1 1. Ejercicio 7. Si kaHXIHH. −1. 4. Ejercicio 2. escribe el comando we„vef que calcula el arcoseno de cada componente de x. Si xaHXFIXI. ¿cuál es la entrada 50 de x? ¿Cuál es la longitud de x? Ejercicio 8.  2 . 2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 1 Ejercicio 1.

Se pueden usar también espacios para delimitar las entradas de cada fila. help magic. para obtener información detallada sobre una en concreto escríbase help seguido del tipo de matriz. mientras que las comas se usan para separar las entradas en la fila.1. escríbase help elmat en el indicador de MATLAB. . bb ea‘IDPDQYRDSDTYUDVDW“ Obsérvese cómo los símbolos de punto y coma indican el final de la fila. Se aprenderá a construir matrices a partir de vectores y bloques de matrices. MANUALES UEX 343 we„vef tiene una serie de rutinas incorporadas para crear matrices. bb eazeros@SA bb fazeros@QDSA 1Para obtener una lista de todas las matrices elementales de MATLAB. Matrices especiales. Se experimentará con algunas funciones de construcción de matrices incorporadas en we„vef. Prerrequisitos: ninguno. Escríbase lo siguiente en el indicador de we„vef. por ejemplo. Entrada de matrices E La entrada de matrices en we„vef es fácil. bb ea‘I P QYR S TYU V W“ 1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 2 Matrices y MATLAB n esta práctica se aprenderá a introducir y editar matrices en we„vef.1 Es posible crear una matriz de ceros de cualquier tamaño. 1.

bb bb bb bb eaones@TA faones@PDIHA gahil˜@SA haones@size@gAA Cuando se realizan simulaciones en we„vef es útil construir matrices de números aleatorios. cada uno entre 0 y 1. MANUALES UEX 344 bb saeye@SA Se pueden generar otros tipos de matrices diagonales con el comando di—g. bb gaIHBr—nd@SA we„vef proporciona unas rutinas para el redondeo de números. bb bb bb bb hafloor@gA ha™eil@gA haround@gA hafix@gA La matriz identidad tiene unos en su diagonal principal y ceros en el resto. bb ear—nd@TA bb far—nd@SDQA La multiplicación por escalares es exactamente igual que para vectores.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Es fácil crear una matriz de ceros con el mismo tamaño que una dada. bb gam—gi™@SA bb hazeros@size@gAA Se pueden crear matrices de unos de manera análoga. con los siguientes comandos. bb iadi—g@‘IDPDQDRDS“A bb padi—g@‘IDPDQDRDS“DEIA bb qadi—g@IXSDIA . Se puede crear una matriz de números aleatorios con distribución uniforme.

Trasposición. tiene el mismo efecto que sobre vectores.  a11 A =  a21 a31 usa para representar una matriz con 3 .4. o activando la opción “Workspace" del menú “View" de la barra superior. Por supuesto. Es útil cuando el resultado es grande y se desea ocultarlo. Recuérdese que finalizando un comando de we„vef con punto y coma se elimina la salida.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. bb whos Obsérvese que aparece el tamaño de cada una de las variables. que es 9 (comilla simple). donde k es cuerpo (por ejemplo. a33 o en forma reducida A = ( aij ) ∈ M3 (k). bb uar—nd@IHHAY Espacio de trabajo de we„vef. MANUALES UEX 345 La siguiente notación es la que se filas y 3 columnas. bb ta‘I P QYR S TYU V W“ bb t9 1. Se intercambian filas y columnas. Elimina la salida.3. we„vef usa una notación similar para representar los elementos de una matriz. 1.2. El símbolo aij se refiere a la entrada situada en la fila i y columna j. Examínese el espacio de trabajo con el comando whos. El operador de trasposición. k = R o k = C. se puede obtener el tamaño de la matriz s con bb size@sA 2. Indexado de matrices a12 a22 a32  a13 a23  .

bb e@XDIA . Algo más sobre indexado. MANUALES UEX 346 bb e@‘IXPXT“D‘IXT“A Si se usa el símbolo dos puntos en lugar de subíndices. El comando bb e@‘IDQDS“D‘IDPDQDRDSDT“A produce una submatriz con las filas 1.1. bb eam—gi™@TA bb e@‘IDP“D‘QDRDS“A La notación e@‘IDP“D‘QDRDS“A referencia a la submatriz formada por los elementos que aparecen en las filas 1 y 2 y en las columnas 3. e@iDjA se refiere al elemento de la fila i. bb e@QDQAaIIIII 2. 4 y 5 de la matriz A. Así. se indica todo el rango. Esta es una herramienta de gran alcance que permite extraer fácilmente una submatriz de una matriz. de este modo se tiene que e@‘IXPXT“D‘IXT“A es equivalente a e@‘IDQDS“D‘IDPDQDRDSDT“A. Si se recuerda que la notación IXT representa al vector ‘IDPDQDRDSDT“ y que la notación IXPXT representa al vector ‘IDQDS“. columna j de la matriz A. los subíndices pueden ser vectores. 3 y 5 de la matriz A. También es fácil cambiar el valor de una entrada.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 7p—s™—l no fun™ion— en y™t—ve bb eap—s™—l@SA bb e@IDPA bb e@QDRA En general. Cuando se indexa una matriz.

3. En cierto sentido. 3. Construcción de matrices Con we„vef se pueden crear matrices más complejas a partir de otras matrices y vectores.1." El comando bb e@IXQDXA produce una submatriz compuesta de las tres primeras filas de la matriz A.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA produce la primera columna de la matriz A. y bb e@QDXA genera la tercera fila de la matriz A. cada uno formando una fila de la matriz M. Créense tres vectores fila con los comandos bb vIaIXQ bb vPaRXT bb vQaUXW El comando bb wa‘vIYvPYvQ“ construye una matriz con los vectores vID vP y vQ. la notación e@QDXA se puede leer como “Tercera fila. El comando bb xa‘vIDvPDvQ“ MANUALES UEX 347 . El comando bb e@XDIXPXTA produce una submatriz compuesta de las columnas 1. Construcción de matrices con vectores. 3 y 5 de la matriz A. todas las columnas.

hay que asegurarse que cada fila y columna tengan el mismo número de elementos. MANUALES UEX 348 bb ea‘IDPDQDRYSDTDUDVYWDIHDIIDIP“ bb ˜a‘IDIDI“9 bb wa‘eD˜“ es válido. pero con sentido. Cámbiense los vectores vIDvPDvQ en vectores columna con el operador de trasposición. Construcción de matrices con otras matrices. Por ejemplo. pero bb wa‘eY˜“ . la siguiente secuencia de comandos producirá un error.2. Por ejemplo. bb wIaIXQYwPaRXTYwQaUXIHY bb a‘wIYwPYwQ“ 3. Se puede obtener el mismo resultado con la transpuesta de la matriz M. bb €aw9 Téngase en cuenta que las dimensiones deben coincidir: cuando se construyen matrices.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS produce un resultado completamente diferente. Es una cuestión simple aumentar una matriz con un vector fila o columna. bb vIavI9 bb vPavP9 bb vQavQ9 El comando bb €a‘vIDvPDvQ“ construye una matriz con los vectores vIDvPDvQ como columnas de la matriz P.

aunque sí lo es bb ga‘IDPDQYRDSDT“ bb €a‘eYg“ 3. Así. Considérese el siguiente ejemplo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA no lo es. La imaginación es el límite. pero bb xa‘eYf“ no lo es. aunque sí lo es bb ™a‘IDIDIDI“ bb wa‘eY™“ Se pueden concatenar dos o más matrices. bb eam—gi™@QADfaones@QDRA bb wa‘eDf“ es válido.3. Las capacidades de construir matrices de we„vef son muy flexibles. bb eazeros@QADfaones@QADgaPBones@QADhaQBones@QA bb wa‘eDfYgDh“ Se puede construir una matriz de Vandermonde de la siguiente manera O también matrices por bloques bb fazeros@VA bb f@IXQDIXQAa‘IDPDQYRDSDTYUDVDW“ bb f@RXVDRXVAam—gi™@SA MANUALES UEX 349 bb xa‘IDPDQDRDS“9 bb xa‘ones@size@xAADxDxF”PDxF”QDxF”R“ .

1. Ejercicio 3.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 2 Ejercicio 1. 2. 7porm—t r—t no fun™ion— en y™t—ve bb form—t r—t bb rahil˜@SA bb form—t Escribe una fórmula para la posición (i. Escribe un comando we„vef que genere una matriz 4 × 4 con valores aleatorios enteros entre −5 y 5. j) de la matriz H. 3. Sea „atoeplitz@IXUA. introduzca la matriz ea‘IDPCiDsqrt@PAYQDQEiDsqrt@EIA“. Construye una matriz. Ejercicio 6. Para verlo. coloca las filas pares de la matriz T en una matriz B. Describe el resultado. coloca la última columna de la matriz T en un vector b. la segunda fila está formada por el seno cada entrada de x. cuya primera fila es x. Ejercicio 10. Escribe un solo comando que cree una matriz 3 × 5 con cada entrada igual a −3. Ejercicio 4. Escribe un comando de we„vef que 1. Sea xalinsp—™e@HDIHA.     10 5 −6 1 1 3 0  −5 −8 −4  . Apoya tu explicación con ejemplos en we„vef. Escribe los comandos de we„vef que generan las siguientes matrices. y la tercera fila es el coseno de cada entrada de x. Ejercicio 9. Sea xa‘HDpiGPDPBpi“. Crea una matriz de Hilbert con los siguientes comandos. El operador genera realmente la conjugada traspuesta de una matriz. MANUALES UEX 350 .)  6 8   −5 −10 3  4 4 10 −7 8 8 −5 Ejercicio 2. cuya primera columna sea x. Ejercicio 5. y la tercera columna sea el inverso de cada entrada de x. Construye una matriz. ¿Qué ocurre si ponemos eF9? Explica la diferencia entre los operadores de trasposición 9 y F9. con comandos de we„vef. Ejercicio 7. Explica la diferencia entre los comandos floorD ™eilD round y fix.)  −3 −1 2. con comandos de we„vef. ¿Cuál es la entrada en fila 5 y columna 7 de la matriz p—s™—l@IHA? Ejercicio 8. la segunda columna esté formada por los cuadrados de cada entrada de x. coloca las filas impares de la matriz T en una matriz C. teclea entonces e9.

Vamos a ver cómo puede we„vef ayudarnos en el proceso. es decir. Cada pivote es 1. En primer lugar. MANUALES UEX 351 Se dice que una matriz está en forma escalonada por filas reducida si satisface además otra propiedad . que calcula la forma escalonada por filas de una matriz. En cuanto la matriz de coeficientes es de un tamaño superior a 5 × 5. Una matriz se dice que está en forma escalonada por filas si Las filas de ceros aparecen en la parte inferior de la matriz.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 3 Formas escalonadas de una matriz E n esta práctica aprenderemos a manejar el comando rref de we„vef. hemos invertido cierto tiempo para resolver sistemas de ecuaciones lineales a mano. recordemos algunas definiciones. Resolución de sistemas con we„vef 1. Prerrequisitos: cierta familiaridad con cálculos a mano de la forma escalonada por filas de una matriz. también se verán algunas de sus aplicaciones. que mediante transformaciones elementales (por filas) toda matriz se puede convertir en una matriz escalonada por filas (reducida). con lo que advertimos que es un proceso largo y con tendencia a que se produzcan errores. El primer elemento no nulo en cada fila de una matriz se denomina pivote. lo más probable es que nos equivoquemos en el resultado. Cada pivote aparece en una columna estrictamente a la derecha del pivote de la fila anterior. Hasta ahora. Cada pivote es el único elemento no nulo en su columna. De hecho la forma escalonada por filas reducida de una matriz se diferencia de la forma reducida por filas en que en esta última se permiten las permutaciones de columnas. Se sabe que toda matriz es equivalente a una matriz en forma escalonada por filas (reducida).

. . . bb rrefmovie@eA .3) 0 1 1 2 que podemos introducirla en el espacio de trabajo de we„vef con bb ea‘IDIDIDTYIDHDEPDRYHDIDIDP“ El comando rref de we„vef calcula la forma escalonada por filas de la matriz A.1.1) . o el sistema tenga infinitas soluciones. . es de sobra conocido que cuando se resuelve un sistema de ecuaciones de la forma  a11 x1 + a12 x2 + . + a1n xn = b1    a21 x1 + a22 x2 + .   .1. Solución única. Consideremos el sistema (3.1. MANUALES UEX 352 bb ‚arref@eA El commando rrefmovie de we„vef nos muestra paso a paso cómo ha obtenido la forma escalonada por filas.1. + amn xn = bm puede ocurrir que el sistema tenga una única solución. 1. (3.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Por otra parte. .2) x1 x1 + x2 x2 + x3 −2x3 + x3  = 6  = 4  = 2 La matriz ampliada de este sistema es   1 1 1 6  1 0 −2 4  . + a2n xn = b2  (3. o el sistema no tenga solución. . .   am1 x1 + am2 x2 + . Veamos un ejemplo de cada caso.

0). lo que coincide con nuestro resultado. Es interesante considerar la geometría de este ejemplo. (3.1.2) producen tres planos.5) x2 x3  = 4  = 2  = 0 que es equivalente al sistema (3. Por tanto. 1.1. Sin soluciones. Como se puede ver en la Figura (1).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Hemos obtenido que la forma escalonada por filas de la matriz ampliada (3.4) 0 0 1 0 Esta matriz representa al sistema x1 (3.3) es   1 0 0 4  0 1 0 2 . Observemos además que la intersección de los tres planos en la Figura (1) es un único punto.1. 2.2). el sistema (3.1.1. Cada una de las ecuaciones del sistema (3.1. MANUALES UEX 353 .1.2) representa un plano en el espacio de 3 dimensiones. Los tres planos se cortan en un punto. 10 5 0 −5 −10 20 10 0 −10 −20 20 0 40 Figura 1.2. las tres ecuaciones del sistema (3.2) tiene solución única (4. Un sistema con solución única.

bb ‚arref@eA Por tanto. De nuevo.1. Como ejemplo final.1. Por tanto. Como podemos ver en la figura 2. 1. consideremos el sistema (3. Decimos que el sistema 3.1. la representación geométrica aporta luz a lo anterior.6 tampoco.1.1.7) 2 1 1 −2 −1  −6 4 .8. no hay puntos comunes a los tres planos.1.6) x1 x1 2x1 + x2 + x2 + x3 −2x3 − x3  = −6  = 4  = 18 La matriz ampliada del sistema es  1 1  1 0 (3.1.6 es incompatible.10) x1 x1 2x1 + x2 + x2 354 + x3 −2x3 − x3  = 6  = 4  = 10 .9) 0x1 + 0x2 + 0x3 = 1 MANUALES UEX Es claro que la ecuación 3. 18 que podemos introducirla en we„vef con el comando bb ea‘IDIDIDETYIDHDEPDRYPDIDEIDIV“ Usamos el comando rref para calcular la forma escalonada por filas. la forma escalonada por filas de la matriz (3.8) 3 0  0 0 0 1 Observemos la última fila de la matriz 3. Representa la ecuación (3. Infinitas soluciones.7) es   1 0 −2 0  0 1 (3. el sistema 3.3.9 no tiene solución. cada plano corta a otro en una recta.1.1. pero esa recta es paralela al otro plano. que coincide con nuestro resultado algebraico.1. Por tanto.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Consideremos ahora el sistema (3.

13) 0x1 + 0x2 + 0x3 = 0. Dos planos se cortan en una recta. La columna 3 no tiene pivote. Observemos que las columnas 1 y 2 tienen pivotes.1. La matriz ampliada del sistema es  1 1  1 0 (3. la variable x3 es libre. tenemos solamente dos pivotes. en este momento. Es muy importante. No hay puntos comunes en la intersección. 0 0 0 0 Observemos que tenemos una fila de ceros en la parte inferior de la matriz. Así.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 10 8 6 4 2 0 −2 −4 −6 −8 −10 10 5 0 −5 −10 30 20 10 0 −10 −20 −30 Figura 2.1. identificar las variables pivotes y las variables libres.1. x1 y x2 son variables pivote.12) 3 2 . paralela al otro. MANUALES UEX 355 . Por tanto.1.11 es   1 0 −2 4  0 1 (3. Como la última fila de la matriz representa la ecuación (3.11) 2 1 y en we„vef queda 1 −2 −1  6 4  10 bb ea‘IDIDIDTYIDHDEPDRYPDIDEIDIH“ Usamos el comando rref bb ‚arref@eA y la forma escalonada por filas de la matriz 3. Además.

1. −1. 10 5 0 10 MANUALES UEX −5 0 −10 −20 −10 0 20 40 Figura 3. 0).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS que se verifica para cualesquiera valores de x1 . 356 . Es habitual colocar parámetros para representar la variable libre. si hacemos x3 = λ.16) x1 = 4 + 2λ. Como podemos ver en la figura 3. que coincide con nuestra conclusión anterior. Así nos queda (3.1. 1).10 tiene infinitas soluciones. que contiene un número infinito de puntos. Para λ = 1 nos queda (6. x3 = λ donde λ es cualquier número real.1. Los tres planos se cortan en una recta. Por ejemplo.14) x1 x2 −2x3 +3x3 =4 =2 Ahora el método es simple y directo. x2 y x3 . hay un número infinito de soluciones. De nuevo. para λ = 0 obtenemos la solución (4. Por tanto. Por ejemplo.1.1. Resolvemos cada ecuación para su variable pivote en función de la variable libre. x2 y x3 que satisfacen las ecuaciones representadas por las dos primeras filas de la matriz 3. el sistema 3. x2 = 2 − 3λ. únicamente necesitamos encontrar los valores de x1 . descritas por (3. la visualización geométrica nos aclara lo anterior. Por cada valor que demos a λ obtenemos una solución. 2. los tres planos se cortan a lo largo de una recta.15) x1 x2 = 4 + 2x3 = 2 − 3x3 .12 (3.

  2 −4 −2 0 2 −4 4  4 1 0 −3 4 −4 −3    (3. porque estas ecuaciones las verifican todos los valores. x1 y x2 son variables pivote.2. Más difícil todavía El pánico suele crecer cuando el número de ecuaciones e incógnitas se incrementa. En primer lugar. Cambia las variables libres por parámetros. Por tanto. Por ejemplo.2. x4 .17) −4x1 4x1 x1 −2x2 + x2 −2x2 −2x2 +2x4 −3x4 −3x4 −2x4 −4x5 +4x5 + x5 +4x6 −4x6 − x6 = 2 = −3 = −3 = −2 A simple vista. Las restantes incógnitas. Esto se obtiene observando las columnas que no tienen pivote. Si seguimos las reglas anteriores. Identifica las variables libres. consideremos el siguiente sistema (3. el problema puede echar para atrás por su tamaño. este aumento hace las cosas un poco más difíciles. Esto se consigue observando las columnas que son pivote. Las últimas filas de ceros se pueden ignorar. pero si seguimos una sencillas reglas estas dificultades desaparecen.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 2. bb ea‘ERDEPDHDPDERDRDPYRDIDHDEQDRDERDEQY FFF bb IDEPDHDEQDIDEIDEQYHDEPDHDEPDHDHDEP“ Calculamos la forma escalonada por filas con rref. Resuelve cada ecuación colocando cada variable pivot en función de la libres. solamente debemos resolver el sistema (3.18)  1 −2 0 −3 1 −1 −3  0 −2 0 −2 0 0 −2 y la introducimos en we„vef. x5 y x6 son variables libres. consideremos la matriz ampliada. Identifica las variables pivot. Las columnas uno y dos tienen pivotes.19) x1 x2 − x4 + x4 + x5 − x6 = −1 = 1 MANUALES UEX 357 bb ‚arref@eA . no tendremos problema para encontrar la solución. Por supuesto. Así. x3 .2.

x4 = β. (3. el tamaño no debe ser un problema. . . donde α.2. γ. .2. 0. . . .21) = −1 + β − γ + δ.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Resolvemos cada ecuación para su variable pivote. Por ejemplo.2. = δ. 1 . No obstante. Por ejemplo. . x6 = δ y nos queda x1 x2 x3 x4 x5 x6 (3.17 tiene infinitas soluciones. bb f a inv@eA bb eBf MANUALES UEX Veamos otra forma de calcular la inversa de A usando forma escalonada por filas.2. el problema se vuelve más difícil. y las podemos obtener dando valores a los parámetros de 3. = β. = γ. = 1 − β. β. .   1 −1 0 A =  2 0 −3  0 2 1 bb e a ‘ID EID HY PD HD EQY HD PD I“ La orden inv de we„vef calcula la matriz inversa de A. por definición. . . δ son números reales arbitrarios. 0)t . x3 = α.21. por lo que la columna j-ésima de X es la (única) solución del sistema j) 358 A( x1j . x5 = γ. también observamos que con estas simples reglas. 0. cuando el número de incógnitas y ecuaciones crece. 3.20) x1 x2 = −1 + x4 = 1 − x4 − x5 + x6 Pongamos las variables libres como parámetros. . . Para ello basta tener en cuenta que. = α. xnj )t = (0. Como podemos ver. la matriz inversa de A es la única matriz X = ( xij ) ∈ Mn (k) tal que AX = In . . Matriz inversa y forma escalonada por filas Sea A = ( aij ) ∈ Mn (k) una matriz invertible. Entonces el sistema 3.

bb g a rref@e9A9 Ya sabemos calcular la forma escalonada por columnas. sin embargo. Cálculo de matrices de paso Sea A = ( aij ) ∈ Mm×n (k) una matriz invertible. y no la fórmula por todos conocida que tiene un coste de tiempo prohibitivo.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Por consiguiente. no sólo la forma escalonada R de A. bb bb bb bb bb s a eye@QA es a ‘eDs“ res a rref@esA € a res@IXQDRXTA eB€ De hecho. 4. sino además una matrices invertibles P ∈ Mn (k) y Q ∈ Mm (k) tales que Q−1 AP = R. basta calcular la traspuesta de la forma escalonada por filas de la traspuesta de A. Pero.   0 0 1 1  −2 −1 2 −1   A=  2 1 4 2  4 2 3 0 bb form—t r—t bb e a ‘ HD HD ID IY EPD EID PD EIY PD ID RD PY RD PD QD H“ Veamos como podemos usar el commando rref para calcular. si partimos de la matriz ( A| In ) ∈ Mn×2n (k) y calculamos su forma escalonada por filas llegaremos a la matriz ( In | A−1 ). Por ejemplo. La clave de nuestra construcción consistirá en tener en cuenta que la forma escalonada de A es la forma escalonada por columnas de la forma escalonada por filas de A. los programas de ordenador usan este método (o variantes del mismo) para calcular la matriz inversa. ¿cómo se calcula la forma escalonada por columnas con we„vef? La respuesta es bien sencilla. es suficiente observar que la forma escalonada por filas MANUALES UEX 359 . seguimos sin conocer cómo se calculan las matrices de paso. Para calcular una matriz invertible Q ∈ Mm (k) tal que F = Q−1 A es la forma escalonada por las filas de A.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS de ( A| Im ) es ( F | Q−1 ) (que es lo que sucedía antes cuando calculábamos la inversa). ya teníamos calculada la forma escalonada por filas F de A y la matriz de paso Q. bb bb bb bb bb i a p9 is a ‘iDeye@RA“ pis a rref@isA €I a pis@XDSXVA € a €I9 . tal que AP es la forma escalonada por columnas C de A. las sucesivas operaciones elementales por filas que se hacen en A para obtener su forma escalonada por filas quedan recogidas en la matriz identidad de la derecha. Para ello. Ahora. bb bb bb bb bb p a rref@eA es a ‘eDeye@RA“ pes a rref@esA I a pes@XDSXVA  a inv@IA La explicación es bien sencilla. En nuestro caso. De forma más precisa Q−1 ( A| Im ) = ( Q−1 A| Q−1 Im ) = ( Q−1 A| Q−1 ) = ( F | Q−1 ). luego sólo nos queda calcular la forma escalonada por columnas de F y una matriz de paso. basta calcular la forma escalonada por columnas de la forma escalonada por filas de A y unas matrices de paso. repetimos el proceso anterior con la traspuesta de A. bb bb bb bb bb f a e9 fs a ‘fDeye@RA“ pfs a rref@fsA €I a pfs@XDSXVA € a €I9 MANUALES UEX 360 Una vez que sabemos calcular matrices de paso para la forma escalonada por filas y para la forma escalonada por columnas de A. como el comando rref no permuta columnas. para calcular matriz invertible P ∈ Mn (k). y trasponemos el resultado obtenido. veamos cómo se calculan unas matrices de paso P ∈ Mn (k) y Q ∈ Mm (k) tales que Q−1 AP es la forma escalonada de A.

esto ocurre cuando usamos el formato racional y el tamaño de la entrada tiene demasiada longitud. estos asteriscos deben ser tratados como ceros. aunque en realidad lo que ponen de manifiesto es la propagación de errores de redondeo en nuestras operaciones. MANUALES UEX 361 . como es nuestro caso. En nuestro ejemplo. cuando se trata de una fracción con un denominador muy grande.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Obsérvese que we„vef ha escrito B en vez de algunas entradas de las matrices que hemos ido obteniendo. por ejemplo.

la forma reducida de A y las matrices de paso cada caso. Dadas la siguientes matrices    1 2 −1 3 8  2 4 −2 6   16   A=  3 6 −3 9  y B =  24 1 3 1 2 9  2 0 9 4 0 18  . usando we„vef. la solución general de este sistema. Hallar las inversas de las siguientes matrices utilizando el método de Gauss-Jordan con ayuda del comando rref de we„vef. 1. calcula una base del núcleo de A. Consideremos la siguiente matriz  −4 −2 −4  −2 −10 −22 A=  −5 2 5 −24 6 16  0 4  . −2  −8 Si R es la forma escalonada por filas de A.     4 −6 −9 1 −5 −11 A =  −2 −1 1  . 0  y C= 3 2 1 2 1 0 1 Hallar. Ejercicio 3. donde X es una matriz de orden 3 de incógnitas y   1 −1 1 3 1 4 2 A= . Calcular la forma escalonada por columnas de A. calcula la solución general del sistema Ax = b. calcular. Dar una condición necesaria y suficiente para que fijadas dos matrices A y B ∈ Mm×n (R) exista una matriz invertible P ∈ Mn (R) tal que AP = B. las matrices Q y P tales que Q−1 AP = R. ker( A). Ejercicio 5. con A= 1 2 1 1 −1 0 2 1 1 1 y b= 3 1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 3 Ejercicio 1. Usando este comando. Ejercicio 4. si es posible. El comando null de we„vef. 6 0 27  −3 4 14 estudiar si existe una matrix invertible P ∈ M4 (R) tal que AP = B. Considerar el sistema de ecuaciones AXB = C. B =  −1 −2 −18  −1 1 2 1 −1 6 MANUALES UEX 362 . Ejercicio 2. B= 1 .

a que llamaremos e˜. Por ejemplo. a las que llamaremos e y ˜. Estudiar la compatibilidad de dicho sistema y resolverlo usando la función rref de we„vef.  x − 2y = 1  4x + y = −1  5x − y = 1 MANUALES UEX 363 . Suponiendo que el tráfico que entra a una intersección también sale. en la intersección [1] x1 + x5 + 100 = tráfico que entra = tráfico que sale = x3 + 300. Considerar el siguiente diagrama de una malla de calles de un sentido con vehículos que entran y salen de las intersecciones. 2. y explicar el resultado. La intersección k se denota [k ]. Usar la función inv de we„vef para comprobar dichos resultados. 200 [2] x1 300 x3 100 [1] x5 200 x2 200 [3] 200 100 x4 [4] 100 Ejercicio 7. Flujos de Tráfico. Considerar ahora el sistema ecuaciones lineales. y repetir los apartados anteriores. y la matriz ampliada del sistema. Escribir e\˜ en la línea de comandos de we„vef. Estudiar la compatibilidad del sistema usando la función rref. respectivamente. Sea xi el número de vehículos por hora que circulan por la calle i.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA  0 −1 −5 1  −1 −1 5 −5   C=  1 1 −4 4  −1 −3 −5 −1 2. lo que da x1 − x3 + x5 = 200.  Ejercicio 6. establecer un sistema de ecuaciones que describa el diagrama del flujo de tráfico. Las flechas a lo largo de las calles indican la dirección del flujo de tráfico. Considerar el sistema de ecuaciones lineales  x − 2y + 3z = 1  4x + y − 2z = −1  2x − y + 4z = 2 1. Definir la matriz A del sistema y la matriz b de términos independientes. 3.

Juan tiene 4 euros en monedas de 1. Construye la matriz ampliada wa‘eD˜“ y obtenga su forma reducida por filas con el comando rref@wA.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 8. 5 y 10 céntimos de euro. Realiza las siguientes tareas para cada caso. 2. • Resuelve cada ecuación para su variable pivote. b =  −2  0 1 1 0 respectivamente. Cópiala en un papel. Define una matriz cuadrada de orden 9 con coeficientes enteros entre −4 y 4.  0 0 0 1 −2 2 −2 −2     3 1 0 0 −1 −1 −2 −1  1 −4 0 −2 −5 0 −1 −5 (b)   −2 −2 2 −1 1 −2 −1 −1 0  −1 −2 2 1 3 −1 −2 −1 0     0 0 1 0 3 −2 −1 −1 0      0 0 2 2 1 −1 0 0   1  . • Asigna parámetros a las variables libres. • Identifica variables pivote y variables libres. (a)   3 −1 0 −1 −3 −1 −2 −3  −2 0 0 0 2 0 2 2     3 0 0 −1 −1 −2 −1 −1   . 1 0 −1 −2 −1 0 −1 −2   −2    0 1 −2 −1 −4 1 2 1 0     0 1 2 1 2 1 −2 −1 −2  −2 −1 0 1 0 −1 −1 −1 −1 Ejercicio 10. Cada una de las siguientes matrices representa la matriz ampliada de un sistema lineal. Ejercicio 9. y en total tiene 100 monedas. • Introduce la matriz en we„vef y con el comando rref calcula la forma escalonada por filas. El sistema de ecuaciones   x1 +2x2 2x1  x2 −3x3 −3x3 + x3 =4 = −2 =0 tiene como matriz de coeficientes y vector de términos independientes a     1 2 −3 4 A =  2 0 −3  . Realiza las siguientes tareas para cada caso. Tiene igual número de monedas de 2 céntimos y de 5 céntimos. ¿De cuántas formas es esto posible? MANUALES UEX 364 .

determinar la distribución inicial. 20 y 40 ¿Cuál es la distribución al final de un minuto? #3 #4 #2 #1 Figura 4. 26 y 37 insectos en las habitaciones 1. desde la habitación 3. Los insectos que la abandonan se distribuyen uniformemente entre las demás habitaciones que son accesibles desde la que ocupan inicialmente. Resuelve cada ecuación para su variable pivote. Si la distribución inicial es 20. 2. 2. los insectos se han redistribuido. 25. respectivamente. Asigna parámetros a las variables libres. Supongamos que un minuto no es bastante tiempo para que un insecto visite más de una habitación y al final de un minuto el 40 % de los insectos de cada habitación permanece en ella. Usar el método de Gauss para sistemas 4x − 8y + 5z = 1 4x − 7y + 4z = 0 3x − 4y + 2z = 0 resolver simultáneamente los 0 1 0 0 0 1 Ejercicio 13. Supongamos que 100 insectos se distribuyen en una cámara que consta de 4 habitaciones con pasajes entre ellos tal como aparece en la figura (4). 20. Ejercicio 12. Define una matriz cuadrada de orden 9 con coeficientes enteros entre −4 y 4. 3 y 4.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicio 11. 1. Identifica variables pivote y variables libres. Si al final de un minuto hay 12. Con el comando rref calcula la forma escalonada por filas. Distribución de las cámaras y los pasajes. Al final de un minuto. Por ejemplo. MANUALES UEX 365 . la mitad de los que se mueven van a 2 y la otra mitad a 4.

Calcular la forma escalonada por columnas de A.01 Figura 5. las matrices Q y P tales que Q−1 AP = R. Calcula la temperatura ti en cada punto interior del retículo. Distribución de temperatura en una placa de metal. Sea ti la temperatura en grados en cada punto del retículo en el interior de la placa. Consideremos la siguiente matriz  −4 −2 −4 0  −2 −10 −22 4 A=  −5 2 5 −2 −24 6 16 −8   .  MANUALES UEX 366 Si R es la forma escalonada por filas de A.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 14. Ejercicio 15. 00 C 00 C 00 C t1 t2 t3 t4 t5 t6 t7 t8 t9 fig4. . En la figura (5) aparece una placa de acero. la forma reducida de A y las matrices de paso cada caso. Supongamos que la temperatura en cada punto interior del retículo es la media de las temperaturas de sus cuatro puntos vecinos. usando we„vef. La temperatura en cada punto del retículo en el borde de la placa aparece en la figura. calcular. La temperatura en cada punto de la placa es constante (no cambia con el tiempo).

1.5n )n∈N cuando n → ∞. Forma canónica de Jordan.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 4 Comportamiento asintótico de sistemas dinámicos L a forma cerrada de la solución de un sistema de ecuaciones en diferencias se puede usar para determinar el comportamiento a largo plazo o asintótico de un sistema dinámico. Hay que distinguir varios casos. Pre-requisitos: conocimiento de autovalores y autovectores. Ecuaciones en diferencias homogéneas finitas con coeficientes constantes (caso diagonalizable).1. El siguiente código en we„vef genera los 15 primeros términos de la sucesión.5)n = 0. Vamos a realizar varios experimentos cuando λ es un número real.75)n )n∈N oscila entre valores positivos y negativos. De forma análoga. Comportamiento de la sucesión λn Para una comprensión de lo que viene después. El concepto de autovalor dominante aparece entonces. Cuando λ es un número real. necesitamos estudiar en primer lugar el comportamiento asintótico de la sucesión (λn )n∈N . aunque la velocidad es menor que la sucesión definida por (0. 1. se puede ı estimar el límite de la sucesión ((−0. MANUALES UEX 367 Este resultado nos indica que l´mn→∞ (0.5n )n∈N . Vemos también que converge a cero. .75)n )n∈N . Por ejemplo. bb na@IXISA9Y bb @HFSAF”n bb na@IXQHA9Y bb @EHFUSAF”n Observemos que la sucesión definida por ((−0. con λ ∈ C. estudiemos el límite de la sucesión (0.

3n .99)n . {(−0. . Con we„vef podemos calcular fácilmente la norma de un número complejo con los comandos norm o —˜s bb norm@HFQCHFRiA Y las siguientes instrucciones en we„vef generan los 15 primeros términos de la sucesión definida por ((0. bb na@IXISA9Y bb @HFQCHFRiAF”n MANUALES UEX La siguiente figura (obtenida con el comando plot@@HFQCHFRiAF”nA de we„vef) se observa que los términos de la sucesión convergen a 0 + 0i.4i)n )n∈N . verificar que las siguientes sucesiones producen términos de valor absoluto tan grande como queramos cuando n → ∞. Cuando λ es un número complejo.42 ≈ 0. Conjetura. entonces los términos de la sucesión {λn } se hacen tan grandes como queramos en valor absoluto.25 + 0. ı Experimento.2i )n }.5. (0. Conjetura.25)n . verificar que las siguientes sucesiones converge a cero cuando n → ∞.32 + 0. Experimento. Experimento.2. entonces l´mn→∞ λn = 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Conjetura. Usar we„vef para probar que el término general de las siguientes sucesiones tiene norma menor que 1. (0. Si λ es un número real con abs(λ) < 1. (−1. 368 {(0. Si λ es un número real tal que abs(λ) > 1. (−0. En we„vef.3 + 0.5 − 0.05)n . Por ejemplo.4i entonces la norma de λ es |λ| = 0. si λ = 0. (1. Observemos que en este caso |λ| < 1. √ Si λ = a + bi entonces su norma es |λ| = a2 + b2 . Si |λ| < 1 entonces la sucesión (λn )n∈N converge a 0.45i )n }.8)n . y que convergen a cero. 2.3 + 0. En we„vef.4)n . 1.

05 0 0.05 0.2 0.8i)n )n∈N .25 0. Por ejemplo.3 + 0. que bb norm@HFVCIFPiA Con las siguientes instrucciones generamos los primeros términos de la sucesión. ((1. Convergencia a 0 de la sucesión ((0.25 0. Experimento.15 −0. Conjetura.1 0.35 0.15 0.05 0 −0. bb —˜s@ƒA Es claro que las normas de los términos de la sucesión van creciendo en tamaño.4 − 0. bb na@IXISA9Y bb ƒa@HFVCIFPiAF”n Podemos ver las normas de cada término de la sucesión. Usar we„vef para probar que el término general de las siguientes sucesiones tiene norma mayor que 1.2i entonces |λ| = es mayor que uno.1 −0.15 0.4 0.4i)n )n∈N .22 ≈ 1.3 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 0. 0. y la sucesión (λn )n∈N alcanza valores de norma cada vez mayor. Si |λ| > 1 entonces la sucesión (λn )n∈N toma valores de norma tan grandes como se quiera.3 Figura 1.82 + 1.8 + 1.2 0. MANUALES UEX 369 . ((−1.25 + 0.05 −0.8i)n )n∈N .1 0. si λ = 0.4422.

2 xn−1 2 = 0.2) xn = 1.8 En efecto.0 xn−1 1 + 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 200 150 100 50 0 −50 −100 −150 −100 −50 0 50 100 150 Figura 2.2 xn−1 1 + 1. x0 = .0 1 0 con x01 = 0 y x02 = 1. Comportamiento de la sucesión ((0.1) xn1 xn 2 = 1. 370 bb bb bb bb e a ‘IFHD HFPY HFPD IFH“ l—m˜d— a eig@eA vI a null@l—m˜d—@IABeye@PAEeD9r9A vP a null@l—m˜d—@PABeye@PAEeD9r9A .2)n )n∈N .2 x n −1 . Sistemas de ecuaciones en diferencias: comportamiento asintótico Consideremos el sistema de ecuación en diferencias con condición inicial definida por (4. En notación matricial (4. 1 −1 1 MANUALES UEX λ2 = 0. n ≥ 0.0 xn−1 2 0.2 1.2 1.2.0 0.8 + 1. siendo xn = ( xn1 . xn2 )t . Los autovalores y autovectores asociados de la matriz A= son λ1 = 1.0 0.2 0.0 1 .2. 2.2 y y v1 = v2 = 1.

cuando iteramos la ecuación (4.6) indica que el vector xn es. En efecto. es decir.5) = c1 v1 + c2 l´m ı Pero como |λ1 | > |λ2 | sabemos que |λ2 /λ1 | < 1 y en consecuencia l´m n → ∞ ı λ2 λ1 n =0 y n→∞ l´m ı 1 n x n = c1 v1 . |λ1 | > |λ2 |.6) n x n ≈ c1 λ1 v1 . = An x0 = P n λ1 0 0 n λ2 P −1 x 0 = P n λ1 0 0 n λ2 c. entonces xn = Axn−1 = .2.1) es (4. para valores grandes de n se tiene que 1 n x n ≈ c1 v1 λ1 (4. el vector xn se va colocando de forma paralela al autovalor v1 . Así. Nos queda entonces (4.2. λ1 Entonces. entonces la forma cerrada de la solución ecuación (4. Nota. decimos que λ1 es el autovalor dominante de A. la ecuación (4. λ2 ).1).2.2. un múltiplo de v1 .2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Por consiguiente.. x0 = c1 v1 + c2 v2 . entonces P−1 AP = D = diag(λ1 . Como en la práctica sobre ecuaciones en diferencias. n Como c1 y λ1 son escalares. . . si P = (v1 .2. si c = P−1 x0 . en nuestro caso. aproximadamente. n→∞ l´m ı 1 n xn λ1 = n→∞ l´m ı c1 v1 + c2 n→∞ λ2 λ1 λ2 λ1 n n v2 v2 (4. v2 ) ∈ M2 (R).2.2. n Ahora dividimos ambos lados de la ecuación (4. MANUALES UEX 371 .Como.4) 1 n x n = c1 v1 + c2 λ1 λ2 λ1 n v2 Tomemos límite cuando n → ∞ en la expresión anterior. si la condición inicial se puede escribir como combinación lineal de los autovectores.3) n n x n = c1 λ1 v1 + c2 λ2 v2 .3) por λ1 .

Introducimos entonces la matriz de la ecuación 4. primero hacia adelante en el tiempo desde la condición inicial x0 y luego hacia atrás en el tiempo.2.1). se acerca de forma paralela al autovalor v1 . aproximadamente. Observa que esta solución. Crea ahora más trayectorias de la ecuación (4. que nos ayudará a dibujar soluciones de la ecuación (4. en el punto (1. Note que las trayectorias futuras se acercan a un vector paralelo a v1 . que va a ser la condición inicial x0 = (1. Vamos a usar el m-fichero tr—yFm (cuyo código se incluye al final de esta sección).1 cuando nos la pidan. Se dibuja la trayectoria solución. Coloca el puntero del ratón. Ejecutamos el programa tecleando tr—y en la pantalla de comandos de we„vef. bb tr—y El programa responde creando una figura con ejes.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. Fichero tr—yFm 372 fun™tion tr—y@—™tionA glo˜—l exrndl pigxum ee if n—rgin`I —™tiona9initi—lize9Y end if str™mp@—™tionD9initi—lize9A home eea input@9sntroduz™— un— m—triz PxP en l— form— ‘—D˜Y™Dd“ EEb 9AY pigxumafigure@g™fAY ™lf set@pigxumDFFF 9units9D9norm—lized9DFFF 9position9D‘FI FI FV FV“DFFF 9x—me9D9ƒistem—s hin¡—mi™os9DFFF 9xum˜er„itle9D9off9DFFF 9‡indowfuttonhownp™n9D9tr—y@99gotr—j99A9AY exrndla—xes@FFF 9xlim9D‘EIH IH“DFFF 9ylim9D‘EIHDIH“DFFF 9xti™k9DEIHXIHDFFF 9yti™k9DEIHXIHDFFF 9units9D9norm—lized9DFFF 9position9D‘FI FI FU FV“AY MANUALES UEX . tal como aparece en la figura. 0)t . Dibujo de trayectorias. 0).1) pulsando condiciones iniciales x0 con el ratón.1. y haga ’click’ con el botón derecho.2.2.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA x—xaline@‘EIH IH“D‘H H“D9™olor9D9˜l—™k9AY y—xaline@‘H H“D‘EIH IH“D9™olor9D9˜l—™k9AY grid —xhndlPa—xes@FFF 9units9D9norm—lized9DFFF 9position9D‘FVSDFUDFIDFP“DFFF 9visi˜le9D9off9DFFF 9xlim9D‘EI I“DFFF 9ylim9D‘H I“AY ya‘H FI FP FR FV“Y xazeros@size@yAAY line@xDyDFFF 9linestyle9D9E9DFFF 9m—rker9D9o9DFFF 9™olor9D9˜9AY 7line@xDyDFFF 79linestyle9D9E9DFFF 79™olor9D9˜9AY textfwdaui™ontrol@FFF 9style9D9text9DFFF 9units9D9norm—lized9DFFF 9position9D‘FVS FT FI FHS“DFFF 9string9D9futuro9DFFF 9poregroundgolor9D9˜9AY —xhndlQa—xes@FFF 9units9D9norm—lized9DFFF 9position9D‘FVSDFQDFIDFP“DFFF 9visi˜le9D9off9DFFF 9xlim9D‘EI I“DFFF 9ylim9D‘H I“AY ya‘H FI FP FR FV“Y xazeros@size@yAAY line@xDyDFFF 9linestyle9D9E9DFFF 9m—rker9D9x9DFFF 9™olor9D9r9AY 7line@xDyDFFF 79linestyle9D9E9DFFF 79™olor9D9r9AY text˜wdaui™ontrol@FFF 9style9D9text9DFFF MANUALES UEX 373 .

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 374 9units9D9norm—lized9DFFF 9position9D‘FVS FP FI FHS“DFFF 9string9D9p—s—do9DFFF 9poregroundgolor9D9r9AY q˜utaui™ontrol@FFF 9style9D9push˜utton9DFFF 9string9D9ƒ—lid—9DFFF 9units9D9norm—lized9DFFF 9position9D‘FVS FHS FI FHS“DFFF 9™—ll˜—™k9D9tr—y@99quit99A9AY figure@pigxumAY —xes@exrndlA elseif str™mp@—™tionD9gotr—j9A xaPHY pointsazeros@PDxAY figure@pigxumAY —xes@exrndlAY paget@g™—D9gurrent€oint9AY xap@IDIAYyap@IDPAY points@XDIAa‘xDy“9Y for kaPXx points@XDkAaeeBpoints@XDkEIAY end fwdptaline@points@IDXADpoints@PDXADFFF 9linestyle9D9o9DFFF 9™olor9D9˜9DFFF 9er—semode9D9˜—™kground9DFFF 9™lipping9D9on9AY fwdsegaline@points@IDXADpoints@PDXADFFF 9linestyle9D9E9DFFF 9™olor9D9˜9DFFF 9er—semode9D9˜—™kground9DFFF 9™lipping9D9on9AY for kaPXx points@XDkAainv@eeABpoints@XDkEIAY end ˜wdptaline@points@IDXADpoints@PDXADFFF 9linestyle9D9x9DFFF 9™olor9D9r9DFFF 9er—semode9D9˜—™kground9DFFF 9™lipping9D9on9AY MANUALES UEX .

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA ˜wdsegaline@points@IDXADpoints@PDXADFFF 9linestyle9D9E9DFFF 9™olor9D9r9DFFF 9er—semode9D9˜—™kground9DFFF 9™lipping9D9on9AY elseif str™mp@—™tionD9quit9A ™lose@pigxumA end MANUALES UEX 375 .

6 0.2 0.16 0. Escribir en forma cerrada n n x n +2 = c 1 λ 1 v 1 + c 2 λ 2 v 2 la solución de la ecuación.18 x n −1 . x0 = x0 = 5 3 1 4 .16 1. x n −1 . Usar el resultado para aproximar xn para valores grandes de n y prediga el comportamiento de la solución. xn = xn = 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 4 Ejercicio 1. Para cada una de las siguientes ecuaciones en diferencia (sistemas dinámicos) realizar las siguientes tareas: Usar el comando eig para calcular los autovalores y autovectores de la matriz asociada. Ejecutar el m-fichero tr—yFm y verificar que las trayectorias de la solución se comportan como se indicó en el apartado anterior.0 1. MANUALES UEX 376 .42 0.8 0. . n n Dividir ambos lados de la solución xn+2 = c1 λ1 v1 + c2 λ2 v2 por la n-ésima potencia del autovalor dominante y tome el límite cuando n → ∞.

Pre-requisitos: conocimiento de autovalores y autovectores. .1.1). Este tipo de expresiones son las que aparecen cuando se definen relaciones por recurrencia.1) viene dado por an+1 = (6/5)n · 2. = (6/5) a3 = (6/5)3 · 2.2).1. el término (n + 1)-ésimo de la sucesión definida en la ecuación (5. el término undécimo es: . 1. = (6/5) a2 = (6/5)2 · 2. MANUALES UEX 377 Tal como aparece en la ecuación (5.1.1.1. En efecto.1) sirven para calcular fácilmente los términos de la sucesión: a2 a3 a4 (5. .1.1).1. n ≥ 1 = 2 Esto es una ecuación en diferencias de primer orden con condición inicial.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 5 Ecuaciones en diferencias E n esta práctica ilustraremos con algunos sencillos ejemplos como se puede calcular la forma cerrada de la solución una ecuación lineal en diferencias con coeficientes constantes con condición inicial.2) = (6/5) a1 = (6/5) · 2. Ecuaciones en diferencias de primer orden Consideremos la siguiente expresión: (5.3835.1) a n +1 a1 = (6/5) an . La ecuación y su condición inicial dada por la ecuación (5. Forma canónica de Jordan. Dar la solución en forma cerrada es útil para calcular directamente cualquier término de la sucesión generada por la ecuación (5. a11 = (6/5)10 · 2 ≈ 12. La expresión an+1 = (6/5)n · 2 se llama solución forma cerrada de la ecuación (5. Por ejemplo. .

Colocamos este valor en la primera componente del vector a.1).IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bb —IIa@TGSA”IHBP Ahora vamos a usar we„vef para producir los primeros once términos de la sucesión generada por la ecuación en diferencias de 5. MANUALES UEX con las condiciones iniciales x1 = 1 y x2 = 0. n ≥ 1. Sabemos que esta ecuación en diferencias se puede escribir x n +2 x n +1 = 3 1 −2 0 x n +1 xn . el (n + 1)-ésimo término se obtiene multiplicando el n-ésimo por 6/5. 2. bb for naIXIHD—@nCIAa@TGSAB—@nAYend bb — 2.1. .1.1.1. la clave consiste en escribir la ecuación en diferencias en forma matricial.2. bb —azeros@IIDIAY bb —@IAaP Según la ecuación (5.1.3) xn+2 = 3xn+1 − 2xn . Consideremos la ecuación en diferencias de segundo orden (5.1). De tal forma que si denotamos xn = x n +2 x n +1 . Ecuaciones en diferencias de orden p ≥ 2 Las soluciones de las ecuaciones en diferencias de orden p ≥ 2 también admiten una expresión cerrada. declaramos un vector con ceros que usaremos para almacenar los once términos de la sucesión. Esto se puede hacer en we„vef con un bucle for. vemos que el primer valor de la sucesión es a1 = 2. n ≥ 1. La forma cerrada de la solución dependerá de si la correspondiente matriz asociada es diagonalizable o no. En la ecuación (5. Caso diagonalizable. y A= 3 1 378 −2 0 . En primer lugar. En este caso.

1)t . La ecuación en diferencia (5. definimos la matriz A y el vector inicial x0 . Esta vez. bb for naPXIIDˆ@XDnAaeBˆ@XDnEIAYend bb ˆ MANUALES UEX 379 . bb ˆazeros@PDIIAY bb ˆ@XDIAaxHY Recordemos que la notación ˆ@XDIA hace referencia a "todas las filas.4) xn = Axn−1 .2.2. n ≥ 1 con la condición inicial x0 = (0. x1 = x2 = x3 = 3 1 3 1 3 1 −2 0 −2 0 −2 0 x0 = x1 = x2 = 3 1 3 1 3 1 −2 0 −2 0 −2 0 0 1 = = = −2 0 −6 −2 −14 −6 . cada término de la sucesión es un vector 2 × 1. reservamos espacio en una matriz X para esos once vectores. Por consiguiente el término general de la solución de nuestra ecuación en diferencias será la primera coordenada de xn . Por tanto. bb ea‘QDEPYIDH“ bb xHa‘HYI“ Vamos a generar una sucesión con once términos.2. −2 0 −6 −2 y así sucesivamente. En primer lugar. Usamos un bucle for. y cada uno de ellos se almacenará en una columna. . primera columna"de la matriz X. .1. De forma similar al ejemplo anterior.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA tenemos que nuestra ecuación en diferencias se ha transformado en el siguiente sistema de ecuaciones en diferencias (5.4).4) se puede usar para producir una sucesión de vectores en forma similar a como hicimos con la ecuación (5.1). Con we„vef es muy sencillo generar términos de la sucesión determinada por la ecuación (5. el k-ésimo término de la sucesión se calcula multiplicando el (k − 1)-ésimo término por la matriz A. La condición inicial x0 irá en la primera columna de X.

2. A continuación vamos a calcular la forma cerrada de la solución de la ecuación en diferencias con condición inicial u0 : xn x0 = Axn−1 . donde v11 y v21 son las primeras coordenadas de los vectores v1 y v2 . Como A es diagonalizable.4) está dada por (5.3) es n n xn+2 = c1 λ1 v11 + c2 λ2 v21 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Es claro del cálculo anterior que (5. si continuamos de esta forma es claro que una forma cerrada de la ecuación (5.6) xn x0 n n = c1 λ1 v1 + c2 λ2 v2 . λ2 distintos.2. respectivamente.6) para encontrar la forma cerrada de la ecuación (5.5) x10 = −2046 −1022 . = u0 cuando la matriz A es diagonalizable. u0 = c1 v1 + c2 v2 . Por ejemplo si la matriz A ∈ M2 (R) y tiene dos autovalores λ1 . el término general la solución de la ecuación en diferencias (5. x2 Así. vamos a usar la ecuación (5.2. Supongamos que v1 y v2 son autovectores de A asociados a λ1 y λ2 respectivamente. Recordemos que la . n ≥ 1 = c1 v1 + c2 v2 MANUALES UEX 380 Y por lo tanto. Podemos calcular x1 como sigue: x1 = Ax0 = Au0 = A ( c1 v1 + c2 v2 ) = c1 Av1 + c2 Av2 = c1 λ1 v1 + c2 λ2 v2 = Ax1 = A ( c1 λ1 v1 + c2 λ2 v2 ) = c1 λ1 Av1 + c2 λ2 Av2 = c1 λ2 v1 + c2 λ2 v2 2 1 Para x2 podemos hacer algo análogo.2.2. n ≥ 1.2. Usando los datos de nuestro ejemplo.4). la condición inicial u0 se puede escribir como combinación lineal de v1 y v2 .

Aunque es fácil hacerlo a mano.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA forma matricial de nuestra ecuación en diferencias es  3 −2  xn = xn−1 . raíces del polinomio ℵ A ( x ). Los autovalores. n ≥ 1. Usar la ecuación (5. bb papoly@eA Observemos que los coeficientes están escritos en orden decreciente de grado. realizamos el siguiente procedimiento: 1. El siguiente comando calcula las raíces del polinomio característico. 1)t Para calcular su forma cerrada. El polinomio característico de la matriz A es ℵ A ( x ) = x2 − 3x + 2. bb roots@pA Otra posibilidad es utilizar el comando eig bb l—m˜d— a eig@eA Obsérvese que A es diagonalizable. Expresar la condición inicial x0 como combinación lineal de los autovectores. ‘I EQ P“ representa al polinomio p( x ) = x2 − 3x + 2.6) para escribir la forma cerrada y verificar los resultados. bb vIanull@l—m˜d—@IABeye@PAEeD9r9A bb vPanull@l—m˜d—@PABeye@PAEeD9r9A MANUALES UEX 381 . Luego. podemos continuar sin problemas.2. Así. 1 0  x0 = (0. Calcular los autovalores y autovectores de la matriz A y comprobar si A es diagonalizable. Teclea help null para ver una descripción del comando. El siguiente comando calcula el polinomio característico de A. son λ1 = 2 y λ2 = 1. 2. que son los autovalores de la matriz A. vamos a usar el comando null de we„vef para obtener los autovectores asociados a cada autovalor. 3. El subespacio de autovectores asociado a cada autovalor λ es el núcleo de λI2 − A. pues tiene tantos autovalores distintos como su orden.

1)t y el autovector asociado a λ2 = 1 es v2 = (1. queremos calcular c1 y c2 ∈ R tales que x0 = c1 v1 + c2 v2 . e2 } y queremos obtener las coordenadas respecto de la nueva base B = {v1 . λ2 ) y la matriz de paso P tal que D = P−1 AP. definimos la matriz de paso P ∈ M2 (R) = 0 1 MANUALES UEX 382 bb €a‘vIDvP“ También se puede usar la matriz P calculada mediante el comando ‘€Dh“ a eig@eA aunque los resultados intermedios serán distintos. v2 }. Conocemos las coordenadas respecto de la base B = {e1 . que en nuestro caso es 0 1 2 1 1 1 = c1 + c2 Esta ecuación entre vectores se puede escribir en forma matricial como 2 1 1 1 c1 c2 Pc = x0 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Por tanto. Observemos que lo que estamos haciendo es un cambio de base. Así. La solución del sistema es c = P−1 x0 . El comando bb ‘€Dh“ a eig@eA devuelve de forma directa la matriz diagonal D = diag(λ1 . no así el resultado final debe ser el mismo. el autovector asociado a λ1 = 2 es v1 = (2. we„vef calcula una base ortonormal del núcleo. 1)t . En efecto. . Vamos a ver cómo se puede calcular con we„vef. En este caso. P es la matriz del cambio de base de B a B . La opción 9r9 hace que we„vef calcule el autovalor de una forma similar a como se haría a mano. bb inv@€ABeB€ Nuestra segunda tarea es escribir x0 como combinación lineal de v1 y v2 . Si no se usa la opción 9r9. En primer lugar.

Por ejemplo.2. 2 1 + 2 2 = −2048 −1024 + 2 2 = −2046 −1022 .4).2. bb xIH a EP”IHB‘PYI“CPB‘IYI“ Observemos que coincide con el resultado obtenido en (5.2. para calcular x10 sustituimos n = 10 en 5. sustituimos los valores de c1 . c2 . autovalores y autovectores en la ecuación (5.2. Por último.7 y nos queda x10 = −210 En efecto. y obtenemos que xn = (−1)(2)n Tras simplificar. En efecto. c= c1 c2 = −1 2 .2.7) x n = −2n 2 1 2 1 + (2)(1)n 1 1 + 2 2 = 2 − 2n +1 2 − 2n . bb ˆ aa ‰ MANUALES UEX 383 bb ‰azeros@PDIIAY bb for naIXIID‰@XDnAaEP”@nEIAB‘PYI“CPB‘IYI“Yend bb ‰ .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Escribamos la condición inicial y calculemos c bb xHa‘HYI“Y bb ™ainv@€ABxH Por tanto. Podemos verificar que es correcto. Podemos usar también we„vef para generar términos de la sucesión a partir de la ecuación (5.6).5).7). Notemos que esta salida coincide con la que encontramos anteriormente al usar la ecuación (5.2. (5.

Para ello. Teniendo en cuenta que una sucesión de números reales es. Exploremos ahora con otro ejemplo qué ocurre en el caso no diagonalizable. podemos definir una sucesión en we„vef como una función. En principio podríamos tratar de calcularla con la orden eig bb e a ‘RD ERY I DH“ bb ‘€Dt“ a eig@eA Hasta el momento no parece haber ningún problema. cuya expresión matricial con la notación habitual es  4 −4  xn = xn−1 . en particular. consideremos el siguiente caso (5.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS De todo lo anterior se deduce que el término general de la solución de la ecuación en diferencias (5. Para ello abrimos el editor de we„vef y escribimos fun™tion y a x@nA y a PEP”@nEIAY y lo guardamos con el nombre xFm Si escribimos ahora bb x@IPA en we„vef obtendremos el valor que toma la sucesión ( xn )n∈N que es solución de la ecuación en diferencias (5.3) en n = 12. x2 = 1.2. x1 = −1. n ≥ 1. una función N → R.8) xn+2 = 4xn+1 − 4xn . (5. En apartado anterior vimos con un ejemplo cómo se podía obtener una forma cerrada de la solución de una ecuación en diferencias cuando su matriz asociada era diagonalizable.9) 1 0  t x0 = (1.2. n ≥ 1. n ≥ 1.3) es xn+2 = 2 − 2n+1 . n → xn . −1) MANUALES UEX 384 Calculemos la forma canónica de Jordan de A tal y como se explicó en las clases de teoría.2. Caso A no diagonalizable.2. x2 = 0. 2. x1 = 1.2. a menos que tratemos de comprobar la igualdad J = P−1 AP .

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb inv@€ABeB€ ya que la matriz P que nos ha devuelto we„vef no es invertible. bb l—m˜d— a eig@eA Sin embargo la dimensión del subespacio propio ker(λI2 − A) es uno. ya que su polinomio característico es ℵ A ( x ) = x2 − 4x + 4 = ( x − 2)2 pero la dimensión del subespacio propio asociado a λ = 2 es uno. tenemos que p2 = n2 − n1 = 1 y p1 = n1 − n0 = 1. . . veámoslo: bb poly@eA Luego. basta tomar un vector de L2 que no esté en L1 . basta L2 pues su dimensión ya coincide con la multiplicidad de λ. en nuestro caso. es decir. y la matriz A de nuestro ejemplo no lo es. bb PEr—nk@l—m˜d—@IABeye@PA E eA Por consiguiente. MANUALES UEX 385 . Luego. n1 = dim( L1 ) = 1 y n0 = dim( L0 ) = 0. bb PEr—nk@@l—m˜d—@IABeye@PA E eA”PA Dado que n2 = dim( L2 ) = 2. para ello elegimos p2 vectores de L2 que sean linealmente independientes módulo L1 . Esto ocurre en general con we„vef cuando usamos el comando eig con matrices no diagonalizables. hay sabemos que hay p2 = 1 bloques de Jordan de orden 2 y p1 − p2 = 0 bloques de Jordan de orden 1. por ejemplo. para calcular la forma canónica de Jordan de A necesitamos considerar los subespacios invariantes generalizados asociados a λ L0 = {0} ⊆ L1 = ker(λI2 − A) ⊆ L2 = ker((λI2 − A)2 ) ⊆ . A tiene un autovalor λ = 2 de multiplicidad 2. En este caso. la forma canónica de Jordan de A es J= 2 0 1 2 bb t a ‘PD IY HD P“ Calculemos ahora una matriz P ∈ M2 (R) tal que P−1 AP = J.

Entonces la solución de la ecuación (5.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS v21 = e1 = (1. El problema. Al igual que antes podemos definir la sucesión como una función de we„vef . por tanto. n ≥ 1. . se reduce a encontrar una expresión de An .9). = Axn−1 A 2 x n −2 A n x0 .9) es MANUALES UEX xn = An x0 = PJ n P−1 x0 = 2n +1 2n ( n + 1 )2n n2n−1 = P −1 x 0 = 2n +1 2n ( n + 1 )2n n2n−1 −1 3 − 2n +1 + 3 ( n + 1 )2n −2n + 3n2n−1 386 y el término general de la solución de la ecuación en diferencias (5. Observemos que xn = = . La cuestión ahora es si podemos encontrar fácilmente la expresión de J n . y calculamos v11 = −(λI2 − A)v21 . Así. Se tiene que An = ( P · J · P−1 )k = PJP−1 PJP−1 · · · PJP−1 = PJ n P−1 . . Aquí viene en nuestra ayuda la forma canónica de Jordan. la matriz buscada no es más que P = (v11 |v21 ) bb bb bb bb bb vPI a ‘IYH“ vII a E@l—m˜d—@IABeye@PAEeABvPI € a ‘vIIDvPI“ inv@€ABeB€ t Pasemos entonces a resolver la ecuación (5.2. xn+2 = −2n+1 + 3(n + 1)2n = n2n+1 + (n + 1)2n .8) es. 0)t .2. tenemos que Jn = 2n 0 n2n−1 2n . Veamos el comportamiento: bb t”PD t”QD t”R Tal y como vimos en las clases de teoría. por lo tanto.2.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA fun™tion yax@nA y a @nEIABP”@nEPA C @nEPABP”@nEIA que debemos de guardar con el nombre xFm para luego poder invocarla en la ventana de we„vef MANUALES UEX 387 .

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 5 Ejercicio 1. x0 = 1 3. x2 = 3. xn+3 = 3xn+2 − 3xn+1 + xn . x0 = 1 2. Dar la forma cerrada de la solución y definir la correspondiente sucesión como función de we„vef para cada una de siguiente ecuaciones en diferencias con la condición inicial dada. xn+3 = 5xn+2 − 8xn+1 + 4xn . x2 = 3. 1. x1 = 2. MANUALES UEX 388 . x1 = 2. x2 = 3. x1 = 2. x0 = 1. xn+3 = 2xn+2 + xn+1 − 2xn .

como truchas. Esta práctica está centrada en el uso de la matriz de Leslie para determinar el crecimiento de una población y los porcentajes de distribución por edad a lo largo del tiempo. Con este punto de partida es posible construir un modelo determinista con matrices. La probabilidad de sobrevivir un salmón de un año para otro depende de su edad. escarabajos. La máxima edad alcanzada por un individuo son tres años. vol. pp. Esta descripción fue hecha por P. Como la edad máxima de un salmón es tres años. y la clase 3 a los salmones de más de dos años. la población entera puede dividirse en tres clases de un año cada una. Los salmones se agrupan en tres tramos de un año cada uno. La tasa de supervivencia. 33.H. Leslie en 1945 (Biometrika. La distribución de edad inicial es conocida. Matrices no negativas irreducibles. Pre-requisitos: multiplicación de matrices e indexado en we„vef. La clase 1 contiene los salmones en su primer año de vida. Llamemos p1 (0) al número de hembras en MANUALES UEX 389 . 183-212). en cada grupo es conocida. la clase 2 a los salmones entre 1 y 2 años.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 6 Matrices de Leslie E l modelo matricial de Leslie es una herramienta usada para determinar el crecimiento de una población así como la distribución por edad a lo largo del tiempo. humanos o pinos. (1945). La fecundidad (tasa de reproducción). 1. autovalores y autovectores. piojos. f i . conejos. en cada grupo es conocida. Planteamiento y discusión del modelo El modelo de Leslie para el estudio de una población una cierta especie de salmón parte de las siguiente hipótesis: Solamente se consideran las hembras en la población de salmones. Se ha usado para estudiar la dinámica de poblaciones de una amplia variedad de organismos. Supongamos que conocemos el número de hembras en cada una de las tres clases en un momento inicial. orcas. si .

p3 (0) Llamamos a p(0) el vector inicial de distribución por edad. Sea f 1 el número medio de hembras nacidas de una hembra en la primera clase. . porque el salmón solamente produce huevos en su último año de vida. porque la descendencia no puede ser negativa. f 2 = 0. Por su definición f i ≥ 0. p3 ( j ) donde pi ( j) es el número de salmones hembra en la clase i en el instante j. muerte y envejecimiento. 2. Cada f i es la tasa media de reproducción de una hembra en la clase i-ésima. No hay s3 . Con estos tres números formamos el vector   p1 (0) p (0) =  p2 (0)  . A medida que el tiempo pasa. f i es la tasa media de reproducción de una hembra en la clase i. Los procesos de nacimiento y muerte entre dos observaciones sucesivas se pueden describir a través de los parámetros tasa media de reproducción y tasa de supervivencia. o vector de distribución de edad en el instante inicial o instante 0. donde el salmón muere. Observaremos la población en intervalos discretos de un año. 1. Tenemos también que 0 < si ≤ 1 para i = 1. y ninguno sobrevive para llegar a una cuarta clase. si es la tasa de supervivencia de hembras en la clase i. . Esto es cierto excepto para la última clase. el salmón muere tras desovar. Definimos el vector de distribución por edad en el instante j por   p1 ( j ) p ( j ) =  p2 ( j )  . Sea s2 la fracción de hembras en la segunda clase que sobreviven el año para pasar a la tercera clase. f 1 = 0. 2. Por ello.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS la primera clase. Tras cumplir 3 años. p2 (0) al número de hembras en la segunda clase y p3 (0) al número de hembras en la tercera clase. En el caso de esta población de salmones. porque suponemos que alguno de los salmones debe sobrevivir para llegar a la siguiente clase. definidos por 0. y f 3 el número medio de hembras nacidas de una hembra en la tercera clase. f 2 el número medio de hembras nacidas de una hembra en la segunda clase. En general. el número de hembras en cada una de las tres clases cambia por la acción de tres procesos biológicos: nacimiento. Sea s1 la fracción de hembras en la primera clase que sobreviven el año para pasar a la segunda clase. MANUALES UEX 390 . . Mediante la descripción de estos procesos de forma cuantitativa podremos estimar el vector de distribución por edad en el futuro. únicamente f 3 tiene un valor positivo.

escribimos p1 ( j ) = f 1 p1 ( j − 1) + f 2 p2 ( j − 1) + f 3 p3 ( j − 1). El número de descendientes producidos por cada clase se puede calcular multiplicando la tasa media de reproducción de la clase por el número de hembras en la clase de edad. El número de hembras en la segunda clase de edad en el instante j se obtiene a partir de las hembras de la primera clase en el instante j − 1 que sobreviven al instante j. Como antes. donde  p1 ( j ) p ( j ) =  p2 ( j )  p3 ( j )  MANUALES UEX 391 que en términos matriciales se puede expresar como      p1 ( j − 1) p1 ( j ) f1 f2 f3  p2 ( j )  =  s1 0 0   p2 ( j − 1)  . es igual a los salmones nacidos entre los instantes j − 1 y j. tenemos que f 1 = f 2 = 0. como los salmones solamente producen huevos en su último año de vida. nos queda p2 ( j ) = s1 p1 ( j − 1). p1 ( j). esto nos lleva a p3 ( j ) = s2 p2 ( j − 1). llegamos a la siguiente expresión: p1 ( j ) p2 ( j ) p3 ( j ) = f 1 p1 ( j − 1) + f 2 p2 ( j − 1) + f 3 p3 ( j − 1) = s1 p1 ( j − 1) = s2 p2 ( j − 1) En notación vectorial nos queda p ( j ) = A p ( j − 1). La suma de todos estos valores proporciona el total de descendientes. El número de hembras en la tercera clase de edad en el instante j procede del número de hembras de la segunda clase de edad en el instante j − 1 que sobreviven al instante j. que indica que el número de hembras en la clase 1 es igual al número de hijas nacidas de hembras en la clase 1 entre los instantes j − 1 y j más el número de hijas nacidas de hembras en la clase 2 entre j − 1 y j. En forma de ecuación.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA En el instante j. En este ejemplo. Por tanto. y nos queda la ecuación p1 ( j ) = 0 · p1 ( j − 1) + 0 · p2 ( j − 1) + f 3 p3 ( j − 1). p3 ( j ) 0 s2 0 p3 ( j − 1) . el número de salmones en la primera clase. Así. más el número de hijas nacidas de hembras en la clase 3 entre j − 1 y j.

si conocemos el vector de distribución por edad inicial   p1 (0) p (0) =  p2 (0)  p3 (0) y la matriz de Leslie podemos determinar el vector de distribución por edad de la población de hembras en cualquier instante posterior con la multiplicación de una potencia apropiada de la matriz de Leslie por el vector de distribución por edad inicial p(0). Entonces     p1 (0) 1000 p(0) =  p2 (0)  =  1000  . la tasa de supervivencia del salmón en la segunda clase es 10 %. = A p (0) A p(1) = A( A p(0)) = A2 p(0) A p(2) = A( A2 p(0)) = A3 p(0) A p( j − 1) = A( A j−1 p(0)) = A j p(0) Por tanto. p (1) p (2) p (3) p( j) = = = . 0 Podemos generar ahora una sucesión de ecuaciones matriciales para calcular el vector de distribución por edad en cualquier instante j. Como en nuestro ejemplo f 1 = f 2 ción de salmones es  0 A =  s1 0 = 0. . MANUALES UEX 2. p3 (0) 1000 Supongamos que la tasa de supervivencia del salmón en la primera clase es de 0. la matriz de Leslie para la pobla0 0 s3  f3 0 . 392 . . 5 %. Un ejemplo concreto con we„vef Supongamos que hay 1 000 hembras en cada una de las tres clases.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS es la distribución por edad en el instante j y   f1 f2 f3 A =  s1 0 0  0 s2 0 se denomina matriz de Leslie.

Procedemos ahora a calcular p(2). 10 y f 3 = 2000. 005 0 0 . es decir. 5 en la segunda clase y 100 en la tercera clase. hay que mover la coma decimal tres lugares a la derecha. 005. Vamos a probar un nuevo formato para la salida (con help form—t se obtiene una lista completa de todas las posibilidades).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y que cada hembra de la tercera clase produce 2000 hembras en su puesta. Entonces s2 = 0. bb pIaeBpH El vector de distribución de edad p(1) muestra que tras el primer año hay 2 000 000 de salmones en la primera clase. 10 0 Para calcular el vector de distribución por edad después de un año. según cada entrada de la matriz. el vector de distribución por edad después de 2 años. introducimos el vector de distribución de edad inicial y la matriz de Leslie. usamos la ecuación p(1) = Lp(0). Primero. bb pPaeBpI El mismo resultado lo tendríamos con bb pPae”PBpH MANUALES UEX 393 . Ahora calculamos p(1) como sigue. La matriz de Leslie es entonces   0 0 2000 A =  0. El valor IFHeCHHQ que precede a la matriz indica que debemos multiplicar cada entrada de la matriz por 1 × 103 . s3 = 0. 0 0. bb form—t short g bb ea‘HDHDPHHHYHFHHSD HDHYHDHFIDH“ El comando form—t short g indica a we„vef que use el mejor entre formato fijo o en coma flotante. Vamos a emplear we„vef para dicho cálculo. bb pHa‘IHHHYIHHHYIHHH“Y bb ea‘HDHDPHHHYHFHHSD HDHYHDHFIDH“ Notemos que we„vef usa notación científica.

Usa we„vef para realizar 4 iteraciones más p(4). La iteración de la ecuación p( j) = A p( j − 1) como lo hemos hecho antes es ineficiente. Creamos entonces una matriz de ceros de orden 3 × 24. Si conocemos de antemano el número de veces que queremos realizar la iteración debemos usar un bucle for de we„vef para realizarla. Sin embargo. MANUALES UEX 394 bb €@XDIAapHY Recordemos que la notación €@XDIA indica "todas las filas. El gráfico de un vector de distribución por edad.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS El vector de distribución por edad p(2) indica que después de 2 años hay 200 000 salmones en la primera clase de edad. es imposible tener medio salmón. Por tanto. En la realidad.1. Calculamos el contenido de las columnas 2 a 24 de la matriz P por iteración de la ecuación p( j) = A p( j − 1). el comando €@XDIAapHY pone las condiciones iniciales. 10 000 en la segunda clase de edad y 0. También es deseable hacer un seguimiento de la población por más de tres o cuatro años. p(5). . 5 en la tercera clase. con 1 000 peces en cada categoría. bb pQaeBpP Observemos que la población de salmones ha vuelto a su configuración original. La iteración de p( j) = A p( j − 1) un total de 24 veces producirá 24 generaciones del vector de distribución por edad. Las 3 filas se deben a que cada vector tiene tres componentes y las 24 columnas por las generaciones que deseamos calcular. bb €azeros@QDPRAY Ahora colocamos el vector de distribución por edad inicial en la primera columna de la matriz P. con j variando de 2 a 24. En we„vef es recomendable reservar espacio en memoria para almacenar los resultados. Una de las mejores formas de examinar tendencias en el crecimiento de una población es dibujar el gráfico del vector de distribución por edad a lo largo del tiempo. contenidas en pH. en la primera columna de la matriz P. apartemos de momento esta cuestión y calculemos la población tras 3 años. p(6) y p(7). primera columna". ¿Qué pauta sigue? 2.

y almacena el resultado en la columna j-ésima de la matriz P. pero puede resultar instructivo ejecutarlo sin él. Por tanto. Queremos pintar las filas de P a lo largo de su índice. Para ver la diferencia hagamos el siguiente experimento. pero plot@€A dibuja las columnas de P a lo largo de su índice.". En el siguiente paso del bucle j tendrá un valor de 3. todas las filas. El comando end indica el final de las sentencias a ejecutar dentro del bucle. la primera fila de la matriz P contiene el número de salmones hembra en la primera clase de edad. que comienza en 2 y con incremento de 1 llega a 24. j-ésima columna".Y → MANUALES UEX 395 bb ‰a‘IDPDQDRDSYPDQDRDSDI“Y bb plot@‰D9BE9ADfigureDplot@‰9D9BE9A . el bucle for de we„vef es la solución más adecuada. Una vez que la iteración está completa. podemos mostrar el contenido de la matriz P. el comando €@XDjEIA se lee como "matriz P. Introducimos y veamos las matrices de la siguiente forma 1 2 3 4 5       1 2 3 4 5 2 3 4 5 1       Y→ 1 2 1 2 2 3 3 4 4 5 5 1 . todas las filas.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb for jaPXPRD €@XDjAaeB€@XDjEIAY end cuando el número de iteraciones se conoce de antemano. Entonces el comando for jaPXPR inicia un bucle que empieza con un valor de j igual a 2. De igual forma. Prestemos atención a la línea que indica €vy„@‰A plots the ™olumns of ‰ versus their index. El comando €@XDjAaeB€@XDjEIA merece una explicación. el comando €@XDjAaeB€@XDjEIA calcula el producto de la matriz de Leslie A y la columna ( j − 1)-ésima de la matriz P. la segunda fila contiene la segunda clase de edad. Sin embargo. y la tercera fila contiene el número de salmones hembra en la tercera y última clase de edad. ( j − 1)ésima columna". Hemos finalizado el comando con “. Recordemos que PXPR produce un vector fila. La iteración continúa y el último paso por el bucle j tendrá un valor de 24. bb € Teclea help plot en el indicador de we„vef y lee la ayuda. Recordemos que €@XDjA se lee como “matriz P.

5)} y {(1. 3). Ejecutemos los siguientes comandos. 4)}. Un menú desplegable nos muestra estilos de línea. 1). 3). 3)}. bb semilogy@€9A A menudo es útil añadir una leyenda al gráfico. 1)}. Cuando hay un rango tan amplio en los datos. (5. (4. (2. 3). 4). observaremos que cerca del eje x hay algo por encima. ¿dónde están los otros dos gráficos en la figura? Si miramos con cuidado. {(1. como en este caso. 5)} y {(1. color y otras propiedades.. (2. 2)}. (2. 4). En la figura de la derecha encontramos a los conjuntos de 5 puntos {(1. 2)). (4. que aparecen desde 1/2 hasta 2 000 000.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Observamos que en la primera figura de la izquierda están representados los pares de puntos {(1. la solución para pintar lo que queremos de la matriz P es considerar su transpuesta. (2. 5). bb bb bb bb bb hasemilogy@€9A set@h@IAD9vineƒtyle9D9EE9A set@h@PAD9vineƒtyle9D9X9A legend@9elevines9D9€reE—dultos9D9edultos9A grid off MANUALES UEX 396 Nota. (2. (3. editando el gráfico y pulsando el botón derecho del ratón sobre la línea. 1)}. bb legend@9elevines9D9€reE—dultos9D9edultos9A Se ve claramente a partir de la última figura que cada división por edad de la población de salmones oscila con periodo 3. (2. 4). podemos obtener una mejor visión dibujando el logaritmo de la población de salmones a lo largo del tiempo. (3. 2). 2). {(1. Podemos mejorar un poco el gráfico cambiando el tipo de línea. bb plot@€9A Si hemos dicho que el comando plot@€9A dibuja cada una de las columnas de la matriz P . Notemos que el valor superior de del eje y es 2 × 106 . 5). (2. Por tanto. .A partir de a versión 6 de we„vef es posible cambiar el estilo de línea de forma interactiva. 1). {(1. (5.

3. y la primera de ellas tendrá el vector inicial de distribución por edad. Supongamos que cada hembra de la segunda y tercera clases producen una descendencia femenina de 4 y 3 miembros.25 0 Supongamos que el vector inicial de población es   10 p(0) =  10  . Empezamos creando una matriz que contendrá los datos de la población.1) p ( j ) = A p ( j − 1) para calcular el vector de distribución por edad en los siguientes 10 años. bb €@XDIAapHY Ahora usaremos la ecuación (6. La matriz de Leslie de esta población es   0 4 3 A =  0. Otro ejemplo con we„vef Consideremos ahora otra población también divida en tres clases de edad. 0 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 3. y que el 25 % de las hembras de la segunda clase llegan vivas a la tercera clase. en cada iteración. Supongamos además que el 50 % de las hembras de la primera clase sobreviven a la segunda clase. La matriz tendrá tres filas. En MANUALES UEX 397 . bb €azeros@QDIIAY Ponemos el vector inicial en la primera columna de la matriz P. respectivamente. Las diez restantes columnas almacenarán los vectores de distribución por edad en cada paso de la iteración (desde el año 1 hasta el año 10). Hay tres clases que calcular en cada iteración. y cada fila contendrá los datos de una clase de edad. La matriz tendrá 11 columnas. Estos diez vectores se pondrán en las columnas 2 a la 11 de la matriz P. 10 bb ea‘HDRDQYHFSDHDHYHDHFPSDH“Y bb pHa‘IHYIHYIH“Y Vamos a seguir los cambios en la población sobre un periodo de 10 años. Empezamos en el año cero y acabamos en el año 11.5 0 0 .

Esto admite el siguiente bucle for. calculamos el vector de distribución por edad número j multiplicando el correspondiente j − 1 por la matriz A. La gráfica de la evolución de la población a lo largo del tiempo se puede obtener como sigue. bb form—t short g bb € La distribución de población en cada año aparece como un vector columna de la matriz P. bb € Recordemos que el prefijo IFHeCHHQ significa que cada número en la salida debe multiplicarse por 103 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS el paso j-ésimo. bb ja@HXIHAY bb semilogy@jD€9A bb xl—˜el@9„iempo9A . bb bb bb bb jaHXIHY plot@jD€9A xl—˜el@9„iempo9A yl—˜el@9€o˜l—™ión9A El gráfico se aclara si añadimos una leyenda a cada color. Podemos dibujar el logaritmo de la población a lo largo del tiempo. con cierto comportamiento oscilatorio. bb for jaPXIID €@XDjAaeB€@XDjEIAYend Podemos ver el resultado introduciendo la variable que contiene los datos. usaremos otro formato. tal como aparece en una figura obtenida con la siguiente secuencia de comandos. Para el resto de la actividad. bb legend@9€rimer— ™l—se de ed—d9D9ƒegund— ™l—se de ed—d9D FFF 9„er™er— ™l—se de ed—d9A MANUALES UEX 398 Observemos que el número de hembras en cada grupo de edad en la figura se incrementa con el tiempo.

en efecto.19098.1) obtenemos que (6.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb yl—˜el@9vog €o˜l—™i¡on9A bb legend@9€rimer— ™l—se de ed—d9D9ƒegund— ™l—se de ed—d9D FFF 9„er™er— ™l—se de ed—d9A Nota. Por lo que hemos visto en clase de teoría. j = 1. la segunda clase el 24 % y la tercera clase el 4 % de la población total.315790  . 0. Además. En este caso podemos calcular  bb vaE†@XDIA bb vGsum@vA Por tanto. Vamos a usar we„vef para calcular los autovalores y autovectores de A. 2. bb ‘†Dh“aeig@eA Denotemos λ1 = 1.3.309 y λ3 = −0. En este caso. vemos que ρ := λ1 = 1. este autovalor tiene multiplicidad uno y tiene un autovector positivo asociado. Vamos a comprobar con we„vef que.947370 v = −v1 =  0. 3.. la primera clase de edad compondrá el 72 % de la población. Desarrollando la expresión (6. por lo que posee un autovalor real positivo que es mayor que cualquiera de sus otros autovalores. el límite de las proporciones n de cada clase de edad sobre la población total es igual a v/ ∑i=1 vi .3.2) j j p( j) = A p( j − 1) = A j p(0) = VDV −1 p(0) = c1 ρ j v1 + c2 λ2 v2 + c3 λ3 v3 MANUALES UEX 399 .052632 que es la primera columna de la matriz V cambiada de signo. λ2 = −1. y v j la columna j-ésima de V.5.Sabemos que las matrices de Leslie son irreducibles. el comportamiento a largo plazo de la población sigue este esquema. y un autovector asociado positivo a ρ es  0.5 es el autovalor dominante.

Primero almacenamos los vectores de distribución por edad.067989   0.19098) j  −0. .052632 −0.es interesante.31579  + c2 (−1.5) j  −0. bb qazeros@QDIHIAY bb for jaIXIHID q@XDjAa€@XDjAGsum@€@XDjAAYend La gráfica de estas poblaciones "normalizadas.93201 −0.309) j  −0.94737 p( j) =c1 (1.356  −0. MANUALES UEX 400 bb jaHXIHHY bb plot@jDq9A bb xl—˜el@9„iempo9A bb yl—˜el@9€or™ent—jes9A bb legend@9€rimer— ™l—se de ed—d9D9ƒegund— ™l—se de ed—d9DFFF 9„er™er— ™l—se de ed—d9A Después de un número suficiente de años. bb €azeros@QDIHIAY bb €@XDIAapHY bb for jaPXIHID€@XDjAaeB€@XDjEIAYend Ahora podemos obtener los porcentajes de cada clase de edad sobre la población total dividiendo cada columna por su suma.22588 + c3 (−0. Vamos a dibujar la evolución de los porcentajes de cada clase de edad en los primeros 100 años. el porcentaje de organismos en cada clase se aproxima a 74 %. 24 % y 4 %.77412 bb pIHHae”IHHBpH bb pIHHGsum@pIHHA Los comandos anteriores han calculado el porcentaje de población de cada clase de edad tras 100 años.59137  0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS En nuestro caso queda     0. Vemos que coincide con lo que habíamos deducido a partir de v.

y p( j) el el vector de distribución de población en el instante j. De forma análoga tenemos que p ( j − 1 ) ≈ c 1 ρ j −1 v 1 . donde D es una matriz diagonal formada por los autovalores de A. donde λi .3. c 1 ρ j −1 El modelo de Leslie está definido por la ecuación p( j) = L j p(0). o de forma equivalente v1 ≈ Entonces p ( j ) ≈ c1 ρ j 1 p ( j − 1) = ρ p ( j − 1). entonces para valores grandes de j se tiene que p ( j ) ≈ c1 ρ j v1 . c 1 ρ j −1 4. vi son autovalor y autovector asociados.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA El autovalor dominante ρ = 1. Estas proporciones límites se pueden determinar a partir de las componentes j j j MANUALES UEX 401 . tras un periodo largo de tiempo.5 veces el número de hembras en cada clase tras 99 años. Por la ecuación 6.2 como sigue. En este caso. . .5 nos dice cómo cambia el vector de población de un año para otro. bb pWWae”WWBpH bb pIHHFGpWW El comando pIHHFGpWW divide cada componente del vector pIHH por la correspondiente del vector pWW. Si ρ = λ1 es autovalor estrictamente dominante de A. En general. donde p(0) es el vector inicial de distribución de la población. Esta fórmula se puede deducir de la ecuación 6. Veamos los siguientes comandos. En este caso vemos que el número de hembras en cada clase de edad después de 100 años es 1. Resumen 1 p ( j − 1). p( j) = 1.5p( j − 1). + c n λ n v n . y la proporción de hembras en cada clase de edad tiende a una constante. Si A es diagonalizable.3.2 para j suficientemente grande tenemos que p ( j ) ≈ c1 ρ j v1 . Las columnas de V son los autovectores correspondientes. entonces A = VDV −1 . el modelo de Leslie se puede escribir como p ( j ) = c1 λ1 v1 + c2 λ2 v2 + .

entonces la población se extinguirá.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS de v1 . Por último. el autovalor dominante ρ determina la tasa de cambio de un año para otro. MANUALES UEX 402 . Como p( j) ≈ ρp( j − 1) para valores grandes de j. Si λ1 > 1 entonces la población tendrá un crecimiento indefinido. el vector de población en el instante j es un múltiplo del vector de población en ele instante j − 1. Si λ1 < 1.

¿Cuál es el destino de esta población de salmones? 4. Usar los gráficos de we„vef para dibujar el logaritmo de cada clase de edad a lo largo del tiempo. Calcular la matriz de Leslie de la población. Cada hembra de la cuarta clase produce 5 000 huevos hembra. 3. Usar un bucle for para iterar la ecuación de Leslie 25 veces. Supongamos que al inicio hay 10 hembras en cada clase de edad. con tasas de supervivencia iguales a 20 % y 25 % y resto de datos iguales. Cada hembra de la cuarta clase produce 5 000 huevos hembra. respectivamente. 10 % y 2 %. y cada hembra del tercer grupo tiene una media de 3 hijas por año. respectivamente. Sabemos también que cada hembra en la cuarta clase de edad produce 5 000 huevos de hembra. 2. Las hembras de cierta especie animal viven tres años. respectivamente. segundo y tercer años son. ¿Qué le ocurre a esta población a lo largo del tiempo? 4. calcular el vector de distribución de edad inicial. Las otras clases de edad no tienen descendencia. Tras 100 años. Usar we„vef para calcular los autovalores y autovectores de la matriz de Leslie. 1. Calcular la matriz de Leslie de esta población. 2. Calcular la población de salmones en la iteración número 50. Igual que el ejercicio anterior. ¿cuál es el porcentaje de hembras en cada clase? 5. MANUALES UEX 403 . 15 % y 25 %. 1. A largo plazo. 5 %. Supongamos que la tasa de supervivencia de hembras en sus primero y segundo años es del 60 % y 25 %. Además.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios de la práctica 6 Ejercicio 1. ¿cuál es el factor de aumento o disminución? Ejercicio 5. supongamos que la tasa de supervivencia en sus primero. Usar we„vef para calcular el vector de distribución por edad para los primeros 100 años. Ejercicio 4. y dibujar los vectores de distribución por edad con los comandos plot y semilogy. Cada hembra del segundo grupo de edad tiene 4 hijas al año de media. En la misma situación anterior. Responder a las mismas cuestiones del ejercicio anterior. Responder a las mismas cuestiones del ejercicio anterior. 0. sin calcular las 49 iteraciones anteriores. En la misma situación anterior. respectivamente. 3. Ejercicio 3. pero con tasas de supervivencia iguales a 2 %. pero con tasas de supervivencia iguales a 1 %. Supongamos que una especie de salmón vive cuatro años. 7 % y 15 %. Ejercicio 2. Si se introducen en el sistema 1 000 salmones hembra en cada clase de edad.

Supongamos que al inicio hay 10 hembras en cada clase de edad.01483 0.99472 7 0. MANUALES UEX 404 .99670 2 0.98274 0 10 0.99240 8 0.40002 0. Los valores de las tasas de reproducción f i y supervivencia si para cada clase se muestran en la siguiente tabla: i fi si 1 0 0. Resolver las mismas preguntas que en el ejercicio 4.99607 6 0.30574 0.15260 0. ¿Hay un autovalor dominante? 4. 2. Describir el comportamiento de la población a lo largo del tiempo.98867 9 0.99780 4 0.00102 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicio 6. 1.28061 0.00089 Supongamos que hay 10 hembras en cada una de las 10 clases al principio.08515 0. La probabilidad de que un salmón sobreviva el primer año y pase al segundo año es del 5 %. Supongamos que una población de salmones vive tres años. Use we„vef para calcular el vector de distribución por edad para los primeros 100 años.99837 3 0. Calcule la matriz de Leslie de esta población.5 %. y la probabilidad de que un salmón sobreviva el segundo año y llegue al tercero es 2. Supongamos que la población de un país se divide en clases de 6 años de duración. 3. Use we„vef para calcular los autovalores y autovectores de la matriz de Leslie. Ejercicio 7. Cada salmón adulto produce 800 huevos hembras.99672 5 0.06420 0.

.25) = nt (.5) + st (. Cada año. un proceso estocástico consiste en una serie de sucesos que cambian con el tiempo de una forma secuencial y con ciertas probabilidades. y st la correspondiente para la que vive en el Sur. y lo que ocurra en el instante t depende de lo ocurrido en los instantes t − 1. Sea nt la proporción de la población total que vive en el Norte al final del año t.5) + st (. En esta actividad analizamos diversos procesos que pueden ser modelizados por una cadena de Markov.25 89:. y estudiaremos la situación límite.5 ' 0. mientras que el 25 % de la población del Sur emigra al Norte. Matrices no negativas 1. Este proceso se puede representar como aparece en la figura 1. ?>=< S i 0. el 50 % de la población del Norte emigra al Sur. . Pre-requisitos: Autovalores y autovectores. Cuando la probabilidad asociada a un suceso depende solamente de su estado anterior. el proceso se denomina cadena de Markov. Un ejemplo con we„vef E Supongamos que los procesos migratorios entre dos zonas geográficas. son como siguen. Procesos migratorios.75 Figura 1.75) MANUALES UEX 405 . t − 2. Queremos estudiar la evolución de la población a largo plazo. que llamaremos Norte y Sur.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 7 Cadenas de Markov n líneas generales.1. El modelo de migración establece que las proporciones de población en cada región al final del año t + 1 son (7. . Los sucesos no suelen ser independientes.5 0. GFED @ABC 3 N h 0.1) n t +1 s t +1 = nt (.

2) donde P= .5 .1. pt+1 = Ppt es la matriz de transición.5 . Supongamos que el vector de población 0. v2 = 1 2 . En este caso decimos que el proceso ha alcanzado el equilibrio. Los autovectores asociados respectivos son v1 = MANUALES UEX −1 1 . s0 Los autovalores de la matriz P son λ1 = 1/4 y λ2 = 1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Si escribimos pt = nt st para indicar el vector de población en el instante m.75 .1) se puede escribir como (7. entonces la ecuación (7.25 .1 bb bb bb bb bb bb €a‘HFSDHFPSYHFSDHFUS“ pHa‘WGIHYIGIH“Y ˆazeros@PDIHAYˆ@XDIAapHY for taPXIHDˆ@XDtAa€Bˆ@XDtEIAYend plot@ˆ9A legend@9€o˜lF en el xorte9D9€o˜lF en el ƒur9A Observamos que el sistema se vuelve estable.9 inicial es p0 = . El vector fijo recibe el nombre de vector de estado estacionario. 0. bb ˆ@XDVXIHA Podemos calcular la expresión exacta del vector estacionario a partir de la n0 forma canónica de Jordan. 406 b form—t r—t b l—m˜d— a eig@€A .1. En este caso tenemos lo siguiente. Calculemos la evolución en los próximos 10 años. porque contiene las probabilidades de transición de un estado a otro en el sistema. El vector de estado converge a un vector fijo. Sea p0 = un vector de población inicial.

b tinf a ‘HDHYHDI“ b €inf a BtinfBinv@A b form—t Entonces si escribimos p∞ = l´mt→∞ pm obtenemos que ı p∞ = l´m xm ı = = = = n0 s0 1/3 2/3 1/3 2/3 1/3n0 + 1/3s0 2/3n0 + 2/3s0 1/3 2/3 . y es claro que t→∞ l´m J t = ı 0 0 0 1 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Observamos que la matriz T es diagonalizable. MANUALES UEX 407 t→∞ l´m Pt p0 ı . De aquí se deduce que t→∞ l´m Pt = l´m QJ t Q−1 = Q ı ı t→∞ 0 0 0 1 Q −1 = 1/3 2/3 1/3 2/3 . Calculemos ahora la forma canónica de Jordan J y matriz de paso P. porque recordemos que n0 + s0 = 1. Se tiene que P = QJQ−1 . b b b b t a di—g@l—m˜d—AY vI a null@l—m˜d—@IABeye@PAE€D 9r9AY vP a null@l—m˜d—@PABeye@PAE€D 9r9AY  a ‘vIDvP“ Entonces la forma canónica de Jordan es J= y la matriz de paso es Q= 1/4 0 0 1 −1 1 1 2 .

1. 2 y 3. obtenemos unos procesos que sí alcanzan el equilibrio. media o baja. respectivamente. que etiquetamos como estados 1. Supongamos que cada individuo es clasificado socialmente según su ocupación como clase alta. La matriz de transición es   0 0. el comportamiento del sistema es periódico. Si se encuentra en 2 cambiará a 1 o a 3 en el siguiente ciclo con igual probabilidad. Supongamos que la matriz de transición que . MANUALES UEX 2. Por ejemplo. bb bb bb bb bb bb bb form—t short g € a ‘HD HFSD HY ID HD IY HD HFSD H“ pH a ‘IYHYH“ ˆazeros@QDIHAYˆ@XDIAapHY for taPXIHDˆ@XDtAa€Bˆ@XDtEIAYend plot@ˆ9A legend@9€rimer est—do9D9ƒegundo est—do9D9„er™er est—do9A Sin embargo. 2 y 3. 2. . 0 0.5 0 P= 1 0 1 . p2 =  0  . . 0 0.5 0   1 Si partimos de p0 =  0  . . Si se encuentra en los estados 1 o 3 cambia a 2 en el siguiente ciclo.5 0 p1 =  1  . 0       0 0. Otros ejemplos con we„vef Procesos de movilidad social. consideremos un dispositivo electrónico que puede estar en tres estados 1. si pedimos que la matriz de transición satisfaga una propiedad razonable (por ejemplo que sea primitiva). y supongamos que el dispositivo cambia a unos ciclos regulares de reloj.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Existen procesos de este tipo que no tienen ese equilibrio.5 0 En efecto. 408 Consideremos el problema de la movilidad social que involucra la transición entre distintas clases sociales a través de las generaciones sucesivas de una familia. p3 =  1  .

45 de tal forma que. .50  . . Por ejemplo. por ejemplo. un 62 % de clase media y un 29. 0. El sistema se activa en momentos discretos t1 . si este proceso verifica las condiciones de una cadena de Markov homogénea y finita.70 0. El automóvil está bajo control si al menos uno de los sistemas de frenado MANUALES UEX 409 . t2 . y el sistema se considera bajo control si alguno de los controles A o B funciona en el momento de la activación. podemos aplicar los resultados discutidos anteriormente. bb € a ‘HFRSD HFHSD HFHSY HFRSD HFUHD HFSHY HFIHD HFPSD HFRS“ bb p a null@eye@QA E €D 9r9A bb p a pGsum@pA Por consiguiente.2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA relaciona la clase de un hijo con la de su padre es   0. El sistema se destruye si A y B fallan simultáneamente.7 % de clase baja. media o baja cuando su padre es de clase baja viene dada por la última columna de P. t3 . el freno de pedal y el freno de mano. un automóvil tiene dos sistemas de frenado independientes.3 % de clase alta. que previene que el sistema sea destruido. Veamos experimentalmente que el resultado es el mismo para cualquier dato inicial. después de una cantidad considerable de generaciones.6198  . la población masculina consistiría en un 8. .45 0.45 0. Un simple análisis de los autovalores y autovectores de P revela que el autovector positivo p tal que p1 + p2 + p3 = 1 es   0. A y B.05 0. 0.25 0.0833 p =  0. Consideremos un sistema que tiene dos controles independientes.2969 En efecto.10 0.05 P =  0. la probabilidad de que un hijo sea clase alta. Como P es primitiva (pues es positiva). bb pH a r—nd@QDIA bb pH a pHGsum@pHA bb pIHH a €BpH 2. Sistemas de seguridad. .

si B falla.54 0  0. 2. De este modo la matriz de transición es   0. 1). Sin embargo. 0) (0. 3 y 4 en vez de (1. entonces el control defectuoso es reemplazado antes de la siguiente activación.04 1 En este caso. Podemos poner entonces que el espacio de estados es el conjunto de pares ( a. ¿cuánto tiempo se espera que el sistema funcione antes de la destrucción? Este problema se puede modelizar con una cadena de Markov con cuatro estados.36 0. (1.09 0.2473. Si uno de los controles falla en un punto de activación pero el otro control funciona. si un control falla en el instante t.04 0. El estado (0. Por simplicidad. si A falla.3 y 1. b) tales que a= 1 0 si A funciona. escribiremos 1. respectivamente. 1) y (0. P no es primitiva. es decir.9827. 0. MANUALES UEX bb € a ‘HFVID HFHWD HFHWD HFHID bbeig@€AY HFSRD HFQTD HFHTD HFHRD HFSRD HFHTD HFQTD HFHRD HY FFF HY FFF HY FFF I“ 410 Entonces. existe el límite l´mt→∞ Pt .81 0.01 0.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS está operativo cuando intentamos parar.54 0. entonces su recambio no probado se considera fiable en un 60 % para t + 1. 0.09 0. 0) es absorbente.06 0. si se llega a él no se puede salir. La pregunta que nos planteamos es: ¿Puede el sistema funcionar indefinidamente sin ser destruido? Si no. Si un control funciona en el momento t entonces se considera fiable en un 90 % para la activación t + 1. pero choca si ambos sistemas fallan simultáneamente. los autovalores de la matriz P son 0. yb= 1 0 si B funciona. 0).36 0  0. y es igual a ı   0 0 0 0  0 0 0 0     0 0 0 0 . 1 1 1 1 . definidos por los controles que funcionen en un momento de activación.06 0   P=  0. Sin embargo.

022 ut ( I3 − P11 )−1 = 58.462 56. = ( I3 − P11 )−1 se sigue que ( I3 − P11 )−1 representa el número esperado de períodos que el sistema estará en cada estado no absorbente antes de la absorción. 6.5934 8. Así que tenemos respondida a la primera pregunta: el sistema se destruirá. Se puede probar que si escribimos P= P11 p12 0 1 . . con probabilidad 1.615 41. Para hallar el número esperado de pasos antes que el proceso sea absorbido.9231 6.538 41. .154 .538 ( I3 − P11 )−1 =  6.022 6. partamos de donde partamos. P11 información para n pasos. entonces el número medio de pasos antes de caer en el estado absorbente. P11 n da esta misma da información similar para tres pasos.9231 8. bb bb bb bb €II a €@IXQDIXQA ˆ a inv@eye@QAE€IIA u a ones@QDIA u9Bˆ MANUALES UEX 411 y . Por lo tanto. si partimos del estado i-ésimo. es igual a (ut ( I3 − P11 )−1 )i . donde u es el vector con todas sus componentes iguales a 1 (esto es. Como 2 3 I3 + P11 + P11 + P11 + .5934  . . la submatriz P11 da la probabilidad de ir desde cualquier estado no absorbente a otro estado no absorbente en 2 un paso exactamente.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Esto significa que el estado absorbente se alcanza siempre.154 56. Esto totalizaría el número de pasos antes de que el proceso fuera absorbido y por consiguiente el número esperado de pasos hacia la absorción. la suma de las entradas de la columna i-ésima). consiste en calcular el número esperado de veces que el proceso puede estar en cada estado no absorbente y sumarlos. donde P11 es la submatriz de P formada por las tres primeras filas y columnas. P11 da las probabilidades de ir desde cualquier estado 3 no absorbente hasta otro estado no absorbente en dos pasos exactamente. . En nuestro caso.   44. En efecto. . por lo tanto la suma de cada fila de ( I3 − P11 )−1 representa el promedio de períodos que transcurren antes de ir a un estado absorbente. La segunda cuestión que planteábamos es en cuántos procesos de activación llegaremos al desastre. a la larga. .

9 0.1 0 1 por lo que el tiempo medio de fallo es únicamente de ut ( I − P11 )−1 = 10 pasos ¿Qué ocurrirá si usamos tres controles independientes? MANUALES UEX 412 . El tiempo medio para fallo si partimos con los dos controles probados es algo más de 58 pasos.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Interpretemos los resultados. mientras que el tiempo medio para fallo si partimos con uno de los controles no probado está alrededor de los 56 pasos. La matriz de transición queda P= 0. En este caso. solamente hay dos estados en la cadena de Markov: 1 (control que funciona) y 2 (control que no funciona). La diferencia no parece significativa. pero vamos a considerar qué ocurre usamos solamente un control en el sistema.

1.2 0. el 15 % van a la región 1 y el 10 % a la región 3. Después de pasar por la puerta A y recibir una descarga.3 0. Y de los residentes de la región 3. o por la puerta B. ¿Cuál es el vector de estado estacionario? Ejercicio 3.5 0. Al inicio del experimento. (b)  0. De los residentes de la región 2.3 0. y obtiene cierto alimento. la probabilidad de pasar por la misma puerta al día siguiente es 0. Escribir la matriz de transición para el proceso de Markov.   0. Un país está dividido en tres regiones demográficas. B y C.7  0. En un experimento. Determinar el tiempo medio de fallo si partimos de tres controles probados. pero con tres controles A.2 0. y recibe una descarga eléctrica. Después de pasar por la puerta B y recibir alimento.8 0. y con uno probado y dos sin probar. la rata tiene la misma probabilidad de pasar por la puerta A que por la puerta B.2 Ejercicio 2. MANUALES UEX 413 .1 0. el 10 % se mueven a la región 1 y el 5 % a la región 2. y un 5 % se desplazan a la región 3.3. la probabilidad de seguir pasando por la misma puerta al día siguiente es 0.7 (a) . ¿Qué porcentaje de población reside en cada una de las tres regiones tras un largo periodo de tiempo? Ejercicio 4.6. Se calcula que cada año un 5 % de residentes de la región 1 se mudan a la región 2.4 0.0 0. Usar las mismas premisas del ejemplo del sistema de seguridad. con dos probados y uno sin probar. 2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios de la práctica 7 Ejercicio 1.6 0. La rata puede pasar por la puerta A. se coloca todos los días una rata en una jaula con dos puertas A y B. Se registra la puerta por la que pasa la rata. ¿Cuál es la probabilidad de que la rata continúe pasando por la puerta A el tercer día después del inicio del experimento? 3. Determinar cuáles de las siguientes matrices son matrices de transición.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 414 .

Pre-requisitos: Sistemas de ecuaciones lineales. v u . 1. El resultado es el vector v1 que aparece en la siguiente figura. Inversa de Moore-Penrose. Nuestro objetivo es calcular α. usaremos la proyección ortogonal y la inversa de Moore-Penrose para calcular la solución aproximada mínimo cuadrática de diversos sistemas de ecuaciones lineales. el vector v1 debe ser de la forma v1 = αu. Como el MANUALES UEX 415 Queremos proyectar un vector v sobre otro vector u. En este caso se trata de una proyección ortogonal. Proyección ortogonal. Además. un múltiplo escalar de u. 1. En la figura de la derecha “proyectamos" el vector v sobre el u. Proyección ortogonal Comencemos recordando algunos cuestionas relacionadas con la proyección ortogonal en Rn con el producto escalar usual. En términos geométricos. Como proyectamos sobre el vector u. Mínimos cuadrados E n esta práctica ilustraremos con algunos ejemplos los conceptos de proyección ortogonal sobre un vector y sobre un subespacio vectorial. Proyección de un vector sobre una recta.1. esto significa que queremos calcular el vector sobre u que es más “próximo" al vector v. Observemos que esta elección de v1 hace que el vector v2 = v − v1 tan pequeño de norma como sea posible. El concepto de ortogonalidad entra entonces en juego.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 8 Proyección ortogonal.

1. −1. Entonces tenemos MANUALES UEX v1 = u·v u·v ut v uut u= u = u t = t v = Pv u·u uu uu u 2 Por tanto.1. (8.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS v v2=v−v1 u v1 vector v2 es ortogonal a u. exigimos que 0 = u · v2 = u · (v − v1 ) = u · (v − αu) = u · v − αu · u. Entonces. Vamos a realizar un pequeño experimento cuando usamos la matriz de proyección para proyectar un número aleatorio de puntos en el plano sobre el vector u = (1.1.2. 1)t .1). el vector de proyección v1 = αu se obtiene fácilmente. Supongamos que queremos proyectar el vector v = (2. 0) sobre el vector u = (1. Entonces. 1. Pues si u y v son vectores en Rn entonces el vector proyección del vector v sobre el vector u es u·v u.1) y we„vef nos queda luego bb ua‘IYIYI“Yva‘PYEIYH“Y bb vIadot@uDvAGdot@uDuA B u La aplicación que realiza la proyección de un vector sobre otro es lineal. con la fórmula (8. Buscamos la matriz P que aplica el vector v sobre el vector v1 calculado. u·v u·v .1. Lo podemos hacer a partir de la expresión (8. 1). Recordemos que u · v lo podemos escribir en forma matricial como ut v. P= 416 . la matriz de proyección P es igual a uut . = u·u u 2 Con este valor de α.1.1) v1 = u 2 α= Ejemplo 8. ut u Ejemplo 8.

la segunda columna el proyectado de ( x2 . bb x a ˆ@IDXAY bb y a ˆ@PDXAY bb plot@xDyD9˜F9A Vamos a proyectar sobre el vector u = (1. y así con todas. 1)t . la primera columna de PX contiene el resultado de aplicar la proyección sobre ( x1 . Si calculamos PX. Las coordenadas x de estos proyectados están en la primera fila de PX. y las coordenadas y en la segunda fila de PX. la primera fila de la matriz X contiene las coordenadas x de los puntos aleatorios. y2 ). y la segunda fila las coordenadas y. En la figura anterior dibujamos la recta de dirección u.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA En primer lugar definimos una matriz X de orden 2 × 100 con entradas aleatorias en el intervalo [−1. 1] bb ˆaPBr—nd@PDIHHAEIY Podemos dibujar estos puntos en el plano. y dibujaremos el resultado. bb u a ‘IYI“ bb €a@uBu9AGdot@uDuA Por último. Una vez que hayas obtenido el dibujo no cierres la ventana. bb hold on bb plot@‘IDEI“D‘IDEI“D9y9A Ahora calculamos la matriz P de proyección sobre u. las columnas de PX contienen la proyección de cada punto de la matriz X sobre el vector u. Realizamos la operación. 1)t . bb €xa€ˆ@IDXAY bb €ya€ˆ@PDXAY MANUALES UEX 417 bb €ˆa€BˆY . con la fórmula para calcular la matriz P proyectaremos sobre el vector u = (1. Tal como hemos explicado. y1 ). vamos a aplicar a cada punto definido por la matriz X la matriz P. Ahora.

0 MANUALES UEX 418 . Esto se cumplirá si v2 es ortogonal a cada uno de los vectores u1 . por lo que podemos expresar lo anterior como  t    u1 0  ut   0   2     . un .  . u2 . En términos geométricos. . . Proyección de un vector sobre un subespacio. . Para tener una idea gráfica de la situación. . . u2 . Observemos. . . que sí está en el plano generado por los vectores u1 . lo que queremos es que el vector v2 sea ortogonal a cada vector de L. . Sean L es subespacio vectorial generado por los vectores u1 . entonces ut . . las ecuaciones que nos quedan son u1 · v2 = u2 · v2 = . . u2 . . = ut v2 = 0 n 2 1 Como u1 . un . En la figura 1 proyectamos el vector v sobre el vector v1 .   .  .  v2 =  . . . ut n Es claro que esto es lo mismo que At v2 = 0. . Nótese que L = im( A). . Por ello. u2 . . entonces no hay más nada que hacer. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ahora podemos dibujar los puntos originales en azul y sus proyectados en rojo en la misma figura. . . Por tanto. u n ∈ M m × n (R). . . ut n 1 2 son las filas de la matriz At . .y sea R A = u1 u2 .2. En este apartado vamos a recordar como se proyecta un vector v ∈ Rm sobre un subespacio vectorial L de Rm . El vector v no está en ese plano. un ∈ m . supongamos que v no es combinación lineal de los vectores u1 . . . y calculemos su proyección sobre L = im( A). un son las columnas de la matriz A. u2 . pensemos por un momento que L es un plano de R3 . Esto lo representamos en la figura 1. la proyección de v sobre L es el propio v.  . . ut . de nuevo. . = u n · v2 = 0 En notación matricial esto es ut v2 = ut v2 = . . . . . bb plot@€xD€yD9rF9A bb hold off 1. que el vector v2 = v − v1 es ortogonal a L. un . Si v ∈ L. .

2 0 0. v1 se puede escribir como combinación lineal de los vectores u1 . .4 0. wn      = Aw. . u n  . .6 v1 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 2 1.5 1 0.4 0.  . Sea ( At A)+ la inversa de Moore-Penrose de At A. obtenemos . v1 = w1 u 1 + w2 u 2 + . At v − At Aw A Aw t = 0 = At v. MANUALES UEX 419 Si desarrollamos esta expresión. . un .4 −0.2 0. . Proyección de v sobre L = im( A).2 1 0.8 −0.4 1. .8 0. Usando las propiedades de la inversa generalizada (concretamente. . que ( At A)+ At = A+ y que A A+ A = A) concluimos que v1 = Aw = AA+ Aw = A( At A)+ At ) Aw = A( At A)+ At Aw = A( At A)+ At v.6 L=im(A) 1. . Entonces v2 = v − Aw y podemos escribir At (v − Aw) = 0. u2 .8 1. + w n u n  w1  w2  = u1 u2 . Así.6 0.5 0 −1 −0.8 1 v v2=v−v1 Figura 1. .2 0 2 1.6 −0. En la figura 1 vemos que el vector v1 tiene que estar en el im( A).

donde P = A( At A)+ At = AA+ ( A+ )t At = AA+ ( AA+ )t = AA+ AA+ = AA+ es la matriz de proyección. bb xaˆ@IDXAY bb yaˆ@PDXAY bb zaˆ@QDXAY Dibujamos estos puntos en el espacio.3. El comando pinv de we„vef calcula la inversa de Moore-Penrose. bb ˆaQBr—nd@QDIHHAEIY Extraemos las coordenadas x. Vamos a hacer un ejemplo similar al del apartado anterior.1. bb uIa‘IYIYH“YuPa‘HYIYI“YuQa‘IYHYEI“Y bb ea‘uIDuPDuQ“Y Ahora calculamos la matriz de proyección. En primer lugar. 0 1 −3 Introducimos en primer lugar la matriz A. . generamos un conjunto de puntos en el espacio. pero ahora en tres dimensiones. y y z. Ejemplo 8.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Esta expresión tiene la fórmula v1 = Pv. y no cerramos la figura bb bb bb bb plotQ@xDyDzD9˜F9A ˜ox on grid on hold on MANUALES UEX 420 Vamos a proyectar los puntos definidos por X sobre el subespacio vectorial de R3 generado por la columnas de   1 0 2 A =  1 1 −1  .

u2 y u3 se ocultan por la nube de puntos proyectados sobre el plano. Los vectores u1 . bb €ˆa€BˆY Tomamos las componentes de cada punto. −1) sobre la figura con los siguientes comandos. 0. 1)t y u3 = (1. Si ahora pulsamos el icono de rotación en la pantalla de la figura. Es difícil de decir a partir de la figura obtenida. Vemos que los vectores u1 . En la figura obtenida. podemos hacer dos cosas para convencernos de que la proyección se ha efectuado sobre el subespacio vectorial generado por los vectores u1 . Esto se puede hacer sin el ratón mediante el comando view@‘PWDERH“A. 0)t . u2 y u3 . 1. si multiplicamos la matriz X por la matriz P proyectaremos cada punto sobre el espacio de columnas de A. MANUALES UEX 421 . Primero dibujemos los vectores u1 = (1. u2 = (0. bb plotQ@€xD€yD€zD9rF9A La pregunta es si realmente hemos conseguido lo que buscábamos. Sin embargo. u2 y u3 aparecen en la nueva figura sobre el plano im( A). bb €xa€ˆ@IDXAY bb €ya€ˆ@PDXAY bb €za€ˆ@QDXAY Ya podemos dibujar los puntos originales y sus proyecciones. usamos el ratón para colocar la figura con acimut 29 y elevación −40. bb bb bb bb line@‘HDI“D‘HDI“D‘HDH“D9linewidth9DPD9™olor9D9k9A line@‘HDH“D‘HDI“D‘HDI“D9linewidth9DPD9™olor9D9k9A line@‘HDI“D‘HDH“D‘HDEI“D9linewidth9DPD9™olor9D9k9A hold off El comando line permite añadir más gráficos sobre el dibujo. 1. podemos experimentar con diferentes puntos de vista.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb €aeBpinv@eA Ahora.

Como es habitual el sistema se puede escribir en la forma     0 1 6  1 1  m =  0 . 0  Como el sistema no tiene solución. ˆ Una de las formas más comunes de medir la proximidad de Ax − b a cero es mediante el cálculo de la suma de los cuadrados de las componentes de ˆ Ax − b. que no tiene solución. Cualquier vector que minimice esta suma de cuadrados se llama solución aproximada mínimo cuadrática. Supongamos que queremos calcular la solución del sistema de ecuaciones lineales m·0+c = 6 m·1+c = 0 m·2+c = 0 Este sistema está sobre-determinado: hay más ecuaciones que incógnitas. Es más.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. b ∈ im( A). bb wa‘HDIDTYIDIDHYPDIDH“ bb ‚arref@wA La última fila de R representa la ecuación 0 · m + 0 · c = 1. en otras palabras. puede ser conveniente hallar un vector x que este “cerca de ser ˆ solución del sistema". es incompatible. b no puede escribirse como combinación lineal de las columnas de A. Ejemplo 8.v =  0 . donde  MANUALES UEX 0 A= 1 2  1 1 . entendiendo por esto que Ax − b sea próximo a cero.2.1. Teniendo en cuenta que una recta en el plano es de la forma y = mx + c. c 2 1 0 o bien Ax = b. podemos reenunciar nuestro problema en términos geométricos como el de 422 .x = 1 m c  6 . Soluciones aproximadas mínimo cuadráticas de sistemas de ecuaciones lineales En algunas situaciones en las nos encontramos con sistema de ecuaciones ˆ Ax = b.

b) = b − b es mínima. en primer lugar. bb e’˜ MANUALES UEX 423 bb e˜˜ a ‘eD˜˜“ bb rref@e˜˜A bb xgorro a e’˜˜ . en sentido mínimo cuadrático. esto es. es el vector de im( A) tal que d(b .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA calcular una recta que se ajuste lo mejor posible.. bb bb bb bb e a ‘HDIYIDIYPDI“ ˜ a ‘TYHYH“ € a eBpinv@eA ˜˜ a €B˜ Así. observemos la salida de la siguiente sentencia. garantizamos ˆ que el sistema Ax = b tiene solución y que la suma al cuadrado de las ˆ componentes de b − b = Ax − b. Nota. Vamos a calcular la solución aproximada mínimo cuadrática de nuestro sistema. obtenemos un vector b que sí está en im( A). Para ello. su norma al cuadrado es mínima. de hecho. De modo que tendremos que contentarnos con hallar una solución aproximada. a los datos de la siguiente tabla: x y 0 6 1 0 2 0 Si dibujamos los datos de la tabla como puntos en un plano bb bb bb bb plot@‘HDIDP“D‘TDHDH“D9s9A —xis@‘EIDUDEIDU“A grid on hold on se ve claramente que los puntos no están alineados. por lo que no es posible dibujar una recta a través de ellos como ya sabíamos. calculamos la proyección ortogonal de b el espacio vectorial que generan las columnas de A tal y como hicimos en la sección anterior.Aunque sabemos que el sistema Ax = b es incompatible. De este modo.

Así.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS ˆ Es la solución x que habíamos obtenido. Supongamos que en un experimento físico.8 3.4 7. MANUALES UEX 424 Ejemplo 8. y sus proyecciones ortogonales sobre la recta son (0. 6). 5).4 2. tenemos que n x = 0. En primer lugar. bb ea˜E˜˜ Por tanto. Teclea help mldivide para una descripción más completa. 2) y (2. y el punˆ to sobre la recta correspondientes es y = 5. (1. el error total cometido es bb norm@eA”P 2.2 Vamos a usar we„vef para calcular la curva más simple que mejor ajusta a los datos de la tabla anterior. el valor del dato es y = 6. la ecuación de la recta que mejor se ajusta es y = −3x + 5.0 6. bb xalinsp—™e@EIDPA bb plot@xDEQBxCSD9r9A bb hold off Es interesante examinar el error cometido al aproximar los datos con la recta de mejor ajuste. .2. ˆ En términos geométricos la solución aproximada mínimo cuadrática. 0) y (2. obtenida nos da la ecuación de la recta que andábamos buscando.1. Otros ejemplos con we„vef. colgamos unas masas de un muelle. en x = 1 tenemos que y − y = 0 − 2 = −2. ˆ y en x = 2 obtenemos y − y = 0 − (−1) = 1. Los datos los tenemos en la siguiente tabla. (1. m 10 20 30 40 50 60 d 1. Análogamente. respectivamente. Esto ocurre porque el comando ’ calcula la solución mínimo cuadrática del sistema Ax = b. x. Realmente estos errores se pueden calcular directamente con el vector e = b − b . el error cometido es ˆ ˆ y − y = 6 − 5 = 1. y medimos la distancia que el muelle elonga desde su punto de equilibrio para cada masa.6 5.2. entonces. 0). introducimos los datos en we„vef y los dibujamos. Como m = −3 y b = 5. Los puntos originales eran (0. −1).

0 6. sustituimos cada punto en la ecuación: 1.    El vector d ya lo tenemos definido en we„vef. bb ea‘ones@size@mAADm“ Luego ya sólo nos queda calcular la solución aproximada mínimo cuadrática del sistema Ax = b tal y como hicimos en el ejemplo anterior MANUALES UEX 425 = d .8 3. La segunda matriz de A contiene los datos de masa almacenados en el vector m.2     .6 5.2 = a + b · 10 = a + b · 20 = a + b · 30 = a + b · 40 = a + b · 50 = a + b · 60 y escribimos el sistema matricialmente.8 3.6 5.4 2.9969.   1 10  1 20     1 30  a    1 40  b    1 50  1 60 Ax  =        1. Vamos a ajustar los datos con una recta de la forma d = a + b m.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA bb bb bb bb bb bb ™le—r —ll ™lose —ll ma@IHXIHXTHA9Y da‘IFRD PFVD QFTD SFHD TFRD UFP“9Y plot@mDdD9B9A hold on Usamos el operador de transposición para formar vectores columna. bb ™orr™oef@mDdA indica que el coeficiente de correlación es 0. Primero. Se ve en la figura que existe una tendencia lineal. En concreto.0 6.4 2.4 7.4 7.

Intentemos entonces ajustar los datos a una ecuación de la forma s = a + bt + ct2 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bb € a eBpinv@eA bb xgorroa e’€Bd Nota.2.2800 y b = 0. bb bb bb bb ™le—r —ll ™lose —ll ta@SXSXQHA9Y sa‘UPPD IHUQD IIUVD IIIUD UVID IHP“9Y MANUALES UEX 426 Podemos dibujar nuestros datos como sigue: bb plot@tDsD9˜s9D9w—rkerp—™egolor9D9˜9A bb hold on Aparentemente los datos forman una parábola.. Entonces a = 0. un cohete de juguete es lanzado al aire.Notemos de nuevo que bb e’d nos da la solución correcta. La altura del cohete a instantes determinados aparece en la tabla siguiente. Sustituimos los datos . En otro experimento. Empecemos introduciendo los datos en vectores columna t y s. bb ygorroaxgorro@IACxgorro@PABmY bb plot@mDygorroD9r9A bb hold off Ejemplo 8. Con estos valores vamos a dibujar la recta de mejor ajuste en nuestra figura. t s 5 722 10 1073 15 1178 20 1117 25 781 30 102 Debemos examinar los datos y decidir un modelo apropiado para su ajuste por mínimos cuadrados.3.1177.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA de la tabla en la ecuación s = a + bt + ct2 .   1117   1 20 202      c  781   1 25 252  102 1 30 302 Ax = s. Por ello.7814 y c = −4. vamos a averiguar la altura inicial del cohete. Por un lado. y por otro queremos saber en qué momento volvió a tierra. Además.9386. y podemos calcular su norma. bb xgorro a e’s Entonces a = 80. bb bb bb bb bb ttalinsp—™e@HDQSAY sgorroaxgorro@IACxgorro@PABttCxgorro@QABttF”PY plot@ttDsgorroA grid hold off ˆ El vector de errores es igual a e = s − Ax. b = 149. MANUALES UEX 427 . queremos hacer dos estimaciones. Con estos coeficientes vamos a pintar la parábola de mejor ajuste.2000. bb ea‘ones@size@tAADtDtF”P“ Vamos entonces a calcular la solución aproximada mínimo cuadrática del sistema Ax = s. extendemos el intervalo de t para que nos aparezcan esos datos. Podemos introducir en we„vef los valores de A de una forma sencilla. 722 1073 1178 1117 781 102 = a + b · 5 + c · (5)2 = a + b · 10 + c · (10)2 = a + b · 15 + c · (15)2 = a + b · 20 + c · (20)2 = a + b · 25 + c · (25)2 = a + b · 30 + c · (30)2 La expresión matricial del sistema es de la forma     722 1 5 52 2   1073   1 10 10      a    1 15 152    b  =  1178  .

bb fa‘ones@size@tAADtDtF”PDtF”Q“ bb xgorrofaf’s Observamos que el coeficiente d es de orden de 10−2 . en ese caso. La ecuación buscada es s = a + bt + ct2 + dt3 y. lo que nos dice que la aportación de término en t3 es pequeña.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bb paeBxgorroY bb easEp bb norm@eA Finalmente. por ejemplo. bb efasEfBxgorrofY bb norm@efA Por ello. MANUALES UEX 428 . debe salir más pequeño que en el ajuste por una parábola. Veamos qué resulta siguiendo los pasos anteriores. no se trata de encontrar el modelo que dé el menor error. podemos preguntarnos por qué no realizamos. Si calculamos el error cometido. sino el que sea más sencillo y nos permita construir un modelo teórico.   1117   1 20 202 203   c       781   1 25 252 253  d 1 30 302 303 102 Bx = s. un ajuste con una cúbica. el sistema queda de la forma     722 1 5 52 53 2 103   a   1073   1 10 10        1 15 152 153   b    =  1178  .

si tomamos logaritmos en ambos lados la ecuación queda lineal. entonces hemos visto que el Álgebra Lineal nos permite encontrar el ajuste por mínimos cuadrados. y log(y) = aebx = log( a) + bx Ejercicio 6. (b) u1 = (1. 0)t y u2 = (1. Usando el apartado anterior. Calcule la parábola de mejor ajuste a los datos de siguiente tabla: x y 2 6 10 14 18 22 286 589 749 781 563 282 Ejercicio 5.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios de la práctica 8 Ejercicio 1. Calcular la matriz P que proyecta todos los puntos del plano sobre el subespacio generado por el vector u = (1. 1. 0. Calcule una función de la forma y = ax b que ajuste los datos de la siguiente tabla: x y 1 2 3 4 5 6 117 385 920 1608 2518 3611 MANUALES UEX 429 1. 1)t . calcule la ecuación exponencial y = aebx que mejor ajusta a los datos originales. Calcular la matriz P que proyecta todos los puntos de R3 sobre el subespacio generado por (a) u = (1. Calcule la recta de ajuste de los datos transformados del apartado anterior. Si cada ecuación en un sistema es lineal. Ejercicio 2. 2. x y 1 2 3 4 5 6 128 149 214 269 336 434 Sin embargo. En principio. si intentamos calcular un ajuste de una ecuación exponencial y = aebx a los datos de la tabla siguiente parece que no seremos capaces. 2)t . Ejercicio 3. 1)t . 1. . Prepare un gráfico que muestre la relación lineal entre log(y) y x. Calcule la recta de mejor ajuste a los datos de la siguiente tabla: x y 5 10 15 20 25 30 28 39 48 65 72 82 Ejercicio 4. 3.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 430 .

1 La fórmula de Greville T.E. 23–28. SIAM Rev. J.. Comprobemos con un ejemplo que la fórmula funciona correctamente. donde B es una matriz de orden m × (n − 1) y b es un vector columna no nulo con m filas: B+ − d c+ A+ = .E. 1960. Consideremos la matriz   1 1 2 3 A =  1 −1 0 1  1 1 2 3 e introduzcámosla en we„vef. MANUALES UEX 431 . 2. Optim. 1.N.E.N.]. R. bb e a ‘IDIDPDQYIDEIDHDIYIDIDPDQ“ 1Greville. Some applications of the pseudoinverse of a matrix. 94 (1997). Greville obtuvo en 1960 la siguiente expresión de la inversa de Moore-Penrose de una matriz A ∈ Mm×n (R) particionada en la forma ( B|b). Kabala.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 9 Calculando inversas generalizadas E n esta práctica veremos algunos métodos computacionales para las inversas generalizadas. T. no. c+ donde d = B+ b y c=        b − Bd 1+ d 2 2 2 2 si b = Bd ( B + )t d ( B+ )t d en otro caso El lector interesado puede encontrar una demostración de la fórmula de Greville en [Udwadia. F. 15–22. Forma reducida 1. An alternative proof of the Greville formula. Pre-requisitos: Inversas generalizadas.E. Theory Appl.

. A2 . La clave está en usar la fórmula de Greville recursivamente como explicamos a continuación. La fórmula de Greville nos dice que si conocemos la inversa de Moore-Penrose de A j−1 podemos calcular la inversa de Moore-Penrose de A j . la inversa de Moore-Penrose de A se puede calcular hallando sucesivamente + + + + las inversas generalizadas de A1 = a1 . . Por consiguiente. |a j ). bb bb bb bb d a pinv@fAB˜ ™ a ˜ E fBd 77 y˜serv—mos que ˜ a fBdD por t—nto ™ a @ICnorm@dA”PAG@norm@pinv@fA9BdA”PABpinv@fA9Bd Y finalmente bb ™™ a pinv@™A bb ee a ‘pinv@fA E dB™™Y ™™“ Obsérvese que. n + Teniendo además en cuenta que la inversa de Moore-Penrose de a1 no es más que + a1 = at / ( at a1 ). . . 1 1 podemos afirmar que tenemos un algoritmo para cálculo del inversa de Moore-Penrose de A. MANUALES UEX 432 . mediante el uso recursivo de la fórmula de Greville. de tal forma que A j ∈ Mm× j (R) es la submatriz de A formada por sus j primeras columnas. bb f a e@IXQDIXQA bb ˜ a e@IXQDRA Ahora calculamos los vectores d y c. ya que necesitamos conocer la inversa de Moore-Penrose de una submatriz de A. Recuérdese que el comando pinv de we„vef calcula la inversa de Moore-Penrose.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS A continuación dividimos nuestra matriz A en dos bloques B y : el primero formado por las tres primeras columnas de A y el segundo por la última columna de A. ee coincide esencialmente con pinv@eA. A3 . bb pinv@eA Así vista. . denotemos a j a la columna jésima de A y definamos A j = (a1 | . . A+ = A. Consideremos la matriz A ∈ Mm×n (R). la fórmula de Geville no parece que dé un método para calcular la inversa de Moore-Penrose de A.

La inversa de Moore-Penrose de A3 = ( A2 |a3 ) se puede calcular ahora usan+ do A2 bb bb bb bb —Q eQ dQ ™Q a a a a e@IXQDQA ‘ePD—Q“ eePB—Q —Q E ePBdQ MANUALES UEX 433 . Si no hemos borrado el valor de la variable e no tendremos que volver a introducirla. se tiene que bb ™™P a ™P9G@™P9B™PA bb eeP a ‘eeIEdPB™™PY™™P“ De modo que la inversa de Moore-Penrose de A2 es + A2 = 1/4 1/4 1/2 1/4 −1/2 1/4 . esto lo podemos saber viendo nuestro ‡orksp—™e.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Pongamos en práctica nuestro algoritmo con la matriz A del ejemplo anterior. Consideremos ahora la primera columna de e. con el comando who o simplemente escribiendo bb e Si la variable e no está definida. obtendremos el mensaje ccc …ndefined fun™tion or v—ri—˜le 9e9 y tendremos que volver a introducirla. bb eI a e@IXQDIA bb eeI a —I9G@—I9B—IA Calculemos a continuación la inversa de Moore-Penrose de A2 = (a1 |a2 ) = ( A1 |a2 ) usando la fórmula de Greville. llamémosla eI y calculemos su inversa de Moore-Penrose a la que llamaremos eeI. bb bb bb bb —P eP dP ™P a a a a e@IXQDPA ‘eID—P“ eeIB—P —P E eIBdP Como a2 = A1 d2 .

1/6 0 1/6 Finalmente. en este caso. a3 = A2 d3 tenemos que definir c3 correctamente (siguiendo la fórmula de Greville) bb ™Q a @ICnorm@dQA”PAG@norm@eeP9BdQA”PABeeP9BdQ y por lo tanto bb ™™Q a ™Q9G@™Q9B™QA bb eeQ a ‘eePEdQB™™QY™™Q“ Luego la inversa generalizada de A3 es   1/12 1/2 1/12 + A2 =  1/12 −1/2 1/12  . bb ™R a @ICnorm@dRA”PAG@norm@eeQ9BdRA”PABeeQ9BdR y para terminar MANUALES UEX 434 bb ™™R a ™R9G@™R9B™RA bb eeR a ‘eeQEdRB™™RY™™R“ Por lo que podemos concluir que la inversa de Moore-Penrose de A es   0 1/3 0  1/12 −1/2 1/12   A+ =   1/12 −1/6 1/12  1/12 1/6 1/12 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Como. tenemos que definir correctamente el valor de c4 . calculamos bb bb bb bb —R eR dR ™R a a a a e@IXQDRA ‘eQD—R“ eeQB—R —R E eQBdR Al igual que antes. pues a4 = A3 d4 . para obtener la inversa de Moore-Penrose de A = A4 = ( A3 |a4 ).

Básicamente el comando svd funciona como describimos en el siguiente ejemplo En primer lugar definimos una matriz aleatoriamente con entradas entre -10 y 10 de orden también aleatorio m × n. Lo general es utilizar la descomposición en valores singulares (véase demostración del teorema VI. MANUALES UEX 435 Podemos comprobar que el resultado obtenido es esencialmente el mismo que el que se obtiene con el comando pinv de we„vef . n ≤ 11. bb bb bb bb hh a zeros@nDmAY r a r—nk@eA hh@IXrDIXrA a inv@h@IXrDIXrAA ee a BhhB€t9 bb pinv@eA 2. Así es como funciona realmente el comando pinv de we„vef. este método basado en la fórmula de Greville no se suele utilizar para calcular la inversa de MoorePenrose. la principal razón es la propagación de errores de redondeo.2.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Nota 9. 1 ≤ m. Cálculo de inversas generalizadas Un método común para calcular inversas generalizadas. {1}inversas. bb m a round@IHBr—ndCIAY bb n a round@IHBr—ndCIAY bb e a PHBr—nd@mDnAEIHY A continuación calculamos su descomposición en valores singulares A = PDQt bb ‘€tDhD“ a svd@eAY y finalmente la inversa de Moore-Penrose de A usando la fórmula A+ = QD Pt .2). donde D se obtiene al sustituir su submatriz formada por la r primeras filas y columnas por la inversa de la submatriz de las r primeras filas y columnas de D. usando a su vez el comando svd para calcula la descomposición en valores singulares. esto es. de un matriz dada se basa en el cálculo de la forma reducida. siendo r el rango de A.1. Como se indicó en la introducción.1.

Entonces.1. R2 = R. multiplicando a izquierda por P y a la derecha por Q−1 en la igualdad anterior. QP−1 es una inversa generalizada de A. esto es. Por consiguiente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. Veamos con un ejemplo que el método propuesto funciona. obtenemos que A( QP−1 ) A = A. MANUALES UEX bb bb bb bb bb bb bb bb bb bb bb e a ‘PDPDRYRDEPDPYPDERDEP“ p a rref@eA es a ‘eDeye@QA“ pes a rref@esA inv€ a pes@XDRXTA 7snvers— de € i a p9 is a ‘iDeye@QA“ pis a rref@isA I a pis@XDRXTA  a I9 ‚ a inv€BeB Así obtenemos que  P −1 436 0 = 0 1 1/3 1/6 −1  −1/6 −1/3  1 y 0 Q =  −1 1  0 1 0  1 1  −1 . Es decir. Sabemos que dada una matriz A ∈ Mn (R) de rango r. Sea   2 2 4 A =  4 −2 2 . existen P y Q ∈ Mn (R) invertibles tales que P−1 AQ = R = Ir 0 0 0 . 2 −4 −2 Usando we„vef podemos calcular la forma reducida R de A y matrices de paso P y Q invertibles tales P−1 AQ = R (véase la práctica 3). P−1 A( QP−1 ) AQ = ( P−1 AQ)( P−1 AQ) = R2 = R = P−1 AQ. Inversas generalizadas de matrices cuadradas. Es claro que la matriz R es idempotente.

donde m < n.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA son matrices invertibles tales que 1 P−1 AQ = R =  0 0  0 1 0  0 0 .2. ampliando A a la derecha con ceros hasta hacerla cuadrada. A∗ QP−1 A∗ = A 0(n−m)×n A 0(n−m)×n AQP1 0(n−m)×m AQP1 A 0(n−m)×n Q( P1 | P2 ) A 0(n−m)×n A 0(n−m)×n A 0(n−m)×n = = = ( QP1 | QP2 ) AQP2 0(n−m)×(n−m) Igualando esta identidad a A∗ . entonces Q P1 es una inversa generalizada de A. Definimos la matriz A∗ como sigue A∗ = A 0(n−m)×n donde 0(n−m)×n es una matriz de ceros de orden (n − m) × n. caso general. Inversas generalizadas. Una expresión análoga se obtiene cuando m > n. Sea A ∈ Mm×n (R). bb f a Binv€ bb eBfBe 2. −1 4/3 −7/6 En efecto. Es claro que si P −1 A ∗ Q = R es la forma reducida de A y P−1 = ( P1 | P2 ) es una partición por bloques de P−1 compatible con la partición de A∗ . MANUALES UEX 437 . 0 Por consiguiente. Veamos este caso en un ejemplo. obtenemos que AQP1 A = A. una inversa generalizada de A es   1 −1 1 A− = QP−1 =  1 −7/6 5/6  . En efecto.

bb g a Binv€ bb h a g@IXQDIXRA .    0 0 0 1/2 0 0 1  0 0  −1 1 1 −1/2  1  y Q= P −1 =   1 0 −1  1 0 −1 0  0 1 0 Q tales que  0 0   0  1 −1/2 0 0 0 Particionando la matriz Q como sigue  Q= Q1 Q2 0  −1 =  1 0 0 1 0 0  1 0 1 0   −1 0  0 1 Encontramos que una inversa generalizada de A es Q1 P−1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Supongamos que queremos calcular una inversa generalizada de la matriz 1  1 A=  1 2  1 0 1 0  2 1  . 2  2 Consecuentemente consideramos la matriz ampliada   1 1 2 0  1 0 1 0   A∗ = ( A|0) =   1 1 2 0 . 2 0 2 0 Procediendo como antes obtenemos matrices invertibles P−1 y P−1 A∗ Q es la forma reducida de A∗ . MANUALES UEX 438 bb bb bb bb bb bb e a ‘ID ID PY ID HD IY ID ID PY PD HD P“ inv€ a ‘HD HD HD IGPY HD HD ID EIGPY ID HD EID HY HD ID HD EIGP“  a ‘HD HD ID HY EID ID ID HY ID HD EID H“ I a @IXQDIXRA f a IBinv€ eBfBe Obsérvese que es lo mismo considerar las primeras m − n filas de Q y realizar el producto con P−1 que tomar las primeras m − n del filas de producto QP−1 .

Cálculo de inversas mínimo cuadráticas Según lo estudiado en clase de teoría. Consideremos la matriz del ejemplo anterior   1 1 2  1 0 1   A=  1 1 2  2 0 2 bb e a ‘ID ID PY ID HD IY ID ID PY PD HD P“ Definamos At A. llamémosla B y calculemos una de sus inversas generalizadas. se puede calcular una inversa mínimo cuadrática de una matriz A ∈ Mm×n (R) calculando primero una inversa generalizada de At A y usando la igualdad A = ( At A)− At (véase la proposición VI.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 3.8). Ilustremos con un ejemplo este procedimiento. bb bb bb bb bb bb bb bb bb bb bb f a e9Be p a rref@fA fs a ‘fDeye@QA“ pfs a rref@fsA inv€ a pfs@XDRXTA 7snvers— de € i a p9 is a ‘iDeye@QA“ pis a rref@isA I a pis@XDRXTA  a I9 ff a Binv€ = ( At A ) − At Usando ahora la expresión A bb ee a ffBe9 se obtiene que una inversa mínimo cuadrática de A es   0 0 0 0 A =  1/2 −2/5 1/2 −4/5  0 1/5 0 2/5 MANUALES UEX 439 .3.

MANUALES UEX 440 . Usar el método recursivo basado en la fórmula de Greville para calcular una inversa de Moore-Penrose de la matriz   1 −1 −1 A =  −1 1 1 . Ejercicio 3. Hallar una inversa generalizada de la matriz   1 −1 −2 1 A =  −2 4 3 −2  1 1 −3 1 calculando su forma reducida. Hallar una inversa generalizada de la matriz A del ejercicio anterior calculando su forma reducida. Hallar una inversa mínimo cuadrática de la matriz A del ejercicio anterior distinta de la inversa de Moore-Penrose. 2 −1 1 Ejercicio 2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejercicios de la práctica 9 Ejercicio 1. Ejercicio 4.

333 t Teclea en we„vef la siguiente secuencia de comandos para representar ambas rectas. por lo que el sistema de ecuaciones tiene solución única. se tiene que r1 : x y = 1 + 0. y la solución es el punto de corte.b = 0. En otro caso. Número de condición de una matriz y we„vef Consideremos el sistema de ecuaciones Ax = b donde (10.1.835 t y que r2 : x y = 1 + 0.835 0. Si r1 es la recta representada por la primera ecuación y r2 la representada por la segunda. se trata de dos rectas en R2 .067 La solución del sistema se puede calcular como sigue1 bb ea‘HFVQSDHFTTUYHFQQQDHFPTT“ bb ˜a‘HFITVYHFHTU“ bb solIae’˜ Desde el punto de vista geométrico.667 t = −1 − 0. si A no fuese invertible (o incluso si no fuese cuadrada) la orden A\b adquiere otro significado. Pre-requisitos: resolución de sistemas de ecuaciones lineales. Se expondrán también las funciones que incorpora we„vef para calcular la norma de un vector y el número de condición de una matriz.266 . MANUALES UEX 441 . 1Téngase que la matriz A es invertible.333 0.168 0. Para obtener la representación gráfica en we„vef deben ser pasadas a paramétricas. 1.266 t = −1 − 0.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 10 Número de condición de una matriz y MATLAB En esta práctica se mostrará la interpretación gráfica que tiene la resolución de un sistema de ecuaciones en relación con el número de condición de la matriz del sistema. normas matriciales.1) A= 0.667 0.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

bb bb bb bb bb bb bb bb bb bb bb

™lose —ll talinsp—™e@EIHDIHAY xIaICHFTTUBtY yIaEIEHFVQSBtY xPaICHFPTTBtY yPaEIEHFQQQBtY plot@xIDyID9EEr9DxPDyPD9Xg9A —xis@‘EPDPDEPDP“A grid line@IDEID9w—rker9D9F9D9w—rkerƒize9DITD9™olor9D9r9A text@IDEID9@IDEIA9D9rorizont—lelignment9D9veft9A

En la figura que produce we„vef se ve que el punto de corte es el (1, −1) y que las rectas son casi paralelas (y por lo tanto casi idénticas pues coinciden en un punto).

A continuación realizaremos una ligera modificación en los coeficientes de A. Consideremos ahora el sistema ( A + ∆A)x = b, donde

(10.1.2)

A + ∆A =

0,835 0,333

0,667 0,267

,b =

0,168 0,067

.

Observa que únicamente hemos alterado la entrada (2, 2). Al igual que antes la solución del sistema se calcula como sigue:

MANUALES UEX
442

bb ePa‘HFVQSDHFTTUYHFQQQDHFPTU“ bb ˜a‘HFITVYHFHTU“ bb solPaeP’˜

Las representaciones gráfica de los sistemas (10.1.1) y (10.1.2) se pueden ver en la siguiente figura:

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

2

1

0

−1

(1,−1)

−2 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2

1

0

(.2002,.0012)

−1

−2 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

Este hecho induce a pensar que sistemas en los que las rectas sean casi paralelas (es decir, aquellos en los que el determinante de la matriz del sistema esté próximo a cero) tendrán números de condición muy grandes. En tal caso, el determinante de la matriz de coeficientes es pequeño, lo que hace que el menor autovalor de A∗ A sea pequeño. Recuérdese que (10.1.3) cond2 ( A) = λn ( A∗ A) , λ1 ( A ∗ A )

siendo λn ( A∗ A) y λ1 ( A∗ A) el mayor y el menor autovalor de A∗ A, respectivamente, lo que nos da entonces valores grandes de cond2 ( A). 1.1. Las funciones ™ond y norm de we„vef.

Calculemos el número de condición de la matriz de coeficientes para la norma ||| · |||2 .

Observa que es un valor muy grande, tal como se esperaba. Para las restantes normas se obtienen resultados parecidos.

bb ™ond@eDIA bb ™ond@eDinfA

MANUALES UEX
443

bb ™ond@eDPA

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

En este tipo de cálculo, lo que interesa es el orden de magnitud, y no tanto el valor exacto. En nuestro caso, donde se ha efectuado una modificación en la matriz A, se tiene la siguiente acotación:

|||∆A||| ∆u ≤ cond( A) . u + ∆u ||| A|||
donde u y u + ∆u son las soluciones de los sistemas Ax = b y ( A + ∆A)x = b, respectivamente. Con we„vef se puede comprobar que, en nuestro caso, la acotación es muy poco ajustada (como es de esperar).

bb bb bb bb

solIae’˜ solPaeP’˜ miem˜ro•de•l—•izquierd— a norm@solPEsolIDPAGnorm@solPDPA miem˜ro•de•l—•dere™h— a ™ond@eDPABnorm@ePEeDPAGnorm@eDPA

Nota.- Escribe help norm y help ™ond para saber más sobre las ordenes norm y ™ond de we„vef. 2. Número de condición y transformaciones elementales.

Veamos cómo afectan las transformaciones elementales al número de condición de una matriz. Para ello consideraremos una nueva matriz, por ejemplo2, 0,4494 0,1426 B= . 0,7122 0,5643

bb f a ‘HFRRWRD HFIRPTY HFUIPPD HFSTRQ“ bb ™ond@fA
Consideremos una matriz unitaria, por ejemplo,

MANUALES UEX

U=

cos(π/5) sen(π/5) −sen(π/5) cos( pi/5)

bb … a ‘™os@piGSADsin@piGSAYEsin@piGSAD™os@piGSA“
que, como podemos comprobar, es efectivamente unitaria3
2Si lo deseas puedes elegir otra matriz, por ejemplo una matriz aleatoria con la orden

444

rand(2).
3Recuérdese que una matriz U ∈ M (C) es unitaria si U ∗ U = I . n n

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

bb …F9B…
Entonces, sabemos que se dan las siguiente igualdades (10.2.4) cond2 ( B) = cond2 ( B U ) = cond2 (U B) = cond2 (U ∗ BU ),

lo que significa que el número de condición respecto de la norma ||| · |||2 es invariante por transformaciones unitarias. Tratemos de comprobar la igualdad cond2 ( B) = cond2 (U ∗ BU ) con we„vef usando el símbolo lógico4 aa

bb kI a ™ond@fA bb kP a ™ond@…F9BfB…A bb kI aa kP
Evidentemente algo no ha ido bien pues la respuesta de we„vef ha sido negativa. La razón es la propagación de los errores de redondeo:

bb bb bb bb

form—t long kI kP form—t

Veamos ahora que el número de condición respecto de la norma ||| · |||∞ no es estable por transformaciones unitarias.

bb ™I a ™ond@fDinfA bb ™P a ™ond@…BfDinfA
4En MATLAB existe un tipo de dato llamado lógico que son también matrices de números pero que deben manipularse de distinta manera y tienen otras utilidades. La forma más sencilla de construirlo estos datos lógicos es aplicando la función logical. La comparación entre dos escalares produce un resultado de tipo lógico que vale 1 si es cierta y un 0 cuando es falsa. Las operaciones de relación en MATLAB son las siguientes

== ∼= < > <= >=

igualdad desigualdad menor que mayor que menor o igual que mayor o igual que

MANUALES UEX
445

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

En este caso no hay dudas de que ambos números de condición son distintos. Consideremos ahora P ∈ Mn (C) no unitaria, por ejemplo, P= 1 455477 0 −1142114

y calculemos el número de condición cond2 ( P A) y cond2 ( P−1 A) para A= 0,8350 0,3330 0,6670 0,2660 .

bb bb bb bb bb

™le—r —ll € a ‘IDHYRSSRUUDEIIRPIIR“ e a ‘HFVQSDHFTTUYHFQQQDHFPTT“ kI a ™ond@€BeA kP a ™ond@inv@€ABeA

Observamos que PA tiene el mejor número de condición posible, mientras que P−1 A tiene un número de condición mucho más grande que el que tenía A. La primera opción, PA, representa la mejor situación que se nos puede dar, porque recordemos que el número de condición de una matriz siempre es mayor o igual que 1. Desde el punto de vista geométrico significa que las rectas determinadas por PAx = b con bt = (0,168, 0,067) se cortan de forma casi perpendicular. La representación gráfica la tenemos en la siguiente figura:
2

1.5

1

0.5

MANUALES UEX

0

−0.5

−1

(1,−1)

−1.5

446

−2 −2

−1.5

−1

−0.5

0

0.5

1

1.5

2

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

3.

Sistemas mal condicionados.

Consideremos ahora los sistemas lineales Hn xn = bn , donde Hn ∈ Mn (R) es la llamada matriz de Hilbert de orden n cuya entrada (i, j)-ésima es hij = 1/(i + j − 1), i, j = 1, . . . , n, mientras que bn ∈ Rn se elige de tal forma que la solución exacta sea xn = (1, 1, . . . , 1)t , es decir, b es el vector cuya coordenada i-ésima es

( b n )i =

j =1

∑ i + j − 1,

n

1

i = 1, 2, . . . , n.

La matriz Hn es claramente simétrica y se puede probar que es definida positiva (por consiguiente, su autovalores son reales y positivos). Vamos a dibujar una gráfica (en escala semilogarítmica) para visualizar el comportamiento de los errores relativos ˆ ε n = xn − xn / xn ˆ cuando aumenta n, siendo xn la solución del sistema Hn x = bn que nos ha proporcionado we„vef, usando el comando \ Usa el editor de we„vef para introducir los siguientes comandos, y ejecutarlos todos juntos posteriormente. Guarda estos comandos en un fichero llamado m—l•™ondFm en tu disco (asegúrate de que el Current directory es eX\)

Sobre la base de la observación anterior podríamos especular diciendo que cuando el sistema lineal Ax = b se resuelve numéricamente, en realidad ˆ uno está buscando la solución exacta x de un sistema perturbado ˆ ( A + ∆A)x = b + δb,

MANUALES UEX
447

bb bb bb bb bb bb bb bb bb bb bb bb bb

w—rning@9off9A i•n a ‘“Y for n a IXIHH ™le—r ˜ xxY x a ones@nDIAY for i a IXn ˜@iA a sum@IFG@iC@IXnAEIAAY end xx a hil˜@nA’˜9Y i•n a ‘i•nD norm@xExxAGnorm@xA“Y end semilogy@IXIHHDi•nA w—rning@9on9A

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

donde ∆A y δb son, respectivamente, una matriz y un vector que dependen del método numérico específico que se esté utilizando. Luego, según lo que hemos estudiado en clase, el número de condición de la matriz A explicaría el resultado experimental anterior (retomaremos esta cuestión en el ejercicio 5).

MANUALES UEX
448

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Ejercicios de la práctica 10 Ejercicio 1. Utiliza el comando eig de we„vef y la fórmula 10.1.3 para calcular cond2 ( A) siendo A la matriz de Wilson   10 7 8 7  7 5 6 5   A=  8 6 10 9  . 7 5 9 10 Calcular también, usando el comando ™ond de we„vef, los condicionamientos de dicha matriz respecto de las normas ||| · |||1 , ||| · |||∞ y ||| · ||| F ; comprobar que los tres son mayores que cond2 ( A). Resolver los sistemas Ax = b para b = obtenidos. y Ax = (b + δb),

(32, 23, 33, 31)t

y δb = (0,1, −0,1, 0,1, −0,1)t . Explicar los resultados

Ejercicio 2. Consideremos el sistema 3x 3x

+ 4y = 7 + 5y = 8

1. Calcula su número de condición respecto a la norma 1. 2. Construye, si es posible, sistemas equivalentes que tengan un número de condición mayor y menor que el dado. Ejercicio 3. Tomemos el sistema Ax = b, donde A= 1000 999 999 998 ,x = x1 x2 ,b = 1999 1997 .

Calcula ||| A|||∞ , ||| A−1 |||∞ y el número de condición cond∞ ( A). ¿Se puede decir que el sistema está bien condicionado? Ejercicio 4. Considerar el siguiente sistema de ecuaciones lineales

=

.

Comprobar que una pequeña variación δb = (1, 0)t en término independiente produce grandes cambios en la solución. Explicar por qué. Ejercicio 5. Dibujar una gráfica donde se muestre el comportamiento del número de condición de la matriz de Hilbert de orden n para n = 1, . . . , 100, primero en escala 1:1 y luego en escala semilogarítmica (distingue esta última de las anteriores dibujándola en rojo, por ejemplo)

MANUALES UEX
449

1001 1000

1000 1001

x1 x2

2001 2001

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS
Usando la orden hold on, comparar la gráfica en escala semilogarítmica obtenida con la del comportamiento de los errores relativos estudiada anteriormente (si guardaste aquella ordenes el disco solo tienes que escribir m—l•™ond). Explicar el resultado obtenido.

MANUALES UEX
450

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

PRÁCTICA 11

Factorización LU
1. Introducción

En esta práctica aprenderemos a resolver sistemas lineales de ecuaciones con la descomposición LU de una matriz, junto a las sustituciones hacia adelante y hacia atrás. Además, veremos algunas funciones de we„vef sobre ficheros y estructuras de control en programación. Pre-requisitos: conocimiento de vectores y matrices en MATLAB. Familiaridad con la eliminación gaussiana, matrices elementales y factorización LU. 2. M-ficheros de ejecución y de funciones en we„vef

Los M-ficheros de funciones (funciones) son similares a los scripts. El código introducido se ejecuta en secuencia. Sin embargo, mientras que los scripts
símbolo % es tratado como comentario. MATLAB no lo procesa.
1Los puntos suspensivos son comandos de continuación en MATLAB. Todo lo que sigue al

MANUALES UEX
451

Los M-ficheros de ejecución (scripts) son simplemente una forma conveniente de poner unos comandos de we„vef que queremos ejecutar en secuencia. Por ejemplo, abrimos el editor de we„vef e introducimos el siguiente código1 form—t r—t 7 form—to r—™ion—l ea‘ ID PDEQD RY FFF PD HDEID RY FFF QD ID HD TY FFF ERD RD VD H“ ˜a‘ IY IY IYEI“ wa‘eD˜“ ‚arref@wA xa‚@XDSA form—t 7 vuelt— —l form—to origin—l Grabemos el fichero como ejemploFm. Ahora, en el indicador de we„vef, escribimos bb ejemplo y cada línea de ejemploFm se ejecutará en el orden que aparece en el fichero.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

permiten al usuario introducir datos, las funciones pueden devolver una respuesta a las funciones que las llamen (en algunos casos, la propia pantalla de we„vef). Supongamos, por ejemplo, que quisiéramos codificar la función definida por f ( x ) = x2 . Abrimos el editor de we„vef e introducimos las siguientes líneas de código.

452

fun™tion yaf@xA yax”PY Lo grabamos como fFm. Ahora la probamos en el indicador de we„vef con los siguientes comandos. bb taVY bb zaf@tA Observemos que en la llamada a la función no es necesario que se use el mismo nombre para la variable independiente. En la función es x y nosotros hemos usado t. Tampoco tienen que coincidir los nombres de las variables dependientes. Por ejemplo, es válido lo siguiente. bb taVY bb t•™u—dr—doaf@tAY bb t•™u—dr—do Evidentemente, la función no tiene por qué llamarse f , podemos darle el nombre que queramos. Abrimos el editor de we„vef e introducimos las siguientes líneas de código. fun™tion ya™u—dr—do@xA yax”PY No obstante, we„vef requiere que grabemos el fichero con el mismo nombre que le demos a la función. Esto es, en el caso anterior, el fichero debe llamarse ™u—dr—doFm. Esta función tendrá un comportamiento igual que la primera función. Solamente han cambiado los nombres. bb taVY bb t•™u—dr—do a ™u—dr—do@tAY bb t•™u—dr—do Las funciones pueden tener más de una entrada y pueden tener una salida múltiple. Por ejemplo, consideremos la función definida por g( x, y) = x2 + y2 . La codificamos como sigue en el editor de we„vef. fun™tion z a g@xDyA zax”PCy”PY Grabamos este fichero como gFm y ejecutamos los siguientes comandos en el indicador de we„vef. bb uaQYvaRY

MANUALES UEX

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

bb zag@uDvAY bb z
Aunque pronto encontraremos funciones con respuesta múltiple, veamos un ejemplo. Consideremos la función h( x, y) = [ x2 + y2 , x2 − y2 ]. La codificamos como sigue en el editor de we„vef.

fun™tion ‘hIDhP“ a h@xDyA hIax”PCy”PY hPax”PEy”PY
Grabamos este fichero como hFm y ejecutamos los siguientes comandos en el indicador de we„vef.

bb uaSYvaPY bb ‘—D˜“ah@uDvAY bb ‘—D˜“
Tradicionalmente we„vef obliga a crear un M-fichero por cada función. El nombre de la función debe coincidir con el de la función. No obstante, a partir de la versión 5.0 se han introducido las subfunciones, que son funciones adicionales definidas en un mismo M-fichero con nombre diferentes del nombre del fichero (y del nombre de la función principal) y que sólo pueden ser llamadas por funciones contenidas en ese fichero, resultando “invisibles" par otra funciones externas. Por ejemplo, si escribimos en el editor de we„vef

fun™tion y a fun@xA y a xCsu˜fun@xAY fun™tion y a su˜fun@xA y a x”PY
grabamos este fichero como funFm y ejecutamos los siguientes comandos en el indicador de we„vef

observamos que we„vef “reconoce" la función fun, pero no así la función su˜fun; aunque esta última sea necesaria para el buen funcionamiento de la primera. 3. Métodos específicos para la resolución de sistemas triangulares. Sustitución hacia atrás.

3.1.

MANUALES UEX
453

bb waPY bb fun@PA bb su˜fun@PA

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS
Consideremos el sistema de ecuaciones2 2x1 (11.3.1)

+ x2 −2x2

− x3 + x3 4x3

 = 4  = −3  = 8

En forma matricial, se puede representar como      2 1 −2 x1 4  0 −2 1   x2  =  −3  . 0 0 4 x3 8 Hemos escrito el sistema (11.3.1) como Ux = c, donde      −2 x1 4 1  , x =  x2  , c =  −3  . 4 x3 8 Observemos que la matriz U es cuadrada de orden 3 y triangular superior, porque cada coeficiente por debajo de la diagonal principal es nulo. Además, U es invertible. Estos sistemas se resuelven fácilmente con una técnica que se denomina sustitución hacia atrás. En primer lugar, resolvemos la última ecuación del sistema (11.3.1) para calcular el valor de x3 , y nos da x3 = 2. Este valor lo sustituimos en la segunda ecuación del sistema (11.3.1). 2 U= 0 0 1 −2 0 

−2x2 + x3 = −3 ⇒ x2 = (−3 − x3 )/(−2) = (−3 − 2)/(−2) = 5/2.
Por último, sustituimos x3 = 2 y x2 = 5/2 en la primera ecuación del sistema (11.3.1), y calculamos el valor de x1 . 2x1 + x2 − 2x3 = 4 ⇒ x1 = (4 − x2 + 2x3 )/2 = (4 − 5/2 + 2 · 2)/2 = 11/4. En general, si U es triangular superior e invertible3, entonces para cualquier c el sistema Ux = c tiene solución única. Ésta se encuentra fácilmente con la sustitución hacia atrás.  u11 x1 + u12 x2 + . . . + u1n xn = c1    u22 x2 + . . . + u2n xn = c2  . .   .   unn xn = cn
2Que podemos pensar que el sistema equivalente a uno dado, después de haber calculado

MANUALES UEX
454

la forma reducida por filas de la matriz ampliada del sistema original. 3Recuérdese que si una matriz es triangular, entonces su determinante coincide con el producto de los elementos de su diagonal principal. Por lo que la condición necesaria y suficiente para que sea invertible es que los elementos de su diagonal principal sean distintos de cero.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

En primer lugar, resolvemos xn de la última ecuación. (11.3.2) xn = cn /unn .

Con este dato y la penúltima ecuación encontramos xn−1 . xn−1 = (cn−1 − un−1,n xn )/un−1,n−1 . Si continuamos de esta manera, podemos resolver todo el sistema. Por ejemplo, la i-ésima ecuación uii xi + ui,i+1 xi+1 + . . . + uin xn = ci nos lleva a xi = (ci − ui,i+1 xi+1 − . . . uin xn )/uii y en notación sumatoria (11.3.3) xi = ( ci −
n

j = i +1

uij x j )/uii .

esta última ecuación es la que permite automatizar el proceso. Vamos a sistematizar el proceso de sustitución hacia atrás definición una función de we„vef. Para ello, abrimos el editor de we„vef y comenzamos dando un nombre a la función y a sus entradas y salidas. Pasamos como dato de entrada la matriz de coeficientes U, que debe ser cuadrada de orden n, y el vector c de términos independientes. La función tiene que devolver la solución del sistema Ux = c en la variable x.

fun™tion xasust•—tr—s@…D™A
Ahora, almacenamos el tamaño de la matriz U en las variables m (número de filas) y n (número de columnas).

‘mDn“asize@…AY
Si la matriz no es cuadrada, tenemos un problema. Puede ocurrir que el sistema tenga más de una solución. Verificamos tal condición, y si la matriz U no es cuadrada paramos la ejecución y damos un mensaje de aviso.

Ahora reservamos un espacio que contendrá la solución del sistema.

xazeros@nDIAY
Usamos la ecuación (11.3.2) para calcular xn y almacenar la solución

x@nAa™@nAG…@nDnAY

MANUALES UEX
455

if m~an disp@9v— m—triz … no es ™u—dr—d—F9A returnY end

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Con la sustitución hacia atrás, podemos calcular los valores de xi para i = n − 1, . . . , 2, 1. Esta es una tarea iterada, que podemos programar con un bucle for. El bucle interno calcula la suma de la ecuación (11.3.3). Por último, la ecuación (11.3.3) se usa para obtener xi .

for kanEIXEIXI sumaHY for jakCIXn sumasumC…@kDjABx@jAY end x@kAa@™@kAEsumAG…@kDkAY end
El texto completo que debe aparecer escrito en el editor de we„vef es el siguiente:

456

fun™tion x a sust•—tr—s@…D™A ‘mDn“asize@…AY if m~an disp@9v— m—triz … no es ™u—dr—d—F9A returnY end xazeros@nDIAY x@nAa™@nAG…@nDnAY for kanEIXEIXI sumaHY for jakCIXn sumasumC…@kDjABx@jAY end x@kAa@™@kAEsumAG…@kDkAY end Guardamos el fichero como sust•—tr—sFm y lo probamos con la matriz del sistema (11.3.1). En primer lugar, introducimos U y c. bb …a‘PDIDEPYHDEPDIYHDHDR“ bb ™a‘RYEQYV“ Observemos que c se define como un vector columna. Finalmente, obtenemos la solución con los siguientes comandos. bb form—t r—t bb xasust•—tr—s@…D™A bb form—t y vemos que coincide con la solución del sistema (11.3.1) que habíamos calculado a mano.

MANUALES UEX

Además. −3 2 1 c3 −10 y el sistema (11.3.4) toma la forma Lc = b. este sistema se puede escribir como      1 0 0 c1 4  2 1 0   c2  =  (11. 1 c3 −10 Observemos que L es una matriz cuadrada 3 × 3. Empezamos por resolver la ecuación para c1 .3. triangular inferior y con unos en la diagonal. c =  c2  .4) y obtenemos c2 .4) c1 2c1 + c2 −3c1 + 2c2 + c3  = 4  = 5  = −10 En forma matricial.3. . entonces para cualquier b el sistema Lc = b tiene solución MANUALES UEX 457 Sustituímos ahora c1 y c2 en la tercera ecuación del sistema (11. 2c1 + c2 c2 c2 c2 = = = = 5 5 − 2c1 5−2·4 −3 −3c1 + 2c2 + c3 c3 c3 c3 = = = = −10 −10 + 3c1 − 2c2 −10 + 3 · 4 − 2 · (−3) 8 En general. c1 = 4.3. Consideremos ahora el sistema de ecuaciones (11. b =  5  . triangular inferior.5) 5 . donde 1 L= 2 −3  0 1 2      0 c1 4 0  . Sustitución hacia adelante. lo que simplifica el cálculo de la solución que se puede obtener mediante el método de sustitución hacia adelante.4) y calculamos c3 . Sustituímos c1 en la segunda ecuación del sistema (11.3. si L es una matriz cuadrada.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 3. los elementos de la diagonal principal son iguales a 1.2.

. Animamos al lector a usar la explicación de sust•—tr—s para comprender el algoritmo antes de pasar a probar la rutina. + li. . . Con este resultado calculamos c2 en la segunda ecuación.  c1 = b1    l21 c1 + c2 = b2  . El sistema se resuelve fácilmente con sustitución hacia adelante. .i−1 ci−1 . nos da ci = bi − li1 c1 − li2 c2 − .   . + cn = bn Resolvemos la primera ecuación para c1 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS única. l21 c1 + c2 c2 = b2 . . c1 = b1 . = b2 − l21 c1 . La i-ésima ecuación li1 c1 + li2 c2 + . .i−1 ci−1 + ci = bi . 458 fun™tion ™asust•—del—nte@vD˜A ‘mDn“asize@vAY if m~an disp@9v— m—triz v no es ™u—dr—d—F9A returnY end ™azeros@nDIAY ™@IAa˜@IAY for kaPXn sumaHY for jaIXkEI sumasumCv@kDjAB™@jAY end ™@kAa˜@kAEsumY end MANUALES UEX . − li. En notación de sumatorio es i −1 c i = bi − j =1 ∑ lij c j . Definimos la función sust•—del—nte sin explicación.   ln1 c1 + ln2 c2 + . Continuando de esta forma calculamos el resto de incógnitas. .

    1 0 0 2 1 −2 2 1 E1 A =  −2 1 0   4 0 −3  =  0 −2 0 0 1 −6 −7 12 −6 −7 Calculamos el segundo multiplicador con l31 := a31 /a11 = −6/2 = −3.  = 4  = 5  = −10 En forma matricial. el sistema tiene la forma donde 2 A= 4 −6  1 0 −7      −2 x1 4 −3  .      1 0 0 2 1 −2 2 1 −2 E2 ( E1 A) =  0 1 0   0 −2 1  =  0 −2 1  3 0 1 −6 −7 12 0 −4 6  −2 1  12 MANUALES UEX 459 . 4. x =  x2  . Restamos a la segunda fila la primera multiplicada por l21 .1. Consideremos el sistema de ecuaciones 2x1 4x1 −6x1 + x2 −7x2 −2x3 −3x3 +12x3 Ax = b. Factorización LU Nota 11. bb va‘IDHDHYPDIDHYEQDPDI“ bb ˜a‘RYSYEIH“ bb ™asust•—del—nte@vD˜A Como era de esperar. b =  5  12 x3 −10 Vamos a usar operaciones elementales por filas para llevar la matriz A a una matriz triangular superior. Calculamos el primer multiplicador con l21 := a21 /a11 = 4/2 = 2. la solución coincide con la que habíamos obtenido previamente.4).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Grabamos el fichero como sust•—del—nteFm y comprobamos su funcionamiento con el sistema (11. y guardamos los multiplicadores de cada posición en una matriz triangular inferior L según vamos haciendo los cálculos.3. Ahora le restamos a la tercera fila la primera multiplicada por l31 .4. La descripción y justificación teórica de la descomposición LU se puede encontrar en los apuntes de la asignatura Álgebra y Geometría.

Restamos a la tercera fila la segunda multiplicada por l32 . la solución del sistema Ax = b es   11/4 x =  5/2  . Por tanto. 4 (2) (2) (2) (2) Construimos la matriz L a partir de la matriz identidad colocando los multiplicadores lij en sus posiciones correspondientes. a22 son las entradas correspondientes de A(2) = E2 E1 A. 2 Vamos ahora a escribir una rutina para calcular la descomposición LU. y la salida son matrices triangulares L (inferior con unos en la diagonal) y U (superior) tales que A = LU. La entrada es una matriz cuadrada A. l31 l32 1 −3 2 1 Observemos que estas matrices U y L son las matrices triangulares que hemos usado en los sistemas de la sección 3.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Calculamos ahora el siguiente multiplicador con l32 = a32 /a22 = −4/(−2) = 2.      1 0 0 2 1 −2 2 1 −2 E3 ( E2 E1 A) =  0 1 0   0 −2 1  =  0 −2 1  = U. Entonces A = LU y el sistema Ax = b se transforma en ( LU )x = b L(Ux) = b Podemos escribirlo como dos sistemas Lc = b y Ux = c.     1 0 0 1 0 0 L =  l21 1 0  =  2 1 0  . MANUALES UEX 460 fun™tion ‘vD…“ami•lu@eA Al igual que antes. . si A no es cuadrada. Estos sistemas fueron resueltos en la sección 3. donde a32 . devolvemos un mensaje de error y paramos. 0 −2 1 0 −4 6 0 0 4 Entonces 2 U= 0 0  1 −2 0  −2 1 .

dado que los pasos previos de eliminación han alterado los valores originales aij . . . . ...k+1 . Estamos en la columna k.. vaeye@nAY Modificaremos las entradas de la matriz A..   . que corresponden a un índice inicial de k + 1. la matriz A tendrá la siguiente forma.k+1 . v@iDkAae@iDkAGe@kDkAY for jakXn e@iDjAae@iDjAEv@iDkABe@kDjAY end Cerramos los dos bucles anteriores end end MANUALES UEX 461 • Con este multiplicador eliminamos ai. Es importante observar que las entradas en A son las actuales. .k a•+1.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA ‘mDn“asize@eAY if m ~a n disp@9e no es ™u—dr—d—F9A return end La asignación inicial de la matriz L es la identidad. a•+1. .. .  0 . . .   a11 . .. . Como no hay coeficientes por debajo de la fila n. . .   .   .. . y la eliminación afectará a las entradas a la derecha de esta columna.   . . . . .   0 . el bucle de eliminación llega hasta n − 1.. todas calculadas en los k − 1 pasos previos de eliminación. usando como pivotes los elementos de la diagonal para eliminar las entradas que están por debajo de ellos. • • • akk ak. a1k a1.. .. donde hemos usado • aij para nombrar a sus entradas. . kk for iakCIXn A continuación. a1n   . for kaIXnEI En el paso k-ésimo..k . . .k+1 . a•+1. ank Ahora notemos que las filas por debajo de a• van desde k + 1 hasta n. . .n  k k k   . ... ann 0 . determinamos el multiplicador.k+1 . akn    . • • • an.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS La matriz A se ha transformado en triangular superior. bb ‘vD…“ami•lu@eA y verificamos que el resultado obtenido concuerda con los anteriores. L está también completa. . y no tenemos que hacer nada con ella.  0 1 2  0 2 0  0 1 0 1 −2 0  −2 1 . Si no lo hemos hecho ya. fun™tion ‘vD…“ami•lu@eA ‘mDn“asize@eAY if m ~a n disp@9e no es ™u—dr—d—F9A return end vaeye@nAY for kaIXnEI for iakCIXn v@iDkAae@iDkAGe@kDkAY for jakXn e@iDjAae@iDjAEv@iDkABe@kDjAY end end end …aeY Finalmente. 4 MANUALES UEX 462 bb ea‘PDIDEPYRDHDEQYETDEUDIP“ Usamos nuestra función mi•lu para calcular la descomposición LU. grabamos el fichero como mi•luFm y comprobamos su funcionamiento usando la matriz   2 1 −2 A= 4 0 −3  . −6 −7 12 de la que sabemos que 1 A = LU =  2 −3 Introducimos la matriz A. abrimos el editor de we„vef e introducimos el código completo. Basta asignar este valor a U …aeY Además.

se elige aij . bb form—t r—t bb ea‘PDIDEIYHDIDEIYIDHDI“ bb ‘vD…“alu@eA Si hay que realizar cambios de filas para calcular la descomposición LU. a lj j≤l ≤n MANUALES UEX 463 . bb ea‘IDIDHYPDEPDIYHDIDS“ bb ‘vD…D€“alu@eA we„vef usa pivoteo por filas4 para el cálculo de la factorización LU. bb bb bb bb bb ea‘IDPDEQDRYRDVDIPDEVYPDQDPDIYEQDEIDIDER“ lu@eA ‘vD…“alu@eA ‘vD…D€“alu@eA form—t 5. en términos de CPU. 4Se toma como pivote el elemento de mayor módulo entre los n − j últimos elementos de • la columna j-ésima. we„vef y la factorización LU we„vef tiene una rutina muy eficiente para calcular la factorización LU de una matriz.1. Rendimiento. el comando ‘vD…“alu@eA calcula una matriz L triangular inferior y una matriz U triangular superior tales que A = LU.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 5. j ≤ i ≤ n. bb earound@IHBr—nd@SHAESAY bb ti™Yrref@eAYto™ Para comparar. calcular las tres matrices de la factorización LU u obtener la forma reducida por filas de una matriz. Vamos a hacer algunos experimentos. Si no se necesitan cambios de filas. entonces el comando ‘vD…D€“alu@eA devuelve además una matriz de permutación P tal que PA = LU. es decir. Observemos el siguiente ejemplo. veamos el tiempo que tarda en realizar una descomposición LU de la matriz A. de forma que • | aij | = m´ x | a• |. Podemos pensar qué es más costoso.

Escribe bb help g—llery para mayor información. Uno de los problemas de la factorización LU es que si A es una matriz dispersa. Consideremos una matriz A con un número elevado de ceros en sus entradas. Matrices con muchos ceros. las matrices L y U no lo serán en general. 5.2. y por ello we„vef lo usa en muchas de sus rutinas. Veamos un ejemplo. el comando lu es muy eficiente. bb bb bb bb bb bb bb bb ™lose —ll fa˜u™kyY ‘vD…D€“alu@fAY spy@fAY 7 figur— I figure spy@vAY 7 figur— P figure spy@…AY 7 figur— Q Con el comando g—llery de we„vef podemos tener acceso a una colección de matrices que poseen diferentes estructuras y propiedades.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS bbti™Y‘vD…D€“alu@eAYto™ Como se ve. MANUALES UEX 464 . Las llamaremos matrices dispersas (sparse).

verificar que las solución calculada posee una buena precisión. Considera el vector   1  1   b=  1 . MANUALES UEX 465 .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejercicios de la práctica 11 Ejercicio 1. Consideremos los sistemas de ecuaciones lineales Ax = b con   2 −2 0 A =  −2 2 0  0 −1 3 y b tal que la solución correspondiente sea u = (1. siendo un número real positivo. Si una matriz A necesita intercambio de filas en la eliminación. Construye una matriz A de orden 3 × 3 invertible sin entradas nulas tal que la rutina mi•lu falle. 1 Explica cómo se pueden usar las funciones de we„vef lu. 1. Calcular la factorización LU de A para distintos valores de y observar que l32 → ∞ cuando → 0. Úsalas para calcularla. Ejercicio 5. 1)t . Observa qué ocurre al calcular una descomposición LU de la siguiente matriz:   −1 −1 −1 1  1 1 0 −1  . entonces la rutina mi•lu falla. Ejercicio 4. ¿Qué mensaje de error da we„vef? Explica por qué la rutina falla sobre la matriz. ¿Qué mensaje de error da we„vef? Explica por qué la rutina falla sobre la matriz. A=  2 −1 −1 0  5 −3 −3 2 Calcula L y U tales que PA = LU. sust•—del—nte y sust•—tr—s para calcular la solución del sistema Ax = b. x1 +2x2 + x3 = 4 −3x1 + x3 = 9   −3x1 + x2 −5x3 = 15 3x1 − x2 − x3 = −3 Ejercicio 2. A pesar de ello. Usa la descomposición LU para resolver los siguientes sistemas:   −2x1 −3x3 = 6  −2x1 −3x2 −4x3 = 12  . Construye una matriz A de orden 3 × 3 singular sin entradas nulas tal que la rutina mi•lu falle. Ejercicio 3.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 466 .

n.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA PRÁCTICA 12 Otras factorizaciones de matrices 1. Según vimos en clase de teoría. qii = aii − k =1 ∑ q2 ik . Además. es decir. . Introducción En esta práctica estudiaremos las factorizaciones de Cholesky y QR. Factorización de Cholesky  3 4 . . . tenemos garantía que A admite una factorización de Cholesky. . por ejemplo. las entradas de Q se pueden calcular median√ te el siguiente algoritmo: ponemos q11 = a11 y para i = 2. i − 1. MANUALES UEX 467 . veremos cómo se puede añadir comentarios de ayuda en nuestros Mficheros que se puedan visualizar con el comando help de we„vef. Factorización QR 2. Matrices de Householder. qij = 1 q jj j −1 aij − i −1 k =1 ∑ qik q jk 1/2 . . j = 1. Pre-requisitos: Factorización de Cholesky. . . 14 Consideremos la matriz simétrica  1 2  2 8 A= 3 4 Usando we„vef podemos comprobar que es definida positiva. calculando sus autovalores y observando que son estrictamente positivos bb eig@eA Por tanto. podemos afirmar que existe Q triangular inferior tal con entradas positivas en su diagonal principal tal que A = QQt . .

bb  a zeros@size@eAA Según nuestro algoritmo bb bb bb bb bb bb @IDIA @PDIA @PDPA @QDIA @QDPA @QDQA a a a a a a sqrt@e@IDIAA e@PDIAG@IDIA sqrt@e@PDPAE@PDIA”PA e@QDIAG@IDIA @e@QDPAE@QDIAB@PDIAAG@PDPA sqrt@e@QDQAE@QDIA”PE@QDPA”PA Ahora podemos comprobar que en efecto A = QQt .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Veamos paso a paso como funciona este algoritmo con nuestro ejemplo. La siguiente función de we„vef calcula la factorización de Cholesky de una matriz hermítica definida positiva. bb e aa B9 Este proceso se puede automatizar en we„vef definiendo una función adecuaamente. fun™tion r a mi•™hol@eA 7ws•gryvX 7 entr—d—X e E m—triz hermíti™— definid— positiv—F 7 s—lid—X r E m—triz tri—ngul—r inferior t—l que e a rBr9 7 7 ƒi l— m—triz e no es hermíti™— o definid— positiv— l— fun™ión 7 oper—rá in™orre™t—mente pudiéndose produ™ir errores de división 7 por ™eroF MANUALES UEX 468 ‘nDn“ a size@eAY r a zeros@nAY r@IDIA a sqrt@e@IDIAAY for i a PXn for j a IXiEI r@iDjA a @e@iDjAEr@iDIXjEIABr@jDIXjEIA9AGr@jDjAY end r@iDiA a sqrt@e@iDiAEr@iDIXiEIABr@iDIXiEIA9AY . Para comenzar definimos una matriz nula Q del mismo orden que A. Vamos a usar we„vef para hacer los cálculos. aunque dado el tamaño de la matriz bien se podrían hacer a mano.

por lo que la salida de nuestra función puede no ser fiable a menos que tengamos garantía de que la matriz usada tenga estas propiedades. Evidentemente podríamos añadir un “test de hipótesis” en nuestra función. he aquí nuestra función mi•™hol modificada. para comprobar que la matriz es definida positiva. En esta ayuda advertimos que la función mi•™hol no verifica si la matriz es hermítica o definida positiva.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA end Usemos nuestro ejemplo para comprobar que nuestra función está bien definida: bb r a mi•™hol@eA bb  aa r En nuestra función mi•™hol hemos añadido un comentario de ayuda. o if e@iDiA ` r@iDIXiEIABr@iDIXiEIA9 FFF error@9v— m—triz no es definid— positiv—9AY end antes de la línea 17 de mi•™hol. para verificar que la matriz es hermítica. escribiendo bb if e aa e9 antes de la línea 10 de mi•™hol y else error@9v— m—triz no es hermíti™—9AY end al final de la función mi•™hol. a la que llamamos mi•™holP fun™tion r a mi•™holP@eA 7ws•gryvPX MANUALES UEX 469 . No obstante. En todo caso. por ejemplo. lo habitual es no incluir demasiados “tests de hipótesis” en favor de una mayor velocidad de cálculo. Observa qué ocurre cuando escribes bb help mi•™hol en el indicador de we„vef.

2. Si leemos la ayuda de este comando bb help ™hol observamos que calcula una matriz triangular superior tal que A = Qt Q. Rendimiento. . aunque no que sea hermítica.1. esta función sí comprueba que la matriz introducida sea definida positiva. además. MANUALES UEX 470 bb e a ‘IDPYEIDS“ bb ™hol@eA Nótese que la salida del comando ™hol de we„vef es la traspuesta conjugada de la salida de nuestra función mi•™hol.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 7 7 7 7 7 entr—d—X e s—lid—X r E m—triz hermíti™— definid— positiv—F E m—triz tri—ngul—r inferior t—l que e a rBr9 ƒi l— m—triz e no es hermíti™— o definid— positiv— l— fun™ión devolverá un mens—je de errorF if e aa e9 ‘nDn“ a size@eAY r a zeros@nAY r@IDIA a sqrt@e@IDIAAY for i a PXn for j a IXiEI r@iDjA a @e@iDjAEr@iDIXjEIABr@jDIXjEIA9AGr@jDjAY end if e@iDiA ` r@iDIXiEIABr@iDIXiEIA9 FFF error@9v— m—triz no es definid— positiv—9AY end r@iDiA a sqrt@e@iDiAEr@iDIXiEIABr@iDIXiEIA9AY end else error@9v— m—triz no es hermíti™—9AY end we„vef posee un comando propio para calcular la factorización de Cholesky de una matriz hermítica y definida positiva.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

El algoritmo para la factorización de Cholesky es muy estable respecto a la propagación de errores de redondeo, incluso para matrices mal condicionadas.

bb e a hil˜@ISAY bb  a mi•™hol@eAY bb spy@eEB9A
Por otra parte, el algoritmo de factorizción de Cholesky es mucho más eficiente que el de factorización LU, aunque usemos la estrategia de pivoteo parcial.

bb bb bb bb bb bb bb bb bb

e a r—nd@SHAY 77777 hefinimos un— m—triz —le—tori— de orden SH f a eBe9Y 77777 hefinimos un— m—triz simétri™—D que será 77777 será definid— positiv— si e es inverti˜le  a mi•™hol@fAY spy@fEB9A ‘vD…“ a lu@fAY spy@fEvB…A ‘vD…D€“ a lu@fAY spy@€BfEvB…A
3. Matrices de Householder

Comencemos definiendo la matriz de Householder asociada a un vector v ∈ Rn . En primer lugar consideramos la siguiente función de we„vef calcula un vector de Householder w y el factor β de un vector no nulo v ∈ Rn . fun™tion ‘wD˜et—“ a ve™tor•householder@vA 7†ig„y‚•ry…ƒiryvhi‚X 7 entr—d—X v E un ve™tor no nuloF 7 s—lid—X w E un ve™tor de rouseholder de vF 7 ˜et— E el módulo de w —l ™u—dr—do divido por dosF

n a length@vAY nv a norm@vAY w a vY ™ a nv”P E v@IA”PY if ™ aa H w@IA a Emin@PBv@IADHAY

MANUALES UEX
471

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

˜et— a w@IA”PGPY else if v@IA ba H w@IA a v@IA C nvY else w@IA a v@IA E nvY end ˜et— a nvB—˜s@w@IAAY end
La siguiente función de we„vef calcula la imagen de un vector a ∈ Rn por la matriz de Householder un vector v dado.

fun™tion ‘r—“ a im•house@vD—A 7sw•ry…ƒi 7 entr—d—X v E un ve™tor no nuloF 7 — E un ve™tor —r˜itr—rioF 7 s—lid—X r— E im—gen de — por l— m—triz de rouseholder r t—l 7 que rv es un múltiplo del ve™tor @ID HD FFFD HAY 7 esto esD l— im—gen de — por l— simetrí— respe™to 7 del hiperpl—no ortogon—l — un ve™tor de rouseholder 7 de vF ‘wD˜et—“ a ve™tor•householder@vAY —lph— a w9B—Y if ˜et— aa H r— a —Y else r— a — E —lph—G˜et—BwY end Comprobemos el buen funcionamiento de las dos funciones anteriores calculando un vector de Householder de v = (1, 2, 3)t . bb v a ‘IY PY Q“Y bb ‘wD˜et—“ a ve™tor•householder@vA
y la imagen de a = (0, 3, −2)t por la transformación de Householder de matriz H = H(w) para el vector w obtenido anteriormente:

MANUALES UEX
472

bb — a ‘HY QY P“ bb r— a im•house@vD—A

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Obsérvese que Ha coincide con a ¿por qué? 4. Factorización QR

La siguiente función de we„vef calcula las matrices Q y R del teorema IX.4.5 tales que A = QR, de una matriz A dada.

fun™tion ‘D‚“ a mi•qr@eA 7 iƒg‚sfi „Ú ve e‰…he ‘mDn“ a size@eAY  a eye@mAY ‚ a eY for i a IXnEI r a eye@mAY v a ‚@iXmDiAY ‘wD˜et—“ a ve™tor•householder@vAY if ˜et— aa H r a rY else r@iXmDiXmA a eye@mEiCIA E wBw9G˜et—Y end ‚ a rB‚Y  a BrY end
Comprobemos nuestro algoritmo con la matriz 4  −1 A=  −1 0   −1 −1 0 4 0 −1   0 4 −1  −1 −1 4

we„vef tiene una rutina muy eficiente para calcular la factorización QR de una matriz. bb help qr

MANUALES UEX
473

bb e a ‘RD EID EID HY EID RD HD EIY EID HD RD EIY HD EID EID R“ bb ‘D‚“ a mi•qr@eA

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

4.1.

Rendimiento.

Un hecho destacable del método de Householder es que el condicionamiento para la norma matricial euclídea de la matriz de partida no se ve modificado; cond2 ( A) = cond2 ( Ak ), k ≥ 1; ya que el cond2 (−) es invariante por transformaciones ortogonales (unitarias).

bb bb bb bb

e a round@IHBr—nd@SHAESAY ‘D‚“ a mi•qr@eAY ™ond@eA ™ond@‚A

Esto es una ventaja, del método de Householder respecto del método de eliminación gaussiana, desde el punto de vista de la “estabilidad numérica" compensada, sin embargo, por un mayor número (prácticamente el doble) de operaciones elementales con la consecuente propagación de errores de redondeo.

bb bb bb bb bb

e a round@IHBr—nd@SHAESAY ti™Yrref@eAYto™ ti™Ylu@eAYto™ ti™Y‘D‚“ a mi•qr@eAYto™ ti™Y‘D‚“ a qr@eAYto™

El método de Householder permite calcular de forma muy simple el determinante de la matriz A. En efecto, el determinante de una matriz de Householder es ±1, de modo que det( A) = (−1)r a11 a22 · · · ann ,
(1) (2) (n)

MANUALES UEX
474

siendo r el número de matrices de Householder utilizadas distintas de las unidad.

bb bb bb bb

e a round@IHBr—nd@IHAESAY ‘D‚“ a mi•qr@eAY det@eA prod@di—g@‚AA

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Terminamos esta práctica mostrando que la propagación de errores de redondeo es similar si usamos la factorización LU o la factorización QR para resolver un sistema de ecuaciones lineales mal condicionado. Consideremos los sistemas lineales An xn = bn donde An ∈ Mn (R) es la matriz de Hilbert de orden n mientras que bn se elige de tal forma que la solución exacta del sistema sea un = (1, 1, . . . , 1)t . La matriz An es claramente simétrica y se puede comprobar que es definida positiva. Para n = 1, . . . , 100, utilizamos las funciones lu y qr para factorizar la matriz An . Entonces, resolvemos los sistemas lineales asociados (mediante las sustitución hacia adelante y hacia atrás) y denotamos por u + δu la solución calculada. En la figura que resulta recogemos (en escala semilogarítmica) los errores relativos En = δun 2 / un |2 en cada caso.

bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb

w—rning@9off9A ™lose —ll iI•n a ‘“Y iP•n a ‘“Y for n a IXIHH ™le—r ˜ xxY x a ones@nDIAY for i a IXn ˜@iA a sum@IFG@iC@IXnAEIAAY end e•n a hil˜@nAY ‘vD…D€“ a lu@e•nAY y a sust•—del—nte@vD€B˜9AY xx a sust•—tr—s@…DyAY iI•n a ‘iI•nD norm@xExxAGnorm@xA“Y ‘D‚“ a qr@e•nAY xx a sust•—tr—s@‚D9B˜9AY iP•n a ‘iP•nD norm@xExxAGnorm@xA“Y end semilogy@IXIHHDiI•nD9r9A hold on semilogy@IXIHHDiP•nA legend@9irror rel—tivo ™on v…9D9irror rel—tivo ™on ‚9A w—rning@9on9A

MANUALES UEX
475

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS

Ejercicios de la práctica 12 Ejercicio 1. Calcular, si es posible, la factorización de Cholesky de la siguiente matriz   2 1 0 0  1 4 1 0   A=  0 1 4 1 . 0 0 1 2 Comparar la factorización obtenida con su factorización LU. Ejercicio 2. Sea

−5 2 2 −1  2 −1 −2 4  A =  −1 −2 0 4   3 −3 −3 1 0 −3 2 0 Calcular las matrices de Householder H1 , H2 , H3
 H4 H3 H2 H1 A es triangular superior.

 4 3   1 .  3  2 y H4 tales que

Ejercicio 3. Usa las descomposiciones LU y QR para sistema: x1 +1/2 x2 +1/3 x3 = 6 1/2 x1 +1/3 x2 +1/4 x3 = 4 1/3 x1 +1/4 x2 +1/5 x3 = 15 Interpreta los resultados obtenidos.

resolver el siguiente   

Ejercicio 4. Modifica debidamente la función mi•qr para determinar cuantas matrices de Householder distintas de la identidad se han usado. Usando esta modificación, define una función de we„vef que calcule el determinante de una matriz cuadrada. Ejercicio 5. Define una matriz aleatoria de orden 3 × 5 con entradas enteras entre −10 y 10. ¿Se puede calcular una descomposición QR de esta matriz? Compruébalo con we„vef y explica el resultado. Ejercicio 6. Estudia el comportamiento de la descomposición QR para matrices dispersas (es decir, aquellas que tiene un número elevado de entradas nulas).

MANUALES UEX
476

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

APÉNDICE A

Conceptos topológicos fundamentales
1. Espacios Métricos

Definición A.1.1. Sea X un conjunto no vacío. Una aplicación d : X × X → R es una distancia (o aplicación distancia) sobre X, si para todo x, y y z ∈ X verifica los axiomas siguientes: (a) (Definida positiva) d( x, y) ≥ 0; además, d( x, y) = 0 si, y sólo si, x = y. (b) (Simetría) d( x, y) = d(y, x ). (c) (Desigualdad triangular) d( x, z) ≤ d( x, y) + d(y, z). El número real d( x, y) recibe el nombre de distancia de x a y. Nótese que (a) establece que la distancia de un elemento de X a otro elemento de X nunca es negativa, y es cero únicamente cuando ambos elementos son iguales, en particular, la distancia de un elemento a sí mismo es cero, y recíprocamente. El axioma (b) establece que la distancia de un elemento de x ∈ X a un elemento y ∈ X es la misma que la distancia de y a x, por esta razón d( x, y) se lee distancia entre x e y. El axioma (c) se conoce desigualdad triangular porque si x, y y z son tres puntos de plano R2 , entonces (c) establece que la longitud d( x, z) de uno de los lados del triángulo de vértices x, y y z es menor o igual que la suma d( x, y) + d(y, z) de las longitudes de los otros dos lados del triángulo. Veamos, a continuación, algunos ejemplos de distancias. Que estos ejemplos verifican realmente los axiomas requeridos se propone como ejercicio al lector. Ejemplos A.1.2. i) Distancia discreta. Sean X un conjunto no vacío y d : X × X → R tal que d( x, y) = 0 si x = y; 1 si x = y.

ii) La aplicación d( x, y) = | x − y|, donde x e y son números reales, es un distancia llamada distancia usual de la recta real R. Además, la

MANUALES UEX
477

AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA

aplicación d definida por d(u, v) =

( u1 − v1 )2 + ( u2 − v2 )2

donde u = (u1 , u2 ) y v = (v1 , v2 ) están en R2 , es una distancia llamada distancia usual de R2 . En general, la aplicación d : Rn × Rn → R definida por d(u, v) =

i =1

∑ | ui − vi |

n

1/2 2

,

donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ), es una distancia llamada distancia usual de Rn . iii) En Rn se pueden definir otras distancias distintas de la usual; por ejemplo, las aplicaciones d definidas como sigue son distancias sobre Rn d(u, v) =
i =1

∑ | ui − vi |
i =1

n

d(u, v) =

∑ | ui − vi | p

n

1/p

,

p ≥ 1.

d(u, v) = m´ x {|ui − vi |, i = 1, . . . , n} . a iv) En C[0, 1] = { f : [0, 1] → R continuas}, se puede definir una distancia de la manera siguiente: d( f , g ) =
1 0

f ( x ) − g( x ) dx.

Asimismo, se pueden definir las dos distancias siguientes d( f , g ) = y d( f , g) = m´ x f ( x ) − g( x ) a
x ∈[0,1] 1 0

f ( x ) − g( x )

p

1/p

dx

, p≥1

MANUALES UEX
478

Definición A.1.3. Un espacio métrico es un par ( X, d) formado por un conjunto no vacío X y una distancia sobre X. Nótese que un mismo conjunto podemos definir varias distancias; por lo que, en un espacio métrico, tan importante es el conjunto como la distancia definida. Nota A.1.4. Obsérvese que si ( X, d) es un espacio métrico e Y es un subconjunto de X, entonces la restricción de d a Y × Y define una estructura natural de espacio métrico en Y.

MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA

Proposición A.1.5. Sea ( X, d) un espacio métrico. Entonces d( x, z) − d(y, z) ≤ d( x, y). Demostración. Por la desigualdad triangular, d( x, z) ≤ d( x, y) + d(y, z); por tanto, d( x, z) − d(y, z) ≤ d( x, y). Intercambiando el papel de x e y, obtenemos que d(y, z) − d( x, z) ≤ d(y, x ), esto es, −d( x, y) ≤ d( x, z) − d(y, z). En resumen,

−d( x, y) ≤ d( x, z) − d(y, z) ≤ d( x, y),
de donde se sigue la desigualdad buscada.

Topología métrica. Definición A.1.6. Sean ( X, d) un espacio métrico, x ∈ X y ε un número real positivo. Llamaremos bola abierta de centro x y radio ε al conjunto B( x, ε) := {y ∈ X | d( x, y) < ε}. Llamaremos bola cerrada de centro x y radio ε al conjunto B[ x, ε] := {y ∈ X | d( x, y) ≤ ε}. Ejemplos A.1.7. Veamos los ejemplos bolas abiertas en R2 para las distancias más comunes. i) Si d(v, u) = |v1 − u1 |2 + |v2 − u2 |2 , con v = (v1 , v2 ) y u = (u1 , u2 ) ∈ R2 , entonces B(v, ε) = {u ∈ R2 | d(v, u) < ε}

= { u ∈ R2 |

| v1 − u1 |2 + | v2 − u2 |2 < ε }

= {u ∈ R2 | |v1 − u1 |2 + |v2 − u2 |2 < ε2 }.

B(0, 1) = {u ∈ R2 | d(0, u) < 1}

= {u ∈ R2 | m´ x{|u1 |, |u2 |} < 1} a = {u ∈ R2 | u1 , u2 ∈ (−1, 1)}.
Esto es, el cuadrado (sin borde) de vértices (1, 1), (−1, 1), (−1, −1) y (1, −1).

MANUALES UEX
479

Esto es, el círculo (sin borde) de centro u y radio ε. ii) Si d(v, u) = m´ x{|v1 − u1 |, |v2 − u2 |}, con v = (v1 , v2 ) y u = (u1 , u2 ) ∈ a R2 , entonces

AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA
iii) Si d(v, u) = |v1 − u1 | + |v2 − u2 |, con v = (v1 , v2 ) y u = (u1 , u2 ) ∈ R2 , B(0, 1) = {u ∈ R2 | d(0, u) < 1}

= { u ∈ R2 | | u 1 | + | u 2 | < 1 } .
Esto es, el cuadrado (sin borde) de vértices (1, 0), (0, 1), (−1, 0) y (0, −1). Definición A.1.8. Sea ( X, d) un espacio métrico. Un subconjunto A de X es un entorno de un elemento x ∈ X si existe una bola abierta centrada en x contenida en A, es decir, si existe ε > 0 tal que B( x, ε) ⊆ A. Obsérvese que toda bola abierta contiene bolas cerradas del mismo centro y radio menor, y que toda bola cerrada contiene bolas abiertas del mismo centro y radio menor. Definición A.1.9. Sea ( X, d) un espacio métrico. Un subconjunto U de X se dice abierto cuando para cada x ∈ U existe ε > 0 (que depende de x) tal que B( x, ε) ⊆ U. Luego, si U es un abierto de un espacio métrico ( X, d), para cada punto de U se puede encontrar una bola abierta centrada en él contenida en U, dicho de otro modo, U es entorno de todos sus puntos. Ejemplos A.1.10. i) Las bolas abiertas de un espacio métrico son subconjuntos abiertos. ii) En R con la distancia usual, los intervalos abiertos son subconjuntos abiertos. iii) En cualquier conjunto X con la distancia discreta, cualquier punto x ∈ X es un abierto, ya que B( x, 1/2) = { x }. Propiedades de los subconjuntos abiertos de un espacio métrico. Sea ( X, d) un espacio métrico. (a) El conjunto vacío, ∅, y el total, X, son abiertos. (b) La unión arbitraria de abiertos es un abierto, es decir, si {Ui }i∈ I es una familia arbitraria de abiertos, entonces ∪i∈ I Ui es abierto. (c) La intersección finita de abiertos es un abierto, es decir, si {U1 , . . . , Un } n es una familia finita de abiertos, entonces ∩i=1 Ui es abierto. Demostración. La demostración de estas propiedades se deja como ejercicio al lector. Definición A.1.11. Sea X un conjunto no vacío. Un clase T de subconjuntos de X es una topología en X si T verifica los axiomas siguientes. (a) ∅ y X pertenecen a T .

MANUALES UEX
480

U y V son abiertos disjuntos tales que x ∈ U e y ∈ V. (c) La intersección de un número finito de conjuntos de T pertenece a T.14. Definición A.1. T ) se llama espacio topológico.16. X \ F es abierto. 1/2] = { x }. T ) es un espacio topológico. conviene advertir al lector que no todos los espacios topológicos son métricos. luego. los intervalos cerrados son subconjuntos cerrados.13. se deduce que todo espacio métrico ( X. ya que B[ x. y ∈ V y U ∩ V = ∅.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (b) La unión arbitraria de conjuntos de T pertenece a T .15. aquella que define la topología T formada por los abiertos de ( X. iii) En cualquier conjunto X con la distancia discreta. MANUALES UEX 481 Definición A. llamado espacio topológico de Sierpinski. X }.1. sean X = {0. z) < ε/3 y d(z. Los elementos de T se llaman conjuntos abiertos de la topología T y el par ( X. lo que supone una contradicción. ii) En R con la distancia usual. Un espacio topológico ( X. el par ( X. z) + d(z. d) un espacio métrico. Ejemplos A. Todo espacio métrico es de Hausdorff. Por tanto. Consideremos las bolas abiertas U = B( x. {0}. i) Las bolas cerradas de un espacio métrico son subconjuntos cerrados.en el que no se puede definir ninguna distancia.1. de acuerdo con el axioma (a) de la definición de espacio métrico. si z ∈ U ∩ V. y) < ε/3 + ε/3 = 2 ε/3. d) un espacio métrico y x e y ∈ X dos puntos distintos. Demostración. . entonces d( x. Un subconjunto F ⊆ X se dice cerrado cuando su complementario. Sea ( X.1. Sean ( X. d( x. Nota A. T ) es un espacio de Hausdorff si dados dos puntos cualesquiera x e y ∈ X distintos. Aunque todos los espacios topológicos que consideraremos en esta asignatura serán espacios métricos. d) tiene una estructura natural de espacio topológico. Por ejemplo. ε/3) y V = B(y. y) = ε > 0. Proposición A. de donde se sigue que d( x.12. En efecto. d) que llamaremos topología métrica. ε/3) y veamos que son disjuntas. existen conjuntos abiertos U y V ∈ T tales que x ∈ U. y) < ε/3. De la propiedades de los subconjuntos abiertos de un espacio métrico. y) ≤ d( x. 1} y T = {∅.1. cualquier punto x ∈ X es un cerrado.

La frontera de A es el conjunto de sus puntos frontera Fr( A) := { x ∈ X | B( x. d) un espacio métrico. equivalentemente.17. ε) ∩ ( X \ A) = ∅. Un elemento x ∈ A es interior de A cuando existe una bola de centro x y radio ε > 0 contenida en A. Un elemento x es un punto de acumulación de A cuando toda bola de centro x corta a A \ { x }. ε) ∩ A = ∅ y B( x. y el total. La demostración de estas propiedades se deja como ejercicio al lector.AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA Propiedades de los subconjuntos cerrados de un espacio métrico. A = A.1. Definición A. si A es un entorno de x. son cerrados. (e) int( A) es el mayor abierto contenido en A. (c) La intersección arbitraria de cerrados es un cerrado. ∅. Sea ( X. A = int( A). Sean ( X. entonces int( A) ⊆ int( B) y A ⊆ B. y sólo si. Un elemento x ∈ A es adherente a A cuando toda bola de centro x corta a A. ¯ ¯ (b) Si A ⊆ B. ε) ∩ A = ∅. (b) La unión finita de cerrados es un cerrado. El conjunto de puntos de acumulación de A se denota por A . X. Sean ( X.18. la clausura de A es el conjunto de sus puntos adherentes. ε) ⊆ A. ¯ (f) A es el menor cerrado que contiene a A. Se verifica que: ¯ (a) int( A) ⊆ A ⊆ A. para todo ε > 0}. Proposición A. y sólo si. (a) El conjunto vacío. para todo ε > 0}. ¯ (d) A es cerrado si. ¯ A := { x ∈ X | B( x. ¯ (h) Fr( A) = A \ int( A).1. para algún ε > 0}. d) un espacio métrico y A un subconjunto de X. ¯ (g) X \ A = int( X \ A). El interior de A es el conjunto formado por todos sus puntos interiores int( A) := { x ∈ X | B( x. d) un espacio métrico y A un subconjunto de X. Un elemento x está en la frontera de A cuando toda bola de centro x corta A y a su complementario X \ A. (c) A es abierto si. MANUALES UEX 482 . Demostración.

el concepto de convergencia depende de la distancia que determina la estructura métrica.2. una sucesión puede tener valor de adherencia y no ser convergente. . Como. Veamos ahora que los conjuntos cerrados de un espacio métrico se pueden caracterizar usando sucesiones. . es decir. d) es un espacio ı Haussdorff. Sean ( X. tales que l´mn→∞ xn = ı x y l´mn→∞ xn = y. El límite de ( xn )n∈N una sucesión de elementos de X. ε ).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. Diremos que una sucesión ( xn )n∈N de elementos de un espacio métrico ( X. n ∈ N.3. por ser x e y límites de la sucesión ( xn )n∈N . Nótese que { xn | n ∈ N} puede ser finito aunque la sucesión ( xn )n∈N sea infinita. Supongamos que existen x e y ∈ X distintos. ε) para todo n ≥ N. MANUALES UEX 483 . si existe. La demostración de esta proposición se deja como ejercicio al lector. ε) y B(y. ε ). cuando para cada bola de centro x existe un subíndice a partir de cual los términos de la sucesión “quedan dentro” de la bola. d) converge a x ∈ X. por ejemplo. Un elemento x ∈ X es un valor de adherencia de una sucesión ( xn ) de elementos de X.1. ε) y xn ∈ B(y. ( X. d) un espacio métrico y A un subconjunto de X. . si ı para cada ε > 0 existe N ∈ N tal que xn ∈ B( x.2. lo que es del todo imposible ya que para N suficientemente grande xn ∈ B( x. Sucesiones y continuidad Sea X un conjunto.4. y lo denotaremos l´mn→∞ xn = x. d) un espacio métrico. considérese.2. para todo n ≥ N. Dada una sucesión ( xn )n∈N y M un subconjunto infinito de N. por la proposición A. Proposición A. Definición A. Proposición A. existen dos abiertos disjuntos U y V tales que x ∈ U e y ∈ V. existen dos bolas abiertas disjuntas B( x. Sea ( X. Por consiguiente. si en cada bola de centro x hay infinitos términos de la sucesión.13. Sean ( X. Nótese que el límite de una sucesión es un valor de adherencia.2. Aunque no al contrario. la sucesión de números reales xn = (−1)n .1. es único Demostración. Usaremos la notación ( xn )n∈N o ( x1 .) (o simplemente ( xn ) cuando no exista posibilidad de confusión) para denotar la sucesión de elementos de X cuyo n-ésimo término es xn y { xn | n ∈ N} para denotar el conjunto de todos los elementos de la sucesión. d) un espacio métrico. En general.2. x2 . 2. Definición A. diremos que la sucesión ( xm )m∈ M es una subsucesión de la primera.

Definición A. si x ∈ A. y) − d( xn . yn )| ≤ |d( x. Recí¯ por el apartado anterior. y sólo si. es decir. en particular. Proposición A. entonces toda bola de centro x contiene (infinitos) términos de la sucesión. y) − d( xn . ¯ corta a A. El recíproco se sigue de las definiciones de convergencia y de punto adherente. yn ) que tiende a cero cuando n tiende hacia infinito. existe una sucesión de elementos de A que converge a x. y sólo si. d) → (Y. ı n→∞ Demostración. de que la aplicación conserve la noción de proximidad en torno a x.1. si para cada ε > 0 existe δ > 0 tal que y ∈ B( x. cuando para cada ε > 0. Luego.6. es decir. xn ) + d(y.2.5 y la desigualdad triangular del valor absoluto. Entonces l´mn→∞ xn = x ı l´mn→∞ yn = y ı =⇒ l´m d( xn . y) − d( xn . y)| + |d( xn . x ∈ A y concluimos que A es cerrado. Una aplicación f : ( X. Sean ( X. (a) Si x ∈ A. Usando la proposición A. d) un espacio métrico. entonces x es un punto adherente a A. cualquier sucesión convergente de elementos de A converge a un elemento de A. d ) entre dos espacios métricos se dice que es continua. ε). converge a x. MANUALES UEX equivalentemente. (b) Si ( xn )n∈N ⊆ A es una sucesión convergente a x ∈ X.2.7. d ) entre dos espacios métricos se dice que es continua en un elemento x ∈ X. Nótese que δ depende tanto de ε como de x. cuando es continua en cada elemento de X. para cada n ∈ N. existe una sucesión en A que procamente. yn ) = d( x. y) < δ implica que d ( f ( x ). 1/n) ∩ A. f ( B( x.AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA ¯ (a) x ∈ A si. |d( x. ( xn )n∈N e (yn )n∈N dos sucesiones de elementos de X y x e y ∈ X. Definición A. existe δ > 0 tal que d( x. por hipótesis. ( xn )n∈N de elementos de A convergente a x. ε). ¯ Demostración. yn )| ≤ d( x. Por consiguiente. luego.5. El concepto de continuidad de una aplicación en un punto es local. (b) A es cerrado si. la intersección B( x. f (y)) < ε. Por lo que podemos tomar un elemento xn ∈ B( x. cualquier bola de centro de x corta A. intuitivamente. Se trata.2. 1/n) ∩ A no es vacía. x ∈ A y por ser A cerrado concluimos que x ∈ A. δ)) ⊆ B( f ( x ). δ) implica f (y) ∈ B( f ( x ). y construir de este modo una sucesión. Una aplicación f : ( X. d) → (Y. 484 . para cada n ∈ N. y).

Por consiguiente. ε)) es un abierto de X que contiene a x. ε) ⊆ U.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Proposición A.11. Proposición A. f (y)) < . Una aplicación f : ( X. Para cada ε > 0. d) → (Y. De donde se sigue que ( g ◦ f )−1 (U ) = f −1 ( g−1 (U )) es un abierto. d ) entre dos espacios métricos MANUALES UEX 485 d( x. Una aplicación continua entre espacios métricos transforma sucesiones convergentes en sucesiones convergentes. d ) y g : (Y. ε) es un abierto de Y. f ( xn )) < ε. Recíprocamente. d) → (Y. y se concluye que la sucesión ( f ( xn ))n∈N es convergente a f ( x ). xn ) < δ. Teorema A. d) → (Y. d ) dos aplicaciones continuas entre espacios métricos. d) → (Y. Por otra parte. es decir. existe δ > 0 tal que f ( B( x. d) → (Y. d ) entre dos espacios métricos es continua si. δ) ⊆ f −1 ( B( f ( x ). existe δ > 0 tal que por ser f continua. d) → (Y.2. y concluimos que f ( B( x. Una aplicación f : ( X. existe ε > 0 tal que B(( f ( x ). Si U ⊆ Z es un abierto. Luego. se trata de demostrar que f −1 (U ) es un abierto de X. la imagen inversa de un abierto es un abierto.2. por ser f continua. y sólo si. Definición A. para todo subconjunto A de X se cumple que ¯ f ( A ) ⊆ f ( A ). por ejemplo. d( x. d ) entre dos espacios métricos es continua si. La composición de aplicaciones continuas es continua. δ) ⊆ f −1 (U ). Otras caracterizaciones del concepto de concepto de continuidad son las siguientes: Una aplicación f : ( X. Demostración. existe δ > 0 tal que B( x. . Sea U ⊆ Y un abierto. la imagen inversa de un cerrado es un cerrado. d ) entre dos espacios métricos es continua si. f −1 ( B( f ( x ). de donde se sigue que d ( f ( x ).2.10. Demostración. B( f ( x ). ı Dado ε > 0.2. ε) ⊆ U. δ)) ⊆ B( f ( x ). y) < δ ⇒ d ( f ( x ). Sean f : ( X. existe N ∈ N tal que.9. entonces f ( x ) ∈ U. Una aplicación f : ( X. ε)). y sólo si.8. para todo n ≥ N. Demostración. entonces g−1 (U ) es un abierto en Y y f −1 ( g−1 (U )) es un abierto en X. d ) → ( Z. Sean f : ( X. Luego. y sólo si. De donde se sigue que B( x. veamos que f es continua en x ∈ X. δ)) ⊆ B( f ( x ). d ) una aplicación continua entre espacios métricos y sea ( xn )n∈N una sucesión convergente de elementos de X. al ser ( xn )n∈N convergente. l´mn→∞ xn = x ∈ X. Ahora. Sea x ∈ f −1 (U ). que f −1 (U ) es entorno de cada uno de sus puntos. ε).

. . l´mn→∞ xn = x ∈ X. Entonces. . v2 . ( v n ) m ∈N (m) (m) son sucesiones de Cauchy en R. . . f (U ) es un abierto. Completitud Definición A.1) (1) (1) (1) (m) (m) (m) ( v 1 ) m ∈N . 1Sea ( x ) n n∈N una sucesión convergente en un espacio métrico ( X. en cada uno de los n subespacios coordenados. Ejemplo A. en particular. es decir. .3. es decir. . si para todo abierto U ⊆ X. v n ). por ejemplo. entonces | vi (1) − v j |2 < ε2 . por la desigualdad triangular. MANUALES UEX Luego. existe n0 ∈ N tal que n ≥ n0 implica que d( xn . Sea (vm )m∈N una sucesión de Cauchy en Rn con la distancia usual. Una sucesión ( xn )n∈N en un espacio métrico ( X. x ) < 1/2 ε. Nótese que toda sucesión convergente es de Cauchy1. . puesto que (vm )m∈N es de Cauchy. si se pueden encontrar dos términos de la sucesión tan próximos como se quiera. (A. para cada ε > 0. .3.AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA (a) es abierta si lleva abiertos en abiertos. Las proyecciones de los vectores vm . v j )2 = | v i (1) − v j |2 + . xm ) ≤ d( xn . . . x ) + d( xm . | v i (1) − vj (m) 2 | < ε2 . (b) es cerrada si lleva cerrados en cerrados. si i y j son mayores que m0 . . v2 . entonces d( v i . xm ) < ε. Sucesiones de Cauchy. f ( F ) es un cerrado.3. En efecto. v1 = ( v1 . existe m0 ∈ N tal que si i y j son mayores que m0 . dados n y m mayores que n0 . m > n0 implica que d( xn . . por ejemplo. m ∈ N. En otras palabras. . . Por ejemplo la sucesión de término general xn = (1 + 1/n)n en el espacio métrico Q con la distancia usual (es decir. . v m = ( v1 . si para todo cerrado F ⊆ X. d) se dice que es de Cauchy si para cada ε > 0 existe n0 ∈ N tal que n. (c) es un homeomorfismo si es biyectiva y tanto f como f −1 son continuas.2. . es decir. Luego. aunque no es convergente pues su “límite” sería el número e que no es racional. d). ( xn )n∈N es una sucesión de Cauchy. . ı para todo ε > 0. se cumple que 486 d( xn . . . es decir. 3. .1. . + | v i (m) (1) (m) − vj (m) 2 | < ε2 . ( xn )n∈N es necesariamente una sucesión de Cauchy porque. . v n ). pero el recíproco no es cierto. x ) < 1/2ε + 1/2ε = ε. . . el valor absoluto) es de Cauchy. .

que denotamos ( a2 . Por tanto. b1 ) en dos mitades. | xn − x N | < 1 si n ≥ N. es un espacio métrico completo. Toda sucesión de Cauchy de elementos de X con un valor de adherencia es convergente.3.3. existe N ≥ n0 tal que x N ∈ B( x. b1 ). d( xn . Ejemplos A. Por ser ı ( xn )n∈N un sucesión de Cauchy. nuevamente habrá infinitos elementos de nuestra sucesión en una de las mitades. Por otra parte. y elegimos un término de nuestra sucesión xi2 ∈ ( a2 . x ) < ε/2 + ε/2 = ε. Veamos en primer lugar que toda sucesión de Cauchy de números reales es acotada2. Sea N ∈ N tal que | xn − xm | < 1 si n. Continuando de esta 2De hecho. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA En otras palabras. existe n0 ∈ N tal que d( xn . . Sea ( xn )n∈N una sucesión de Cauchy de números reales. Lema A.3. A continuación demostraremos que toda sucesión de Cauchy de números reales posee una subsucesión convergente. para todo n ∈ N. podemos dividir (−K. En particular. Elegimos un término de la sucesión xi1 ∈ ( a1 . b1 ). Por lo tanto. Luego. K ) en dos mitades. m ≥ n0 . encontraremos infinitos términos de nuestra sucesión.5. xn ∈ (−K.3. esta propiedad es cierta para cualquier espacio normado como veremos más adelante.4. | x N −1 | y 1 + | x N |. Definición A. Sea ( xn )n∈N ⊂ X una sucesión de Cauchy y x ∈ X un valor de adherencia de la sucesión.1) es una sucesión de Cauchy. K ) para todo n ∈ N. m ≥ N. Como es acotada. que denotamos ( a1 . b2 ) con i1 ≤ i2 . Demostración. con el valor absoluto de la diferencia. b2 ). d) un espacio métrico.3. x N ) + d( x N . Veamos que l´mn→∞ xn = x. cada una de las m sucesiones dadas en (A. es decir. . si K es el máximo de | x1 |. la sucesión es convergente al valor de adherencia. x ) ≤ d( xn . concluimos que | xn | < K. d) es completo si toda sucesión de Cauchy ( xn )n∈N de elementos de X converge a un elemento de X. para todo n ≥ N. es decir. . De ambos hechos se sigue que. K ) para todo n ∈ N. existe K > 0 tal que xn ∈ (−K. para todo n. Dividimos ahora ( a1 . Un espacio métrico ( X. xm ) < ε/2. al ser x un valor de adherencia de la sucesión. y en una de ellas. | xn | ≤ | xn − x N | + | x N | < 1 + | x N |. MANUALES UEX 487 . Ahora. ε/2). Sea ( X. Sea ε > 0. i) Veamos que R con la distancia usual.

. obtenemos dos sucesiones ( an )n∈N y (bn )n∈N . . con sus distancias usuales respectivas. + | v n (m) − v n |2 .3. Así. . . por el lema A. Está tres sucesiones tienen las siguientes características: (a) La sucesión ( an )n∈N es monótona creciente y acotada. Sea a = l´mn→∞ an . ya que d( v m . concluimos que la subsucesión ( xin )n∈N es convergente. l´m vn ı m→∞ (m) = vn . basta tener en cuenta que C la distancia definida por el módulo de la diferencia es. . . De donde se sigue que a = b. . es decir. Luego. . ii) El espacio vectorial Rn con la distancia usual es completo. ı Hemos demostrado que toda sucesión de Cauchy de número reales posee una subsucesión convergente. En efecto. . topológicamente hablando. v n ).3. . . puesto que R es completo. que a y b son iguales. an < xin < bn . . sea (vm )m∈N una sucesión de Cauchy en Rn . 488 iii) Tanto C como Cn . concluimos que toda sucesión de Cauchy de números reales es convergente. es decir. . Por consiguiente.AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA manera. y por lo tanto que R es un espacio métrico completo. vn ) ∈ Rn . luego es convergente (compruébese). v )2 = | v1 − v1 |2 + . . . bn ) es | an − bn | = K/2n−1 . . usando la desigualdad triangular del valor absoluto. Además. para cada n ≥ 1. ı (c) La subsucesión ( xin )n∈N está comprendida entre las anteriores. . v n ). Veamos ahora. v2 . para cada n ≥ 1 (compruébese). . v2 . . y una subsucesión ( xin )n∈N de ( xn )n∈N . luego es convergente (compruébese). . . son completos. . v m = ( v1 . es más. Sea b = l´mn→∞ bn . pues (vm )m∈N converge a v = (v1 . toda sucesión de Cauchy de números reales tiene un valor de adherencia. donde v1 = ( v1 . . ı (b) La sucesión (bn )n∈N es monótona decreciente y acotada. . obtenemos que | a − b | ≤ | a − a n | + | a n − b | ≤ | a − a n | + | a n − bn | + | bn − b | . como an < xin < bn .3. l´mn→∞ xin = a = b. convergen: (1) (1) (1) (m) (m) (m) MANUALES UEX (m) l´m v ı m→∞ 1 (m) = v1 . Entonces (véase el ejemplo A. . Es claro que la longitud del intervalo ( an . . que converge a 0 cuando n tiende hacia infinito. exactamente igual que R2 con la distancia usual.2) las proyecciones de (vm )m∈N en los m subespacio coordenados son sucesiones de Cauchy y.

6. Conjuntos compactos Definición A.2. Sea ( X.8.3. Se dice que un subconjunto M de X es totalmente acotado (o precompacto) cuando de cualquier sucesión de elementos de M se puede extraer una subsucesión de Cauchy. Todo subconjunto completo de X es cerrado. Si Y es completo. Sea ( X. Luego. También pueden describirse los conjuntos totalmente acotados de la siguiente manera: MANUALES UEX 489 . xn )| ≤ d( x m . en particular. por la proposición A. y n ) que tiende a cero cuando n y m tienden hacia infinito. yn )| ≤ |d( xm . es cerrado. d) un espacio métrico. 4. ym )| + |d(ym . como toda sucesión de Cauchy de elementos de Y es convergente en X (pues.1. Usando la proposición A.1. Un subconjunto de X es completo si. Demostración. y sólo si. Sea ( X. Si ( xn )n∈N e (yn )n∈N son sucesiones de Cauchy. Definición A. x n ) + d( y m . por la proposición anterior. xn ) − d(yn .7. la sucesión de Cauchy d( xn . ε).4. Sea ( X. es cerrado. ym ) − d( xn . yn ) es convergente. tiene su límite en Y. entonces. Se dice que un subconjunto M de X es acotado si existen x ∈ M y ε > 0 tales que M ⊆ B( x. es una sucesión de elementos de X y X es completo) e Y es cerrado. Demostración. Como los números reales con la distancia usual constituyen un espacio métrico completo.4(b). Proposición A. en particular. de Cauchy. Sea ( X.3. Demostración. yn ) es una sucesión convergente de números reales.3.2. entonces d( xn . Veamos ahora que todo subconjunto completo de un espacio métrico es cerrado. d) un espacio métrico. su límite pertenece a Y y.4(b). Proposición A.5 y la desigualdad triangular del valor absoluto. ym ) − d( xn .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Proposición A.2. por la proposición A. Recíprocamente. d) un espacio métrico. d) un espacio métrico. podemos afirmar que Y es cerrado. Obsérvese que las bolas abiertas y cerradas son conjuntos acotados.4. |d( xm . d) un espacio métrico completo. Toda sucesión convergente de elementos de Y es.

con n2 > n1 .4. . . . Por ejemplo. n M⊆ i =1 B ( x i . . Un subconjunto M ⊆ X es totalmente acotado si. Si y ∈ M. d( x. . . Supongamos que existe ε > 0 tal que para cualquier conjunto finito x1 . . . ε ). de (yn )n∈N que es de Cauchy. y concluimos que M es acotado. ε ).AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA Proposición A. yn ∈ M (que dependen de ε ) tales que. . Todo subconjunto de X totalmente acotado es acotado.4. El recíproco de la proposición anterior no es cierto en general. y) < ε. . podemos suponer que x ∈ B(y1 . Es decir. Luego. la recta real R con la distancia d definida por d( x. . n} tal que d(ym . + d(ym . (ynk )k∈N . ε). ε/2 j ) (1) contenga infinitos términos de la sucesión. M ⊆ i=1 B(yi . para cada ε > 0 existen n y1 . y) < 2ε + ε . | x − y|} es ı acotada pero no es totalmente acotada. . y así sucesivamente. x j ) ≥ ε. . con nk > nk−1 . xn j tales que nj ( j) ( j) M⊆ i =1 B( xi . d) un espacio métrico. xn ∈ M (que dependen de ε) tales que. . existe m ∈ {1.3. MANUALES UEX 490 . Sea ( X. . . ( j) para cada j ∈ N. . i ∈ {1. Corolario A. sin perdida de generalidad. . Sea ( X. . ynk ∈ Uk . . Por consiguiente. Si M ⊆ X es totalmente acotado. y ∈ B( x.4. que de esta sucesión no se puede extraer ninguna subsucesión de Cauchy por lo que M no es totalmente acotado. . Si reordenamos las bolas de tal forma que k Uk := j =1 B( x j . . xn ∈ M existe xn+1 ∈ M con d( xi . y sólo si. para cada ε > 0 existe un número finito de elementos x1 . . ⇐ Sean (yn )n∈N una sucesión de elementos de M y ε > 0. yn2 ∈ U2 . para todo j > i. yi+1 ) y x ∈ M. Por hipótesis. Demostración. y) = d( x. . ε ). d) un espacio métrico. y1 ) + . . ⇒ Demostremos el contrarrecíproco. . . Sean n −1 ε = ∑i=1 d(yi . obtenemos una subsucesión. ε/2 j ). existe una sucesión ( xn )n∈N tal que d( xi . para cada k ≥ 1. Demostración. y elegimos yn1 ∈ U1 . . existen x1 . . xn+1 ) ≥ ε. n}. con ε = 2ε + ε . Es claro. y) = ´nf{1. .

el límite de la sucesión de Cauchy. si K ⊆ X es totalmente acotado. y es totalmente acotada.5.7. Luego. Luego. por ser K completo. por la Propiedad fundamental de los espacios métricos. entonces. de toda sucesión ( xn )n∈N se puede extraer una subsucesión de Cauchy.3.4. Se dice que un subconjunto K de X es compacto cuando cualquier sucesión de elementos de K se puede extraer una subsucesión convergente a un elemento de K. pues es completa (al ser un cerrado de un espacio métrico completo). Recíprocamente. Corolario A.3. Si K ⊆ X es compacto. MANUALES UEX 491 .6. Propiedad fundamental de los espacios métricos. d) un espacio métrico. y sólo si. todo conjunto compacto es totalmente acotado. entonces es cerrado. d) un espacio métrico compacto. Luego. Si K ⊆ X es compacto. y es totalmente acotado por serlo X. luego x será un valor de adherencia de la sucesión de Cauchy y. Demostración. Demostración.4. se sigue que. ii) La bola cerrada de centro el origen y radio unidad de la recta real R con la distancia usual es compacta. Corolario A. En particular. Sea K ⊂ X compacto. es completo y totalmente acotado. Sea ( X. K es compacto. Sea ( X. Por hipótesis.8. Un subconjunto de X es compacto si. i) La recta real R con la distancia usual. en un espacio métrico todo compacto es cerrado y acotado. Por otra parte. Ejemplos A. d) un espacio métrico. es convergente a un elemento de K.7. no es compacta porque no es acotada. es cerrado. concluimos que K es compacto. Si un subconjunto de X es compacto. Demostración. toda sucesión de Cauchy en K admite una subsucesión convergente a un elemento x ∈ K.8.3. y sólo si. es cerrado.4. Nótese que de la Propiedad fundamental de los espacios métricos. Sea ( X. Luego. es completo y totalmente acotado. entonces es completo. si K ⊆ X es cerrado.3. Luego. es cerrado. entonces.4. por el corolario anterior. por la proposición A. en particular se puede extraer un subsucesión de Cauchy y K es totalmente acotado. que. por el lema A. d) un espacio métrico. Un subconjunto de X es compacto si. por la proposición A. K es completo. Sea ( X. por Propiedad fundamental de los espacios métricos.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Definición A. de cualquier sucesión ( xn )n∈N de elementos de K se puede extraer una subsucesión convergente a un elemento de K. Recíprocamente.

4. es cerrado y acotado. luego en este caso se tiene que un subconjunto es compacto si. es decir. existe M > 0 tal que | f ( x )| < M. (b) f alcanza un máximo y un mínimo. en Rn también se cumple que un subconjunto es compacto si.9. d) un espacio métrico compacto. para todo x ∈ X. Sea ( X. MANUALES UEX 492 .10. La demostración de este teorema se deja como ejercicio al lector. y sólo si. iv) En Rn con la distancia usual.AMELIA ÁLVAREZ SÁNCHEZ / IGNACIO OJEDA MARTÍNEZ DE CASTILLA iii) En la real R con la distancia usual ser totalmente acotado equivale a ser acotado. entonces (a) f es acotada. Si f : X → R es continua. (c) f es cerrada.4. es cerrado y acotado. Luego. se puede comprobar que los conjuntos cerrados y acotados son compactos. Teorema A. El lector interesado en profundizar en este tema puede consultar [Lip70] donde además encontrará multitud de ejercicios y ejemplos que puede ayudar a una mejor compresión de este apéndice. Demostración. y sólo si. Nota A.

si se cumple (G4) Propiedad conmutativa: a ◦ b = b ◦ a. Propiedad de elemento simétrico: existe n ∈ Z tal que n + n = n + n = e. para todo m y n ∈ Z. para todo a y b ∈ G. Propiedad de elemento neutro: existe e ∈ Z tal que n + e = e + n = n. ◦) es un grupo conmutativo ó grupo abeliano. Este conocido ejemplo sirve como introducción a la noción de grupo. Tómese n = −n. Propiedad conmutativa: m + n = n + m. para todo a ∈ G. n y p ∈ Z. Un grupo es un par ( G. entonces ( a ◦ b) ◦ c = a ◦ (b ◦ c). para cada n ∈ Z. para todo n ∈ Z.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA APÉNDICE B Estructuras algebraicas A continuación repasemos brevemente los conceptos de grupo. Tómese. Grupos y subgrupos La suma en Z se puede entender como una aplicación ◦ : Z × Z −→ Z (m. MANUALES UEX 493 (G1) Propiedad asociativa: si a. n) −→ ◦(m. . para cada n ∈ Z.1. Un estudio más detallado de estas estructuras puede encontrarse en [Nav96]. cuerpo y anillo. n) := m + n que verifica las siguientes propiedades: Propiedad asociativa: si m.1. entonces (m + n) + p = m + ( n + p ). centrándonos en algunos ejemplos conocidos. ◦) donde G es un conjunto no vacío y ◦ : G × G −→ G. (G3) Propiedad de elemento simétrico: para cada a ∈ G existe a ∈ G tal que a ◦ a = a ◦ a = e. b) → a ◦ b es una aplicación que verifica las siguientes propiedades: Además. b y c ∈ G. se dice que el par ( G. 1. (G2) Propiedad de elemento neutro: existe e ∈ G tal que a ◦ e = e ◦ a = a. ( a. Definición B. e = 0 ∈ Z.

1. la imagen por ◦ del par ( a. El par (Gln (Q). ◦) es un grupo.4. En notación multiplicativa.3.5. al único elemento a de G tal que a ◦ a = a ◦ a = e. es frecuente utilizar las notaciones habituales de la adición(+) y de la multiplicación(·). de los que se deja al lector las comprobaciones correspondientes: MANUALES UEX 494 .1.1. De donde se sigue e = e . especificando lo contrario cuando sea necesario.1 son únicos. a la aplicación ◦ se le llama operación interna del grupo ó ley de composición interna. entonces a◦a = e a ◦a=e =⇒ a ◦ ( a ◦ a ) = a ◦ e = a =⇒ ( a ◦ a) ◦ a = e ◦ a = a Asociativa =⇒ a = a . En notación aditiva. es también un elemento de G. para cada a ∈ G. para todo a ∈ G.1. el elemento neutro se llama cero y se expresa por 0. si existen dos elementos simétricos a y a ∈ G. para todo a ∈ G. Dado que la gran mayoría de los grupos con los que vamos a trabajar serán grupos conmutativos.6. Ejemplo B.2. Habitualmente. ·) con n > 1 es un grupo no conmutativo. se citan a continuación otros. si ( G. b). Sea ( G. Si a ∈ G. ◦) un grupo. es decir. tal que a ◦ a = a ◦ a = e. y el elemento simétrico de un elemento a ∈ G se llama opuesto y se representa por − a. el elemento neutro se llama unidad y se representa por 1. (b) Sea a ∈ G. lo llamaremos elemento neutro de G. Veamos ahora que los elementos de G cuya existencia aseguran los axiomas (G2) y (G3) de la definición B. lo llamaremos elemento simétrico de a. ◦) es grupo. y el elemento simétrico de un elemento a ∈ G se llama inverso y se representa por a−1 . El par (Z. Al único elemento e de G tal que a ◦ e = e ◦ a = a. Definición B.1. Es fundamental el hecho de que. Demostración. Además de los ejemplos que han servido como introducción al concepto de grupo. Nota B. para cada a ∈ G. entonces se verifican las siguientes propiedades: (a) Existe un único elemento e ∈ G. (a) Si existen dos elementos neutros e y e ∈ G. dados dos elementos a y b ∈ G. Aunque a la operación interna del grupo la hayamos llamado ◦. (b) Existe un único elemento a ∈ G. tal que a ◦ e = e ◦ a = a. Proposición B. a ◦ b.1. entonces e ◦ e = e ◦ e = e y e ◦ e = e ◦ e = e . Si ( G.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Ejemplo B. a partir de ahora omitiremos el apelativo conmutativo y nos referimos a ellos como grupos sin más. +) es un grupo conmutativo.

. an ) | ai ∈ Q.10. Ejemplo B. . Dado un grupo ( G. (Q \ {0}. con la suma definida de igual forma que antes. para comprobar si H ⊆ G es un subgrupo de ( G. n} y + es la suma elemento a elemento. +) un grupo (no necesariamente conmutativo) y H un subconjunto no vacío de G.1. Definición B. ·). Diremos que H es un subgrupo (no necesariamente conmutativo) de ( G. . . a2 + b2 .1. es decir. respectivamente) tiene estructura de grupo ¿Por qué ha sido necesario prescindir del cero? 3. ◦). .1. Es decir. Probar que las siguientes afirmaciones son equivalentes: (a) G es conmutativo. +) en vez de ( G. en breve veremos que esto no va a ser necesario. los subconjuntos de un grupo no heredan la estructura de grupo. . +) son grupos. dado un grupo ( G. a2 . +) es grupo. +) es un grupo. complejos. (R. se tiene que tanto G como {0} son subgrupos de ( G.1. Sean ( G. +) cualquiera. +) y (Cn . Aquí la operación interna + es la suma usual. 2. el conjunto de los racionales (reales. Ejercicio B. b2 . y que el par ( H. i = 1. MANUALES UEX 495 . +) y (C. (G1-G3) de la definición B. +) verifica los axiomas de grupo. (b) n( a + b) = na + nb.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 1. (c) −( a + b) = − a − b. +). Sin embargo. . que la restricción de + : H × H −→ H está bien definida. . +) son grupos. Consideramos el grupo (Z.7. usaremos la notación aditiva para grupos. Así escribiremos ( G. +). . . . . donde Qn := {( a1 . Llamaremos subgrupo a los subconjuntos que sí la conserven. Sea n ∈ N fijo.9. (R \ {0}. . Obsérvese que. que es una aplicación. es decir.1. .1. donde + : H × H −→ H es la restricción de + : G × G −→ G a H × H ⊆ G × G. +). an + bn ). no necesariamente conmutativo. a2 . +) con + la suma usual de números enteros. En lo sucesivo. bn ) = ( a1 + b1 . para todo a y b ∈ G. para todo a y b ∈ G y n ∈ Z. ( a1 . Nota B. complejos. y mientras no se diga lo contrario. Un subgrupo se dice propio si es distinto de G. . Generalmente. Asimismo (Rn . . . (Qn . . +) si ( H. . an ) + (b1 . (Q. entendiendo que + denota la operación interna que dota G de estructura de grupo. . ·) son grupos. Según la definición anterior. ·) y (C \ {0}.8. respectivamente) no nulos junto con la multiplicación usual de números racionales (reales. +) tenemos que asegurarnos de que H es un subconjunto no vacío.

es un subgrupo de ( G. es decir. De manera que. +). lo que completa la demostración. O sea. Demostración. y que jugará un papel análogo a la unión de subconjuntos.1. Sean ( G. que denotamos por 2Z es un subgrupo de (Z. +) un grupo y H un subconjunto no vacío de G. (b) Si a y b ∈ H. H := {2z + 1 | z ∈ Z} ⊂ Z. es decir. +) es grupo. Por ser H subgrupo de ( G. El siguiente resultado proporciona una definición equivalente de subgrupo.1. si a ∈ H (existe alguno pues H = ∅) tomando b = a. +). +). N. +) es un subgrupo de ( G. es decir. de donde se sigue que a + (−b) = a − b ∈ H. Haciéndose necesario introducir una nueva operación que llamaremos suma de subgrupos.1. El subconjunto de todos los números enteros impares. si a y b ∈ H. que nos preguntemos si ocurre algo similar con la intersección y unión de subgrupos de ( G. Basta observar que la correspondencia + : H × H −→ H es el conjunto vacío y por tanto que no es aplicación. al verificarse en ( G. tenemos que −b ∈ H. +). El subconjunto de Z formado por todos los números enteros pares.1). 0 ∈ H. y por lo tanto 0 − a ∈ H. +). 3. no es subgrupo de (Z. entonces a − b = a + (−b) ∈ H. Proposición B. −b ∈ H. aunque la aplicación + : N × N −→ N está bien definida. Es claro que la intersección y unión de subconjuntos de G es de nuevo un subconjunto de G. +). A lo largo de este apartado consideramos fijado un grupo ( G. luego − a ∈ H.1. El subconjunto de todos los números naturales. En este apartado veremos que la intersección de subgrupos de ( G. y por tanto a − (−b) = a + b ∈ H. entonces el conjunto intersección de H1 y H2 .1. Son equivalentes: (a) H es un subgrupo de G. no se verifica la propiedad de elemento simétrico ((G3) de la definición B. (a) ⇒ (b) Sean a y b elementos de H. (b) ⇒ (a) La propiedad asociativa. no es subgrupo de Z. 2. En efecto. Parece por tanto natural.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 1. +).12. Si H1 y H2 son dos subgrupos de ( G. en particular. que resulta mucho más manejable. H1 ∩ H2 . {2z | z ∈ Z} ⊂ Z. MANUALES UEX 496 . se verifica en cualquier subconjunto H de G. Luego por el axioma (G3) de la definición B. Operaciones con subgrupos. se tiene a − a ∈ H. Por otro lado. +) (compruébese). y que esto no ocurrirá en general para la unión de subgrupos. +) se tiene que ( H. Proposición B.11.

+). Comencemos definiendo la suma de dos subgrupos de ( G. podemos afirmar que H1 ∩ H2 = ∅. En cambio 2Z ∪ 3Z no lo es.1.1.1. Definición B. Por consiguiente. Esta deficiencia se suple con la suma de subgrupos. podemos afirmar que la intersección es el ínfimo de una familia de subgrupos dada. Corolario B. Probar que H1 ∩ H2 es el mayor de todos los subgrupo de ( G. +) es un subgrupo de ( G.13. entonces a − b ∈ H1 ∩ H2 . Dado que el elemento neutro 0 pertenece a cualquier subgrupo de ( G. En primer lugar. y los subconjuntos 2Z = {2n | n ∈ Z} y 3Z = {2n | n ∈ Z} de Z. basta comprobar que si a y b está en H1 ∩ H2 . Como ya hemos comentando. Ejemplo B. +) y comprobando que efectivamente es subgrupo de ( G.1.17. la unión de subgrupos no es subgrupo en general. Ejercicio B. por la proposición B. tal y como puede deducirse del siguiente ejemplo. Ahora. +). MANUALES UEX 497 Nota B. Si { Hi }i∈ I es una familia de subgrupos de ( G. +).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. +). entonces ∩i∈ I Hi es un subgrupo de ( G. Única y exclusivamente se puede asegurar que la unión de dos subgrupos H1 y H2 de ( G. Sean H1 y H2 dos subgrupos de ( G.15. +) si y sólo si ó H1 ⊆ H2 ó H2 ⊆ H1 .16. lo que es elemental y se deja como ejercicio. y que por tanto no serán ciertos para grupos no conmutativos en general. . Definimos la suma de H1 y H2 como el subconjunto H1 + H2 := { h1 + h2 | h1 ∈ H1 y h2 ∈ H2 } ⊆ G. si y sólo si ó H1 ∪ H2 = H2 ó H1 ∪ H2 = H1 .1. Generalizar el resultado para una intersección arbitraria de subgrupos. es decir.1.11. tenemos que asegurarnos de que H1 ∩ H2 = ∅. +). +). ya que 2 y 3 ∈ 2Z ∪ 3Z pero 2 − 3 = −1 ∈ 2Z ∪ 3Z pues −1 ni es par ni múltiplo de 3. a diferencia de lo que ocurría con los conjuntos la unión no podrá desempeñar el rol de supremo de una familia de subgrupos dada. Consideramos el grupo (Z.14. Advertimos al lector que en los siguientes resultados se hará uso de la propiedad conmutativa. Por consiguiente. +) que están contenidos en H1 y H2 simultáneamente. que pasamos a definir a continuación. +) donde + es la suma usual de números enteros. +) (compruébese). Sean H1 y H2 dos subgrupos de ( G. +). Tanto 2Z como 3Z son subgrupos de (Z. El resultado anterior se puede generalizar a una familia arbitraria de subgrupos de ( G.

es subgrupo de G. +). Obviamente H1 + H2 = ∅. dos aplicaciones. Obteniéndose el siguiente resultado. Ejercicio B.20. b) → a + b. . b y c ∈ Q. +) podemos asegurar que ( a1 − b1 ) ∈ H1 y ( a2 − b2 ) ∈ H2 . Y puesto que a lo más. pero no de forma totalmente análoga. +.2. +) que contiene tanto a H1 como a H2 . De manera que tenemos la siguiente cadena de igualdades a − b = ( a1 + a2 ) − (b1 + b2 ) = a1 + a2 − b2 − b1 Conmutativa = ( a1 − b1 ) + ( a2 − b2 ). Cuerpos MANUALES UEX En los apartados 1. no es difícil comprobar que ambas operaciones verifican la siguiente propiedad: ∀ a. . De donde se sigue que a − b = ( a1 − b1 ) + ( a2 − b2 ) ∈ H1 + H2 . Si a y b ∈ H1 + H2 . cuya demostración se deja como ejercicio.11. pues 0 = 0 + 0 ∈ H1 + H2 . Corolario B. es preferible sacrificar la generalidad por una mayor concreción. Hn } una familia finita de subgrupos de ( G. y · : k × k −→ k. b) → a · b. Nota B.1. y + : k × k −→ k.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Proposición B. basta probar que si a y b ∈ H1 + H2 . Por la proposición B. +). H1 + H2 . . respectivamente. del ejemplo B. . +). Generalizar el resultado para cualquier suma finita de subgrupos. y 2. + Hn es un subgrupo de ( G.21. Un cuerpo es una terna (mathbbmssk. Sean { H1 . donde k es un conjunto no vacío. ( a.1. Probar que H1 + H2 es el menor de todos los subgrupos de ( G. 2. entonces a = a1 + a2 y b = b1 + b2 con a1 y b1 ∈ H1 y a2 y b2 ∈ H2 .1. +). . +). Y análogamente ocurre en R y R \ {0} y en C y C \ {0}. Se puede definir la suma de una familia arbitraria de subgrupos de ( G.1. ·). El conjunto suma de H1 con H2 .1.19. . Definición B. entonces a − b ∈ H1 + H2 . es decir. Sean H1 y H2 dos subgrupos de ( G. a · (b + c) = a · b + a · c (∗).6 vimos que las operaciones usuales de suma y producto de números racionales dotan a los conjuntos Q y Q \ {0} de estructura de grupo (conmutativo).18. +). Además. es decir. Esta doble estructura de grupo (conmutativo) junto con la propiedad (*) recibe el nombre de cuerpo (conmutativo).1. Como H1 y H2 son subgrupos de ( G. verificando: 498 . ( a. Sean H1 y H2 dos subgrupos de ( G. El conjunto suma H1 + . Demostración. trabajaremos con sumas finitas de subgrupos.1. que contiene al conjunto H1 ∪ H2 . La definición de suma de dos subgrupos se puede generalizar sin mayor complicación a una suma de una familia finita de subgrupos de ( G.

es decir: • ( a + b) + c = a + (b + c).MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (a) (mathbbmssk. Conviene destacar que el conjunto cuyo único elemento es el cero no es un cuerpo. de la definición B. ·) es grupo. Lo que evidentemente implica que si k = {0}. existe a ∈ k \ {0} tal que a · a = a · a = u ˜ (a = a−1 ). por la conmutatividad del producto. Luego.2. para todo a y b ∈ k \ {0}. nos referiremos a él como el cuerpo k a secas. • Existe e ∈ k tal que a + e = e + a = a. para todo a ∈ k. Como se comentado anteriormente. La aplicación · : k × k −→ k cumple: • ( a · b) · c = a · (b · c). entonces (k \ {0}. Nota B. ·) no es cuerpo. • a · b = b · a. podemos afirmar que todo cuerpo tiene al menos dos elementos. • Existe u ∈ k \ {0} tal que a · u = u · a = a. MANUALES UEX 499 . Obsérvese que a · 0 = 0 · a = 0. R y C con la suma y el producto habituales en cada uno de ellos. (u = 1). existe a ∈ k tal que a · a = a · a = u ˜ (a = a−1 ). por la unicidad del elemento neutro. ·). Ejemplo B. para todo a y b ∈ k. (Z. esto es: • ( a · b) · c = a · (b · c). (b) (k \ {0}.1 se escriba: 2. para todo a y b ∈ k. b y c ∈ k. de donde se sigue. que a · 0 = 0 y. para todo a.2. sobrentendiendo las operaciones internas de suma(+) y producto(·). En efecto. existe a ∈ k tal que a + a = a + a = e (a = − a). ·) no es un grupo. Sin embargo. tendríamos que ({0} \ {0} = ∅. De aquí que en mucho textos se sobrentienda esta propiedad y en el punto 2.4. para todo a ∈ k. puesto que (Z \ {0}. • a + b = b + a. +. ·) sería un grupo. ejemplos de cuerpo son Q. +. b y c ∈ k \ {0}. (c) Propiedad distributiva: a · (b + c) = a · b + a · c. b y c ∈ k. (u = 1). en otro caso. ·) es un grupo conmutativo. ˜ ˜ ˜ • Para cada a ∈ k \ {0}. • Para cada a ∈ k. para cualesquiera a y b ∈ k \ {0} se tiene que a · b = a · ( b + 0) Distributiva = a · b + a · 0. Nota B. (e = 0). • a · b = b · a. En lo sucesivo. para todo a ∈ k \ {0}. dado un cuerpo conmutativo (mathbbmssk. el 0 y el 1. y asumiendo que k es conmutativo salvo que se diga lo contrario. +) es un grupo conmutativo. b y c ∈ k. para todo a.2. lo que es del todo imposible.3.2. para todo a. para todo a ∈ k.2. ˜ ˜ ˜ • Para cada a ∈ k \ {0}. que 0 · a = 0. para todo a. • Existe u ∈ k tal que a · u = u · a = a.

3.3. Diremos que una aplicación f : A −→ A es un morfismo de anillos si verifica que (a) f ( a + A b) = f ( a) + A f (b). b y c ∈ k. es otra aplicación. Anillos Finalmente recordamos que se entiende por anillo (conmutativo. b) → a + b.3. es decir.4).2. se dice que ( A. verificando las propiedades asociativa y distributiva respecto a +. donde A es un conjunto no vacío y (a) + : A × A −→ A. llamada producto. (u = 1). b) → a ◦ b. ( a. +) es un grupo conmutativo. ◦). para todo a. asegura que las dos aplicaciones que dotan a un conjunto de estructura de cuerpo han de ser necesariamente distintas. para todo a y b ∈ A. es decir. (b) ◦ : A × A −→ A. • a + b = b + a. Un ejemplo de un anillo conmutativo con elemento unidad que no es un cuerpo es Z con las operaciones usuales de suma y producto (compruébese). +. para todo a. +. llamada suma. se dice que ( A. u ∈ k \ {0} tal que a ◦ u = u ◦ a = a. es decir: • ( a + b) + c = a + (b + c). con elemento unidad) y k-álgebra. para todo a y b ∈ k. para todo a ∈ k. • a ◦ (b + c) = a ◦ b + a ◦ c.3. Un anillo es una terna ( A. para todo a. El conjunto k[ x ] de polinomios en la indeterminada x con coeficientes en un cuerpo k es un anillo conmutativo con unidad para la suma y el producto habitual de polinomios (compruébese).2. en particular. un anillo (conmutativo) con elemento unidad. ( a. La propiedad distributiva. Definición B. a ◦ b = a ◦ (b ◦ c). 3. MANUALES UEX 500 .5. para todo a y b ∈ k \ {0}.1.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Nota B. Definición B. es decir: • ( a ◦ b) ◦ c = a ◦ (b ◦ c). • Existe e ∈ k tal que a + e = e + a = a. ◦) es un anillo conmutativo. (e = 0). si la aplicación producto verifica la propiedad conmutativa. para cada a ∈ k. junto con la unicidad de los elementos neutro y unidad (véase la proposición B. Por otra parte. b y c ∈ k. (a = − a). +. para todo a ∈ k. Todo cuerpo (conmutativo) es. Ejemplo B. • Existe a ∈ k tal que a + a = a + a = e.1. ◦) es un anillo con unidad. tal que ( A. Si la aplicación producto verifica la propiedad de elemento unidad. b y c ∈ k. (b) f ( a ◦ A b) = f ( a) ◦ A f (b). es una aplicación. Sean A y A dos anillos. para todo a y b ∈ A.

No obstante.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y si además. el lector interesado en profundizar en este tema puede consultar [Nav96] donde además encontrará multitud de ejercicios y ejemplos que puede ayudar a una mejor compresión de este apéndice.4. que (c) f (1 A ) = 1 A . Este apéndice cubre con creces los conceptos y resultados elementales sobre estructuras algebraicas que usaremos en este manual. Nota B. MANUALES UEX 501 .3. A y A son anillos con unidad.

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 502 .

• (λ + µ) ∗ u = λ ∗ u + µ ∗ u. (e = 0). que cumple: • (u + v) + w = u + (v + w).1. Definiciones y propiedades. para todo u ∈ V y λ y µ ∈ k. es un conjunto no vacío V junto con: (a) Una operación interna + : V × V −→ V que dota a V de estructura de grupo conmutativo. Un espacio vectorial sobre k. • Existe u ∈ V tal que u + u = u + u = e. • u + v = v + u. escribamos λ · u ó λu en vez de λ ∗ u. • (λ · µ) ∗ u = λ ∗ (µ ∗ u). entendiendo MANUALES UEX 503 Nota C. v y w ∈ V.1. Sea (V. .1. por simplicidad en la escritura. Según de la definición anterior. • 1 ∗ u = u. Definición C. para todo u ∈ V. también llamado k-espacio vectorial. +. Ejemplos D e ahora en adelante. +. −→ ∗(λ. para todo u y v ∈ V. Sin embargo. La aplicación ∗ : k × V −→ V se llama producto por escalares. • Existe e ∈ V tal que u + e = e + u = u. para todo u y v ∈ V y λ ∈ k. De aquí que en lo que sigue.2. donde 1 es el elemento unidad de k. u) := λ ∗ u que verifica: • λ ∗ (u + v) = λ ∗ u + λ ∗ v. ∗) un k-espacio vectorial. (u = −u). a partir de ahora diremos que V es k-espacio vectorial. u) −→ V . mientras no se indique lo contrario. para cada u ∈ V. para todo u ∈ V. ∗) que verifica una serie de propiedades.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA APÉNDICE C Espacios vectoriales 1. para todo u ∈ V y λ y µ ∈ k. (b) Una aplicación u operación externa ∗ : k×V (λ. es decir. Llamaremos vectores a los elementos de V y escalares a los elementos del cuerpo k. un k-espacio vectorial es una terna (V. si λ ∈ k y u ∈ V. para todo u. abusemos de la notación multiplicativa y. k denotará a un cuerpo.

Mm×n (k). que llamaremos espacio vectorial trivial. es un espacio vectorial sobre k. es decir. entonces λ · u = (λ + 0) · u = λ · u + 0 · u =⇒ 0 · u = 0.3. y por 0 al elemento neutro del cuerpo k. delimitará claramente cuando se usa uno u otro. es un espacio vectorial sobre sí mismo. Demostración.4. 4. El conjunto de los polinomios en la variable x y coeficientes en k. MANUALES UEX 504 . es un espacio vectorial sobre k.1. Proposición C. el escalar cero. Mostramos a continuación una serie de ejemplos de espacios vectoriales. k[ x ] con las operaciones usuales. junto con la operación suma de matrices y el producto de escalares habitual. 1. 5. se verifica que: (a) λ · 0 = 0. Para todo u y v ∈ V y λ y µ ∈ k. El conjunto cuyo único elemento es el cero {0} es un k-espacio vectorial. (e) (−λ) · u = −(λ · u). de los que se deja al lector las comprobaciones correspondientes. (c) λ · (u − v) + λv = λ · ((u − v) + v) = λ · (u + (−v + v)) = λ · u =⇒ λ · (u − v) = λ · u − λ · v. Ejemplo C. (f) λ · (−u) = −(λ · u). En cualquier caso.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS por ello que V está dotado de una operación “+” con la que es grupo abeliano y de un producto por escalares del cuerpo k. 3. A + B = ( aij ) + (bij ) = ( aij + bij ) y λA = λ( aij ) = (λaij ) con A = ( aij ) y B = ( aij ) ∈ Mm×n (k) y λ ∈ k. (d) (λ − µ) · u = λ · u − µ · u. El conjunto de los polinomios en la variable x de grado menor o igual que n ∈ N y con coeficientes en k. Sea V un k-espacio vectorial. el vector cero.1 se siguen de forma inmediata las siguientes propiedades. El cuerpo k. con las operaciones suma y productos propias. (b) Si λ ∈ k es un escalar cualquiera.1. Las matrices de m filas y n columnas con coeficientes en k.1. (a) Si u ∈ V es un vector arbitrario. (c) λ · (u − v) = λ · u − λ · v. 2. es un k-espacio vectorial. (b) 0 · u = 0. el propio contexto. (d) (λ − µ) · u + µu = ((λ − µ) + µ) · u = (λ + (−µ + µ)) · u = λ · u =⇒ (λ − µ) · u = λ · u − µ · u. De la definición C. k[ x ]≤n con las operaciones usuales. Asimismo conviene destacar que estamos denotando por 0 al elemento neutro del espacio vectorial. entonces λ · u = λ · (u + 0) = λ · u + λ · 0 =⇒ λ · 0 = 0.

. ∗) no es un espacio vectorial sobre R. . . los siguientes productos por escalares (*) de R no dotan a R con la suma usual de estructura de R-espacio vectorial. . . . ·) se llama k-espacio vectorial numérico de dimensión n. . un ) = λ · u + µ · u. un ) = u. vn )) = λ · (u1 + v1 . veamos que se verifican el resto de axiomas de espacio vectorial. un ) | ui ∈ k. . . . un ) = (1 · u1 . Ejemplo C. . . . . . para todo u y v ∈ kn y λ ∈ k. . . . (λ + µ)un ) = (λu1 + µu1 . +. Por ejemplo R con la suma y producto usual de números reales es un R-espacio vectorial. . . u n + v n ). . . . . Ejemplo C. λun ) + (λv1 .6. . Sin embargo. . . . . (kn . . . un ) = λ · ( µ · u ). la operación externa tan importante como la estructura de grupo. +) es un grupo (compruébese). (λ + µ) · u = (λ + µ) · (u1 . . . . . . +. . .5. . Si consideramos kn = {u = (u1 . un + vn ) = (λ(u1 + v1 ). . . entonces (R. (f) λ · (−u) + λ · u = λ · (−u + u) = λ · 0 = 0 =⇒ λ · (−u) = −λ · u. . un ) = ((λ · µ)u1 . . . En efecto. un ) + (v1 . . λun + λvn ) = (λu1 . . 1 · un ) = (u1 . . . . Si u y v ∈ kn y λ y µ ∈ k. en la definición de espacio vectorial. +. . µun ) = λ(u1 . . . Si λ ∗ u = 0. pues (λ + µ) ∗ u = λ ∗ u + µ ∗ u. . λun ).1. . . .1. . λun + µun ) = (λu1 . . . . λ · (µ · un )) = λ · (µu1 . . . . . . . . para todo u ∈ R y λ ∈ R. v n ) : = ( u1 + v1 . . vn ) = λ · u + λ · v. . . +. . λ(un + vn )) = (λu1 + λv1 . Sea n ∈ N fijo. . . . . . En un ejemplo anterior vimos que todo cuerpo k con sus propias operaciones de suma y producto es un k-espacio vectorial. . . . . . . entonces (kn . u n ) := (λu1 . . λvn ) = λ(u1 . ∗) no es un espacio vectorial sobre R. λun ) + (µu1 . entonces (R. para todo u ∈ R y λ ∈ R. Lo que pone de manifiesto que. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA (e) (−λ) · u + λ · u = (−λ + λ) · u = 0 · u = 0 =⇒ (−λ) · u = −λ · u. u n ) + ( v1 . . . . . pues 1 ∗ u = u. . Si λ ∗ u = λ2 u. Para finalizar esta sección veamos con detalle el ejemplo de los espacios vectoriales numéricos. . . (λ · µ) · u = (λ · µ) · (u1 . . = λ ( u1 . . 2. . . . un ) + µ(u1 . . . . . . . . . 1 · u = 1 · (u1 . MANUALES UEX 505 . . . 1. i = 1. . (λ · µ)un ) = (λ · (µ · u1 ). . . . un ) = ((λ + µ)u1 . . . entonces λ · (u + v) = λ · ((u1 . . . ·) es un k-espacio vectorial. . . n} con las operaciones suma y producto por escalares definidas como sigue: u+v λ·u = ( u1 . µun ) = λ · (µ(u1 . . . . . . El espacio vectorial (kn . . un ) + λ(v1 . . .

2) λu + µv ∈ L. para todo u.2. (c) L es un conjunto cerrado para combinaciones lineales. esto es. Al ser L cerrado para el producto por escalares tenemos que λu y µv están en L. Todo espacio vectorial tiene un subespacio vectorial denominado trivial. Demostración. Proposición C. se prueba que u − v ∈ L. +) es un subgrupo de V cerrado para el producto por escalares. (b) ( L. (c) =⇒ (a) Tenemos que (C. µ ∈ k y u. ·). Sea V un espacio vectorial sobre k. en particular ( L. MANUALES UEX 506 Tomando λ = 1 y µ = −1 en (C.2. µ ∈ k y u. (b) =⇒ (c) Sean λ. Diremos que un subconjunto no vacío L de V es un subespacio vectorial de V sobre k. Las siguientes condiciones son equivalentes: (a) L es subespacio vectorial de V. Tomando ahora µ = 0 en (C. Todo espacio vectorial es un subespacio vectorial de él mismo.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS 2. es un espacio vectorial. Luego. Como ocurre con la definición de subgrupo. +. (a) =⇒ (b) Como L es subespacio vectorial. Por consiguiente. pues ( L. para todo λ ∈ k y u ∈ L. v ∈ L. v ∈ L. es decir. µ ∈ k y u. por la proposición B.2.3.2) se obtiene que λu ∈ L.2. +) es un grupo (conmutativo) y la restricción del producto por escalares definido en V dota a F de estructura de espacio vectorial sobre k. si L es un subespacio vectorial de (V.2). los ejemplos más sencillos de subespacios vectoriales. Subespacios vectoriales Definición C. λu ∈ L. Ejemplo C.11. 1. Un subespacio vectorial se dice propio si es distinto del total. en resumen.2. Veamos. +) es un subgrupo de V y además la restricción del producto por escalares a k × L valora en L. con las operaciones interna y externa de V. en primer lugar. para todo λ. entonces ( L. λu + µv ∈ L.2. +) es subgrupo de V. para todo λ. todo subespacio vectorial es de modo natural un espacio vectorial. aquel cuyo único elemento es el vector cero.1.2. existen definiciones equivalentes de subespacio vectorial que facilitan las comprobaciones a efectos prácticos. Sean V un k-espacio vectorial y L un subconjunto no vacío de V. v ∈ L. +) es subgrupo. De donde se sigue λu + µv ∈ L. 2. si L. para todo λ ∈ k . dicho subespacio se denomina subespacio vectorial total ó impropio.1. se sigue que ( L. v ∈ L.

k-espacio vectorial V. n}. a la suma de los n elementos de la diagonal principal de A. an ) ∈ kn | ai = 0. . cualquier combinación lineal suya es un vector de V. 1. lo que se deja como ejercicio.2.2. . + λr vr .1. El subconjunto de Mn (k) formado por la matrices de traza 0 es un subespacio vectorial de Mn (k) con la suma de matrices y producto por escalares habituales. . . y de aquí a la de dimensión. λr ∈ k tales que u = λ1 v1 + λ2 v2 + .1(b). considerado como espacio vectorial sobre sí mismo. . MANUALES UEX 507 . Definición C. Bases de un espacio vectorial. vr } de un Notación C. S := {λ1 v1 + λ2 v2 + . v1 := x − 1} ⊂ V. es decir. Sea A = ( aij ) ∈ Mn (k). . + λr vr | λi ∈ ky {v1 . . 1. . tr( A) := ∑i=1 aii . vr } de V. .1. . . si existen λ1 . es decir. Se dice que u ∈ V es combinación lineal de un conjunto de vectores {v1 . Ejercicio C. tr( A). Sea S ⊆ V un subconjunto no vacío (no necesariamente finito). A continuación mostramos un par de ejemplos no elementales de subespacios vectoriales. 2. . λ2 . si i ∈ I }.3. El conjunto L I = {( a1 . es decir.3. vr } ⊆ S}. Probar que los únicos subespacios vectoriales de un cuerpo. . la dimensión. .2. Se llama traza de A. .5. . Este hecho dota de sentido a la siguiente: Obsérvese que dado un conjunto finito de vectores {v1 . 2. . De todo esto se deduce que las operaciones interna y externa de V dotan a L de estructura de espacio vectorial sobre k.4. Ejemplo C. .3. . v2 . v2 . si más que comprobar que la aplicación · : k × L −→ L verifica lo requerido en la definición C. son el trivial y el total. .3.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA y u ∈ L. El vector v := 3x2 + 2x − 2 ∈ V = k[ x ] es combinación lineal del conjunto de vectores {v1 := x2 . que la restricción de · a k × L valora en L. Para ello será necesario introducir una serie de conceptos que nos conducirán a la noción de base de un espacio vectorial. . . El vector 0 ∈ V es combinación lineal de cualquier conjunto de vectores de V. . 3. es un subespacio vectorial de kn . Dimensión En esta sección definiremos un primer “invariante” intrínseco asociado a un espacio vectorial. Ejemplo C. . . Denotaremos por S al conjunto de combinaciones lineales de los subconjuntos finitos de S. Sea V un espacio vectorial sobre k. . para todo I ⊆ {1. v2 . . .

y análogamente. 1. . . . es un sistema de generadores de F. basta probar que S es cerrado para combinaciones lineales. 1.2. . i = 1. . 1/2.6. El conjunto cuyo único elemento es el vector cero. {u1 . De donde se sigue que S ⊆ F. ya que. ya que si F es un subespacio vectorial que contiene a S. El conjunto de combinaciones lineales de los subconjuntos finitos de S. diremos que F está generado por S. vs }. por ejemplo. S = {0}.7. . . Queda ver que S es el menor subespacio vectorial que contiene a S. 0). 1). S es el menor subespacio vectorial de V que contiene a S. S2 = {v1 = (0. . Sea V un k-espacio vectorial cualquiera y F el subespacio vectorial trivial. . Demostración. 3)} son (cada uno ellos) sistemas de generadores de F.4. entonces contiene a cualquier combinación lineal (finita) de elementos de S. . . . . indistintamente. Sean V un espacio vectorial sobre k y S ⊆ V un subconjunto no vacío (no necesariamente finito). a3 ) | a2 . 2. Todo subespacio vectorial F de V posee un sistema de generadores. µ ∈ k y u. . Por la proposición C. . i = 1. + (µµs )vs . Sean u y v ∈ S . .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Proposición C. + (λλr )ur + (µµ1 )v1 + (µµ2 )v2 + . Los conjuntos S1 = {v1 = (0. ur } tal que u = λ1 u1 + λ2 u2 + .3(c). u2 . parta todo λ.3. Obsérvese que la primera MANUALES UEX 508 . .5. Sea V = R3 y consideramos el subespacio vectorial F = {(0. . a3 ∈ R}.3. es decir. −1). para ciertos λi ∈ k. para algún subconjunto finito {v1 . v2 = (0. . v2 . que S es un sistema de generadores de F ó que S genera a F. −1)} y S3 = {v1 = (0. 1. . . 1)}. v2 . Por ser V un espacio vectorial se sigue que λu + µv = (λλ1 )u1 + (λλ2 )u2 + . . Esto prueba que λu + µv ∈ S y por tanto que es subespacio vectorial. . v2 = (0. ur } ∪ {v1 . v ∈ S . 0. F = 0 .3. v3 = (0. u2 . 2. . v2 = (0. tal que λu + µv es combinación lineal suya. Ejemplo C. λu + µv ∈ S . Definición C. es decir. vs } de S y µi ∈ k. r. + λr ur . 0). Como u ∈ S . . existirá un subconjunto finito de S. . s. Nota C. a2 . . 1. . Pero esto es elemental. 1)} no genera a F. Sean V un espacio vectorial sobre k y F ⊆ V un subespacio vectorial. .3. El conjunto S4 = {v1 = (0. . Veamos alguno ejemplos que ilustran el concepto de sistema de generadores. . {u1 . 2. Si S es un subconjunto tal que F = S . . F = F . 1. + µ s v s . y por consiguiente que existe un subconjunto finito de S. con v = µ1 v1 + µ2 v2 + .

. . . .3. del mismo V. . . x2 . . Se dice que S es un conjunto linealmente independiente ó libre si toda combinación lineal (finita) de vectores de S nula tiene sus escalares nulos. . x2 . podemos suponer λ1 = 0. Sea V = k[ x ]. . x. x − 1. como MANUALES UEX 509 (a) S es linealmente independiente si. Es decir. existe v ∈ S tal que v ∈ S \ v . y viceversa. .3. . (b) S es linealmente dependiente si. y sólo si. 2. 3. + λr vr = 0 con λ j = 0 para algún j ∈ {1. x n . .3. Teniendo en cuenta que la equivalencia del apartado (a) es la negación de la del apartado (b). . El conjunto de vectores S = {1} ∪ (R \ Q) es un sistema de generadores de R como Q-espacio vectorial. . para todo subconjunto finito {v1 . . Sean V un espacio vectorial sobre k y S ⊆ V un subconjunto no vacío (no necesariamente finito). Sea V un k-espacio vectorial. . . v2 . } son (cada uno) sistemas de generadores de F. ( x − 7)2 . . es linealmente independiente si. vr }. . entonces existe {v1 . . . . x − m. λ1 v1 + λ2 v2 + . x n } y S2 = {1. Antes vimos (véase la nota C.8. . . . En otro caso se dice que S es un conjunto linealmente dependiente. 5. Se cumple que: Demostración. . . Un subconjunto S de V formado por único vector v ∈ V. . . y sólo si. vr } ⊆ S tal que λ1 v1 + λ2 v2 + . + λr vr = 0 =⇒ λ1 = λ2 = .9.3. x. (b) Si S es linealmente dependiente. . Además. . esto es S = {v}. y sólo si. . . Los conjuntos de vectores S1 = {1. x − 2. . 4. . . es suficiente demostrar una de las dos. . . v ∈ S \ v . . . . ( x − 7)n . .} y S2 = {1. un sistema de generadores. . vr } ⊆ S. Los conjuntos de vectores S1 = {1. r } Sin perdida de generalidad.10. en otro caso reordenaríamos los subíndices del conjunto {v1 . x2 . x n . La siguiente definición precisará que entenderemos por ”minimal”. . = λr = 0. . al menos. . . Proposición C. Definición C.} son (cada uno) sistemas de generadores del subespacio vectorial impropio. . en el caso de los espacios vectoriales se puede hablar de sistemas de ”minimales” generadores. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA parte de este ejemplo señala que un mismo subespacio vectorial puede tener distintos sistemas de generadores. Sean V un espacio vectorial sobre k y S ⊆ V un subconjunto no vacío (no necesariamente finito). ( x − 7). x. Por consiguiente. . . Sea k = Q y consideramos R con estructura de Q-espacio vectorial.6) que todo subespacio vectorial tiene. . Sea V = k[ x ] y consideramos el subespacio vectorial F = k[ x ]≤n . . para todo v ∈ S. v = 0. es decir. Ejemplo C.

S ≤ S ⇐⇒ S = S y S ⊆ S .7 tenemos que: 1.3.10. pero S3 no lo es. Si nos fijamos en el ejemplo anterior.11. Lo que nos permite definir un concepto de minimalidad entre sistemas de generadores: un sistema de generadores de un subespacio vectorial L es “minimal” si no existe ningún otro sistema de generadores de L contenido dentro de él. L un subespacio vectorial y B un conjunto de vectores de V. Si 0 ∈ S. + λr vr = 0 implica λ1 v1 = −λ2 v2 − . + λr vr y vi = v. . entonces es base de S . . entonces existe un subconjunto finito {v1 . . ya que por ejemplo {π. . . Ejemplo C. Sean V un k-espacio vectorial. . Volviendo al ejemplo C. . . .13. para todo i = 1. El conjunto de vectores S es no linealmente independiente. El conjunto de vectores S1 es linealmente independiente y el conjunto de vectores S2 es linealmente dependiente. la prueba es inmediata pues 0 ∈ S \ {0} . r. El conjunto S = {0} no es linealmente independiente. + λr vr implica 0 = −v + λ1 v1 + λ2 v2 + . − λ r vr es un elemento de S \ v1 .3.3. . se sigue que v1 = − λ2 v2 − . . Luego tenemos una combinación lineal nula de vectores de S con al menos un escalar no nulo (el −1 que acompaña a v). S3 es linealmente dependiente. .12. si tomamos S1 ∪ S2 obtenemos un conjunto linealmente dependiente. 4. Nota C. . . . . − λr vr . . Corolario C. 2. Por la proposición C. y vi = v.3. . observamos que la independencia lineal define una relación de orden (relación ≤ que verifica las propiedades reflexiva y transitiva y tal que x ≤ y e y ≥ x simultáneamente implica x = y) en el conjunto de todos los sistemas de generadores de un subespacio vectorial dado. MANUALES UEX 510 . . Obsérvese que si S es un conjunto linealmente independiente. 3. 1 1 Recíprocamente. Definición C. Ahora bien. para ciertos λi ∈ mathbbmssk. + λr vr . Los conjuntos S1 y S2 son conjuntos (con infinitos elementos) linealmente independientes. 2. Demostración.3. si v ∈ S \ v1 .14. es decir. Sean V un espacio vectorial sobre k y S ⊆ V un subconjunto no vacío (no necesariamente finito). Los conjuntos S1 . . . 2. para todo i = 1. como v = λ1 v1 + λ2 v2 + . tal que v = λ1 v1 + λ2 v2 + . 5. Pero. Un sistema de generadores “minimal” es lo que llamaremos una base.3.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS λ1 v1 + λ2 v2 + . ya que el vector cero pertenece a todo subespacio vectorial. entonces S es linealmente dependiente. r. y dado que λ λ λ1 = 0. vr } de S. v2 . . 2π } ⊂ S no es linealmente independiente. Por consiguiente S es un conjunto linealmente dependiente. Diremos que B es una base L si genera a L y es linealmente independiente. . . S2 y S4 son linealmente independientes.

con {v1 . . + ( λ m − µ m ) v m . es decir. otro conjunto de vectores tal que v = µ1 u1 + . . . 5. + λm vm . Si B es base de L. es decir que un espacio vectorial con bases de infinitos vectores. Si un vector v j no aparece en la segunda expresión. . . . Sea {u1 . Por lo tanto. en particular. . . . . .3. + λ m v m = µ 1 u 1 + . . El siguiente resultado muestra una importante propiedad de las bases que será fundamental en el transcurso de este curso. y sólo si. es un conjunto linealmente independiente. i = 1. en particular es sistema de generadores de L. . Demostración. + µvm y. reordenando los subíndices de la segunda expresión si fuese necesario. . dado v ∈ L. 2. i = 1. . . . = λm − µm = 0.3.3. s. añadimos a ésta el sumando 0v j . hay bases con infinitos vectores. B es base de L si. . Sean V un k-espacio vectorial. . vr } ⊆ B tal que v = λ1 v1 + . Consiguiendo de este modo dos combinaciones lineales de los mismos vectores. se sigue λ1 − µ1 = . añadimos a ésta el sumando 0u j . si un u j no aparece en la primera expresión. us } ⊆ B . µs u1 + . 0 0 0 0 0 1 . obtenemos que v = λ1 v1 + .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplo C. . todo vector de L se expresa de manera única como combinación lineal de elementos de B . + µ m u m 511 . 0 0 0 1 0 0 . El subespacio vectorial trivial no tiene base.12.7 y C. 0 1 0 0 0 0 . 3. . . tenemos que: 1. . . L un subespacio vectorial y B un conjunto de vectores de L. . . Por la definición de base de un subespacio vectorial y a la vista de los ejemplos C. . + λ r v r + λ r +1 v r +1 + . . . 0 0 1 0 0 0 . .8. + µ s u s + µ s +1 u s +1 + . r. . . existe {v1 . . . . que 0 = ( λ1 − µ1 ) v1 + . S no es una base de R como Q-espacio vectorial.15. . . Los conjuntos S1 y S2 son bases de k[ x ]. Ejercicio C. Así. Luego. . 0 0 0 0 1 0 . El conjunto S1 es una base de k[ x ]≤n .3. Luego un subespacio vectorial puede tener mas de una base. MANUALES UEX v = λ 1 v 1 + . . El conjuto de vectores {v1 . . . . um }.16. . 4. . para ciertos λi ∈ k. . vm } = {u1 . . contiene subespacios vectoriales cuyas bases tienen un número finito de vectores.17. . Probar que una base del espacio vectorial de matrices de orden 2 × 3 con coeficientes en k es 1 0 0 0 0 0 . es decir. . . que v = µ1 v1 + .3. . La relevancia de las bases en espacios vectoriales no sólo radica en el hecho de que corresponda con la idea de sistema “minimal” de generadores minimal. Los conjuntos S1 y S2 son bases de L. vm } está contenido en la base B que. λr vr . . . . λ1 = µ1 . restando ambas expresiones. µs us para ciertos µi ∈ k. Proposición C.3. λm = µm = 0. Por la definición C. análogamente. .

. + λr vr . . hay un subconjunto S que es linealmente independiente. dado que también 0 = 0v1 + .20. . . Definición C. En otro caso. por la proposición C. = λr = 0. hay al menos uno que es combinación lineal de los otros. entonces B = S es una base de V. En caso contrario diremos que es de dimensión infinita. . . eliminando aquellos generadores que sean combinación lineal del resto. + 0vr y que la expresión debe ser única. es decir. Como V es de dimensión finita podemos asegurar que existe un conjunto finito S = {v1 . . Demostración. . . . vn } que genera a V. es una base de V. entonces cualesquiera dos bases finitas de V tienen el mismo número de vectores. si {v1 . En primer lugar. Luego B es linealmente independiente. . de Steinitz. . todo espacio vectorial de dimensión finita tiene una base finita. MANUALES UEX 512 . Diremos que V es de dimensión finita si posee sistemas de generadores finitos. Repitiendo el proceso tantas veces como sea necesario. al menos. . . . Sabemos. + λn vn . tenemos que B genera a L. A esta constante la llamaremos dimensión del espacio vectorial. .3. .3. .4. Entonces V = S = v2 . En lo que sigue centraremos nuestra atención en aquellos espacios vectoriales que está generados por un número finito de vectores. Sea V un espacio vectorial sobre k. es decir. ya que V = S y V = {0}. λn ∈ k tales que v = λ1 v1 + . . Es decir. .3.3. Probaremos que las bases de éstos son siempre finitas y que el número de vectores en cualquiera de sus bases es una constante. Si V es un k-espacio vectorial no trivial de dimensión finita.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Recíprocamente. Llegaremos de esta manera a conseguir un conjunto linealmente independiente que genera a V. . Teorema C. se sigue λ1 = . que todo vector v ∈ V se expresa de forma única como combinación lineal de los vectores de B .18. obteniendo otro sistema de generadores de V. llamados coordenadas de v ∈ V respecto de B . por la proposición C. vr . entonces existe un subconjunto de S que es base de V. Si este nuevo conjunto es linealmente independiente. una base de V. . .3. Luego. Si S es linealmente independiente.19. si todo vector de L se expresa como combinación lineal de elementos de B . conviene resaltar que existe v ∈ S no nulo. Sin perdida de generalidad podemos suponer que éste es v1 . Si S es un sistema de generadores finito de V. Proposición C. Por otro lado. En caso contrario. vr } es un subconjunto de vectores de B tal que 0 = λ1 v1 + .17. Sea V un k-espacio vectorial no trivial de dimensión finita. existen unos únicos λ1 . podemos volver a suprimir uno de ellos. entonces. .

. . . . Sin perdida de generalidad podemos suponer λ1 = 0. . Como v1 = 0. . para ciertos λi ∈ k. . al menos uno de los λ j es distinto de cero. Basta repetir la demostración del teorema de Steinitz (teorema C. necesariamente. MANUALES UEX 513 . . um } ⊆ V = B = v1 . . En efecto. . pues B es linealmente independiente.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Demostración. um } es una base de V. . . . + ( λ1 1 λ m ) u m . . . . . . i = 2. . + λm um . Siguiendo el proceso descrito arriba sustituimos n vectores de la base B por los vectores de B . m. . . entonces µ1 λ1 = 0 y µ1 λi + µi = 0. u2 . Tenemos que {v1 . u2 .3. um } es una nueva base de V. . . um } dos bases de V. . j = 2. Sustituiremos uno por uno n vectores de la base B por los n vectores de la base B . . v3 . . . si 0 = µ1 v1 + µ2 u2 + . + µ m u m = µ 1 λ 1 u 1 + ( µ 1 λ 2 + µ 2 ) u 2 + . . . Entonces − − − u1 = λ1 1 v1 + ( λ1 1 λ2 ) u2 + . basta asegurar que algún λ j . . Por tanto µ1 = 0 y µi = 0. . Así pues. Así obtenemos que B = {v1 . + ( µ 1 λ m + µm )um . u2 . Para ello. . . . . u2 . entonces v2 = λ1 v1 . . para ciertos λi ∈ k. .{v1 . . . Pero λ1 = 0. . + µm um = m µ 1 ( ∑ i =1 λ i u i ) + µ 2 u 2 + . u2 . . Pero {un+1 . um y por consiguiente que {v1 . um = v1 . Si V es un k-espacio vectorial no trivial de dimensión finita. + λm um . . m. Sean B = {v1 . Pero si fuese λ2 = . . . . y a la vista de lo anterior. . . . j = 2. . Procedamos igual que antes y expresemos v2 como combinación lineal de esta base: v2 = λ1 v1 + λ2 u2 + . . . vn } y esto no es posible por ser B base. entonces cualesquiera dos bases de V tienen el mismo número de vectores. . . . en un espacio vectorial de dimensión finita distinto del trivial todas las bases son finitas y tienen el mismo número de vectores. . um } es linealmente independiente. {v1 . . . .20) con B = {v1 . vn } y B = {u1 . um } genera a V.21. Por ser B un sistema de generadores de V tenemos que v1 = λ1 u1 + . . . . Esta expresión asegura que u1 . . . Este último corolario permite definir sin ambigüedad el concepto de dimensión. m = n y B = B. y reordenando los subíndices de los vectores de B podemos suponer que hemos cambiado los n primeros vectores de B . es decir. . Demostración. un+1 . = λm = 0. . . m. . m. y suponemos n ≤ m. . . Además. . Es decir. . vn . . . . es distinto de cero. .3. con J es un conjunto arbitrario de índices. Corolario C. . sólo tenemos que probar que v2 se puede sustituir por alguno de los u j . . um } es una base de V. Luego. vn . v2 sería combinación lineal de {v1 . . i = 2. . . vn } y B = {u j | j ∈ J }. A la vista de lo anterior. . u2 . . . . .

entonces existe λ−1 ∈ k y por tanto v = −(λ−1 λ1 )v1 − . tiene dimensión infinita como Q-espacio vectorial. . + λr vr = 0. . vr } ⊂ S . i = 1. vr } ⊂ S y λi ∈ k. . = λr = 0. Ejemplo C. 1. kn es un k-espacio vectorial de dimensión n. . Por ejemplo. entonces S = S ∪ {v} también es linealmente independiente. Todo conjunto de más de n vectores es linealmente dependiente. al número de elementos de las bases de V. . Por tanto λ = 0. . Todo conjunto linealmente independiente de vectores de V o es una base de V o se puede ampliar a una base del espacio vectorial. 2. Ejercicio C. Sea V un k-espacio vectorial de dimensión n. Corolario C. 2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Definición C. y la denotaremos por dimk V (ó simplemente dim V).3. .26. Proposición C.19 podemos afirmar que la dimensión de un espacio vectorial V coincide con el menor número de vectores que generan a V. .24.3. . . La dimensión de k como k-espacio vectorial es 1. 3.25.3.3. Llamaremos dimensión de un k-espacio vectorial no trivial de dimensión finita V. Probar las siguientes afirmaciones: 1. . Todo sistema de generadores de V tiene al menos n vectores. Mm×n (k) es un espacio vectorial de dimensión m · n sobre k. Por ser S linealmente se sigue que λ1 = . . . Por la proposición C. k[ x ] es un k-espacio vectorial de dimensión infinita. 5. Veamos que la dimensión de V también se puede entender como el mayor número de vectores linealmente independientes en V. Todo subconjunto linealmente independiente de n vectores es una base de V.22. . en contra de la hipótesis v ∈ S . Demostración. k[ x ]≤n es un k-espacio vectorial dimensión n + 1. La prueba es inmediata a partir del teorema de Steinitz (teorema C.3. i = 1. MANUALES UEX 514 Demostración. − (λ−1 λr )vr ∈ S . 3. .24. dim 0 = 0. . R tiene dimensión 1 como R-espacio vectorial. . Si λ = 0. se define la dimensión del espacio vectorial trivial como cero. . . Consideramos λv + λ1 v1 + .3. Sin embargo. r. . .20 y la proposición C. 4.3. . Si S ⊆ V es subconjunto linealmente independiente (no necesariamente finito) tal que v ∈ S .3. . λ ∈ k y λi ∈ k. . r. Por convenio. es decir.23. Pero entonces tenemos λ1 v1 + . + λr vr = 0. Si V es un k-espacio vectorial no trivial de dimensión finita. . donde {v1 . con {v1 . Sean V un espacio vectorial sobre k y v ∈ V.

Introducción al álgebra conmutativa p. Anexo.25 es ampliable a una base de V. Toda base de L es ampliable a una base de V. Corolario C.3.3. Recíprocamente.G. Para una demostración de la equivalencia del Lema de Zorn con el axioma de elección. Sean V un k-espacio vectorial de dimensión finita y L un subespacio vectorial de V. Luego L = B = V. si dim L = dim V.Atiyah.25.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA 4. Todo sistema de generadores con n elementos es una base de V. Sean V un k-espacio vectorial de dimensión finita y L un subespacio vectorial de V. Demostración. con el principio de buena de ordenación.30.28. Corolario C. y sólo si. dim L = dim V. Añadimos en este apartado la demostración de tal resultado. en particular es un subconjunto de vectores de V linealmente independiente. Es decir. “Sea S un conjunto no vacío parcialmente ordenado (es decir se ha dado una relación x ≤ y en S que es reflexiva y transitiva y tal que x ≤ y e y ≥ x simultáneamente implica x = y). ver. Si B una base de L. y en T. y se denota por rango( L). En otro caso. es claro. sería ampliable y por tanto dim L < dim V.Macdonald. entonces L tiene dimensión finita y dim L ≤ dim V. MANUALES UEX 515 . por ejemplo. entonces S tiene. a su dimensión como k-espacio vectorial. Aunque en esta sección hemos centrado nuestra atención en los espacios vectoriales de dimensión finita con el objeto de definir su dimensión. Demostración. Springer-Verlag 1974.4. un elemento maximal.3. entonces toda base B de L es base de V.3. Paul R. se puede probar la existencia de bases para cualquier espacio vectorial independientemente de su dimensión. etc.3. Bases en un espacio vectorial de dimensión infinita. rango( L) = dim L. Sean V un k-espacio vectorial de dimensión finita y L un subespacio vectorial de V. que dim L = dim V. si. Sigue del corolario C. Si L = V entonces. Sea V un k-espacio vectorial de dimensión finita. Si L es un subespacio vectorial de V. por lo menos. El Lema de Zorn se puede establecer como sigue: si cada cadena T de S tiene una cota superior en S (es decir. Un subconjunto T de S es una cadena si o x ≤ y o y ≤ x para cada par de elementos x. advirtiendo al lector que la clave de la prueba se base en el Lema de Zorn1 1M.3. Demostración. Para terminar esta sección veamos que ocurre con la dimensión de los subespacios de un espacio vectorial de dimensión finita.29. si existe un x ∈ S tal que t ≤ x para todo t ∈ T). I. L = V. todo espacio vectorial distinto del trivial tiene base. Se llama Rango de L. es decir. De donde se sigue que B tiene. Proposición C. Luego. a lo sumo. Halmos. Definición C.27.F. tanto elementos como dim V. Naive Set Theory. Undergraduate Texts in Mathematics. por el corolario C.

2. En efecto. Luego λu ∈ L1 ∩ L2 . Demostración. este elemento maximal es necesariamente una base de V. Se ordena Σ por inclusión. si λ ∈ k y u ∈ L1 + L2 .2.3(b). por la proposición C. entonces existen u1 ∈ L1 y u2 ∈ L2 tales que u = u1 + u2 . es decir L1 + L2 = {u + v | u ∈ L1 . Por virtud del lema de Zorn Σ tiene elemento maximal. el subespacio vectorial generado por la unión. Demostración. Σ es no vacío.4. Ejercicio C. 4. Todo k-espacio vectorial V distinto del trivial tiene base. k se tiene ó S j ⊆ Sk o Sk ⊆ S j . se sigue que λu ∈ L1 y λu ∈ L2 . y ambos son subespacios vectoriales. +).31. pues {v} ∈ Σ.3. MANUALES UEX Proposición C. De modo que. la unión de subgrupos no es un subgrupo. 516 . tenemos que la intersección de subespacios vectoriales es siempre un subespacio vectorial: Proposición C. consideramos. Para aplicar el lema de Zorn. Generalizar el resultado anterior a cualquier intersección finita de subespacios vectoriales. Sea Σ el conjunto de todos los subconjuntos linealmente independientes de V. tenemos que ( L1 ∩ L2 .12. Intersección y suma de subespacios vectoriales Similarmente a lo que ocurría con los subgrupos. Si L1 y L2 son dos subespacios vectoriales de V. Si L1 y L2 son dos subespacios vectoriales de V. Demostración. Veamos además que es cerrada para el producto por escalares. Sabemos que la suma como subgrupos de L1 y L2 . queda ver que el grupo L1 ∩ L2 es cerrado para el producto por escalares.4. Veremos que este subespacio vectorial coincide con la noción de suma de subgrupos.4. para todo v ∈ V no nulo. Sean V un k-espacio vectorial.2.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Teorema C. entonces L1 ∩ L2 es un subespacio vectorial de V. por tanto λu = λ(u1 + u2 ) = λu1 + λu2 ∈ L1 + L2 . se ha de probar que toda cadena en Σ tiene cota superior. De modo que. en general. Entonces S subconjunto de V que es linealmente independiente (compruébese). sea {Si }i∈ I una cadena de subconjuntos de V linealmente independientes de forma que para cada par de índices j. v ∈ L2 }.3. la unión de subespacios vectoriales no va a ser subespacio vectorial (véase la proposición C. es el menor subgrupo que contiene a L1 y a L2 . para evitar trabajar con conjuntos que no son subespacios vectoriales.1. Por la proposición B.3(b)). +) es un subgrupo de (V. Sean V un k-espacio vectorial. entonces L1 ∪ L2 = { u + v | u ∈ L1 . Por tanto S ∈ Σ y es una cota superior de la cadena. Como. Sea S = ∪i∈ I Si . Sean u ∈ L1 ∩ L2 y λ ∈ k. en lugar de la unión. v ∈ L2 }. Como u ∈ L1 y u ∈ L2 .1.

.4. y se denota por L1 + . .5. . . vr − m . . no es base de L1 + L2 . + λm um + µ1 v1 + . . . w1 . Dada una base {u1 . podemos asegurar. y por lo tanto que es de dimensión finita. . + νs−m ws−m = − (λ1 u1 + . + µr−m vr−m ) .4. Lr } es una familia finita de subespacios vectoriales de V.4. w1 . conocido como fórmula para la dimensión de la suma ó fórmula de Grassmann. w s − m } es base de L1 + L2 . . . . MANUALES UEX 517 . . .3. . Teorema C. . . con m ≤ r y m ≤ s.4. Si L1 y L2 son dos subespacios de V de dimensión finita. . . . . podemos ampliarla a una base de L1 y a una base de L2 : B1 = {u1 . + νs−m ws−m = 0. si { L1 . . B es linealmente independiente. que L1 ∩ L2 también tiene dimensión menor o igual que dim L1 (y que dim L2 ). luego. Sea V un k-espacio vectorial. si B1 y B2 son bases de L1 y L2 . . Sea pues (C. entonces B1 ∪ B2 genera a L1 + L2 . por la proposición C. . . .3. como L1 ∩ L2 es un subespacio vectorial de L1 (y de L2 ) y L1 es de dimensión finita. um .29. Lr . y la denotaremos por L1 + L2 . por el corolario C. Probar que. . Sean m = dim( L1 ∩ L2 ). pero.3(b). En primer lugar. . + Lr . um } de L1 ∩ L2 . . como L1 ∪ . por definición. vr−m } base de L1 y B2 = {u1 .4. Si probamos que B = B1 ∪ B2 = { u1 . Así. . . . . . tenemos que L1 + L2 es subespacio vectorial. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V.6. Luego sólo nos queda probar que. .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA pues L1 y L2 son subespacios vectoriales.2. . Definición C. .5. Demostración. v1 . Veamos a continuación el resultado principal de esta sección. + µr−m vr−m + ν1 w1 + . . Por el ejercicio C. a L1 ∪ L2 . L1 ∪ L2 = L1 + L2 . . . . . tenemos que L1 + L2 = B1 ∪ B2 = B . llamaremos la suma de L1 y L2 . . r = dim L1 y s = dim L2 .4. . . + λm um + µ1 v1 + . habremos terminado ya que tendríamos que dim( L1 + L2 ) = m + (r − m) + (s − m) = r + s − m ≤ ∞. Veamos que efectivamente B es base de L1 + L2 . entonces L1 ∩ L2 y L1 + L2 son de dimensión finita y dim( L1 + L2 ) = dim L1 + dim L2 − dim( L1 ∩ L2 ). um . . ∪ Lr . Ejercicio C. por la proposición C. . . se define la suma de L1 . . ws−m } base de L2 . . De hecho tiene que ser el menor subespacio vectorial de V que contiene a L1 y a L2 . Entonces ν1 w1 + . . Si L1 y L2 son dos subespacios vectoriales de V. v1 . . u m . . . (de Grassmann).27. Sean V un k-espacio vectorial. respectivamente. en general. . .3) λ1 u1 + . En general. .

.1. Por tanto. Luego ν1 w1 + . el teorema C. pese a su nombre.3). y sólo si.5. . . pues es combinación lineal de vectores de B2 . + νs−m ws−m = α1 u1 + . Subespacios suplementarios Un caso especial de suma de subespacios vectoriales L1 y L2 de un kespacio vectorial V es aquel en que L1 ∩ L2 = {0}. . en esta situación. Definición C. . resulta que v + 0 = 0 + v son dos expresiones de un mismo vector de L1 + L2 . Probar que B1 ∪ B2 es base de L1 + L2 si. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales. que es una combinación lineal nula de vectores de B1 . j = 1.5. de donde se sigue que u1 − v1 = u2 − v2 = {0} y. . resulta νi = 0.3. Se dice que L1 + L2 están en suma directa (ó que la suma L1 + L2 es directa). αm ∈ k tales que ν1 w1 + . la expresión de un vector de L1 + L2 como suma de un vector de L1 y otro de L2 es única. v1 ∈ L1 y u2 . tenemos que λ1 u1 + . . . y por ser B2 base de L2 . . En resumen. . . . hemos probado que los coeficientes de la combinación lineal (C. αm um . 5.5. . + λm um + µ1 v1 + .3) son nulos. λ1 = .7. MANUALES UEX 518 Demostración. v2 ∈ L2 . . entonces u1 − v1 = u2 − v2 ∈ L1 ∩ L2 = {0}. Las dos expresiones deben coincidir. . v = 0. . y se denota L1 ⊕ L2 . entonces el primer miembro es un vector de L1 que está en L2 .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Como el segundo miembro de la igualdad es un vector de L1 .4. cuando L1 ∩ L2 = {0} La proposición que sigue caracteriza las sumas directas. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales. . Por tanto. respectivamente. Suma directa de subespacios vectoriales. . . .6 nos dice que la dimensión de L1 + L2 es igual a la suma de las dimensiones de L1 y L2 .2. por tanto. . volviendo a (C. = µm−r = 0. . .4. B1 ∩ B2 es base de L1 ∩ L2 .4. Entonces. Nota C. Ejercicio C. ⇒ Si tenemos dos expresiones u1 + u2 = v1 + v2 con u1 . = λm = µ1 = . Es conveniente destacar que la suma directa de subespacios vectoriales. . no es una operación sino una propiedad de la suma de subespacios vectoriales. Proposición C. ⇐ Si v ∈ L1 ∩ L2 . pues. + µr−m vr−m = 0. . i = 1. + νs−m ws−m ∈ L1 ∩ L2 y por tanto existen α1 . La suma L1 + L2 es directa si. Luego B es linealmente independiente. m.4. que u1 = v1 y u2 − v2 . . Sean V un k-espacio vectorial y B1 y B2 bases de dos subespacios vectoriales L1 y L2 . s − m y α j = 0. y sólo si. .

+ 0 ∈ L1 + . = 0. L1 ∩ L2 = {0} y L1 + L2 = V. + vm = 0. Proposición C. . según la definición de dos subespacios que están en suma directa. Sean V un k-espacio vectorial y { L1 . Despejando ahora vm−1 en está última igualdad obtenemos que vm−1 = −(v1 + . . en particular v = 0. . + Li ) ∩ Li+1 = {0}. .2. . + Lm es directa y escribiremos L1 ⊕ . entonces existe otro subespacio vectorial L de V tal que L ⊕ L = V. si V = R2 y L1 = (1. Los subespacios L1 . entonces L1 ∩ L3 = L2 ∩ L3 = L2 ∩ L3 = {0}. . . . Lm } una familia de subespacios vectoriales de V. . . Probar que L1 ∩ Li+1 + . n − 1. + vm−2 ) ∈ ( L1 + . . MANUALES UEX 519 Definición C. + Lm como suma de vectores de L1 . .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA La generalización de la suma directa presenta más dificultades. . . . . + Li ) ∩ Li+1 . . . para cada i = 1. . + vm−1 = 0. .5. Demostración. . es decir. . se satisfacen las siguientes m − 1 igualdades: ( L1 + . . . . implica Li ∩ L j = {0}. m tales que v1 + . . . mientras que ( L1 + L2 ) ∩ L3 = L3 = {0}. . Lm es única.5. L2 = (0. m − 1} fijo. Proposición C. . . .4. . . . + vi = vi+1 para ciertos vectores v j ∈ L j . Lm está en suma directa si. . j = 1. 1) . . + Lm−2 ) ∩ Lm−1 = {0}. . + Lm . . . . . . . . y sólo si. . Si L es un subespacio vectorial de V. . Diremos que L1 y L2 son suplementarios si están en suma directa y su suma es V. Concluir que ( L1 + . . Repitiendo este razonamiento las veces que sea necesario se concluye que v1 = . para todo i = j. Si v ∈ ( L1 + . .7. tal que L y L son suplementarios. ⊕ Lm si la expresión de todo vector de L1 + . . Sin embargo la implicación contraria no es cierta en general.5. = vi = vi+1 = 0 = . Así pues. . . . . . Li + Li+1 + Li+2 + . 0) . .5. + Lm−1 ) ∩ Lm = {0} y por lo tanto que vm = 0 y v1 + . ⇐ Sean v j ∈ L j . + vm−1 ) ∈ ( L1 + . ⇒ Sea i ∈ {1. La forma correcta de hacerlo es usando la proposición C. Por ejemplo. diremos que la suma L1 + . . . . . . . . tenemos que L1 y L2 son suplementarios si . . . . + vm−2 = 0. . . . + Li ∩ Li+1 ⊆ ( L1 + . Sean V un k-espacio vectorial y { L1 .5. . Sea V un k-espacio vectorial de dimensión finita. + Li ) ∩ Li+1 . Luego 0 = v1 + . . luego vm−1 = 0 y v1 + . que v1 = . . 1) y L3 = (1. . . para cada i = 1. i + 1. . Es decir. aplicando la hipótesis. . . Ejercicio C. + Li ) ∩ Li+1 = {0}. Lm } una familia de subespacios vectoriales de V. De donde se sigue. para cada i = 1.5. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V. . Despejando vm obtenemos que vm = −(v1 + . . . n − 1. . entonces v = v1 + . = vm = 0. .6. + vi + (−vi+1 ) + 0 + . . . . . j = 1. m − 1. .

v ∈ V y λ ∈ k. Si Completamos B a una base de V. un }. v. um+1 . 520 . . . . Ejercicio C.9. v ) := (u + u . . Demostración.8. (b) Para todo v ∈ V existe un único v1 ∈ L1 tal que v − v1 ∈ L2 . lo que claramente supone una contradicción. v) := (λu. v + v ). entonces el subespacio L = um+1 . Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V. Subespacios suplementarios en un espacio vectorial de dimensión infinita. Sea L un subespacio vectorial de un k-espacio vectorial V y consideramos el conjunto L = { L subespacio vectorial de V | L ∩ L = {0}}. . Anexo. Teorema C. entonces el subespacio vectorial L + v de V sería un elemento de L que contiene estrictamente a L. aplicando el Lema de Zorn. Suma directa de espacios vectoriales MANUALES UEX Sean U y V dos espacios vectoriales sobre un cuerpo k. . {u1 . λ(u. v) + (u .5. . que existe un vector no nulo v ∈ V tal que v ∈ L + L . u ∈ U. existe un subespacio vectorial L de V que es elemento de L tal que ningún elemento de L contiene estrictamente a L. para lo cual basta probar que V = L + L . entonces ∪i∈ I Li es un elemento de L que es una cota superior para el conjunto { Li }i∈ I de L. obtenemos que en L hay elementos maximales. . . um . Por lo tanto. . um } una base de L. Con estas dos operaciones U × V es un espacio vectorial. Todo subespacio vectorial de un k-espacio vectorial posee un subespacio suplementario. Sea B = {u1 . un cumple lo deseado (compruébese). Supongamos dim V = n. es decir.5. La suma directa una familia finita de k-espacios vectoriales se define forma completamente análoga. es decir. 6. Al vector v1 se le llama proyección de v sobre L1 paralelamente a L2 . Llamaremos suma directa de U y V al conjunto U × V con las operaciones (u. . . Veamos que L y L son suplementarios. que designaremos por U × V. . Probar que las siguiente afirmaciones son equivalentes: (a) L1 y L2 son suplementarios. .IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS Demostración. λv). Supongamos que no se satisface la igualdad. Si { Li }i∈ I es una cadena de L. . dicho conjunto no es vacío y está ordenado por la inclusión. . donde u.

En algunos textos se usa el símbolo ⊕ en vez de × para expresar lo que hemos definido como suma directa de espacios vectoriales. . v j ) = ( 0U . . sobre todo al lector poco familiarizado con los conceptos y resultados. ya que si (u. v) = (u. (0U . . j= y son linealmente independientes. ∑m 1 µ j v j ) j= = ∑in=1 λi (ui . 0V ) + ∑m 1 µ j (0U . . . . por ser BU y BV bases.6.6. En los capítulos 1 y 2 de [BCR07] se pueden encontrar diversos ejercicios y ejemplos que con seguridad ayudarán a la mejor compresión de este tema. . .1. . . .2. . . . × k. . v j ). (un . . Nota C. ya que si i =1 ∑ λi ( ui . un } una base de U y BV = {v1 . vm } una base de V. i =1 j =1 lo que implica λi ui = 0U y ∑m 1 µ j v j = 0V . . entonces U × V es de dimensión finita y dim(U × V ) = dim U + dim V. Si U y V son dos k-espacios vectoriales de dimensión finita. . . Si {V1 . × Vn es de dimensión finita y dim(V1 × . + dim Vn . 0V ) + (0U . Hemos optado por esta notación para evitar confusiones. la suma de directa de un mismo k-espacio vectorial V n veces. vm )} es una base de U × V. v) = (∑in=1 λi ui . V × .4. . se denota por V n . (0U . 0V ). . Corolario C.6. 0V ) + n n j =1 m ∑ µ j ( 0U . . Sean BU = {u1 . Proposición C. Vn } es una familia de k-espacios vectoriales de dimensión finita. v) ∈ U × V tenemos (u. . 0 V ) m entonces ( ∑ λ i u i . × V. De donde se sigue que j= λ1 = . .3. Demostración. En efecto: estos vectores generan U × V. Entonces B = {(u1 . × Vn ) = dim V1 + . .6. . . = λn = µ1 = . En general. . . . Un ejemplo ya conocido de suma directa de espacios vectoriales es el de los espacios vectoriales numéricos. kn = k × . . v1 ). = µm = 0. . entonces V1 × . . 0 V ). . 0V ). n ∑ i =1 MANUALES UEX 521 . ∑ µ j v j ) = ( 0U .MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Ejemplo C. 0V ) + (0U .

IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS MANUALES UEX 522 .

[Cia82] P. Magnus and H. 2007. Prentice Hall. Paris. [Mey00] C. Marcellán Espa nol. Alianza Editorial. John Wiley & Sons. vol. 19. 1983. Ed. [IR99] J. Lipschutz. problemas y practicas con matlab. J.A. 110. [BF04] R. Introducción al espacio de hilbert. second (revised) ed. 1982. [BS98] R. [MN07] J. Manuales de Unex. New York.J. Berlin. Cálculo científico con MATLAB y Octave. Introduction à l’analyse numérique matriciele et à l’optimisation. Metodos numericos: teoria. 2005.L. 1987. Sánchez Ruiz. and B. vol. Madrid.A. Álgebra lineal y teoría de matrices. Álgebra lineal con métodos elementales. modelos y métodos. 1970.Mikusinski. [CnR05] J. Madrid. Madrid. Hinrichsen. Saleri. Applied matrix algebra in the statistical sciences.K. Matrix analysis and applied linear algebra.J. Berberian. F. Editorial Teide. Álgebra conmutativa básica. [Her85] D. F. [Ber77] S. Inc. Sacco. and J. Manuales de Unex. Universidad de Salamanca. and F. Requejo. [HF77] D. [dR87] D. vol. Álgebra lineal. Springer-Verlag. Serie de Compendios Schaum. 50. Numerical mathematics.G. Urmo. 2006. Saleri. Pirámide. . A. 2003. Introduction to hilbert spaces with applications.L. Hernández.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Bibliografía [AB93] A. Rey Cabezas. Ciarlet.. Navarro González. Santos. Academic ´ Press. 1977. second ed. and J. Quarteroni.. Meyer. R. San Diego. Matrix Differential Calculus with applications in statistics and econometrics. Cheney. [FVV03] C. Universidad de Extremadura. Thomson Editores Spain. [QSS07] A. 1998.. Manuales de la Universidad de Salamanca. Álgebra lineal y geometría. Arvesú Carballo. vol. 2007. Neudecker. Wiley Series in Probability and Statistics. Thomson Editores Spain. Fernández-Pérez. [BCR07] V. 1999. Problemas resueltos de álgebra lineal. Debnath and P. Topología general. Cayetano. Philadelphia. Milano. [MS06] L. Peña Sánchez de Rivera. [Lip70] S. Madrid.A. Madrid.R.M. 2006. Sanz. Bolós. México. and F. J. Análisis numérico. 1996. Grupo Thomson Editores. North-Holland. Thomson Editores Spain. Aubanell. Vázquez-Hernández. Barbolla and P. 1977. 2004. PA. Masson. 523 MANUALES UEX 523 . Madrid. 1993. Vegas Montaner. Labor. 1999. CA. Chichester.M. [DP99] L. Fernández. Infante del Río and J. A. 2000. Springer-Verlag. 1996. [KC96] D. Delshams Útiles básicos de cálculo numérico. Universidad de Extremadura. 37. Faires. Grupo Editorial Iberoamericana. 2007. Kincaid.. McGraw-Hill. Alianza Universidad Textos. Society for Industrial and Applied Mathematics (SIAM). Basilevsky. S. Estadística. Texts in Applied Mathematics. [Nav96] J. [Bas83] A. Quarteroni. W. [QS06] A. Merino and E. Benseny. Análisis numérico.D. Topología general. 1985. J. Burden. Ecuaciones diferencias y en diferencias.

Generalized inverse of matrices and its applications. Spivak. Algebra lineal con matlab y maple. Cálculo en variedades. 1995.R. John Wiley & Sons. Hertfordshire. [Sen81] E. [Spi88] M.R. [SV95] M. second ed. Vicente. [Sea82] S. 2005. Reino Unido. Matrix analysis for statistics. Berlin. Barcelona. John Wiley & Sons. Non-negative matrices and markov chains. Searle. Seneta. 1988.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS [RM71] C. Rao and S. 1981.. Chichester. 1971. MANUALES UEX 524 . [Sch05] J. Springer Series in Statistics. 1982. Soto and J. Springer Verlag. Hoboken.K.J.L. Schott. Matrix algebra useful for statistics. John Wiley & Sons. New York-London-Sydney.R. Mitra. Editorial reverté. Prentice Hall International. Wiley Series in Probability and Statistics. NJ. Wiley Series in Probability and Statistics.

214 distancia. 480 en un punto. 496 con unidad. 214 global. 105 autovector. 105 bola abierta. 123 precompacto. 496 aplicación abierta. 213 coordenadas. 503 complemento de Schur. 43 núcleo. 480 local. 124 ortonormal. 230 conjugado de un número complejo. 28 completitud. 15 combinación lineal. 14 conjunto acotado. 324 bloque de Jordan. 479 en un espacio normado. 39 automorfismo. 39 trivial. 41 nula. 41 inclusión. 482 cerrada. 473 lineal. 485 compacto. 73 525 MANUALES UEX 525 abierto de un espacio métrico. 482 continua. 19 anillo. 485 total. 496 conmutativo. 477 adjunto. 44 identidad. 261 de diagonalización por el polinomio característico. 477 clausura. 124 en un espacio de Hilbert.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA Índice alfabético base. 476 de una topología. 485 continuidad en espacios normados. 508 criterio de convergencia para métodos iterativos. 475 cadena de Markov. 74 ortogonal. 483 condicionamiento. 487 ortogonal. 506 de Jordan. 42. 61 de Perron. 39 autovalor. 68 . 62 de Perron. 109 cerrado de un espacio métrico. 39 matriz. 323 totalmente acotado. 478 columna de una matriz. 475 cerrada. 46 ecuación. 39 cambio de base. 39 imagen. 109 finita. 480 convergencia. 480 continua entre espacios normados. 109 homogénea.

494 deflación. 95 elemento adherente. 508 distancia. 139 LU. 63 matriz. 478 inverso. 74 cuadrática. 490 neutro. 123 usual de Rn . 119 antisimétrica. 156 por columnas. 490 simétrico. 483 separable. 316 de Cauchy-Schwarz. 473 ecuación lineal en diferencias. 478 frontera. 473 en un espacio vectorial euclídeo. 126. 476 entrada de una matriz. 501 suma directa. 19 diferencial matricial. 158 larga. 21 del cambio de base. 508 infinita. 121 simétrica. 490 unidad. 477 de Hilbert. 211 prehilbertiano. 326 normado. 15 epimorfismo. 308 determinante de una matriz. 319 clásico. 37 por filas. 122 euclídeo usual. 253 fila de una matriz. 18 de Vandermonde. 39 numérico. 310 de Hölder. 84 descomposición en valores singulares corta. 199 descomposición espectral. 37 ortogonal. 119 canónica de Jordan. 499 Euclídeo. 19 fila. 43 nilpotente.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS cuerpo. 478 interior. 478 grupo. 474 completo. 326 métrico. 26 desarrollo por una columna. 39 equivalencia de matrices. 473 discreta. 499 espacio de Hausdorff. 15 forma bilineal. 33 escalar. 198 dimensión. 86 entorno. 490 opuesto. 489 MANUALES UEX 526 . 63 fórmula de la matriz inversa. 516 trivial. 306 topológico. 328 separable. 157 desigualdad de Bessel. 311 de Minkowski. 39 diagonalizable. 119 definida positiva. 122 morfismo. 140 escalonada por columnas. 510 finita. 243 QR. 47 factorización de Cholesky. 490 endomorfismo. 477 vectorial. 34 frontera. 312 triangular. 500 espectro de un matriz. 301 derivada matricial. 474 de la recta real. 137 de Schur. 37 reducida. 37 por filas.

14 de un vector. 17 positiva. 242 por filas. 324 interior. 260 métrica. 34. 18 diagonal. 301 de Richardson estacionario. 242 diagonalmente semidominante por columnas. 327 libre. 489 conmutativo. 34 endomorfismo. 505 independiente. 119 aumentada por bloques. 22 cambio de base. 16 inversa. 297 método de Gauss-Jordan. 15 por bloques. 99 nilpotente. 23 diagonalizable. 17 nula. 266 de Jacobi. 265 de Jordan. 505 linealmente dependiente. 316 de Parseval (caso finito). 14 adjunta. 15 hermítica. 37 método iterativo convergente. 482 igualdad de Bessel. 477 homeomorfismo. 20 ampliada. 489 simétrico. 33 estacástica. 109 estocástica. 43 equivalente a. 299 inversa. 505 método de Gauss-Seidel. 87 extraída. 18 Hausdorff espacio de. 123 matrices congruentes. 245 por filas. 64 divida por bloques. 26 identidad. 50 antisimétrica.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA abeliano. 27 no negativa. 172 invertible. 266 de Jacobi. 245 matriz. 21 dolemente estacástica. 15 ortogonal. 17 irreducible. 105 MANUALES UEX 527 . 43 asociada a una forma bilineal. 278 del gradiente. 135. 109 elemental. 99 primitiva. 281 QR. 17 aplicación lineal. 119 módulo. 39 de espacios de Hilbert. 119 simétrica. 21 generalizada. 58 matrix diagonalmente dominante por columnas. 142 definida positiva. 167 isomorfismo. 99 de transición de probabilidades. 278 no estacionario. 17 normal. 99 no singular. 17 idempotente. 110 de una forma cuadrática. 121 cuadrada. 108 de permutación. 196 de Gauss-Seidel. 17 de Moore-Penrose. 121 semejantes. 74 de la iteración. 315 de Parseval (caso general). 15 de conmutación. 478 inversa generalizada. 46 congruente con. 140 determinante. 161 fórmula de. 261 de Leslie. 167 mínimo cuadrátrica. 265 de la potencia.

487 propiedades de los abiertos de un espacio métrico.IGNACIO OJEDA MARTÍNEZ DE CASTILLA / JESÚS GAGO VARGAS rango. 19 proyección ortogonal. 276 semejanza de matrices. 192 ortogonalidad. 39 moore-Penrose inversa de. 49 ortogonal. 248 polinomio característico de un endomorfismo. 130. 17 triangular inferior. 318 producto de Kronecker. 496 multiplicidad de un autovalor. 49 incompatible. 67 número de condición. 49 compatible. 478 de los determinantes. 16 unidad. 504 lineal de ecuaciones. 135. 16 superior. 49 homogéneo. 313 ortonormal. 215 operaciones elementales por columnas. 123 en un espacio prehilbertiano. 309 residual. 60 precondicionador. 476 de los cerrados de un espacio métrico. 224 de un vector. 34 por filas. 313 partición de la multiplicidad. 16 escalar. 129 punto de acumulación. 211 vectorial. 210 normas equivalentes. 122 por escalares. 499 propiedad fundamental de los espacios métricos. 52 pleno por fila. 217 subordinada. 511 de una matriz. 122. 58 sistema de generadores. 79 perturbación de la identidad. 37 reducible. 478 raíz de un endomorfismo. 37 pleno por columnas. 23. 96 de una matriz. 52 regla del paralelogramo. 16 de un escalar por una matriz. 316 de un vector. 17 traspuesta. 19 de una matriz. 230 norma de Fröbenius. 103 rango de un subespacio vectorial. 112 radio espectral. 123 en un espacio prehilbertiano. 59 mónico. 263 proceso de ortonormalización de Gram-Schmidt. 161 morfismo de anillos. 308 matricial. 28 pivoteo por filas. 60 unitario. 306 usual. 189 de matrices. 313 subespacio MANUALES UEX 528 . 140 simétrica. 18 principal. 218 usual de Cn . 61 de una ecuación en diferencias. 17 menor adjunto. 16 unitaria. 63. 99 semidefinida positiva. 17 traspuesta conjugada. 211 usual de Rn . 33 operador vec. 18 monomorfismo.

61 valores singulares. 502 rango. 476 métrica. 317 total. 14 de adherencia de una sucesión. 479 de Cauchy. 102 propio. 75 ortogonal. 62 residual. 16 directa de matrices. 192 vector. 314 de Pitágoras generalizado. 69 genralizado. 502 impropio. 109 extremal. 103 de Pitágoras. 502 trivial. 157 vec. 515 total. 18 valor absoluto. 128 propio máximo de un autovalor. 276 precondicionado. 158 larga. 325 ortonormal. 279 unitario. 62 invariante. 491 submatriz. 157 teorema de Perron-Fröbenius. 482 densa. 315 de Rouché-Fröbenius. 499 de probabilidad. 50 del rango. 323 suma de matrices.MÉTODOS MATEMÁTICOS PARA ESTADÍSTICA propio asociado a un autovalor. 48 tolerancia de un método iterativo. 479 propio. 511 suma. 15 subsucesión. 477 traza de una matriz. 76 vectorial. 239 hacia atrás. 513 suplementario. 502 subgrupo. 502 intersección. 512 propio. 22 sustitución hacia adelante. 276 topología. 491 propio. 479 sucesión. 124 MANUALES UEX 529 . 238 SVD corta.

.

ISBN 978-84-691-6429-7 58 .

Sign up to vote on this title
UsefulNot useful