You are on page 1of 12
TEMA 5: DIAGONALIZACION 1. Valores y vectores propios ‘Como hemos visto en temas anteriores, las transformaciones « ~» Az pueden mover veetores ‘en todas las dizecciones posibles. En este tema vamos a estudiar un tipo de transformaciones que evan un vector de un subespacio a un vector del mismo subespacio. Adenés, vamos a ver cémo y cuando podemos escribir una matriz cuadrada como un cambio de base de una mattiz diagonal. Recordamos que J denota la matriz identidad, Definicién 1. Un vector propio (o autovector) de una matriz A © Myon es un vector 2 #0 tal que Ax = x para cierto escalar A. El escalar \ en la ecuacién anterior es un valor propio {0 autovalor) de A. Definicién 2. Un subespacio propio de valor propio A de una matriz A es el subespacio generado por los vectores propios asoctados al valor propio A APPLET 1. Autovaiores y autovectores en el plano bia a-(13) i Invariant lines A={{5, 2}, {1, 2}} La figura representa un vector v y el producto Av para una malriz A, que se puede cambiar en la parte inferior izquierda. Mueve v para encontrar: n aulovector de A, y estima el aulovalor correspondiente, = Un vector que no sea autovector de A. APPLET 2. Autovalores y autovectores en el espacio. La figura es andtoga a la anterior, pero en tres dimensiones. Mueve el vector v para encontrar: = Un autovector de A, y estima ef autovalor correspondiente, = Un vector que no sea autovector de A Nota: hay dos modos de movimiento para v, uno lo mueve en el plano XY y otro en la direccién Z. Haz click en v para cambiar entre estos modos. La figura se puede rotar con click derecho. jlo. Pea mata ge Tw lr opi eta mais A= ( 2) sno ver que se cumple la ecuacién Ax = Tx para algiin vector x £0, que es equivalente a ver que ef sistema (A-U)z=0 a iene soluciones no triviales. Para resolver esta ecuacién homogénes formamos la matriz am(58)-(54)-(8 4) Las columnas son claramente linealmente dependientes por lo que la ecuacién no triviales. Por lo tanto 7 es un valor propio de la matriz A. Para encontrar los vectores propios correspondientes escalonamos la matriz -6 6/0) (1 -1/0 5 -5|o 0 ofo): te Heme coma slucién Udon los vectors de ls forma a} ) con a € Ry ex desir Glen (()} ‘Teorema 1. Si vz,...,v son vectores propios que corresponden a distintos valores propios Daseoesdr de tna matre AC Myxn, entonces el conjunto {,...,-} es lnealmente indepen- dente Figura 1: Espacios propios de X= 7 y A Prueba, Supongamos que {v1,...,0-} e8 un conjunto linealmente dependiente. Sea p el iltimo indice tal que vps1 es combinacién lineal de los vectores anteriores, que son lincalmente independientes. Entonces existen escalates ¢1,...,¢p tales que exe bb ety = pt @ ‘Si multiplicamos ambos lados de esta ecuacién por A: equ tot epAup = Avpt Usando el hecho que Avy = Ake, de la anterior ecuacién obtenemos: erin +++ + ppp = Aptatpa @) Ahora, si multiplicamos @ por Api ¥ la restamos a @) obtenemos: 61 a = Apa) o1 +--+ ep (Ap — Apta) tp = 0. Como {v1,...,%p} es un conjunto linealmente independiente, los eoeficientes en la anterior ecuacién deben ser todos 0, pero ninguno de los factores Xx ~ Apia puede ser cero porque los valores propios som distintos. Entonces, ck = 0 para todo k = 1,...,p y de la ecuacién @) tenemos que vp1 = 0. Esto no puede ser ya que up 6s vector propio y por tanto no puede sor un vector trivial. Asi, que el conjunte {v;,.-.,-} es linealmente independiente. ‘Observemos que del resultado anterior se siguen las siguientes propiedades: = Una matriz A € Myxn tiene como maximo n valores propios distintos. Si tuviese més, entonces tencirfamos al menos +1 vectores de R® linealmente independientes, lo cual no es posible. = Siuna matriz A © Myxn tiene n valores propios diferentes, entonces tendra n. vectores propios linealmente independientes. Esto no es necesariamente cierto si algxin autovalor est repetido, 2. La ecuacién caracteristica ‘Como hemos visto en el ejemplo anterior, los valores y vectores propios de la matriz A estin directamente relacionados con las soluciones del sistema (A — \/)z = 0. Ademés, las soluciones de este sistema a su vex estin relacionadas con el deterrainante de la matriz A— MI. En eonereto, ‘cuando A sea tal que el determinante es 0, entonces el sistema tendré soluciones no triviales, por lo que A ser un valor propio de A y dichas soluciones serén los vectores propios eorrespondientes ad Definicién 3. La ecuacién caracteristica de una matriz A viene definida por del(A ~ M) Ademés, det(A— XI) también se conoce como polinomio caracteristico de A. Proposicién 2. Un escalar \ es un valor propio de la matriz A si y solo sid satisface la ecuacién caracteristica. Es decir, es una rate del polinomio caracteristico de A. Definicién 4. La multiplicidad de un valor propio es su mulliplicidad como rate del polinomio caracteristico. Bjemplo 2, Para encontrar la ecuacién earacteristica de la matriz 5-2 6-1 _|o 3-8 0 A=|o 0 5 4 oo o 1 formamos la matriz (AM) y caleulamos su determinante 5 det(A~ AI) = det =2 0 3-A -8 oo oo =(5-A)*(3- A) - A) = 0. ~A)(8— YG )A—A) Expandiendo el producto, podemos escribir también M— 14° + 68X"—130A+75 = 0. De acuerdo ‘con la discusisn anterior, las raices de este polinomio son los valores propios de a matriz A. Es decir, = 5,3,1 5 tiene multiplicidad 2, mientras que 3 1 tienen multiplicidad 1 3. Diagonalizacién 3.1. Semejanza Definicién 5. Une matriz A es somejante a otra matriz B si existe una matric P invertible tal que P-'AP = B o, equivalentemente, A = PBP~! ‘Teorema 3. Si dos matrices A, BE Myxy son semejantes, entonces tienen el mismo polinomio caracteréstico y los mismos valores proptos (ast como sus multiphicidades). 24 13 a(s t)e=(6 2) Podemos verificar que P"1BP = Bjemplo 3. Sean dea =aee[ 2 ,* 4] 1-2-9), 1 = A)(2—A), 3.2. Diagonalizacién de matrices ‘Teorema 4 (Toorema de diagonalizacién). Una matriz A € My es diagonalizable si y solo si A Liene n vectores propios linealmente independientes, De hecho, A= PDP-) con D matriz diagonal, si y solo si las columnas de P son n vectores propios linealmente independientes de A. En este caso, las entradas de ta diagonal de D son los valores propios de A, y las columnas de P son vectores propios correspondientes a estos valores propios. ‘Teorema 5. Una matriz de Maxn conn valores propios distintos es diagonalizable ‘Teorema 6. Sea AE Main cuyos valores propios diy... Ap son distintos (puede ser gue p RF zo Az La matriz A os la matyiz asociada aT con respecto a la hase canénica C. Si quisiésemos calcular la matyiz asociada a T cou respecto a otra base B (la misma en ambos lados), lo que haxiamos serfa encontrar una matriz de cambio de base Pe tal que ABE = (Pees) A(Pews) “) Observa que esta fSrmula es muy similar a la de la diagonalizacién: A= PDP (6) Veamos que, en efecto, podemos interpretar Ia diagonalizacién como un cambio de base de una transformacién lineal, Supongamos que Ia base B esté formacla por vectores propios lmealmente independientes de A. Entonces P = (Pe.-s). Despejando D en a ecuacién (, D= PP, i) por lo que, comparando con la ecuacién (i), deducimos que ASS = D. Bn conclusién, podemos ver el proceso de diagonalizacién como un cambio de base de la aplicaciOn asociada a A tal que la matriz en la nueva base formada por los vectores propios es diagonal 6. Diagonalizacién de matrices simétricas Definicién 6. Una matriz A es simétrica si AT = A Nota. Necesariamente, wna matriz simétrica tiene que ser cundrada, Ademds, las entradas de la diagonal son valores cualesquiera y los demas aparecen en parejas en lados opuestos de la diagonal 1-40 Bjemplo 5. A=[ -4 2 6 | es una matriz simétrica ya que AT = A 0 6 8 ‘Teorema 9. Si A es una matriz simétrica, enlonces dos veclores cwalesquiera de diferentes espacios propias son arlogonales. Prueba Sean vi, v2 dos vectores propios con distintos valores propios, As, Az, Para ver que 142 = 0, caleulamos: (Ati) uz = (Avs)” v2 (porque v1 es un vector propio) = of (Aux) (porque AT = A) F (Aav2) (porque vs es un vector propio) davies M20 vp = Aaviee Entonces, (A: — Az) viv2 = 0. Pero Ay — Az F 0, entonces 22 = 0, es decir v1, 02 son ortogonales. Definicién 7. Una matriz A € Mnxn se dice ortogonalmente diagonalizable si existe una matriz P (lal que P-! =P) yuna matriz diagonal D tal que A= PDP =PDP™ Nota. Una diagonalizacién como ésta reguiere de n vectores propios linealmente independientes y ertonormales. Esto es posible si A es ortogonalmente diagonalizable y, en este caso, se cumple que “TDP” =PDPT =A. AT =(pDPT)" ‘Teorema 10, Una matriz A es ortogonalmente diagonalizatle si y solo si A es una matrie simétrion 6.1. Teorema espectral Definicién 8, Bl conjunto de valores propios de ana matriz A también se Wana espectro de A ‘Teorema 11. (Teorema espectral para matrices simétricas). Toda matriz simétrica A © Maen ‘cumple las siguientes propicdades: a. A tiene n valores propios reales, contando multiplicidades, 6. La dimensién del espacio propio para cada valor \ es igual a la multiplicidad de como rafz de la ecuacién earncteristica ©. Los espacios propios son muluamente ortogomates, es decir que los vectores propios de distintos valores propios son ortogonales. 4. A es ortogonalmente diagonalizable Descomposicién espectral Supongamos que A= PDP-, donde las columnas de P son vectores propios ortonormales tuj,-.-;tm de A y los valores propios correspondientes Aj,...,Ay se encuentran en la matriz diagonal D. Entonces, como P-! =P’, M 0 \ (at A=PDPT = (uy un ) om Lat = (Arn Ata) = Angad + Anand 424 Annan Definicién 9. L2 descomposicién espectral de una matriz A se representa por la siguiente expresisn: A= Avan 4 dau b+ Agia Nota. La descomposicién espectral divide la matriz en distintas piezas determinadas por su cespectro. Nota. Cada térmnino de la descomposicién espectral es una matriz de rango 1 de tamaiio nxn. Definicién 10, Ademés, cada matriz uju} es una mateiz de proyeccién que para cada vector TERM, (uy?) x es su proyeccisn ortogonal en el subespacio generado por us. 6.3. Aplicacién: Valores singulares de una matriz no cuadrada En esta seccidn vemos una generalizacién de descomposicién de matrices de tamaiio m xn ‘que se usa a la préctica para procesado de seiial y machine learning ‘Cuando la matriz no es cuadrada no podemos hablar de autovalores, pero tanto AAT como ATA si que son cuadradas, Vamos a dar los resultados para AT A, pero se pueden adaptar para AAT fécilmente, Definicién 11. Los valores singulares de una matriz AC Myxn son las ratces cuadradas de los valores propios de la matriz ATA, que denotamos por 03,...,2m Proposicién 12. Los valores singulares de una matriz A © Myaxn pueden escribirse en orden decreciente a 22a, 20 Ademés, sus valores coinciden con las longitudes de los vectores Av,..., Avy Prueba, Como ATA es una matriz simétrica es ortogonalmente diagonalizable (por la seccién anterior). Sea {v;,...,0%} una base ortonormal de vectores propios de ATA y_ Ais +++4An los valores propios asociados a A™ A. Entonces, para 1 < + < n, [lAv)|? = (Aw)? Av, = oP AP Aw, uP (Avw) (porque v, es vector propio de A” A) Ay (porque v; es un vector unitario) Entonces, los valores propios de AT A son todos no nogativos. Ademés, sacando rafces a ambos lados de esta ecuacién vemos que las longitudes de los vectores Av; coinciden con las raices de los valores propios 2. Finalmente, reenumerando si hiciera falta los podemos ordenar: MB AB BAe BO, ¥; consecuentemente, los valores singulares también pueden ordenarse en orden descen- dlionte. ‘Teorema 13. Sea {v1,-..,0%,} una base ortonormal de R” compuesta por vectores propios de ATA, escribimos los valores propios como Ay > +-» > An, y Supongamos que A tiene r valores singulares distintos de cero. Entonces, {Avy,..., Avy} es una base ortogonal de Col A y el rango de Aes. Prueba. Como »; y vj son ortogonales para todo j # 4, se tiene que (Av,)” (Av) = vP AT Av; 0. Entonces, {vi,-.., Av,} e8 th conjunto ortogonal. Ademés, como las longitudes de los vectores vi,..-, ey son los valores singulares de Ay como hay r valores singulares distintos de cero, Av, 7 0 si y solo si 1 -- > 6, > 0, y existen matrices UE Mynx VE Myon ortogonales tales que Asuyv™ Definicién 12. Cualguier factorizacién A = UBV", con U y V ortagonales, © como en el teorema anterior y D con entradas diagonales, se lama descomposicién de valores singulares (0 SVD, det inglés Singular Value Descomposition) de A. Nota. Las matrices U y V no estin determinadas de manera sinica por A, pero las entradas diagonales de sf que son necesariamente los valores singulares de A. Proposicin 15. Sea A € Mmmm y dada una descomposicién de valores singulares de A, , A=UBV", en donde U yV son ortogonales y por tanto U-? =U" yV-1 = V". Entonces se ‘cumple que: = ATA = (UEVT)" UDVT = VETUTUDV™ = VETEVT, ie. V es una matriz formada por una base ortogonal de vectores propios de A”A ,9:°33 es una matriz diagonal y ATA = VET BVT es una diagonalizacién ortogonal de AT A Los vectores que forman las columnas de la mairiz V se denominan vectores singulares por laderecha de A = AAT = UEV" (URV")" = URVTVETUT = UBDTUT, ie. U es una matriz formada por una base ortogonal de vectores propios de AAT, US” es una matriz diagonal y AAT = USETUT es una diagonalizacisn ortogonal de AAT Los vectores que forman las colummas de la matriz Use denorainan vectores singulares por la inguicrda de A. 1 Sear el rango de A, entonces ATA y AAT tienen exactamente r valores propios distintos de 0 y son los mismos para ambas matrices = Si multiplicamos la igualdad A=UEV" por la derecha por V obtenemos AV = US y por tanto, se cumple paral Si

You might also like