You are on page 1of 20

Cap´ıtulo 6

Valores propios y vectores propios

En este cap´ıtulo investigaremos qu´e propiedades son intr´ınsecas a una matriz,
´ lineal asociada. Como veremos, el hecho de que existen muchas
o su aplicacion
´ de las matrices o aplicaciones
bases en un espacio vectorial, hace que la expresion
lineales sea relativa: depende de qu´e base de referencia tomamos. Sin embargo,
hay elementos asociados a esta matriz, que no dependen de la o las bases de
referencia que elijamos, por ejemplo: el espacio nulo y el espacio columna de la
matriz, y sus respectivas dimensiones.

6.1. Vectores propios y valores propios

En este cap´ıtulo nos centraremos en matrices cuadradas, con respectivas
aplicaciones matriciales que se pueden interpretar como transformaciones del
espacio Rn . La aplicacion
´ x 7→ Ax puede transformar un vector dado x en otro,
´ y longitud. Sin embargo, puede haber unos vectores muy
de distinta direccion
´ Por ejemplo, el conjunto de los vectores que
especiales para esa transformacion.
´ es decir, el nucleo
son transformados en cero por la aplicacion, ´ ´ o
de la aplicacion
espacio nulo de A: {x : Ax = 0}. Por mucho que cambiemos de base, el espacio
nulo siempre es el mismo. Otro conjunto interesante es el de los vectores que
se transforman en s´ı mismos, {x : Ax = x}. Los dos conjuntos comentados est´an
asociados a la matriz, y tienen una caracter´ıstica especial: la transformacion´ los
mantiene invariantes, es decir, los vectores transformados ent´an dentro de los
conjuntos correspondientes. Por mucho que cambiemos de base, los conjuntos
siguen siendo invariantes. dar ejemplo de conjunto no invariante: recta que se
transforma en otra con cierto a´ ngulo.

111

112 ´
CAPITULO 6. VALORES PROPIOS Y VECTORES PROPIOS
" # " # " #
3 −2 −1 2
Ejemplo 6.1. Sean A = ,u= yv= . Resulta que
1 0 1 1
" #" # " # " #" # " #
3 −2 −1 −5 3 −2 2 4
Au = = , Av = = = 2v.
1 0 1 −1 1 0 1 2
´ ha transformado v sin cambiar su direccion.
La aplicacion ´
´ son dilatados o encogidos por una aplicacion
Los vectores que solo ´ lineal, son
muy especiales para ella.
Definicion´ 6.2. Un vector propio (o autovector) de una matriz A de n × n es un
vector x ∈ Rn , distinto de 0, tal que para cierto escalar λ ∈ R
Ax = λx.
Un escalar λ tal, se denomina valor propio (o autovalor) de A, es decir, λ es valor
propio de A si existe una soluci´on no trivial de Ax = λx, y a x se lo denomina vector
propio asociado al valor propio λ.
" #
1 6
Ejemplo 6.3. Sea A = .
5 2
" # " #
6 3
1. Compru´ebese si u = yv= son vectores propios de A.
−5 −2
2. Determ´ınese si λ = 7 es valor propio de A.
´
Solucion:
1.
´
2. Hay que determinar si la ecuacion
Ax = 7x ⇔ (A − 7I)x = 0
´
(que hemos escrito como un sistema homog´eneo) tiene solucion
no trivial. Para ello se escribe
" # " # " # " #
1 6 7 0 −6 6 1 −1
A − 7I = − = ∼ .
5 2 0 7 5 −5 0 0
El sistema homog´eneo asociado tiene una variable libre, luego
hay soluciones no triviales y 7 es un autovalor de A. De he-
´ del sistema homog´
cho, la solucion "eneo
# es x1 = x2 , es decir, en
1
forma vectorial param´etrica x = x1 . Estos infinitos vectores
1
(menos 0) son los vectores propios asociados ala valor propio 7.

¿ Como ´ la transformacion actua ´ matricial asocia- da a A sobre este espacio propio ? Ejercicio 6. ´ Considerando la matriz Solucion: 2 −1 6 2 −1 6     A − 2I = 2 −1 6 ∼ 0 0 0  2 −1 6 0 0 0     vemos que el sistema homog´eneo (A − 2I)x = 0 tiene dos variables ´ general en forma param´etrica vectorial es libres. Demu´estrese que un espacio propio es un subespacio vectorial. 0               0   1   ´ y es bidimensional. si para una matriz A y un escalar λ dados hay soluciones no triviales ´ homog´enea de la ecuacion (A − λI)x = 0 entonces λ es un autovalor de A. Si 0 es valor propio de una matriz A. y la solucion x1  1/2 −3        2  = x2  1  + x3  0 x      x3 0 1       con lo que el espacio propio tiene como base        1/2 −3        1 .4. y el conjunto de todas las soluciones es el conjunto de autovectores asociados a λ (m´as el 0). y se denomina espacio propio de A asociado a λ. El espacio propio de una matriz A asociado al valor λ = 0 tiene otro nombre. Compru´ebese que 2 es valor propio.   2 −1 8   y encu´entrese una base del espacio propio asociado. Proposicion . ¿ Cual ? 4 −1 6   Ejemplo 6. El espacio de los vectores que una matriz transforma en si mismos es un espacio propio.1. si y s´olo si A no es invertible.5. si este no es nulo.8. el espacio propio asociado a λ es el espacio Nul(A − λI).7. ¿ Cu´al ? ´ 6.6.6. Ejercicio 6. O dicho de otro modo. Ejercicio 6. Sea A = 2 1 6. VECTORES PROPIOS Y VALORES PROPIOS 113 Resumiendo.

t.. ´ Restando λp+1 veces (6. (6. . Demu´estrese que una matriz n × n no puede tener m´as de n autovalores distintos.λr de una matriz A n × n. vr } es linealmente independiente.. Habr´a un primer vector vp+1 que ser´a combinacion ´ lineal de los anteriores (teorema 3. .12 (Extension ´ del teorema de la matriz invertible).11 demuestra t..20) vp+1 = c1 v1 + · · · + cp vp . ´ caracter´ıstica La ecuacion # " 2 3 Ejemplo 6.114 ´ CAPITULO 6. ´ caracter´ıstica. = cp = 0... . Esto es una contradiccion. 0 si i < p+1. El determinante de A no es cero. Encu´entrense los valores propios de A = . Lo dicho en la secci´on anterior demuestra s.. . y λi −λp+1 .. entonces el conjunto {v1 ..11.2. Sea A n × n. s.vr son vectores propios correspondientes a distintos valores propios λ1 .1) Multiplicando por A Avp+1 = c1 Av1 + · · · + cp Avp ⇒ λp+1 vp+1 = c1 λ1 v1 + · · · + cp λp vp . Ejercicio 6.vp } es linealmente independiente.9. Supongamos que el conjunto de vectores es linealmente depen- diente. En- tonces es equivalente a que A sea invertible cualquiera de las siguientes afirmaciones. .. Solu- 3 −6 ´ cion Teorema 6.10..vr } ha de ser linealmente indepen- .1) a esta ultima ´ ecuacion c1 (λ1 − λp+1 )v1 + · · · + cp (λp − λp+1 )vp = 0.. y el teorema 5.. Pero {v1 . Si v1 ... 6. VALORES PROPIOS Y VECTORES PROPIOS Teorema 6. diente. as´ı que c1 = ´ y {v1 . La ecuacion . Demostraci´on.. El 0 no es valor propio de A.

Un escalar λ es un valor propio de una matriz cuadrada A si y s´olo si satisface la denominada ecuaci´on caracter´ıstica det(A − λI) = 0. La multiplicidad algebraica de un autovalor λ es su multiplicidad como ra´ız del polinomio caracter´ıstico. que es de grado n. . ´ CARACTERISTICA 6. la expresion ´ det(A−λI) es un polinomio en λ. se denomina polinomio caracter´ıstico de la matriz A. Las ra´ıces λi son los autovalores. ¿ cu´ales son sus autovalores y correspondientes multiplicidades ? Semejanza. el objeto buscado.14. sus ra´ıces son los autovalores de A. LA ECUACION ´ 115 Proposicion ´ 6. ´ ya que dada una matriz num´erica A de n×n. En el caso de que los objetos de inter´es sean los autovalores.15. sabemos que un polinomio de coeficientes complejos siempre se puede factorizar en factores simples: det(A − λI) = (λ1 − λ)µ1 (λ2 − λ)µ2 · · · (λr − λ)µr .13. El polinomio caracter´ıstico de una matriz es λ6 − 4λ5 − 12λ4 . Los valores propios de una matriz triangular son las entradas de su diagonal principal. El proceso de reduccion ´ por filas ha sido nuestra principal herra- mienta para resolver sistemas de ecuaciones. Ecuacion 5 −2 6 −1   0 3 −8 0 A =   . ´ caracter´ıstica de Ejemplo 6. la invariancia del conjunto de soluciones. existe un procedi- miento que los mantiene invariantes y permite simplificar la matriz A.2.16. Este polinomio. de nuevo. Teorema 6. Claramente. las operaciones elementales por filas. Ejemplo 6. respecto a las transformaciones utilizadas para simplificar el sistema. La caracter´ıstica fundamental de este procedimiento es. ¿ qu´e tamano 2. y los exponentes µi las multiplicidades alge- braicas de los correspondientes autovalores λi .   0 0 5 4 0 0 0 1 ´ caracter´ıstica es igual a una ecuacion Est´a claro que la ecuacion ´ polinomica. ˜ tiene la matriz ? 1. Es decir.

. Obs´ervese que hemos utilizado que det(P −1 ) = 1/ det(P )* .. VALORES PROPIOS Y VECTORES PROPIOS ´ 6.17.3. Es importante observar que la equivalencia por filas no es lo mismo que la semejanza.. aquellas cuyos elementos son todos nulos.  0 0 · · · dn  ´ sobre los vectores es muy simple. excepto en la diagonal principal: d1 0 ··· 0     0 d ··· 0   2 D =  . Se dice que dos matrices A y B de n × n son semejantes si existe Definicion una matriz invertible P de n × n que las relaciona por la siguiente f´ormula P −1 AP = B o equivalentemente A = P BP −1 .  . la semejanza como B = P −1 AP para cierta matriz invertible P .  . Su accion * porque 1 = det I = det(P −1 P ) = det(P −1 ) det(P ) . cion Teorema 6.  . 6. .. Sabemos que B = P −1 AP . La equivalencia por filas se escribe matricialmente como B = EA. Por tanto. Por ello B − λI = B = P −1 AP − λP −1 P = P −1 (AP − λP ) = P −1 (A − λI)P . . ´ P −1 AP sobre A se denomina realizar una transforma- Realizar la operacion ´ de semejanza. los mismos autovalores y correspondientes multiplicidades. por tanto.. ´ Diagonalizacion Una clase muy especial de matrices cuadradas son las matrices diagonales.18. Tienen. el polinomio caracter´ıstico de B det(B − λI) = det[P −1 (A − λI)P ] = det(P −1 ) det(A − λI) det(P ) = det(A − λI) es el mismo que el de A. . . Si las matrices A y B son semejantes entonces tienen el mismo poli- nomio caracter´ıstico. Demostraci´on.116 ´ CAPITULO 6. para cierta matriz invertible E.

´ para la potencia k 2 k-´esima A de A. Se puede comprobar que A = P DP −1 con −4 1 " # " # " #! 1 1 5 0 2 1 P= y D= y P −1 = −1 −2 0 3 −1 −1 ´ encontremos una formula Con esta informacion. nos gustar´ıa calcular la potencia k-´esima de cualquier matriz. encontrar una matriz diagonal D semejante a A: A = P DP −1 . como ilustra el siguiente ejemplo. −2 · 52 + 2 · 32 −52 + 2 · 32 Es f´acil deducir que k veces en total Ak = P DP −1 P DP −1 ··· P DP −1 = P D k P −1 por tanto " #" #" # " # k 1 1 5k 0 2 1 2 · 5k − 3k 5k − 3k A = = . La razon ´ es muy sencilla. es decir. −1 −2 0 3k −1 −1 −2 · 5k + 2 · 3k −5k + 2 · 3k . Sea A = . ´ 6. Esto se calcula muy f´acilmente si conseguimos diagonalizar A. La potencia de una matriz es muy util ´ en muchas aplicaciones. " # 7 2 Ejemplo 6. como veremos m´as adelante.3. El cuadrado A es A2 = (P DP −1 )(P DP −1 ) = P D P −1 P DP −1 = P DDP −1 = P D 2 P −1 |{z} I " #" #" # " #" # 1 1 52 0 2 1 1 1 2 · 52 52 = = −1 −2 0 32 −1 −1 −1 −2 −32 −32 " # 2 · 52 − 32 52 − 32 = . DIAGONALIZACION 117 " # 5 0 Ejemplo 6. y se extiende natural- mente a cualquier matriz diagonal.20. Sea D = . De hecho. x2 0 3 x2 3x2 " #" # " 2 # 5 0 5 0 5 0 Podemos pues deducir que D 2 = = y en general 0 3 0 3 0 32 " #k " k # k 5 0 5 0 D = = 0 3 0 3k que es la forma para la k-´esima potencia de D.19. Entonces 0 3 " # " #" # " # x1 5 0 x1 5x1 D = = .

Al ser P invertible. son linealmente independientes. con D diagonal. con lo que A = P DP −1 . las columnas de P son autovectores.22.   λn  Demostraci´on. entonces esta igualdad matricial implica que Avi = λi vi . P = v1 v2 · · · vn . es decir.. Teorema 6.   . si y s´olo si las columnas de P son vectores propios linealmente independientes de A. y los elementos diagonales de D son los valores propios de A ( en el mismo orden que los valores propios en D ): λ1     λ2   −1 h i A = P   P . si A = P DP −1 entonces AP = P D y si vi es la columna i de P . VALORES PROPIOS Y VECTORES PROPIOS Una matriz es diagonalizable si se puede diagonalizar. Avi = λi vi . es decir. Viceversa..21. Diagonalicemos  1 3 3   A = −3 −5 −3 . Ejemplo 6. Si una matriz no tiene n vectores propios linealmente independientes.   λn  −1 AP = P D ⇒ A = P DP porque P es invertible al ser cuadrada y sus columnas ser independientes. La potencia k-´esima de una matriz A que se puede diagonalizar A = P DP −1 es Ak = P D k P −1 . h i h i AP = A v1 v2 · · · vn = Av1 Av2 · · · Avn λ1    h i  λ2   = λ1 v1 λ2 v2 · · · λn vn =  .   3 3 1   . Se tiene que A = P DP −1 .  D = P D   . Una matriz A de n × n es diagonalizable si y s´olo si tiene n vectores propios linealmente independientes.118 ´ CAPITULO 6. no se puede diagonalizar. si existe una matriz diagonal D semejante a A.  .

DIAGONALIZACION 119 Paso 1. la matriz no se puede diagonalizar. mas (A − λI)x = 0 y dando la solucion se obtienen bases de los espacios propios:  1   (A − I)x = 0 ⇒ v1 = −1   1   −1 −1     v2 =   . Las columnas de P son los autovecto- res: i  1 −1 −1   h P = v1 v2 v3 = −1 1 0 1 0 1   Paso 4. Construir la matriz D. Encontrar los valores propios de A. Paso 2. Resolviendo los siste- ´ en forma vectorial param´etrica. ¿ Es AP = P D totalmente equivalente a A = P DP −1 ?  2 4 3   Ejercicio 6. La ecuacion´ caracter´ısti- ca es det(A − λI) = −λ3 − 3λ2 + 4 = −(λ − 1)(λ + 2)2 luego hay dos autovalores.25. en el orden correspondiente a como est´an colocados los autovectores en P (v1 es el autovector con λ1 = 1. El que A de n × n tenga n valores propios diferentes es suficiente para asegurar que es diagonalizable. y v2 y v3 correspon- den a λ2 = −2: 1 0 0   D = 0 −2 0   0 0 −2   Se puede comprobar la semejanza chequeando que AP = P D (para no calcular P −1 ) Ejercicio 6. λ = 1 y λ = −2 (con multiplicidad 2).23.3. . v3 =  0  1 (A + 2I)x = 0 ⇒   0 1     Nota: si no hay tres autovectores independientes. Se colocan en la diagonal de D los autovalores. Encontrar los vectores propios de A. Construir la matriz P .24. Paso 3. ¿ Es posible diagonalizar A = −4 −6 −3 ?   3 3 1   Teorema 6. ´ 6.

.120 ´ CAPITULO 6. Diagonal´ıcese. . Si A es diagonalizable.2) ´ donde A es la matriz canonica de T . . Demostraci´on. Ejemplo 6. . si es posible 0 1 0   A = 0 0 0   0 0 0   6. . 1.18 nos asegura que cualquier aplicacion ´ matricial puede implementar como una aplicacion T (x) = Ax (6. Esta es una matriz m × n que por columnas ´ de la transformacon se escrib´ıa con la accion ´ sobre los vectores de la base A = .Bp es una base de vectores (propios) de Rn .29. ..1. .4. si la dimensi´on del espacio propio correspondiente a λk es igual a la multiplicidad de λk .4. Vectores propios y transformaciones lineales 6. p.27. si es posible  5 0 0 0    0 5 0 0 A =     1 4 −3 0    −1 −2 0 −3 Ejemplo 6. Bk es una base del espacio propio correspondiente a λk . Diagonal´ıcese.28.λp . Sea A de n × n cuyos valores propios distintos son λ1 . ¿ Es diagonalizable A = 0 0 7 ?   0 0 −2   Teorema 6.26. con k = 1. entonces la uni´on de todos los vectores de B1 . 3. . Equivalentemente. . La dimensi´on del espacio propio correspondiente a λk . . con 1 ≤ k ≤ p. La matriz A es diagonalizable si y s´olo si la suma de las dimensiones de los espacios propios es igual a n. Cambio de base y transformaciones lineales ´ lineal T de Rn a Rm se El teorema 4. es menor o igual a la multiplicidad de λk 2. VALORES PROPIOS Y VECTORES PROPIOS 5 −8 1   Ejemplo 6..

. Vamos a denotar h i A = [T ]E = T (e1 ) · · · T (en ) indicando que [T ]E es la matriz de la aplicacion ´ T que act´ua sobre vectores en coordenadas can´onicas.6. y retorna valores como vectores tambi´en en la base ´ canonica ´ ( m´as adelante escribiremos tambi´en [T ]E = [T ]E ←E ) La formula (6. c2 . . y actuar sobre este vector con A.4.4) Con el uso de la matriz de cambio de base PB = PE ←B podemos deducir como ´ es esta matr´ız. VECTORES PROPIOS Y TRANSFORMACIONES LINEALES 121 h i T (e1 ) · · · T (en ) . pero aceptando vectores [x]B en coordenadas de B y retornara el vector resultante en la base B tambi´en: [T x]B = B [x]B = [T ]B [x]B (6. . . Podemos multiplicar PB [x]B = [x]E para pasarlo a coordenadas ´ canonicas.2) se reescribe como [T x]E = A [x]E = [T ]E [x]E (6. Recordemos que la matriz del cambio de coordenadas de B a E es aquella cuyas columnas son los vectores de B escritos en la base canonica: ´ h i PB = PE ←B = b1 b2 · · · bn ´ x = c1 b1 + c2 b2 + · · · + cn bn se escribe en forma matricial y la ecuacion [x]E = PB [x]B [x]B = (c1 . . . . Fij´emonos primero en el caso particular n = m. con lo que T es una transformacion ´ lineal de Rn y A es cuadrada. . para obtener el vector resultante [T x]B hay que cambiar de ba- se [T x]E con la matriz inversa del cambio de base PB ←E = P −1 → [T (x)]B = PB ←E [T (x)]E = P −1 A P [x]B Escribiendo todo junto [T x]B = PB ←E [T ]E PE ←B [x]B | {z } [x]E =PE ←B [x]B | {z } [T x]E =[T ]E [x]E | {z } [T x]B =PB ←E [T x]E . bn } de Rn . cn ) ( PB “pasa” coordenades en B a coordenadas en E ) Quisi´eramos encontrar una matriz B = [T ]B que actuara como T .3) Queremos comprender como ´ ser´ıa la accion ´ de la aplicacion ´ sobre vectores coordenados en otra base B = {b1 . para obtener el vector [T (x)]E : [x]B → [x]E = P [x]B → [T (x)]E = A [x]E = A P [x]B Finalmente.

Hay un modo directo de calcular la B -matriz de T . Proposicion ´ 6. . Resumimos con el siguiente resultado. Podemos decir entonces −1 que PB ´ como . tal como hicimos para identificar vectores con vectores de Rn .    cn   Las columnas de PB forman una base de Rn . ´ lineal.5) La matriz [T ]B = [T ]B ←B se denomina B -matriz de T . y sea [T ]E = A su matriz est´andar. que actua −1 [x]B = PB [x]E ´ es la matriz del cambio de coordenadas de la base canonica a la base B . Utilizando una base B de V y una base C de W .) implica que PB es invertible. ´ con una aplicacion para identificar la aplicacion ´ matricial de Rn a Rm .30. podemos asociar a T una aplicacion ´ matricial entre Rn y Rm .. o´ h.122 ´ CAPITULO 6.  = [T ]B [x]B  . Si lo queremos en coordenadas de B tenemos que utilizar ´ coordenadas la aplicacion [T x]B = [c1 T (b1 ) + · · · + cn T (bn )]B = c1 [T (b1 )]B + · · · + cn [T (bn )]B y escribiendo esto en forma matricial c1    h i c2  [T x]B = [T (b1 )]B [T (b2 )]B · · · [T (bn )]B  .27 e.4) era [T x]B = B[x]B con lo que la matriz que busc´abamos es B = −1 [T ]B = P AP . y el teorema de la matriz inverti- ble (teorema 2. podemos utilizar arbitrarios ? Si los espacios vectoriales son de dimension las coordenadas. Pero. ¿ y si T es una aplicacion´ lineal entre dos espacios vectoriales V y W ´ finita. con A de n × n. Como x = c1 b1 + · · · + cn b entonces T (x) = T (c1 b1 + · · · + cn bn ) = c1 T (b1 ) + · · · + cn T (bn ) es el vector resultante. El cambio de base de una matriz cuadrada A = [T ]E es una semejanza [T ]B = P −1 [T ]E P siendo P = PE ←B = PB (6. Sea T : V → W una aplicacion La matriz de una aplicacion ´ lineal cuyo dominio es un espacio vectorial V de dimension ´ n y cuyo codomino es un espacio vectorial W de dimension ´ m. VALORES PROPIOS Y VECTORES PROPIOS Hemos deducido que [T x]B = P −1 AP [x]B ´ La formula (6. Sea T : Rn → Rn una aplicaci´on lineal.

. Se define una transformacion´ lineal T : V → W mediante las ´ formulas T (b1 ) = 3c1 − 2c2 + 5c3 y T (b2 ) = 4c1 + 7c2 − c3 . Sea B = {b1 . . Entonces. bn }. Nos han dado los vectores T (b1 ) y T (b2 ) directamente en t´erminos de la base C :  3  4     [T (b1 )]C = −2 y [T (b2 )]C =  7 . Si V = Rn y W = Rm .      rn es decir x = r1 b1 + · · · + rn bn . y sean las coordenadas de x   r1  [x]B =  .    rn h i La matriz [T ]C ←B = [T (b1 )]C [T (b2 )]C · · · [T (bn )]C ] se denomina matriz de T respecto a las bases B y C . .  . c3 } una base de W .18. como T es lineal y = T (x) = T (r1 b1 + · · · + rn bn ) = r1 T (b1 ) + · · · + rn T (bn ). Sea B = {b1 . Ejemplo 6. . y C = {c1 . B es la base canonica ´ de Rn y C la ´ base canonica de Rm . Encu´entrese la matriz de T respecto a las base B y C .6.31. . VECTORES PROPIOS Y TRANSFORMACIONES LINEALES 123 Efectivamente.. porque [y]C = [T ]C ←B [x]B . . dado x ∈ V tenemos que podemos escribir cualquier x ∈ V en coordenadas [x]B respecto a la base B y T (x) en coordenadas [T (x)]C respecto a la base C . b2 } una base de V .32. Escribiendo este vector en coordenadas respecto a C tenemos que r1    [y]C = [T (x)]C = r1 [T (b1 )]C + · · · + rn [T (bn )]C h i r2  = [T (b1 )]C [T (b2 )]C · · · [T (bn )]C ]  .     5 −1     .. Ejemplo 6. la matriz del teorema 4. c2 .4. entonces [T ]C ←B es la matriz canonica ´ de T : n m R → R .

En el ejemplo 3. la matriz h i h i [Id]C ←B = [Ib1 ]C · · · [Ibn ]C ] = [b1 ]C · · · [bn ]C ] es la matriz del cambio de base del teorema 3. Matriz de una transformacion ´ lineal de V . Existir´a. t .61. es decir. ´ Lo normal es utilizar la misma base B de V para describir las im´agenes y las antiim´agenes. matriz que se denota por [T ]B y se denomina B -matriz de T . Tambi´en se dice que [T ]B es la matriz de T en la base B . t }. t. que es lineal. es muy comun. Ejemplo 6.43 dotamos de coordenadas al espacio P3 de polinomios de hasta tercer grado. es decir. El caso particular W = V de transformaciones lineales.34. Ejemplo 6.33. una matriz que la implementa como . a2    a3 ´ D : P3 → P3 . Con ello. VALORES PROPIOS Y VECTORES PROPIOS Esos datos son justamente los que son necesarios para construir la matriz pedida:  3 4   [T (x)]C = [T ]C ←B [x]B con [T ]C ←B = −2 7   5 −1   ´ Hay que destacar. Si V = W y la aplicacion´ es la identidad T (x) = Id(x) = Ix = x. por tanto. aplicaciones lineales T : V → V que actuan ´ sobre un espacio V . Con ello vimos que es isomorfo a R : para un polinomio de P3 a0    a  p(t) = a0 + a1 t + a2 t 2 + a3 t 3 ↔ [p]B =  1  . por lo que conocemos de las propiedades de la derivada. derivada respecto de t se define por La aplicacion p(t) = a0 + a1 t + a2 t 2 + a3 t 3 7→ D(p(t)) = p0 (t) = a1 + 2a2 t + 3a3 t 2 y sabemos.124 ´ CAPITULO 6. que para determinar totalmente una aplicacion ´ lineal T : V → W basta dar su valor (en una base cualquiera C de W ) sobre los vectores de una base B de V . como es f´acil de deducir del ejemplo anterior y de la definicion de matriz asociada. utilizando la base canonica ´ E = 2 3 4 {1. usar [T ]B ←B . si y = T (x): [y]B = [T (x)]B = [T ]B [x]B para todo x ∈ V .

y tenemos una manera de describir sus transformaciones lineales como transformaciones matriciales de Rn . D(t 3 ) = 3t 2 ↔ [D(t 3 )]E =      0 3 0 0 Por tanto 0 1 0 0   h i 0 0 2 0 [D]E = [D(1)]E [D(t)]E [D(t 2 )]E [D(t 3 )]E =  0 0 0 3    0 0 0 0 Es f´acil comprobar que a0  0 1 0 0 a0   a1         a  0 0 2 0 a1  2a2  [D]E  1  =    =   a2  0 0 0 3 a2  3a3      a3 0 0 0 0 a3 0 que equivale a d (a + a t + a2 t 2 + a3 t 3 ) = a1 + 2a2 t + 3a3 t 2 dt 0 1 Transformaciones lineales de Rn .6. . . con la base canonica ´ E . usando la B -matriz. con cuyos autovectores podemos construir una base B de Rn . consideremos Rn . y tenemos varias maneras de describir aplicaciones con matrices. D(t) = 1 ↔ [D(t)]E =   . . tenemos varias maneras de escribir vectores coordenados. .     0 0     0 0 0 0     2 0 D(t 2 ) = 2t ↔ [D(t 2 )]E =   . . Hay dos bases. tenemos una manera de describir sus vectores como vectores coordenados.4. Esa matriz se calcula poniendo aplicacion como columnas los vectores transformados de la base canonica. la aplicacion pia A). y otra matriz diferente en la base B . Es decir. ´ en coordenadas de la base canonica: 0 1     0 0 D(1) = 0 ↔ [D(1)]E =   . y una matriz diagona- lizable A de n × n. conocemos la E -matriz de la aplicacion ´ lineal x 7→ Ax (la pro- ´ tendr´a tambi´en una B -matriz. creando un isomorfismo entre V y Rn . Por ejemplo. bn }. pero esa aplicacion ´ ´ tiene matriz A en la base canonica. VECTORES PROPIOS Y TRANSFORMACIONES LINEALES 125 ´ matricial de R4 → R4 . Cuando en un espacio vectorial V dispone- mos de una base B = {b1 . Cuando desiponemos de m´as de una base.

. bn } es base de autovectores de A. . A = P DP −1 . Entonces el teorema 6.35 hemos visto que si una matriz A es semejante a otra D.20 # que A = P DP con P teniendo 1 1 como columnas b1 = . . Entonces. Si B = {b1 . Si A = y T (x) = Ax. b2 = . ´ la base ser´a la base de autovectores utilizada al diagonalizar Solucion: la matriz. es decir.  .21 afirma que las columnas de P forman una base B (de autovectores de A) de Rn . como veremos en el siguietnte p´arrafo.36. " # 7 2 Ejemplo 6.. El teorema 6. .20) 0 3 Semejanza y cambio de coordenadas de transformaciones. .. b2 } es una base en la que la aplicacion ´ T tiene como matriz " # 5 0 [T ]B = D = (ver ejemplo 6. entonces Abi = λi bi . si alguno tiene multiplicidad mayor que 1). . . VALORES PROPIOS Y VECTORES PROPIOS Teorema 6. . ´ Como A es la matriz [T ]E de T en la base canonica. . enton- ces D es la matriz [T ]B de T (x) = Ax en la base B dada por las columnas de P . La matriz de T (x) = Ax en esa base es h i h i [T ]B = [T (b1 )]B · · · [T (bn )]B = [Ab1 ]B · · · [Abn ]B h i h i = [λ1 b1 ]B · · · [λn bn ]B = λ1 [b1 ]B · · · λn [bn ]B λ1 0 · · · 0    h i  0 λ2 · · · 0  = λ1 e1 · · · λn en =  . y P = PE ←B es la matriz de cambio de coordenadas de B a E . En el teorema 6. . con A = P DP −1 .  = D  . i = 1. . Ya vimos en" el #ejemplo −1 " 6.35. . .. encu´entrese una base de R2 −4 1 en la que la matriz de T sea diagonal.35 afirma −1 −2 que B = {b1 . entonces A = P DP −1 ⇔ [T ]E = PE ←B [T ]B PB ←E .  0 0 · · · λn  h i Es interesante observar que la matriz P = b1 · · · bn es la matriz del cambio de base PE ←B . D es la B -matriz de x 7→ Ax en esta base: [T ]E = A [T ]B = D Demostraci´on.126 ´ CAPITULO 6. . Supongamos que A es semejante a una matriz diagonal D de n × n. n (puede haber λi ’s repetidos.

6.38.5.5. Si calculamos sus autovectores. los multi. Por tanto. Este hecho es general. A no plos de b1 .39. Se denomina forma de Jordan de A. 6. VALORES PROPIOS COMPLEJOS 127 ya que P −1 = PB ←E . luego solo ´ tiene un autovalor −2. y su 2 1 " # −1 −1 2 inversa es P = PB ←E = . Sean A = . La matriz A = ´ es un giro de +π/4.37 (Cambio de base de una aplicacion ´ matricial). b1 = y b2 = . Entonces [T ]C = PB ←C [T ]B PB ←C . Teorema 6. Su ecuacion 1 0 caracter´ıstica es λ2 + 1 = 0 . Valores propios complejos #" 0 −1 Ejemplo 6. es decir [T ]C = P [T ]B P −1 ⇔ [T ]B = P −1 [T ]C P h i siendo P = [b1 ]C · · · [bn ]C la matriz de cambio de base PC ←B . pero al menos es triangular. y sea T : R → R una aplicaci´on lineal cuya matriz en sendas bases es [T ]B y [T ]C respectivamente. El polinomio 2 caracter´ıstico de A es (λ + 2)2 . Encu´entrese la B - 4 −8 2 1 matriz de x 7→ Ax (la matriz A en la base B ). Demostraci´on. 2 −3 4 −8 2 1 0 −2 Hay que"observar # una cosa para cap´ıtulos posteriores: el primer vec- 3 tor b1 = es un autovector de A. Demostracion´ " # " # " # 4 −9 3 2 Ejemplo 6. con valor propio −2. por lo que 2 −3 [T ]B = PB ←E [T ]E PE ←B " #" #" # " # −1 −1 2 4 −9 3 2 −2 1 =P AP = = .´ ´ hay uno linealmente independiente. Sean B y C dos n n n bases de R . " # 3 2 ´ La matriz de cambio de base PE ←B es P = Solucion: . y solo es diagonalizable. La matriz [T ]B es lo mejor que podemos encon- trar semejante a A: no es diagonal. descubriremos que son cb1 .

1 j 1 Para que todo tenga sentido. porque se puede demostrar que tambi´en son complejos conjugados si A es real: " # " # " # 6 − 2j −8 4 4 A − (1 + 2j)I = ⇒ v1 = . Esto siempre sucede si la matriz es de 2 × 2 y real. Diagonalizar la matriz A = ´ carac- . 1 − 2j ´ Obs´ervese que los autovalores son complejos conjugados entre s´ı.40. ´ tiene ´ compleja sentido la diagonalizacion " # " #" # " # 0 −1 j −j j 0 1 1 j = 1 0 1 1 0 −j 2j −1 j # " 7 −8 Ejemplo 6. Hay una forma de matriz real que no es diagonal. Los autovectores se calculan tambi´en los dos a la vez. con P = 5 −5 0 1 − 2j 3−j 3+j La forma diagonal compleja no tiene mucho inter´es si trabajamos con matrices ´ reales. ¿ Y con qu´e vectores propios ? Calculemos. que es la que adopta la matriz C del siguiente teorema. ´ permitiendo introducir numeros complejos. . y que el espacio vectorial de vectores columna es C2 en vez de R2 . pero que ser´a muy util m´as adelante. podr´ıamos decir que sus autovalores son λ = ±j. La ecuacion 5 −5 ter´ıstica y los autovalores son λ2 − 2λ + 5 = 0 = (λ − 1)2 + 42 ⇒ λ = 1 + 2j. adem´as de que las matrices puedan estar compuestas por elementos complejos. " # " # −j −1 j λ=j ⇒ (A − jI)x = =0 ⇒ v1 = 1 −j 1 " # " # j −1 −j λ = −j ⇒ (A + jI)x = =0 ⇒ v2 = .128 ´ CAPITULO 6. v2 = 5 −6 + 2j 3−j 3+j Por todo " # " # " # 7 −8 1 + 2j 0 −1 4 4 =P P . tenemos que considerar que el conjunto de escalares es C en lugar de R. VALORES PROPIOS Y VECTORES PROPIOS por lo cual no existe ningun´ valor propio real de A. Con esta ampliacion. Sin embargo.

2)) 6. 6. siendo evidente que esta aplicacion ´ no tiene autovectors. Respuestas a los ejercicios 6.23 Solo . la 0 −1 matriz A = . la 1 0 identidad.9 y 3.40. y el autovector correspondiente a 1 − 2j era 3+j " # " # 4 0 1 −2 luego P = .42. Sea A una matriz real de 2 × 2 con valor propios complejo λ = a − bj ( b . 6. La interpretacion ´ geom´etrica de la transformacion ´ en R2 associada a A es la de una rotacion ´ de 90 grados en sentido positivo.41.39. Entonces " # −1 h i a −b A = P CP .10 Util´ıcense los teoremas 6. 0 ).6. ´ si P es invertible.47. donde P = Re v Im v y C= b a Ejemplo 6."Obs´ervese # que en el caso de la matriz del ejemplo 6.6. ¿ Como´ 2 son las otras transformaciones C de R que"no tienen autovectores # 7 −8 ? Tomemos el ejemplo 6. de matriz A = : los autovalores 5 −5 " # 4 son 1 − 2j y 1 + 2j.C= ´ es y la factorizacion 3 1 2 1 " # " #" # " # −1 7 −8 4 0 1 −2 1 1 0 A = P CP ⇔ = 5 −5 3 1 2 1 4 −3 4 La " interpretaci # ´ geom´etrica de la transformacion on ´ asociada a A = a −b es un giro de a´ ngulo arctan b/a y adem´as una dilatacion ´ de b a √ magnitud a2 + b2 (ver la formula ´ (5. y vector propio asociado v ∈ C2 . RESPUESTAS A LOS EJERCICIOS 129 Teorema 6. y los autovectores asociados dan lugar a P = I.

rango A = n. dim Nul A = 0. tal que propio de A si existe una soluci´on no tri- para cierto escalar λ ∈ R vial de Ax = λx. n pivotes no nulos). Resumen ´ Definicion. biyectiva. g. A es invertible. b. mite s´olo la soluci´on trivial. Un vector propio (o Un escalar λ tal. es decir. que AD = I. distinto de 0. λ es valor es un vector x ∈ Rn . La transformaci´on lineal x 7→ Ax es q. A tiene n posiciones pivote (es decir. La transformaci´on lineal x 7→ Ax es (cuadrada). m. 0. son equivalentes. Las siguientes afirmaciones sobreyectiva. Las columnas de A forman una base d. o. r.130 ´ CAPITULO 6. Ax = λx. t. tible o´ B). Sea A una matriz n × n i.7. La ecuaci´on homog´enea Ax = 0 ad. una soluci´on para todo b ∈ Rn . A es equivalente por filas a la matriz k. que CA = I. El 0 no es un valor propio de A. dim Col A = n. para Rn . La ecuaci´on Ax = b tiene al menos s. n. j. det A . Teorema (Teorema de la matriz inver. e. l. Nul A = {0}. Las columnas de A forman un con. Col A = Rn . VALORES PROPIOS Y VECTORES PROPIOS 6. y a x se lo denomina vec- tor propio asociado al valor propio λ. f. junto linealmente independiente. h. . c. p. se denomina valor pro- autovector) de una matriz A de n × n pio (o autovalor) de A. Existe una matriz D n × n tal identidad In . AT es invertible. Las columnas de A generan Rn . Existe una matriz C n × n tal a.