Professional Documents
Culture Documents
Algebra Lineal
Cochabamba, .
Contenido
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
I.- Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.- Espacios de Generación Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.- Matriz de una Aplicación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
7.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.- Formas Bilineales Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.- Formas Hermı́ticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.- Triangularización y Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.- Descomposicón Canónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.- Descomposición de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Prefacio
El Algebra Lineal es una de las ramas fundamentales de las Matemáticas; por un lado, porque es herramienta
de trabajo imprescindible en otras áreas de las matemáticas como el Análisis, la Geométrı́a, el Análisis
Numérico, las Estadı́sticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la solución de
problemas de otras disciplinas y ciencias es moneda corriente.
El texto de Algebra Lineal está inscrito dentro el desarrollo que pretende dar la Carrera de Matemáticas
en su nueva formulación. Este texto contiene lo más importante dentro lo que es el Algebra Lineal, dando
el vocabulario y conceptos de base para una buena utilización, presentando los razonamientos de manera
rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de solución
a los problemas presentados.
Para un buen asimilación de los conocimientos y razonamientos de este texto; las definiciones y conceptos
más significativos están escritos en negrillas, estos deberán ser memorizados y manipulados fluidamente.
Los resultados mas importantes están expresados en los teoremas, corolarios y proposiciones, estos deberán
también ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deberán ser
trabajadas, con la finalidad de adquirir las diferentes técnicas de demostración que se emplean en el Algebra
Lineal. Con fines pedágogicos, en algunos paragrafos se presentan los resultados fundamentales que serán
tratados en el paragrafo en cuestión, estos están escritos en carácteres itálicos.
La práctica del curso, es una fuente para practicar los conocimientos adquiridos y ası́ mismo como un
medio de adquirir conocimientos adicionales. Por lo tanto, una resolución en gran número de estos ejercicios,
podrá medir el grado de asimilación del estudiante.
Capı́tulo I
Espacios Vectoriales y Aplicaciones Lineales
I.1 Preliminares
Cuerpos Conmutativos
Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con:
una adición: α + β
una multiplicación: α · β
5) Se tiene α · 0 = 0, ∀α.
Demostración:
1.- Supóngase que 0 y 0′ son ceros, entonces
0′ = 0 + 0′ = 0′ + 0 = 0 ⇒ 0 = 0′ .
3.- Ejercicio.
4.- ⇐ trivial,
⇒ α + α = α,
(α + α) + (−α) = α + (−α),
α + (α + (−α)) = 0,
α + 0 = 0 ⇒ α = 0.
α · 0 = α · (0 + 0),
α · 0 = α · 0 + α · 0 ⇒ α · 0 = 0.
Espacios Vectoriales
Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones:
V ×V →V
adición
(x, y) 7→ x + y
K×V →V
multiplicación por escalar
(α, x) 7→ αx
x, y ∈ U ⇒ αx + βy ∈ U, ∀α, β ∈ K.
Ejemplos
I.1 Preliminares 3
Demostración.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 está demostrado, sino α 6= 0, por
consiguiente
KX = {f : X → K}
El cero de KX es la aplicación 0 : x 7→ 0.
En particular RR = {f : R → B} es un espacio vectorial con las operaciones (I.1.1).
5.- C 0 (R, R) = {f : R → R, continua} es un espacio vectorial con las leyes (I.1.1).
6.- Se dice que p : R → R es polinomial si
n
X
p(t) = αi ti , αi ∈ R, αn 6= 0;
i=0
V × W = {(v, w)|v ∈ V, w ∈ W }
Demostración.- Ejercicio.
\
Proposición I.1.5.- Sea {Ui }i∈I una familia de subespacios de V . Entonces Ui es un subespacio vectorial
i∈I
de V , donde \
Ui = {x ∈ V |x ∈ Ui , ∀i ∈ I}.
i∈I
Demostración.- Ejercicio.
[
Remarca.- Ui = {x ∈ V |∃i ∈ I, con x ∈ Ui } no es en general un subespacio vectorial de V .
i∈I
En realidad < A > está formado por el conjunto de las v ∈ V que se escriben bajo la forma
X
v= αi ai , αi ∈ K, ai ∈ A.
suma finita
Ejemplos
8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene
β = (βα−1 )α.
9.- Kn . Introducimos los elementos
U1 + U2 + · · · + Un
n
[
el subespacio engendrado por Ui .
i=1
n
X
Ejercicio.- Mostrar que los elementos de son aquéllos de V que se escriben bajo la forma
i=1
n
X
v= ui , ui ∈ U.
i=1
n
X
αi vi = 0 ⇒ α1 = α2 = · · · = αm = 0.
i=1
Proposición I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todo
elemento v ∈ V se escribe de manera única bajo la forma
X
v= αi vi , αi ∈ K.
sumaf inita
Se dice que el espacio vectorial V es de generación finita si posee un sistema de generadores finito, es
decir si existe v1 , v2 , . . . , vn ∈ V , tales que todo v ∈ V , se escribe como
n
X
v= αi vi , αi ∈ K.
i=1
Ejemplos
1.- Kn es de generación finita, porque es engendrado por {e1 , e2 , . . . , en }.
2.- El espacio P de las funciones polinomiales no es de generación finita. Esto se verá más adelante.
3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V × W es de generación
finita.
En este parágrafo se verá como resultado principal que los espacios vectoriales de generación finita
tienen bases finitas, además que todas las bases de un espacio vectorial de generación finita tienen el mismo
número de elementos.
Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generación finita. Sea Gr =
{y1 , y2 , . . . , yr } un sistema de generadores de V . Sea L = {x1 , . . . , xs } un subconjunto linealmente indepen-
diente en V . Entonces:
i) r ≥ s;
ii) Existen (r − s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que
El siguiente paso, es mostrar que {x1 , . . . , xs , ys+1 , . . . , yr } engendra V . Sea v ∈ V , por hipótesis de inducción,
se puede escribir
s−1
X Xr
v= γi xi + δs ys + δj yj , (I.2.2)
i=1 i=s+1
8 I Espacios Vectoriales y Aplicaciones Lineales
introduciendo esta última expresión en (I.2.2) y efectuando los cálculos necesarios se llega a
s
X r
X
v= αi′ xi + δj′ yj .
i=1 i=s+1
Proposición I.2.5.- Sea V un espacio vectorial de generación finita. Entonces, todas las bases de B son
finitas y comportan el mismo número de elementos. Este número se llama dimensión de V y se escribe
Se tiene que dim V es el número máximo, respectivamente mı́nimo, de elementos de un subconjunto lineal-
mente independiente en V , respectivamente que engendra V .
Demostración.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas.
′
b) Sean {v1 , v2 , . . . , vn } y {v1′ , v2′ , . . . , vm } dos bases de V . Utilizando el teorema de Grassmann con:
d = #(Gr) ≥ #(L).
d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, se
tiene
#(GR) ≥ #(B) = d.
Ejemplos
4.- dim(Kn ) = n.
5.- dim(Pn ) = n + 1.
6.- Ejercicio.- Mostrar que si V y W son de generación finita, entonces V × W es de generación finita y
además
dim(V × W ) = dim(V ) + dim(W ).
Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ de
elementos, o si V no es de generación finita, se dice que V es de generación infinita.
Proposición I.2.6.- Sea V de dimensión d y v1 , v2 , . . . , vn n elementos de V , entonces:
i Si n > d, {v1 , v2 , . . . , vn } es linealmente dependiente.
ii Si n < d, {v1 , v2 , . . . , vn } no engendra V .
iii Si n = d, los enunciados siguientes son equivalentes:
a) {v1 , v2 , . . . , vn } es linealmente independiente,
b) {v1 , v2 , . . . , vn } engendra V ,
c) {v1 , v2 , . . . , vn } es una base de V .
Demostración.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii).
a)⇒b) Sea B = {x1 , . . . , xd } una base de B, utilizando Grassman con Gr = B y L = {v1 , v2 , . . . , vn }, se
tiene que {v1 , v2 , . . . , vn } engendra V .
b)⇒c) De todo sistema de generadores se puede extraer una base.
c)⇒a) trivial.
Proposición I.2.7.- Sea V un espacio vectorial de generación finita. Entonces, todo conjunto linealmente
independiente puede ser completado en una base de V .
Demostración.- Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente. B = {y1 , . . . , yd } una
base de V . Por el teorema de Grassmann, si es necesario renumerar los yi , el subconjunto
{x1 , . . . , xs , ys+1 , . . . , yd }
dim(U ) = dim(V ) ⇐⇒ U = V.
Falta probar que dim(U ) = dim(V ) ⇒ U = V . Sea B = {u1 , . . . , un } una base de U, es por lo tanto un
subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B
es una base de V . La implicación del otro sentido es trivial
Proposición I.2.9.- (Fórmula de Dimensión).- Sea V de generación finita. P y Q subespacios de V .
Entonces
dim(P + Q) = dim(P ) + dim(Q) − dim(P ∩ Q).
f :V →W
Demostración.- Ejercicio.
Definición I.3.3.- Una aplicación lineal biyectiva se llama isomorfismo, una aplicación lineal f : V → V
se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo,
Gl(V ) = {automorfismos de V }.
Ejemplos y/o Ejercicios
1.- Sea U un subespacio de V espacio vectorial, entonces la inclusión
U →V
u 7→ u
es lineal.
2.- La aplicación definida por
Kn → Kn
(α1 , . . . , αn ) 7→ (α1 , . . . , αp , 0, . . . , 0) p ≤ n
es lineal.
3.- V = R2 . Las siguientes aplicaciones, estudiadas en el curso de Geometrı́a, son lineales:
rotación de centro O,
simetrı́a de eje que pasa por 0,
homotecia de centro 0.
4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales:
D:P→P Dn : P → P
p 7→ p′ p 7→ p(n)
5.- Consideremos V = C 0 ([0, 1], R) = {f : [0, 1] → R continua}. Las siguientes aplicaciones son lineales:
C 0 ([0, 1], R) → R
f 7→ f (a), a ∈ [0, 1]
Z 1
f 7→ f (t)dt.
0
12 I Espacios Vectoriales y Aplicaciones Lineales
Planteando
a1 =(a11 , a21 , . . . , an1 ) ∈ Kn ,
..
.
am =(a1m , a2m , . . . , anm ) ∈ Kn ,
b =(b1 , b2 , . . . , bn ) ∈ Kn .
La escritura vectorial de (I.3.1) está dada por ξ1 a1 + ξ2 a2 + · · · + ξm am = b.
Se asocia a (I.3.1) la aplicación lineal
a : Km → Km
(ξ1 , . . . , ξm ) 7→ ξ1 a1 + ξ2 a2 + · · · + ξm am
a(ξ) = b.
El resultado principal de este parágrafo, está dado por: ”Si V y W son espacios vectoriales, {v1 , . . . , vn }
una base de V , entonces para toda sucesión (w1 , w2 , . . . , wn ) de elementos de W , existe exactamente una
aplicación lineal f : V → W tal que f (vi ) = wi , para i = 1, 2, . . . , n.
Definición I.3.4.- Sean P y Q dos subespacios de V . Si P ∩ Q = {0}, en lugar de P + Q, se escribe P ⊕ Q
suma directa de P y Q.
Proposición I.3.5.- Si P ∩ Q = {0}, la aplicación
P ×Q→P ⊕Q⊂V
(x, y) 7→ x + y
es un isomorfismo.
Demostración.- Ejercicio.
Definición I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es
suplementario de Q, si V = P ⊕ Q.
Ejemplo
8.- Consideremos el espacio de las funciones f : R → R. Sean
P = {f |f (t) = f (−t)}
Q = {f |f (−t) = −f (t)}
I.3 Aplicaciones Lineales 13
V = P ⊕ Q,
f −1 (W1 ) = {v ∈ V |f (v) ∈ W }.
a) f es sobreyectiva ⇐⇒ Im(f ) = W,
b) f es inyectiva ⇐⇒ ker(f ) = {0},
c) f es biyectiva ⇐⇒ ker(f ) = {0} y Im(f ) = W.
f (v1 − v2 ) = 0,
v1 − v2 ∈ ker(f ) ⇒ v1 − v2 = 0 ⇒ v1 = v2 .
Demostración.- a) Sea {v1 . . . , vm } una base de V , entonces {f (v1 ), . . . , f (vm )} engendra Im(f ), por lo
que Im(f ) es de generación finita.
En efecto, sea w ∈ Im(f ), por definición existe v ∈ V tal que f (v) = w. Se tiene
m
X m
X
v= αi vi ⇒ f (v) = αi f (vi ).
i=1 i=1
por consiguiente !
m
X m
X
0=f αi vi ⇒ αi vi ∈ ker(f ).
i=n+1 i=n+1
n
X
Por lo tanto v ∈ ker(f ), también se escribe como βi vi . De donde
i=1
n
X m
X
βi vi = αi vi ,
i=1 i=n+1
D:P →P
p 7→ p′
I.3 Aplicaciones Lineales 15
f (vi ) = wi , i = 1, . . . , n.
n
X
f (v) = αi wi ,
i=1
función bien determinada por que los αi son únicos. Por construcción se tiene f (vi ) = wi para i = 1, . . . , n.
Falta ver que f es lineal, sean v y v ′ dos elementos de V , entonces
n
X n
X n
X
v= αi vi , v′ = αi′ vi ⇒ v + v′ = (αi + αi′ )vi .
i=1 i=1 i=1
Por consiguiente:
n
X n
X n
X
′
f (v) = αi wi f (v ) = αi′ wi ′
f (v + v ) = (αi + αi′ )vi .
i=1 i=1 i=1
Proposición I.3.14.- Si V y W dos espacios de dimensión finita. Entonces, V y W son isomorfos, es decir
existe un isomorfismo V → W , si y solamente si dim V = dim W .
Demostración.- Si V y W son isomorfos, entonces dim V = dim W , caracterı́stica de la fórmula de di-
mensión.
Si dim V = dim W , sean {v1 , . . . , vn } y {w1 , . . . , wn } bases de V y W respectivamente. Por el teorema
fundamental existe f : V → W lineal tal que f (vi ) = wi . Utilizando la demostración de la proposición
fórmula de dimensión para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicación es
biyectiva, consecuencia del corolario I.3.12.
Proposición I.3.15.- Sea {v1 , . . . , vn } una base de V , entonces la aplicación
ϕ
Hom(V, W ) −→ W × W × · · · × W = W n
f 7→ (f (v1 ), f (v2 ), . . . , f (vn ))
Proposición I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2).
i) ∀(bi ) ∈ K, existe a lo más una solución del sistema (I.3.2).
ii) ∀(bi ) ∈ K, existe al menos una solución del sistema (I.3.2).
iii) ∀(bi ) ∈ K, existe exactamente una solución del sistema (I.3.2).
iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como única solución.
Demostración.- Al sistema (I.3.2), se asocia la aplicación linel a, ver ejemplo 6 de este parágrafo. Por
consiguiente
Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b.
Es decir encontrar, a−1 ({b}). Los enunciados de la proposición se traducen
i) ∀b ∈ Kn , a−1 ({b}) comporta a lo más un elemento ⇐⇒ a es inyectiva.
ii) ∀b ∈ Kn , a−1 ({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva.
iii) ∀b ∈ Kn , a−1 ({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva.
iv) a−1 ({0}) = {0} ⇐⇒ ker a = {0}.
Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12)
I.4 Anillo de Homomorfismos 17
entonces
g◦f :V →W f ◦g :→W
v1 7→ αv1 + βv2 v1 7→ α(v1 + v2 )
v2 7→ βv2 v2 7→ βv2
vi 7→ vi , i ≥ 3; vi 7→ vi , i ≥ 3;
Si α 6= β, se tiene f ◦ g(v1 ) 6= g ◦ f (v1 ) y por consiguiente f ◦ g 6= g ◦ f .
Definición I.4.2.- Sea A y B dos anillos. Una aplicación f : A → B es un homomorfismo de anillos si
i f (a1 + a2 ) = f (a1 ) + f (a2 ),
ii f (a1 a2 ) = f (a1 )f (a2 ),
iii f (1) = 1.
Definición I.4.3.- Sea A un anillo, se dice que I ⊂ A diferente del conjunto vacio es un ideal por izquierda
(por derecha), si
i ∀x, y ∈ I ⇒ x + y ∈ I,
ii x ∈ I, a ∈ A ⇒ ax ∈ I (xa ∈ I).
Grupos
Un grupo G es un conjunto dotado de una ley de composición interna o operación
G×G→G
(g1 , g2 ) 7→ g1 ∗ g2
tal que
i (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3 ), ∀g1 , g2 , g3 ∈ G (Asociatividad);
ii Existe un elemento neutro e tal que e ∗ g = g ∗ e = g, ∀g ∈ G;
iii Todo elemento g ∈ G posee un inverso g ′ tal que
g ∗ g ′ = g ′ ∗ g = e.
g1 ∗ g2 = g2 ∗ g1 , ∀g1 , g2 ∈ G.
Notación Multiplicativa
Si G es un grupo y la operación ∗ se la denota por ·, es decir
G×G→G
(g1 , g2 ) 7→ g1 · g2
G×G→G
(g1 , g2 ) 7→ g1 + g2
el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por −g.
Ejemplos
4.- (Z, adición) es un grupo abeliano.
5.- (Z, multiplicación) no es grupo.
6.- (V, +) donde V es un espacio vectorial es un grupo abeliano.
I.4 Anillo de Homomorfismos 19
Gl(V ) = {f : V → V automorfismo}
Ejemplo
9.- La aplicación
(R, +) → (R − {0}, ·)
x 7→ ex
es un homorfismo de grupos.
20 I Espacios Vectoriales y Aplicaciones Lineales
Sea V un espacio vectorial y {v1 , . . . , vn } una base de V , entonces existe un isomorfismo natural dado por
ϕ : V → Kn
vi 7→ ei , i = 1, . . . , n
n
X
donde {e1 , . . . , en } es la base canónica de Kn . Por consiguiente, si v = αi vi , se tiene
i=1
ϕ(v) = (α1 , α2 , . . . , αn ) ∈ Kn .
la segunda escritura en vector columna será muy util para lo que sigue en el curso.
Una matriz A de n × m a coeficientes en K es un tablero de n filas y m columnas de elementos de K
a11 a12 ··· a1m
a21 a2m
A=
... .. .
.
an1 an2 · · · anm
donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1 , . . . , vm } y {w1 , . . . , wn }, la matriz
a11 a12 ··· a1m
a21 a2m
Mf =
... .. ∈ Mn,m (K)
.
an1 an2 · · · anm
que se llama la matriz de f respecto a las bases {v1 , . . . , vm } y {w1 , . . . , wn }. Se observa inmediatamente
que el número de filas es igual a la dimensión del espacio destino W para f y el número de columnas es igual
a la dimensión del espacio fuente V para f .
I.5 Matriz de una Aplicación Lineal 21
Receta.- Para construir la matriz de f respecto a las bases {vi } y {wj } disponer en vectores columnas las
componentes de f (vj ) respecto a la base {wj }.
Remarca.- Mn,m (K) está en biyección con Knm , pero con las nociones de fila y columna.
Proposición I.5.1.- Resultado principal.- Sea {vi }m n
i=1 una base de V y {wj }i=1 una base de W . La aplicación
es biyectiva.
Demostración.- Recordamos que
Hom(V, W ) → W n
f 7→ (f (v1 ), . . . , f (vn ))
W → Kn
n α1
X .
w= wi 7→ ..
i=1 αn
es biyectiva.
Ejemplos
1.- Consideremos la proyección del plano R2 sobre el eje x. La matriz de la proyección respecto a la base
canónica está dada por
e1 → e1 1 0
⇒ Mf =
e2 → e2 0 0
2.- Ejercicio.- Determinar las matrices respecto a la base canónica de las aplicaciones lineales del curso de
Geometrı́a, es decir: rotaciones, homotecias, simetrı́as, similitudes, etc.
A = (aij ), B = (bij )
Proposición I.5.2.- Sea C = (cij ) la matriz de f + g respecto a las mismas bases en cuestión, entonces
C =A+B
cij = aij + bij .
D = αA
dij = αdij
Demostración.- Ejercicio.
Corolario I.5.3.- Se tiene
C = BA.
Demostración.- Ejercicio.
Remarca.- Sea f : V → W lineal, A = (aij ) la matriz de f respecto a las bases {vi } y {wj }. Sea v ∈ V ,
¿Como calcular f(v)?
X n
Se escribe v = , entonces
i=1
!
m
X m
X n
X n
X m
X
f (v) = αj f (vj ) = αj aij wi = aij αj wi ,
i=1 j=1 i=1 i=1 j=1
Sean:
V espacio vectorial, {v1 , . . . , vm }, {v1′ , . . . , vm
′
} dos bases de V ;
W espacio vectorial, {w1 , . . . , wn }, {w1 , . . . , wn′ } dos bases de W ;
′
Se tiene ∼
Hom(V, W ) −→ Mn,m (K)
f 7→ A(f ): matriz de f respecto a {vi } y {wj },
∼
Hom(V, W ) −→ Mn,m (K)
f 7→ A′ (f ): matriz de f respecto a {vi′ } y {wj′ },
n
X
wj = nij wi′ ,
i=1
obteniendo ası́ !
m
X m
X
vj = mkj m′ik vi′′ ,
k=1 i=1
de donde !
m
X m
X
vj = m′ik mkj vi ,
i=1 k=1
| {z }
m′′ij
I.6 Cambio de Base 25
por lo tanto M ′′ = M ′ M .
Proposición I.6.2.- Sea A ∈ Mm,m (K), si existe B ∈ Mm,m (K) tal que AB = I o BA = I, entonces A es
una matriz inversible de inversa B.
Demostración.- Ejercicio.
Proposición I.6.3.- Para las matrices de pasaje se tiene:
a) Las matrices de pasaje son inversibles.
b) N y M como antes, se tiene
A(f ) = N −1 A′ (f )M.
Demostración.-a) Se utiliza la proposición I.6.1 con M ′ la matriz de pasaje de {vi′ } a {vi }. obteniendo de
esta manera M ′ M = I, por la proposición I.6.2 se tiene que M es inversible.
b) recordemos:
X m
vj = mkj vk′ ,
k=1
n
X
wj′ = ñij wi con (ñij ) = N −1 ,
i=1
n
X
f (vj ) = aij wi con A(f ) = (aij ),
i=1
Xn
f (vj′ ) = a′ij wi con A′ (f ) = (a′ij ).
i=1
aij = (N −1 A′ M )ij
Se tiene: !
X X
f (vj ) = f mkj vk′ = mkj f (vk′ )
k k
! !
X X X X
= mkj a′lk wl′ = a′lk mkj wl′
k l l k
| {z }
(AM )lj = clj
! !
X X X X
= clj ñil wi = ñil clj wi .
l i i i
| {z }
(N −1 A′ M )ij
Por lo tanto aij = (N −1 A′ M )ij .
Corolario I.6.4.- Sea V espacio vectorial con las bases {v1 , . . . , vm } y Para f ∈ End(V ), ′
{v1′ , . . . , vm }.
se denota A(f ), respectivamente A′ (f ), la matriz de f en la base {v1 , . . . , vm }, respectivamente en la base
{v1′ , . . . , vm
′
}. Se denota M la matriz de pasaje de {vi } a {vi′ }. Entonces
A(f ) = M −1 A′ (f )M.
Proposición I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1 , . . . , vm } de V y una
base {w1 , . . . , wn } de W tales que
f (vi ) = wi para i = 1, . . . , r;
f (vi ) = 0 para i = r + 1, . . . , m.
dim
| {z V} = |dim {z
Im(f ) + dim ker(f ) .
} | {z }
m r m−r
Demostración.- Se aplica la proposición I.6.6 a b : Km → Kn cuya matriz respecto a las bases canónicas
es B.
Por la proposició precedente, existen {v1 , . . . , vm } y {w1 , . . . , wn } bases de Km y Kn respecto a las cuales
la matriz asociada a b es
Ir 0
B′ = .
0 0
Sea M la matriz de pasaje de {vi } a la base canónica en Km ,
N la matriz de pasaje de {wi } a la base canónica en Kn , entonces por la proposición I.6.3, se tiene B ′ =
N −1 BM
Definición I.6.8.- Sea B ∈ Mn,m (K)
b11 ... b1m
. ..
B = .. .
bn1 · · · bnm
(B t )ij = Bji .
I.6 Cambio de Base 27
De esta forma el rango fila de B es igual al rango columna de B t . En efecto, el rango fila de B es igual al
rango de la aplicación bt : Kn → Km , cuya matriz respecto a las bases canónicas es B t .
Proposición I.6.9.- La transpuesta verifica las siguientes propiedades:
i) (B t )t = B.
ii (AB)t = B t At .
iii A ∈ Gl(n, K) ⇒ At ∈ Gl(n, K) y (At )−1 = (A−1 )t .
Demostración.- i) y ii) ejercicio. Para el punto iii), se tiene
Se interpreta las matrices como aplicaciones lineales (respecto a las bases canónicas);
Bt bt : Kn → Km
t
M mt : Km → Km
(N t )−1 (nt )−1 : Kn → Km
Ir 0
ir : Kn → Km
0 0
(x1 , . . . , xn ) 7→ (x1 , . . . , xr , 0, . . . , 0).
bt
Kn −→ Km
(nt)−1 ↓ ↑ mt
ir
Kn −→ Km
Justificación.- Sea
a11 ξ1
+ a12 ξ2 + ··· + a1m ξm = b1
.. ..
. .
an1 ξ1 + an2 ξ2 + · · · + anm ξm = bn
Se introduce
ξ1 !
.. b1
A = (aij ) ∈ Mn,m , . ∈ Km = Mm,1 (K), b= .. ∈ Kn .
.b
n
ξm
Introduciendo la notación matricial, el sistema de ecuaciones, se convierte en
Aξ = b.
Ir 0
Se observa que si A = , se encuentra la solución a la vista.
0 0
En el parágrafo precedente, se mostró que existen M y N inversibles tales que
Ir 0
A = N −1 M;
0 0
Ejemplo
1.- Las 6 permutaciones de S3 tienen las representaciones siguientes:
1 2 3 1 2 3 1 2 3
id =
1 2 3 1 3 2 2 1 3
1 2 3 1 2 3 1 2 3
3 2 1 3 1 2 2 3 1
Para evitar una escritura pesada, en lugar denotar σ1 ◦ σ2 la composición de permutaciones, se utilizará
la notación σ1 σ2 .
A σ ∈ Sm , se asocia una aplicación lineal mediante
ρ(σ) : Km → Km
ei 7→ eσ(i)
donde {e1 , . . . , en } es la base canónica de Km . La matriz M (σ) de ρ(σ) respecto a la base canónica es de
la forma, M (σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no
nulo es 1. Esta matriz se llama matriz de permutación.
Proposición I.7.1.- La aplicación
ρ
Sm → Gl(Km )
σ 7→ ρ(σ)
es un homomorfismo de grupo, representación lineal de Sm .
La aplicación
Sm → Gl(m, K)
σ 7→ M (σ)
es un homorfismo de grupos, representación matricial de Sm .
Demostración.- Ejercicio.
Una vez conocidas las matrices de permutación, se debe determinar como actua las matrices de per-
mutación sobre una matriz. Esto está dado en la:
Proposición I.7.2.- a) Multiplicar a la derecha B por M (σ) es equivalente a efectuar las correspondientes
permutaciones de las columnas de B.
b) Multiplicar por la izquierda B por M (σ) es equivalenTe a efectuar las correspondientes permutaciones de
las filas de B.
Demostración.- Ejercicio
Matrices Diagonales
Una matriz A diagonal es de la forma
a11 0
0 a22
A=
.. = diag(a11 , a22 , . . . , amm )
.
0 amm
Proposición I.7.3.- a) Multiplicar B por la derecha con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar
la i-sima columna de B por di , para i = 1, . . . , m.
b) Multiplicar B por la izquierda con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima fila de B por
di , para i = 1, . . . , m.
Demostración.- Ejercicio.
Resultado Principal
30 I Espacios Vectoriales y Aplicaciones Lineales
Sea B ∈ Mn,m (K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N −1 ∈
Gl(n, K) y M ∈ Gl(m, K) tales que
Ir 0
N −1 BM = .
0 0
Si B = 0, no hay nada que hacer.
Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente:
i) Multiplicando a la izquierda y derecha por matrices de permutación, se lleva este coeficiente al lugar
(1, 1).
ii) Multiplicando por diag(b−1
11 , 1, . . . , 1) se va al caso b11 = 1.
iii) Luego
1 0 ··· 0 1 b12 · · · b1m 1 b12 · · · b1m
−b21 1 0 b21 0
. .. . = .
.. . .
. .
. B ′
−bn1 0 1 bn1 · · · bnm 0
1 b12 · · · b1m 1 −b12 · · · −b1m 1 0 ··· 0
0 0 1 0 0
. . .. = . .
.. B′ .. . .. B ′′
0 0 0 1 0
Ejemplo
1.- Consideremos la matriz
0 1 4
B= .
1 1 3
Se tiene
0 1 1 1 3
B= = B (1) ,
1 0 0 1 4
1 −1 −3
1 1 3 0 1 1 0 0
0 = = B (2) ,
0 1 4 0 1 4
0 0 1
1 0 0
1 0 0 1 0 0
0 1 −4 = .
0 1 4 0 1 0
0 0 1
De donde
1 −1 −3 1 0 0
0 1
M = 0 1 0 0 1 −4 y N −1
= .
1 0
0 0 1 0 0 1
I = P AQ,
donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces
A = P −1 Q−1 .
Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para
iii) ejercicio 32 de la práctica.
I.7 Operaciones Elementales sobre las Matrices 31
A = XM (σ)Y.
La demostración se la hará por inducción sobre m. El caso m = 1 es evidente. Supongamos cierto para
m − 1, con m > 1.
Sea A ∈ Gl(m, K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:
0
0
A12
A12
0
0 −1
a diag(ai1 , 1, . . . , 1) = 1 ;
i1 ã
A22 i+1,1 A22
am1
| {z } ãm1
A
1 0 0
..
. A12 1 −ai2 · · · −aim
0 1
1
.. 1 ai2 · · · aim ..
−ãi+1,1 . ã .
i+1,1
A22 1
−ãm,1 1 ãm1
0 C11 C12
= 1 0 0 .
0 C21 C22
Por hipótesis de inducción existen U ∈ Gl(m−1, K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1, K)
triangular superior, τ ∈ Sm−1 , tales que
C11 C22
= U M (σ)B
C21 C22
32 I Espacios Vectoriales y Aplicaciones Lineales
o todavı́a
−1 C11 C22
U B −1 = M (τ )
C21 C22
U11 0 C11 C22 B11 B21 T11 T12
= .
U21 U22 C21 C22 0 B22 T21 T22
Por consiguiente
0 C11 C12
A = Ũ 1 0 0 B̃
0 C21 C22
U11 0 0 0 C11 C12 1 0 0
0 1 0 1 0 0 0 B11 B12
U21 0 U22 0 C21 C22 0 0 B22
0 T11 T22
= 1 0 0 .
0 T21 T22
| {z }
M (σ)
Recordemos que
biy.
Sm = σ : {1, . . . , m} −→ {1, . . . , m}}
Sean a, b ∈ {1, . . . , m}, a 6= 0, la permutación definida por
a 7→ b;
b 7→ a;
i 7→ i, i 6= a y i 6= b
Proposición I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm , existen
τ1 , τ2 , . . . , τp transposiciones, tales que
σ = τ1 τ2 · · · τp .
σ = (m, σ(m))τ1τ2 · · · τp .
Ejemplos
1.-
1 2 ··· m − 1 m
= (1, m)(1, m − 1) · · · (1, 3)(1, 2).
2 3 ··· m 1
2.- La escritura de σ como producto de transposiciones no es única.
id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), (2, 3) = (1, 2)(1, 3)(1, 2).
A σ ∈ Sm se asocia la aplicación
ϕ(σ) : P −→ P
X X
ai1 ,i2 ,...,im xi11 xi22 · · · ximm 7→ ai1 ,i2 ,...,im xiσ(1)
1
xiσ(2)
2
· · · xiσ(m)
m
finita finita
Ejemplo
3.- Consideremos
1 2 3 4 3
σ= , f (x1 , x2 , x3 , x4 ) = x21 + x1 x3 + x12
4 .
2 3 4 1 2
Entonces
3 3
ϕ(σ)(f (x1 , x2 , x3 , x4 )) = x2σ(1) + xσ(1) xσ(3) + x12 2 12
σ(4) = x2 + x2 x4 + x1 .
2 2
f1 (x1 , . . . , xm ) = x1 + x2 + · · · + xm ;
X
f2 (x1 , . . . , xm ) = xi xj = x1 x2 + · · · + xm−1 xm ;
i<j
X
f3 (x1 , . . . , xm ) = x1 xj xk ;
i<j<k
..
.
fm (x1 , . . . , xm ) = x1 x2 · · · xm .
Ejemplo
5.- En el espacio de las funciones polinomiales a 4 variables tenemos
Por consiguiente
sg(σ1 σ2 ) = sg(σ1 )sg(σ2 ).
Y Y
ϕ(σ)(d) = (xb − xa ) [(xi − xb )(xi − xa )] [(xb − xi )(xi − xa )]
i<a a<i<b
Y Y
[(xb − xi )(xa − xi )] (xi − xj );
b<i i<j
i6=a,b
j6=a,b
ϕ(σ)(d) = −d.
sg(σ) = (−1)p .
′
ii) Sea σ = τ1 · · · τp = τ1′ · · · τp′ ′ donde τi y τi′ transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p , entonces
p y p′ tienen la misma paridad.
0 1 2 i j m 1
B CA
(1) j (i) i (j ) m (m)
Para determinar el signo de la permutación, se debe contar el número de intersecciones de los segmentos que
unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este número se lo denota por
j(σ).
I.8 Signo de las Permutaciones 41
Demostración Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la acción de ϕ(σ) sobre los factores de d, por
consiguiente
un factor de d si σ(i) < σ(j),
(xi − xj ) 7→ (xσ(i) − xσ(j) ) =
(−1) · un factor de d si σ(i) > σ(j).
42 I Espacios Vectoriales y Aplicaciones Lineales
Definición I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicación
| ×V ×
F :V {z· · · × V} → W
m veces
es mulitilineal, si
∀i = 1, . . . , m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente.
Ejemplos
1.- La siguiente aplicación es m-lineal
K × ··· × K → K
| {z }
m
m
Y
(α1 , . . . , αm ) 7→ αi .
i=1
K×K→K
a11 ··· a1n y1
. .. ..
(x, y) 7→ xt Ay = ( x1 · · · xn ) .. . .
an1 · · · ann yn
es bilineal. En particular
R3 × R3 → R
(x, y) 7→ xt Iy = x1 y1 + x2 y2 + x3 y3
R3 × R3 → R
x1 y1 x2 y3 − x3 y3
x2 , y2 7→ x3 y1 − x1 y3
x3 y3 x1 y2 − x2 y1
es bilineal.
4.- La aplicación
Mn,n (K) × Mn,n (K) × Mn,n (K) → Mn,n (K)
(A, B, C) 7→ ABC
es trilineal.
5.- La aplicación
End(V ) × End(V ) → End(V )
(f, g) 7→ f ◦ g − g ◦ f
es bilineal.
I.9 Formas Multilineales Alternadas 43
F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0;
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j.
F es multilineal antisimétrica, si
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j.
Ejemplo
6.- La aplicación multilineal del ejemplo 1) es simétrica si K es un cuerpo conmutativo.
Definición I.9.3.- Se dice que un cuerpo K es de caracterı́stica 6= 2 si 1 6= −1 en K.
Ejemplos
7.- Los cuerpos Q, R y C son de caracterı́stica 6= 2.
8.- El cuerpo F2 es de caracterı́stica = 2.
Proposición I.9.4.- Sea F : V × · · · × V → W multilineal.
i) F es alternada, entonces F es antisimétrica.
ii) Si la caracterı́stica de K 6= 2, entonces F antisimétrica es alternada.
Demostración.- i) Supongamos F alternada. Se tiene
0 = F (v1 , . . . , vi + vj , . . . , vi + vj , . . . vn ) =
F (v1 , . . . , vi , . . . , vj , . . . , vn ) + F (v1 , . . . , vj , . . . , vi , . . . , vn ),
F (v1 , . . . , vi , . . . , vi , . . . , vn ) = −F (v1 , . . . , vi , . . . , vi , . . . , vn )
Por lo tanto
(1 + 1)F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0,
F es alternada.
Proposición I.9.5.- Sea F : V × · · · × V → W multilineal alternada. Entonces
i) F (vσ(1) , . . . , vσ(n) ) = sg(σ)F (v1 , . . . , vn ), donde vi ∈ V y σ ∈ Sn .
ii) F (v1 , . . . , vi + αvj , . . . , vn ) = F (v1 , . . . , vi , . . . , vn ).
iii) Si v1 , . . . , vn son linealmente dependientes, entonces F (v1 , . . . , vn ) = 0.
Demostración.- i) σ = τ1 · τp con τi transposicion. Como F es alternada, F es antisimétrica. De donde
de donde
n
X n
X
F (v1 , . . . , vn ) = F ( αi vi , v2 , . . . , vn ) = αi F (vi , v2 , . . . , vn ) = 0.
i=2 i=2
Entonces !
X
F (v1 , . . . , vm ) = sg(σ)aσ(1),1 aσ(2),2 · · · aσ(m),m F (e1 , e2 , . . . , em ). (I.9.1)
σ∈Sm
Por lo tanto, en esta suma es suficiente considerar las familias {i1 , . . . , im } con ik 6 il . De esta manera
1 2 ··· m
i1 i2 · · · im
es una permutación σ de {1, 2, . . . , m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado.
| ×V ×
Sea F : V {z· · · × V} → W definida por (I.9.1)
m veces
a) F es multilineal; en efecto, sean
m
X m
X
vj′ a′i,j ei , vj′′ a′′i,j ei ,
i=1 i=1
I.9 Formas Multilineales Alternadas 45
se tiene m
X
α′ vj′ + α′′ vj′′ = (a′i,j + a′′i,j )ej .
i=1
Por lo tanto
m
X m
X
Mostremos que F es alternada. Sean vi = vj = ak,i ek = ak,j ek . Aplicando la fórmula (I.9.1), se tiene
k=1 k=1
!
X
F (v1 , . . . , vi , . . . , vj , . . . , vm ) = sg(σ)aσ(1),1 · · · aσ(m),m F (e1 , . . . , em ).
σ∈Sm
Altm (V, W ) → W
F 7→ F (e1 , e2 , . . . , em )
46 I Espacios Vectoriales y Aplicaciones Lineales
I.10 Determinantes
Ejemplo
1.- Sea V = Km , recordamos
ρ(σ) : Km → Km
ei 7→ eσ(i)
Se tiene que det(ρ(σ)) = sg(σ). En efecto
Demostración.- i) Trivial
ii) Se tiene
(f ◦ g)∗ D(v1 , . . . , vm ) = D(f ◦ g(v1 ), . . . , f ◦ g(vm ))
= D(f (g(v1 )), . . . , f (g(vm )))
(det f )D(g(v1 ), . . . , g(vm ))
(det f )(det g)D(v1 , . . . , vm ).
iii) Si f es inversible, existe f −1 ∈ End(V ), tal que f ◦ f −1 = idV ; por los puntos ii) y i) se tiene
(det f )(det f −1 ) = 1.
⇐ Se supone que det f 6= 0. Se elige una base {e1 , . . . , em } de V . Sea D ∈ Altm (V, K), con D 6= 0; se tiene
D(e1 , . . . , em ) 6= 0. Por otro lado
Se plantea
a11 · · · ∗ a1m
.. ..
det A = det(ϕ(A)) = . ..
am1 · · · ∗ amm
Demostración.- En efecto; Sean {e1 , . . . , em } la base canónica de Km , D ∈ Altm (Km , K) no nula. Se tiene
Ejemplos
2.- Para m = 1, se tiene det A = a11 .
3.- Para m = 2, utilizando la proposición precedente obtenemos
a11 a12
a21 a22 = a11 a22 − a21 a12 .
Demostración.- Se considera
m veces
z }| {
K × · · · × Km → K
m
(A1 , . . . , Am ) 7→ det A.
50 I Espacios Vectoriales y Aplicaciones Lineales
Esta aplicación es multilineal, de donde i); la aplicación es alternada, de donde ii) y iii).
Remarca.- Se tiene un enunciado análogo para filas.
Ejemplos
4.- Se considera una matriz de 4 × 4, se calculará su determinante utilizando la fórmula de la proposición
I.10.2 y las propiedades de determinante de la proposición precedente
1 0 0 −1 1 0 0 0
2 3 4 7 2 3 4 9
= .
−3 4 5 9 −3 4 5 6
−4 −5 6 1 −4 −5 6 −3
Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la fórmula deducimos que
1 0 0 −1
3 4 9 3 4 3
2 3 4 7
= 4 5 6 = 3 4 5 2 .
−3 4 5 9
−5 6 −3 −5 6 −1
−4 −5 6 1
Demostración.-Se plantea
r =rang(A),
( )
existe una submatriz B de A con s filas y s columnas
p = max s .
tal que det B 6= 0.
A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar las
columnas, se puede suponer que son las primeras r columnas. La proposición indica que r ≤ p.
Supongamos que existe una submatriz Bp×p de A con det B 6= 0. Si es necesario renumerar (permutar), se
supone
B ∗
A=
∗ ∗
lo que implica por la proposición precedente que las primeras p columnas son linealmente independientes,
entonces p ≤ r.
52 I Espacios Vectoriales y Aplicaciones Lineales
En este paragrafo se formulará un método para calcular la inversa de una matriz inversible.
Sea
a11 · · · amm
. .
A = (aij ) = .. .. ∈ Mm,m (K).
am1 · · · amm
Se plantea
a11 ··· a1,j−1, a1,j+1 ··· a1m
.. .. .. ..
. . . .
ai−1,1 ai−1,j−1 ai−1,j+1 ai−1,m
Aij =
ai+1,1
∈ Mm−1,m−1 (K).
ai+1,j−1 ai+1,j+1 ai+1,m
. .. .. ..
.. . . .
am1 ··· am,j−1, am,j+1 ··· amm
Aij se obtiene de A suprimiendo la fila i-sima y la columna j-va.
Se define
a11 · · · a1,j−1, 0 a1,j+1 ··· a1m
.. .. ..
. . .
ai−1,1 ai−1,j−1 0 ai−1,j+1 ai−1,m
Sij (A) =
0 · · · 0 1 0 ··· 0 ∈ Mm,m (K).
ai+1,1 a 0 ai+1,j+1 ai+1,m
i+1,j−1
. .. ..
.. . .
am1 ··· am,j−1, 0 am,j+1 · · · amm
Definición I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por
Ejemplo
1.- Veamos el caso de m = 2.
a11 a12 a22 −a12
Adj = .
a21 a22 −a21 a11
m
X
0 si i 6= k,
Proposición I.11.3.- aji det(Sjk ) = δik det A donde δik =
1 si i = k.
j=1
I.11 Matriz Adjunta 53
Por otro lado la i-sima columna, es decir A′k se puede desarrollar como
1 0 0
a1i
0 1 0
... = a1i . + a21 . + · · · + am1 . .
.. .. ..
ami
0 0 1
(Adj(A))kj
m
X m z
X }| {
δik det A = aji det Sjk (A) = (−1)i+k det Ajk aji ,
j=1 j=1
de donde
Adj(A)A = diag(det A, . . . , det A).
54 I Espacios Vectoriales y Aplicaciones Lineales
Se tiene también
Adj(At )At = diag(det At , . . . , det At ),
transponiendo, se obtiene
1
A−1 = Adj(A).
det A
Remarca.- Sea R un subanillo de K, por ejemplo Z ⊂ Q, entonces Mn,m (R) ⊂ Mn,m (K).
Corolario I.11.7.- A ∈ Mm,m (R). Entonces; A es inversible en Mm,m (R), es decir si existe B ∈ Mm,m (R)
con AB = BA = Im , si y solamente si det A es un elemento inversible de R.
En particular A ∈ Mm,m (Z) es inversible ⇐⇒ det A = ±1.
Demostración.- ⇒, Se tiene AB = I, por consiguiente det A det B = 1, lo que implica que det A es
inversible en R.
1
⇐ det A inversible en R, entonces tiene sentido la expresión en R.
det A
Fórmula de Cramer
Sea A ∈ Mm,m (K). El sistema
Ax = b,
tiene una única solución, si y solamente si det A 6= 0. Si este es el caso, se tiene
1
x = A−1 b = Adj(A)b.
det A
Por consiguiente, se obtiene
m
1 X
xi = (Adj(A))ij bj ,
det A j=1
por lo tanto
m
1 X
xi = (−1)i+j det Aji bj
det A j=1
1
xi = det ( A1 · · · Ai−1 b Ai+1 · · · Am ) .
det A
Capı́tulo II
Complemento
C = {y ∈ E|y ∼ x},
E/ ∼ .
π
E −→ E/ ∼
x 7→ x̄
que es sobreyectiva.
Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relación ≡ mod(U ),
definida por
x ≡ y mod(U ) ⇐⇒ x − y ∈ U.
Ejemplo
1.- Consideremos V = R2 y U un subespacio de dimensión 1. En la figura puede verse las clases de
56 II Complemento
equivalencia.
−
x+U =x
πց րf¯
V /U
es decir f = f¯ ◦ π.
Demostración.- a) Existencia de f¯. Se plantea
f¯(x̄) = f (x).
Hay que verificar que si x̄ = ȳ, entonces f (x) = f (y). En efecto, x̄ = ȳ, se tiene x − y ∈ U ⊂ ker(f ), por
consiguiente f (x − y) = 0 y por lo tanto f (x) = f (y).
Por construcción f ◦ π = f .
f¯ es lineal, en efecto
f¯1 ◦ π = f¯2 ◦ π = f,
por lo tanto
Sea V un espacio vectorial. Una forma lineal sobre V es una aplicación lineal ε : V → K. El conjunto de
las formas lineales sobre V, Hom(V, K), se llama dual de V y se denota V ∗ .
Si V es de dimensión finita, V ∗ lo es también y
dim V = dim V ∗ .
ϕ : V ∗ → Kn
ε 7→ (ε(x1 ), . . . , ε(xn )).
ξi : V → K
(
0 si i 6= j
xj 7→ δij =
1 si i = j.
ε′ = αε, α 6= 0.
\
iii) ker(ε) = {0}.
ε∈V ∗
Demostración.- i) Si ε 6= 0, ε : V → K es sobreyectiva y aplicamos la fórmula de dimensión.
ii) Sea {u1 , . . . , un−1 } una base de U , que se completa en {u1 , . . . , un−1 , un } base de V . Se considera la
forma
ε:V →K
ui 7→ 0 si i = 1, . . . , n − 1
un 7→ 1,
que es una forma lineal de núcleo U . La
\ segunda parte de este enunciado, ejercicio.
iii) Se tiene de manera trivial {0} ⊂ ker(ε). Sea v ∈ V , v 6= 0; vamos a mostrar que existe ε ∈ V ∗ tal
ε∈V ∗
que ε(v) 6= 0, es decir que v 6∈ ker ε.
Elegimos una base de la forma {v, v2 , . . . , vn } y se considera
ε:V →K
v 7→ 1
vi 7→ 0 para i = 2, . . . , m
Consideremos el diagrama
f
V −→ W
η◦fց ↓η
K
Se obtiene entonces
ft : W ∗ → V ∗
η 7→ η ◦ f
que es lineal y se llama la transpuesta de f . Ası́
Ejemplo
1.- Sea V = C ∞ ([0, 1], R) espacio vectorial real de las funciones indefinidamente derivables. Se denota
εg : C ∞ ([0, 1], R) → R
Z 1
f 7→ f (t)g(t)dt.
0
donde
δa : C ∞ ([0, 1], R) → R
f 7→ f (a).
Hom(V, W ) → Hom(W ∗ , V ∗ )
f 7→ f t
es un isomorfismo.
Demostración.- Veamos que la aplicación f 7→ f t es lineal. Sean f, g ∈ Hom(V, W ), se tiene
(f + g)t (η) = η ◦ (f + g) = η ◦ f + η ◦ g
= f t (η) + g t (η) = (f t + g t )(η).
ft : W ∗ → V ∗
η 7→ 0.
Im(f ) ⊂ ker(eta) ∀η ∈ W ∗ .
Utilizando el inciso iii) de la proposición II.2.1, se tiene que Im(f ) = {0}, por consiguiente f = 0.
Proposición II.2.3.- Sean f : U → V y g : V → W lineales, entonces
(g ◦ f )t = f t ◦ g t .
En diagrama
f g
U −→ V −→ W
ft gt
U∗ ←− V∗ ←− W ∗ .
(g ◦ f )t (η) = η ◦ (g ◦ f ) = (η ◦ g) ◦ f = g t (η) ◦ f
= f t (g t (η)) = f t ◦ g t (η).
rang(f ) = rang(f t ),
donde f : V → W lineal.
Demostración.- Recordemos que rang(f ) = dim Im(f ). Elegimos una base {v1 , . . . , vm } de V y otra
{w1 , . . . , wn } de W de tal manera que la matriz de f respecto a {vi } y {wj } sea
Ir 0
, rang(f ) = r.
0 0
( η1 · · · ηn ) .
de donde
Im(f t ) = {( η1 · · · ηr 0 · · · 0 )}
es de dimensión r.
64 II Complemento
Proposición II.2.5.- Sean {x1 , . . . , xm } una base de V y {y1 , . . . , yn } una base de W . {ξ1 , . . . , ξm } base
de V ∗ dual de {x1 , . . . , xm } y {η1 , . . . , ηn } base de W ∗ dual de {y1 , . . . , yn }.
Sea f : V → W lineal, se donota A la matriz de f respecto a las bases {xi } y {yj }.
f t : W ∗ → V ∗ , A∗ la matriz de f t respecto a las bases {ηj } y {ξi }, entonces
A∗ = At .
n
X m
X
Demostración.- Se tiene A = (aij ) con aij yi . A∗ = (a∗kl ) con f t (ηl ) = a∗kl ξk . Por consiguiente, de
i=1 k=1
un lado se obtiene !
m
X
f (ηl )(xj ) = a∗kl ξk (xj ) = a∗jl ;
k=1
Sea V un espacio vectorial. Una forma bilineal simétrica sobre V es una aplicación
f :V ×V →K
por lo tanto f = 0.
iii) ϕ es sobreyectiva. Sea A = (aij ) una matriz simétrica. Planteamos
X
f (x, y) = xi yj aij ,
i,j
m(m + 1)
dim Sym2 (V, K) = .
2
Demostración.- Ejercicio
Proposición II.3.3.- Resultado Principal.- Sea f ∈ Sym2 (V, K), supongamos que la caracterı́stica de K es
diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.
66 II Complemento
e′1 = e1 ,
f (e1 , e2 )
e′2 = e2 − e1 ,
f (e1 , e1 )
..
.
f (e1 , em )
e′m = em − e1 .
f (e1 , e1 )
Se tiene por consiguiente
f (e1 , ej ) f (e1 , ej )
f (e′1 , e′j ) = f (e1 , ej − e1 ) = f (e1 , ej ) − f (e1 , e1 ) = 0.
f (e1 , e1 ) f (e1 , e1 )
De esta manera, respecto a la base {e′1 , . . . , e′m }, la matriz de f es de la forma
f (e1 , e1 ) 0
0 B′
e′1 = e1 + e2 ,
e′2 = e2 ,
..
.
e′m = em .
Se tiene
f (e′1 , e′1 ) = f (e1 + e2 , e1 + e2 ) = f (e1 , e1 ) + 2f (e1 , e2 ) + f (e2 , e2 ) = 2f (e1 , e2 ) 6= 0,
si la caracterı́stica de K es diferente a 2.
Por lo tanto nos encontramos en el primer caso.
Iteramos la construcción de la base, con B ′ y las subsiguientes matrices que obtengamos.
Ejemplo
1.- Cuando V = R2 , se tiene que una forma bilineal simétrica es de la forma
f : R2 × R2 → R
x y1
( 1 , ) 7→ a11 x1 y1 + a12 (x1 y2 + x2 y1 ) + a22 x2 y2 .
x2 y2
ϕ : R2 → R
x 7→ f (x, x) = a11 x21 + 2a12 x1 x2 + a22 x22 .
II.3 Formas Bilineales Simétricas 67
Cϕ = {x ∈ R2 |ϕ(x) = 1}.
La proposicion II.3.3 nos indica que existe un sistema de coordenadas (ξ, ζ), sobre R2 tal que la ecuación
de Cϕ es de la forma
αξ 2 + βζ 2 = 1.
y
ζ
Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz de
f ∈ Sym2 (V, C) es de la forma
diag(1, . . . , 1, 0, . . . , 0).
| {z } | {z }
p q
A(f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p q
A′ (f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p′ q′
Mostraremos que p = p′ y q = q ′ .
Sea V0 = {x ∈ V |f (x, y) = 0, ∀y ∈ V }, se puede verificar facilmente que V0 es un subespacio vectorial
de V .
68 II Complemento
f (ei , ek ) = 0 ∀k.
m
X
Sea x = xi ei ∈ V0 , por definición f (x, ek ) = 0, para todo k. Ahora bien
i=1
m
X
xk para k ≤ p,
xi f (ei , ek ) =
0 para k > p.
i=1
dim V0 = q = m − p.
De la misma manera se hace el mismo razonamiento con la base {e′1 , . . . , e′m } obteniendo dim V0 = q ′ . De
donde p = p′ y q = q ′ .
Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es
y f (e′i , e′j ) = 0 si i 6= j.
Para la segunda parte del corolario consideramos las bases {ei } y {e′i } respecto a las cuales, la matriz
de f es
A(f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0),
| {z } | {z } | {z }
r s t
A′ (f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).
| {z } | {z } | {z }
r′ s′ t′
r
X
Plantemos v = xi ei , de donde por un lado
i=1
r r
! 2
X X X
f (v, v) = f xi ei , xi ei = x2i ,
i=1 i=1 i=1
y del otro
′
rX +s′ m
X
′
rX +s′ m
X
f (v, v) = f − yj e′j − zk e′k , − yj e′j − zk e′k =
j=r ′ +1 k=r ′ +s′ +1 j=r ′ +1 k=r ′ +s′ +1
′
rX +s′
− yj2 .
j=r ′ +1
Por consiguiente
m m
!
X X
f (ei , ej ) = f pkj e′k , plj e′l
k=1 l=1
m
X
= pki f (e′k , e′l )plj
k,l=1
Xm
= (P t )ik (A′ )kl (P )lj = (P t A′ P )ij .
k,l=1
Corolario II.3.7.- Supongamos K de caracterı́stica diferente a 2. Sea A′ una matriz simétrica de orden m,
entonces existe P ∈ Gl(m, K) tal que
P t AP
es una matriz diagonal.
Demostración.- Ejercicio.
70 II Complemento
E×E →R
(x, y) 7→ hx, yi
hfi , fj i, j < i;
i−1
X
fi = ei + pji ej
j=1
Ejemplos
3.- Rn con el producto escalar estandar, la base canónica es ortonormal.
4.- Sea E el subespacio de C ∞ (R, R) engendrado por
{1, cos t, sin t, cos 2t, sin 2t, . . . cos nt, sin nt} polinomios trigonométricos de grado menor o igual a n con
el producto escalar Z 2π
hf, gi = f (t)g(t)dt.
0
La base
{1, cos t, sin t, . . . , cos nt, sin nt}
es una base ortogonal.
1 cos t cos nt sin nt
√ , √ ,..., √ , √
2π π π π
es una base ortonormal
Proposición II.4.2.- Sea E un espacio euclidiano de dimensión n. Entonces E es isomorfo a Rn dotado
del producto escalar estandar.
72 II Complemento
ϕ : E → Rn
fi 7→ ei ,
de donde
* n n
+ n
X X X
hϕ(x), ϕ(y)i = xi ei , yi ei = xi yi .
i=1 i=1 i=1
g1 , g2 ∈ H ⇒ g1 ∗ g2 ∈ H,
g ∈ H ⇒ g −1 ∈ H.
Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operación heredada de
G.
Definición II.4.4.- Un endomorfismo a : E → E, E espacio euclidiano, es una transformación ortogonal
o una isometrı́a si
ha(x), a(y)i = hx, yi, ∀x, y ∈ E.
Se denota O(E) el conjunto de las transformaciones de E.
Proposición II.4.5.- Se tiene:
i) a ∈ O(E), entonces a es un automorfismo de espacio euclidiano.
ii) O(E) es un subgrupo de Gl(E).
Demostración.- Ejercicio.
Proposición II.4.6.- Sea a ∈ Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces
a ∈ O(E) ⇐⇒ At A = I.
Por lo tanto
n
X
a ∈ O(E) ⇐⇒ aki akj = δij ⇐⇒ (At A)ij = Iij .
k=1
Q2 Q−1 −1
1 = T2 T1 ∈ O(m, R) ∩ T+ (m, R).
Afirmamos que O(m, R) ∩ T+ (m, R) = {I}. Si esto es cierto, se tiene que Q2 Q−1 −1
1 = T2 T1 = I, de donde
Q1 = Q2 y T1 = T2 .
Probemos la afirmación; sea T ∈ O(m, R) ∩ T+ (m, R), entonces
t11 ∗
t22 ∗
T =
..
y T t T = I.
.
0 tnn
F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ F } .
ϕ:E→F
m
X
x 7→ hx, fi ifi .
i=1
Esta aplicación es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F ⊥ = ker ϕ; en
efecto, x ∈ F ⊥ , se tiene ϕ(x) = 0; x ∈ ker ϕ, hx, fk i para k = 1, . . . , k, por lo tanto x ∈ F ⊥ .
La formula de dimensión da
dim E = dim F + dim F ⊥ ,
por consiguiente solo falta mostrar que F ∩ F ⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F ⊥ , implica que
hx, xi = 0 y por lo tanto x = 0.
ii) Ejercicio.
Proposición II.4.11.- La aplicación
ϕ : E → E ∗ = Hom(E, R)
y 7→ ϕ(y) : E → R
x 7→ hx, yi.
es un isomorfismo
Demostración.- Como dim E = dim E ∗ , es suficiente ver que ker ϕ = {0}.
Sea y ∈ ker ϕ, se tiene hx, yi = 0, para todo x ∈ E, en particular para x = y, por lo tanto hy, yi = 0
implica que y = 0.
Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo canónico entre E y
E ∗.
II.5 Formas Hermı́ticas, Espacios Unitarios 75
Proposición II.5.1.- Herm(V, C), el conjunto de los f hermı́ticas sobre V es un espacio vectorial sobre R.
Demostración.- Ejercicio.
Sea f ∈ Herm(V, C) y {e1 , . . . , em } una base de V , la matriz de f respecto a {e1 , . . . , em } es la matriz
Se dice que la matriz B ∈ Mm,m (C) es hermı́tica si B̄ t = B y el conjunto de tales matrices, se denota
Herm(m, C) y es un espacio vectorial real.
Proposición II.5.2.- La aplicaciones
Herm(V, C) → Herm(m, C)
f 7→ A(f )
g←B
donde m
X
g(x, y) = xi bij ȳj .
i,j=1
son isomorfismos de espacios vectoriales reales y son inversas entre si. Además
Herm(m, C) es de dimensión m2 .
Demostración.- Ejercicio.
Ejemplo
1.- La aplicación dada por
Cm × Cm → C
m
X
(x, y) 7→ xi ȳi
i=1
Demostración.- Ejercicio. Existe una proposición similar para las matrices simétricas.
Si f es hermı́tica, se tiene f (x, x) = f (x, x) ∈ R.
Se dice que f hermı́tica es definida positiva, (producto escalar hermı́tico), si
f (x, x) ≥ 0, ∀x ∈ V ;
f (x, x) = 0 ⇐⇒ x = 0.
Una forma hermí tica definida positiva se la denota h , i al igual que el producto escalar euclidiano.
E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar hermı́tico.
Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios
euclidianos. Por lo tanto se tiene los siguientes resultados análogos:
i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona.
ii) E espacio unitario de dimensión n es isomorfo a Cn provisto del producto escalar hermı́tico estandar
n
X
hx, yi = xi ȳi .
i=1
Ejemplos
1.- diag(a1 , . . . , am ) ∈ U(m, C) ⇐⇒ ai āi = 1, ∀i = 1, . . . , m.
2.- La matriz de la forma
a ib
ib a
con a, b ∈ R, a2 + b2 = 1 es una matriz unitaria.
Proposición II.5.5.- Descomposicion de Iwasawa para Gl(m, C). Sea A ∈ Gl(m, C). Entonces A se escribe
de manera única como A = U T , donde U ∈ U(m, C) y T ∈ T+ (m, C), con
t11 ∗
t22 ∗
T+ (m, C) = . t ∈ R y t > 0 .
.. ii ii
0 tnn
80 II Complemento
Demostración.- Ejercicio.
Sea F ⊂ E un subespacio de E unitario. Se define el subespacio ortogonal de F como
F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ E}.
ϕ : E → E ∗ = Hom(E, C)
y 7→ ϕ(y) : E → C
x 7→ hx, yi.
ϕ(βy) = β̄ϕ(y).
Demostración.- Ejercicio
Remarcas P
1.- Rn hx, yi = xi yi espacio euclidiano
P estandar. Serı́a natural de generalizar esta situación a los espacios
complejos, ası́: Cn hx, yi = xi yi . Pero sucede un fénomeno nuevo, existe x 6= 0 tal que hx, xi = 0.
Por ejemplo para n = 2 x = (1, i).
2.- E unitario, sea {e1 , . . . , en } una base ortonormal de E. Se introduce
X
ER = {x ∈ E|x = xi ei , xi ∈ R}.
ER es un espacio vectorial sobre R de misma dimensión que E. La restricción a ER del producto escalar
hermı́tico sobre E es un producto escalar euclidiano.
Capı́tulo III
Formas Normales
Sea V un espacio vectorial de dimensión n. Sea f ∈ End(V ) y {v1 , . . . , vn }, {v1′ , . . . , vn′ } dos bases de V .
Recordando el primer capı́tulo, se denota
A la matriz de f respecto a {vi },
A′ la matriz de f respecto a {vi′ },
M la matriz de pasaje de {vi } a {vi′ }.
Se tiene
A′ = M AM −1 .
Definición III.1.1.- Sean A, B ∈ Mn,n (K). Se dice que A y B son conjugadas o semejantes, si existe
M ∈ Gl(n, K) tal que B = M AM −1 .
Ejercicio.- Mostrar que la semejanza de matrices es una relación de equivalencia sobre Mn,n (K).
La interpretación geométrica que se puede dar: Si A es la matriz de f respecto a la base {vi }, la clase
de conjugación de A, es decir el conjunto de las matrices M AM −1 , coincide con el conjunto de las matrices
de f respecto a las bases de V .
Definición III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal que
g = h ◦ f ◦ h−1 .
Definición III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se dice
que λ ∈ K es un valor propio de f .
El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ.
dim ker(f − λid) se la llama la multiplicidad geométrica del valor propio λ.
Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ.
Por consiguiente, dicho de otra manera
Sea A ∈ Mn,n (K), se denota por ρ(A) : Kn → Kn la aplicación lineal cuya matriz respecto a la base
canonica es A.
Definición III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A).
Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A).
Ejemplo
1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1.
Proposición III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces:
i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f .
82 III Formas Normales
se tiene p p
X X
f( xj ) = 0 = λ j xj ,
i=1 i=1
ahora bien,
p
X p
X p
X
λ 1 xj − λ j xj = (λ1 − λj )xj = 0,
j=1 j=1 j=2
por hipótesis de inducción (λ1 − λj )xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por
consiguiente x1 = 0.
Corolario III.1.7.- Mismas hipótesis que la proposición precedente. Entonces la aplicación
ϕ
K1 × K2 × · · · Kp −→ V
(x1 , x2 , . . . , xp ) 7→ x1 + x2 + · · · + xp
p
M
es inyectiva. En este caso la imagen de ϕ es Kj .
j=1
Demostración.- Ejercicio.
Proposición III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dim V valores propios diferentes
λ1 , . . . , λm . Se elige vi un vector propio respecto a λi para i = 1, . . . , m. Entonces:
i) ker(f − λj id) es de dimensión igual a 1, para j = 1, . . . , m.
ii) {v1 , . . . , vm } es una base de V .
iii) La matriz de f respecto a {v1 , . . . , vm } es diag(λ1 , . . . , λm ).
Demostración.- Utilizando la notación de la proposición III.1.6, Kj = ker(f − λj id) 6= {0}, j = 1, . . . , m.
Por el corolario III.1.7, la aplicación
ϕ
K1 × K2 × · · · Km −→ V
(x1 , x2 , . . . , xm ) 7→ x1 + x2 + · · · + xm
Sea f ∈ End(V ). Sea {v1 , . . . , vm } una base de V . Se nota A la matriz de f respecto a {vi }. Por la
proposición precedente, el polinomio PA no depende de la elección de la base, solamente de f .
Se plantea Pf (x) = PA (x) el polinomio caracterı́stico de f .
Definición III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x]
no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede
factorizar en polinomios de grado igual a 1.
Ejemplo
2.- C es un cuerpo algebraicamente cerrado.
Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracterı́stico de f son exactamente los valores
propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor
propio y un vector propio.
Demostración.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene
Pf (λ) = 0 ⇐⇒ PA (λI − A) = 0
⇐⇒ ker(λI − f ) 6= {0}
⇐⇒ λ es un valor propio de f.
Ejemplos
3.- La sucesión de Fibonacci (Fn )n≥0 definida por
Fn+1 = Fn + Fn−1 ,
F0 = 0, F1 = 1.
por lo tanto
√ !n √ !n !
1 1 1+ 5 1− 5
Fn = √ (λn1 − λn2 ) = √ − .
5 5 2 2
5.- Ejercicio.- Mostrar que Pf (x) = Pf t (x) o bien PA (x) = PAt (x).
6.- Si A y B son conjugadas, se tiene PA (x) = PB (x); la recı́proca es falsa. En efecto, sean
0 0 0 1
A= , B= ;
0 0 0 0
se tiene
PA (x) = x2 , PB (x) = x2 .
III.1 Vectores y Valores Propios 85
f|W : W → W
En efecto, se elige una base {v1 , . . . , vp } de W que es completada en la base {v1 , . . . , vp , vp+1 , . . . , vm }
de V .
La matriz de f respecto a esta base es de la forma
A11 A12
A= ,
0 A22
Los Ci (A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1 (A) es lineal,
Cm (A) es de grado m.
ii) Ci (M AM −1 ) = Ci (A) para i = 1, . . . , m y M ∈ GL(m, K).
Xm
iii) C1 (A) = es la traza de A denotada por tr(A).
i=1
iv) Cm (A) = det(A).
v) f, g ∈ End(V ) ⇒ Pf ◦g (x) = Pg◦f (x).
vi) A, B ∈ Mm,m (K) ⇒ PAB (x) = PBA (x).
vii) A, B ∈ Mm,m (K) ⇒ Ci (AB) = Ci (BA) i = 1, . . . , m.
Demostración.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes.
Ejemplo
7.- Consideremos el caso m = 2,
a11 a12
A= ,
a21 a22
PA (x) = x2 − (a11 + a22 ) x + (a11 a22 − a12 a21 ) .
| {z } | {z }
C1 (A) C2 (A)
86 III Formas Normales
Sea A = (aij ) ∈ Mm,m (K), se dice que A es triangular superior si aij = 0 para i > j.
a11 an1
a22
A= ..
.
0 ann
Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de
f es triangular superior.
Remarca.- Se A es la matriz respecto a {v1 , . . . , vm }, la matriz de f respecto a {vm , . . . , v1 } es
amm · · · am1
. ..
A′ = .. . .
a1m · · · a11
Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definición de triangu-
larizable puede remplazarse por inferior o superior.
Sea A ∈ Mm,m (K). Se dice que A estriangularizable si existe M ∈ Gl(m, K) tal que M AM −1 sea
triangular superior o inferior.
Proposición III.2.1.- Sea f ∈ End(V ), entonces
el polinomio caracterı́stico de f
f es triangularizable ⇐⇒ es producto de polinomios de grado
1.
Demostración.-⇒ B es triangularizable, existe M inversible tal que
a11 an1
a22
M BM −1 = ..
.
0 ann
m
Y
y por lo tanto PB (x) = PA (x) = (x − a11 ).
i=1
⇐ por inducción sobre m.
m = 1 nada que hacer.
Supongamos cierta la proposición para m − 1, con m > 1.
Sea λ1 valor propio de f y v1 un vector propio asociado a λ1 , se tiene f (v1 ) = λ1 v1 y v1 6= 0.
Se elige v2 , . . . , vm de manera que {v1 , . . . , vm } sea una base de V . La matriz de f respecto a {v1 , . . . , vm }
es de la forma
λ1 ∗ ∗ ∗∗
A= ;
0 A′
se tiene PA (x) = (x − λ1 )PA′ (x).
Aplicando la hipótesis de inducción a A′ . Por consiguiente, existe M ′ ∈ Gl(m − 1, K) tal que M ′ AM ′−1 es
triangular. Se tiene
λ1 ∗ ∗
1 0 λ1 ∗ ∗ ∗∗ 1 0 λ2
′ ′ ′−1 = . .
0 M 0 A 0 M .
0 λn
III.2 Triangularización y Diagonalización 87
Demostración.- ⇒ Supongamos que existe una base {v1 , . . . , vm } con f (v1 ) = ai vi , por lo tanto
m
Y m
Y
Pf (x) = (x − ai ) = (x − λj )mj .
i=1 i=1
diag(λ1 , . . . , λ1 , . . . , λr , . . . , λr ).
| {z } | {z }
m1 mr
Por lo tanto ker(f − λ1 id) admite como base {v1 , . . . , vm1 y ası́ sucesivamente.
Se plantea Kj = ker(f − λj id). Por la proposición III.1.6, los Kj son linealmente independientes y por el
corolario III.1.7 ϕ
K1 × K2 × · · · Kr −→ V
(v1 , v2 , . . . , vr ) 7→ v1 + v2 + · · · + vr
L
es un isomorfismo, consiguientemente V = Kj . Sea Bj una base de KJ , de donde
Recordemos que E es un espacio unitario de dimensión m sobre el cuerpo C, si está provisto de un producto
escalar hermı́tico.
E×E →C
(x, y) 7→ hx, yi
sesquilineal y definido positivo.
Ası́ mismo se dispone de una biyección
ϕ : E → E ∗ = Hom(E, C)
y 7→ ϕ(y) : E → C
x 7→ hx, yi.
Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una única aplicación ã : E → E que vuelve el
siguiente diagrama conmutativo
a
←−
E 99K E
ã
ϕ↓ ↑ ϕ−1
−→
E∗ at E∗
es decir, ã = ϕ−1 at ϕ.
Proposición III.3.1.- ã es lineal y se llama la adjunta de a.
Remarca.- No confundir con la matriz adjunta, diferente contexto.
Demostración.- Por la adición no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para la
adición.
Para la multiplicación, tenemos
Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen
de la adjunta de y.
Demostración.- Por definición de ã, se tiene
at ◦ ϕ = ϕ ◦ ã.
Por lo tanto:
Proposición III.3.3.- Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E). Se denota A la matriz
de a respecto a {f1 , . . . , fm }. Sea à la matriz de ã respecto a i = 1, . . . , m. Entonces
à = Āt = At .
P P
Demostración.- Sean x = xi fi y y = yj fj . Se tiene
ȳ1
ha(x), yi = ( x1 · · · xm ) At ... .
ȳm
También
ȳ1
hx, ã(y)i = ( x1 ¯ .. .
· · · xm ) Ã .
ȳm
Deducimos por consiguiente
¯
At = Ã.
A = Ã = Āt
por lo tanto
hx, a(x)i = ha(x), xi ∈ R.
Se dice que a es positivo ai a es autoadjunto y si
ha(x), xi ≥ 0, ∀x ∈ E.
90 III Formas Normales
hz, wi = z w̄.
Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es ā. Las
definiciones dadas más arriba tendrán las siguientes equivalencias:
a es autoadjunto ⇐⇒ a ∈ R.
es positivo ⇐⇒ a ∈ R y a > 0.
antiautoadjunto ⇐⇒ a ∈ iR.
unitario ⇐⇒ |a| = 1.
Todo endomorfismo a es normal, en efecto aā = āa.
Caso General
Volvamos al caso general donde E es un espacio unitario de dimensión finita.
Remarcas
1.- El conjunto H = {a ∈ End(E)|a = ã} es un subespacio real de End(E), es decir
a, b ∈ H ⇒ αa + βb ∈ H, ∀α, β ∈ R.
2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjunto
C de H es un cono convexo si
a, b ∈ C ⇒ αa + βb ∈ C, ∀α, β ≥ 0.
End(E) = H ⊕ iH
ab ∈ H ⇐⇒ ab = ba.
Demostración.- ⇒ ab ∈ H, se tiene
e = b̃ã = ba.
ab = ab
⇐ Se supone ab = ba, entonces
e = b̃ã = ba = ab.
ab
III.3 Endomorfismos Normales de un Espacio Unitario 91
F ⊥ = {x ∈ E|hx, yi = 0 ∀y ∈ F }
Proposición III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈
End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio común a ϕ y ψ.
Demostración.- Sea λ valor propio de ϕ. Esto significa que
Se observa que W es invariante por ψ. En efecto, ψ(w) ∈ W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que
Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existe
v ∈ W con ψ(v) = µv. Por otro lado, por definición de W , se tiene ϕ(v) = λv.
Proposición III.3.10.- Se tiene:
i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a.
ii) Sea {f1 , . . . , fm } una base ortonormal de E tal que a(fj ) = λj fj , λj ∈ C. Entonces
1) ã(fj ) = λ̄j fj ;
2) a es autoadjunto ⇐⇒ λj ∈ R;
3) a es positivo ⇐⇒ λj ∈ R y λj > 0;
a es antiautoadjunto ⇐⇒ λj ∈ iR; 4)
a es unitario ⇐⇒ |λj | = 1.5)
Demostración.- i) ⇐ Sea {f1 , . . . , fm } una base ortonormal formada de vectores propios para a. Se tiene
a(fj ) = λj fj .
Por hipótesis de inducción, existe una base ortonormal {f2 , . . . , fm } de F1⊥ , de vectores propios de a y
ã. Entonces {f1 , f2 , . . . , fm } es una base ortonormal de E formada de vectores propios para a y ã.
ii) 2,3,4 ejercicio.
Corolario III.3.11.- Sea A ∈ Mm,m (C) una matriz normal, respectivamente unitaria, hermı́tica, anti-
hermı́tica, positiva. Entonces existe U ∈ U(m, C) tal que
U AU −1 = diag(λ1 , . . . , λm )
U AU −1 = diag(λ1 , . . . , λm )
de donde hvλ , vµ i = 0 si λ 6= µ.
Sea w = (w1 , . . . , wm ) ∈ Cm , se plantea w̄ = (w̄1 , . . . , w̄m ). Sea W ⊂ Cm un subespacio vectorial, se
plante W̄ = {w̄|w ∈ W }.
Ejercicio.- Si W = W̄ , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm .
Se tiene Vλ = V̄λ . En efecto
v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ Av̄ = λv̄ ⇐⇒ v̄ ∈ Vλ .
Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamos
Bλ . Planteamos B = ∪Bλ , B es una base ortonormal de Cm formada de elementos de Rm , por consiguiente
B también es una base ortonormal de Rm formada de vectores propios de A.
Se introduce Q la matriz de pasaje de la base canónica a B. Se tiene
QAQt = diag(λ1 , . . . , λm ).
Ejercicio.-Estudiar en R2 la ecuación
ax2 + 2bxy + cy 2 = 1.
III.3 Endomorfismos Normales de un Espacio Unitario 93
Sea E = Rm , el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de E
respecto a la cual la matriz de ϕ es de la forma
cos α − sin α
0 ··· 0
sin α cos α
cos β − sin β
0
sin β cos β
..
.
Θ=
cos ω − sin ω
0 · · · 0
sin ω cos ω
±1
..
.
±1
La versión matricial: Sea Φ ∈ O(m, R), entonces existe Q ∈ O(m, R) tal que QΦQt = Θ.
Demostración.- Consideremos el diagrama siguiente
E = Rm ֒→ Cm
ϕ ϕC
y y
Rm ֒→ CM
Sea Φ la matriz de ϕ respecto a la base canónica. ϕC la aplicación lineal de Φ respecto a la base canónica.
Por consiguiente ϕC es una transformación unitaria de Cm . Dicho de otra manera Φ ∈ O(m, R) ⊂ U(m, C).
Por la proposición III.3.10 ϕC es diagonalizable y sus valores propios son módulo igual a 1. Por con-
siguiente M
Cm = Kλ Kλ = ker(ϕC − λid).
Se observa que los Kλ son ortogonales dos a dos; en efecto
λhvλ , vµ i = hϕC vλ , vµ i = hvλ , ϕ̃C vµ i = vλ , ϕ−1
C vµ = µ̄
−1
hvλ , vµ i = µhvλ , vµ i = 0.
lo que implica que vλ ⊥ vµ si λ 6= µ.
Se observa que K̄λ = Kλ̄ . Verificar como ejercicio.
Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto K̄λ = K̄λ̄ = Kλ , por lo tanto exist una
base Bλ de Kλ ortogonal y formada de elementos de Rm .
Si λ 6∈ R, se considera
Kλ ⊕ Kλ̄ = Kλ ⊕ Kλ̄ .
Sea {v1 , . . . , vmλ } una base ortonormal de Kλ , entonces {v̄1 , . . . , v̄mλ } es una base ortonormal de Kλ̄ . Mostrar
esta afirmación como ejercicio.
Se plantea:
1
b2j−1 = √ (vj + v̄j ) ∈ Rm , j = 1, . . . , mλ ;
2
1
b2j = √ i(vj − v̄j ) ∈ Rm m, j = 1, . . . , mλ .
2
Ahora bien {b1 , . . . , b2mλ } = Bλ es una base ortonormal de Kλ ⊕ Kλ̄ formada de vectores de Rm . La
verificación de esta afirmación la dejamos como ejercicio.
Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm , entonces base de
R . El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ.
m
94 III Formas Normales
Definición III.4.1.- Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0.
Proposición III.4.2.- Sea f ∈ End(V ). Entonces existe una única descomposición V = N ⊕ R tal que
a) f (N ) ⊂ N y f|N es nilpotente.
b) f (R) ⊂ R y f|R es inversible.
Demostración.- Para la existencia, se considera la sucesión
Se observa que si ker(f n ) = ker(f n+1 ), entonces ker(f n ) = ker(f n+p ) para p > 0. En efecto, sea x ∈
ker(f n+p ), se tiene f n+p (x) = 0 y
de donde
f n+p−1 (x) = 0 ⇒ x ∈ ker(f n+p−1 ),
iterando las veces que sea necesario obtenemos x ∈ ker(f n ).
También se puede observar que existe q > 0 tal que
Se plantea
N = ker(f q ),
R = Im(f q ).
Estos dos subespacios verifican las condiciones a) y b) y V = N ⊕ R.
Se tiene N ∩ R = {0}, sea x ∈ N ∩ R ,se tiene f q (x) = 0 y x = f q (y) para cierto y ∈ V . Ası́
f (x) = f 2q (y), se tiene
q
y ∈ ker(f 2q ) = ker(f q ).
Se tiene V = N + R, esto sigue de la fórmula de dimensión para aplicaciones lineales
Ejercicio.- Mostrar que si g ∈ End(V ) es nilpotente, entonces Pg (x) = xdim V .
Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f ∈ End(V ).
p
Y
Pf (x) = (x − λj )mj
j=1
P
con λi 6= λj para i 6= j y mj = m. Se tiene entonces
p
M
V = ker((f − λj id)mj ) .
j=1
| {z }
Vj
De donde Y
Pf1 (x) = xm1 (x + λ1 − λj )mj ,
j≥2
por lo tanto n1 = m1 y Y
Pf|R1 (x) = (x − λj )mj .
j≥2
y f es diagonalizable.
ii) Pf (x) = (x − λ)2 , se tiene
V = ker(f − λid)2 ,
lo que implica que
λid + (f − λid) .
f = |{z}
| {z }
homotecia
nilpotente
fd : ⊕Vj = V → V
X X
vj 7→ λj vj .
vj ∈Vj
Dicho de otra manera fd (Vj ) ⊂ Vj y fd |Vj es una homotecia de razon λj . Por construcción fd es diagonalizable
y además Y
Pfd (x) = (x − λj )mj = Pf (x).
Se puede observar que V = ⊕Vj es la descomposición de V en suma directa de subespacios propios para fd .
Se plantea
fn = f − dd .
Proposición III.4.4.- Mismas hipótesis y notación del teorema III.4.3. Entonces se tiene:
i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fn fd = fd fn . Además
Pf (x) = ffd (x).
ii) Si fd′ diagonalizable y fn′ nilpotente como en i), entonces fd′ = fd y fn′ = fn ¿
Demostración i) Se tiene f = fd + fn por definición. Sea vj ∈ Vj , entonces fd (vj ) = λj vj ∈ Vj . Ahora
bien,
fd (f (vj ) = λj f (vj ),
| {z }
∈Vj
y fn es nilpotente.
Pf = Pfd por construcción.
ii) Sean fd′ diagonalizable y fn′ nilpotentes, tales que
Deber observarse que Vj′ = ker(fd′ − λ′j id) por que fd′ es diagonalizable. Mostremos que fn′ (Vj ) ⊂ Vj ; en
efecto, se tiene vj′ ∈ Vj ⇐⇒ fd′ (vj ) = λ′j (vj′ ). Ahora bien
fn′ (fd′ − λ′j id)(vj′ ) = fn′ fd′ (vj ) − λ′j fn′ (vj′ ) = 0,
⇒ fd′ (fn′ ) = λ′j fn (vj′ ).
III.4 Descomposición Canónica 97
De la misma manera se muestra que f (Vj′ ) ⊂ Vj′ . Utilizando la proposición III.3.9 para f , fn′ y fd′ restringidos
en Vj′ , deducimos que λ′j = λk , para algún k, la verificación la dejamos como un simple ejercicio. En resumen
todo valor propio de fd′ es valor propio de f .
El siguiente paso es mostrar que fn′ (Vj ) ⊂ Vj , para todo j. Se tiene que
fd (fn′ (vj )) = λj fn′ (vj ) = fn′ (λj vj ) = fn′ (fd (vj )),
de donde fd fn′ = fn′ fd sobre Vj y por consiguiente sobre V . Por simples cálculos es facil ver también que
fn′ fn = fn fn′ .
Ejercicio.-Mostrar que fn − fn′ es nilpotente.
Por último mostremos que fd′ = fd , sea 0 6= v ∈ V ,
de donde v es vector propio de fn′ − fn y como este endomorfismo es nilpotente deducimos que fn′ (v) = fn (v)
y fd′ (v) = fd (v).
98 III Formas Normales
De donde Pf (f ) = 0.
Consideremos la aplicación
ϕf K[x] → End(V )
P 7→ P (f )
Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimensión de V es m, se
tiene dim End(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significa
que ker ϕf 6= {0}.
Como ϕf es un homomorfismo de anillos, se tiene que ker ϕf es un ideal, resultado que será visto en
otro curso.
El teorema de Hamilton Cayley afirma que Pf ∈ ker ϕf y se mostrará en otro curso de Algebra que
de donde
0 0
PA (A) = A2 − (a11 + a22 )A + (a11 a22 − a12 a21 )I = .
0 0
III.5 Teorema de Hamilton Cayley 99
2.- Sea A ∈ Mm,m (K). Se pide calcular A100 . Sea PA el polinomio caracterı́stico de A, este polinomio es
de grado m. Efectuando la división con resto, se tiene
(x100 − RA )(λi ) = 0, i = 1, . . . , m.
de la forma
0 1
.. .. 0
. .
.
0
0 ∗
Demostración.- i) Por el absurdo, suponemos que {v1 , g(v1 ), . . . , g q−1 (v1 )} es una familia linealmente
dependiente, por consiguiente existen αi ∈ K no todos nulos tales que
q−1
X
αi g i (v1 ) = 0,
i=0
Entonces
g q−1 (v1 ) = g q−p−1 (g p (v1 )) = g q−p−1 (g p+1 (w)) = 0.
Lo que contradice con la hipótesis que g q−1 (v1 ) = 0. Por consiguiente
{v1 , g(v1 ), . . . , g q−1 (v1 )} es linealmente independiente.P
Mostremos que g(V1 ) ⊂ V1 , sea w ∈ V1 , se tiene w = αi g i (v1 ) y
X
g(w) = αi g i+1 (vi ) ∈ V1 ⇒ g(V1 ) ⊂ V1 .
III.6 Endomorfismos Nilpotentes 101
ii) Se mostrará por inducción sobre el ı́ndice q de g la existencia de un suplementario W de V1 que es estable
por g.
Si q = 1, entonces g = 0 y no hay nada que hacer.
Se supone cierta la aserción para los endomorfismos nilpotentes de ı́ndice < q.
Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ı́ndice de g|R es
q − 1. La verificación de que el ı́ndice de g|R la dejamos como ejercicio.
Se puede aplicar la hipótesis de inducción a R, g|R , g(v1 ) y R1 , donde R1 es el subespacio de R
engendrado por {g(v1 ), . . . , g q−1 (v1 )}. Entonces existe un subespacio S de R tal que R = R1 ⊕ S y g(S) ⊂ S.
Via
V → R = Img
v 7→ g(v)
se introduce S ′ = {v ∈ V |g(v) ∈ S}.
Afirmamos que V = V1 + S ′ . En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que
g(x1 ) = r1 . Ahora bien
g(v − x1 ) = g(v) − g(s1 ) = s ∈ S,
por lo tanto v − x1 ∈ S ′ y más todavı́a v = x1 + s′ con x1 ∈ V1 y s′ ∈ S ′ .
Observamos que g(S ′ ) ⊂ S ′ , en efecto, sea s′ ∈ S ′
g(s′ ) ∈ S ′ ⇐⇒ g(g(s′ )) ∈ S,
g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por g p−1 (v1 ).
V1 ∩ S = {0}; en efecto
V1 ∩ S = V1 ∩ (S ∩ R) = V1 ∩ R ∩ S = R1 ∩ S = {0}.
S ⊕ (S ′ ∩ V1 ),
se elige un suplementario
S ′ = S ⊕ (S ′ ∩ V1 ) ⊕ S ′′ ,
se plantea W = S ⊕ S ′′ .
El subespacio W satisface las condiciones de la proposición, es decir:
a) g(W ) ⊂ W ; en efecto, w ∈ W , se tiene g(w) ∈ S ⊂ W .
b) V1 ∩ W = {0}; en efecto,
V1 ∩ W = V1 ∩ (W ∩ S ′ ) = (V1 ∩ S ′ ) ∩ W = {0},
por construcción de W .
c) V1 + W = V ; en efecto,
V = V1 + S ′ = V1 + (W + V1 ∩ S ′ ) = V1 + W.
102 III Formas Normales
donde cada uno de los Vj es cı́clico respecto a g. El entero k y los enteros qj = dim Vj dependen solamente
de g y no ası́ de la descomposición particular (III.6.1).
Demostración.- Se elige v1 ∈ V como en la proposición (III.6.2), después V1 el subespacio engendrado por
{v1 , g(v1 ), . . . , g q−1 (v1 )}. El subespacio V1 es cı́clico respecto a g.
Además existe una descomposición V = V1 ⊕ W donde g(W ) ⊂ W .
Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposición
(III.6.1).
Mostremos la unicidad de k y los qj . Para un entero n, se plantea
Por lo tanto
Proposición III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de V
respecto a la cual la matriz es de la forma normal de Jordan
0 ν1
0 ν2
.. ..
. . con νi = 0 o νi = 1.
0 ν
n−1
0
III.6 Endomorfismos Nilpotentes 103
ii) Sea A ∈ Mm,m (K) nilpotente. Entonces existe M ∈ Gl(m, K) tal que M AM −1 sea de la forma de Jordan.
Demostración.- Se recuerda el teorema precedente. Existe
k
M
V = Vj
j=1
m = q1 + q2 + · · · + qk , con q1 ≥ q2 ≥ · · · ≥ qk > 0.
Ejemplo
1.- Las particiones del entero 4 son:
4 = 4,
4 = 3 + 1,
4 = 2 + 2,
4 = 2 + 1 + 1,
4 = 1 + 1 + 1 + 1;
en total 5 particiones de 4.
A g ∈ End(V ) nilpotente se le asocia la partición
k
X
m= qj .
j=1
Demostración.- ⇒ Por hipótesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g ′ = hgh−1 . Se toma
una descomposición en espacios cı́clicos respecto a g V = ⊕Vj .
Afirmamos que V = ⊕h(Vj ) es una descomposición en subespacios cı́clicos respecto a g ′ , con lo que la
primera implicación estarı́a demostrada. En efecto, por hipótesis existe vj ∈ Vj tal que
Corolario III.6.6.- Existe un número finito de clases de conjugación de endomorfismos (de matrices)
nilpotentes. Este númro es igual al número de particiones del entero m = dim V .
Demostración.- Consecuencia de la proposición III.6.5, se ha obtenido una aplicación inyectiva
clases de conjugación de matrices (en- → {particiones de m} .
domorfismos) nilpotentes m × m
Km = V1 ⊕···⊕ Vk
|{z} |{z}
dim V1 =q1 dim Vk =qk
con {e1 , . . . , eq1 } base de V1 , {eq1 +1 , . . . , eq1 +q2 } base de V2 , etc. Esta es una descomposición en subespacios
cı́clicos respecto a A. En efecto A(eq1 ) = eq1 −1 , A2 (eq1 ) = eq1 −2 , etc.
Ejemplo
2.- Las matrices nilpotentes de 4 × 4 son conjugadas a una de las siguientes matrices de Jordan
0 1 0 0 0 1 0 0
0 0 1 0 0 0 1 0
, ,
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
0 1 0 0 0 1 0 0
0 0 0 0 0 0 0 0
, ,
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
106 III Formas Normales
Se plantea
a sc1
a 1
.. ..
J(m, a) =
. . ∈ Mm,m (K).
a 1
a
no es necesario que ai 6= aj si i 6= j.
Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces:
i) Sea f ∈ End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal
de Jordan.
ii) Sea A ∈ Mm,m (K), entonces existe M ∈ Gl(m, K) tal que M AM −1 es de la forma de Jordan.
Yr
Demostración.- Se escribe Pf (x) = (x − λj )mj . Se plantea Vj = ker(f − λj id)mj . Se tiene
j=1
r
M
V = Vj ,
j=1
de tipo Jordan.
Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida.
III.7 Descomposición de Jordan 107
Ejemplos
1.- Si A = M JM −1 , entonces An = M J n M −1 . Teóricamente para calcular An es suficiente saber calcular
la potencia de una matriz de Jordan. Se tiene
J(m, a) = aI + N,
y
n
X n
(J(m, a))n = ap−1 N i ,
i
i=1
0
con la convención que N = I. Puede observarse que N p = 0 si p ≥ m. Por otro lado a cada potencia
de N la subdiagonal de 1’s se desplaza a la derecha de una subdiagonal.
2.- Colocar A bajo la forma de Jordan, donde
0 1 0
A = 0 0 1.
−1 1 1
Se tiene
PA (x) = (x − 1)2 (x + 1),
por consiguiente
C3 = ker(A + I) ⊕ ker(A − I)2 .
| {z } | {z }
V1 V2
V1 =< {(1, 1, 1)} >, V2 =< {(2, 1, 0), (−1, 0, 1)} > .
y si J = M −1 AM , se tiene
1 −1 2
M = 1 −1 1 .
1 0 −1