Notas de

´
Algebra Lineal Elemental
por
Jos´e Antonio Belinch´on
ii
iii
Pr´ologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es
la de tener a mano un recordatorio de por donde iban los tiros. S´olo se demuestran
los teorema fundamentales y se acompo˜ na el texto con una serie de ejercios m´as o
menos trabajados. En modo alguno pretenden sustituir (porque es implosible) los
manuales cl´asicos o las notas de clase de un profesor. Es decir, estas notas estan
confeccionadas a modo de refrito entre las notas de clase que tom´e en su d
´
ia y de
distintos libros cl´asicos como los siguientes:
1. Golovina, L.I.
´
Algebra lineal y algunas de sus aplicaciones Edt. MIR 1980
2. Hern´andez, E.
´
Algebra y geometr
´
ia. Addison-Wesley/UAM 1994
3. Castellet, M et al.
´
Algebra lineal y geometr
´
ia. Edt. Revert´e 1994
4. Rojo, J. et al. Ejercicios y Problemas de ´algebra lineal. McGraw-Hill 1994
5. de Diego, B et al. Problemas de ´algebra y geometr
´
ia. Edt. Deimos 1991
6. Lipshutz, S.
´
Algebra lineal. McGraw-Hill 1968.
todo ello aderezado (como he indicado antes) con una serie de ejemplos de-
sarrollados (eso espero) al final de cada capitulillo.
ADVERTENCIA: No est´an concluidas y es muy posible que hayan sobre-
vivido numerosas erratas. Toda observaci´on en este sentido es bien recibida.
iv
´
Indice General
1 Espacios Vectoriales. 1
1.1 Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Composici´on de espacios. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Aplicaciones Lineales 9
2.1 Aplicaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Ecuaciones impl´ıcitas de un subespacio. . . . . . . . . . . . . . 16
2.3 Homomorfismo transpuesto. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Determinantes y Sistemas 19
3.1 Aplicaciones multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Tensores sim´etricos. . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Tensores antisim´etricos. . . . . . . . . . . . . . . . . . . . . . . 21
3.1.3
´
Algebra exterior. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1 Permutaciones de orden n. . . . . . . . . . . . . . . . . . . . . 21
3.2.2 Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.3 Formas n−lienales alternadas. . . . . . . . . . . . . . . . . . . . 22
3.2.4 Propiedades de las formas n-lineales alternadas. . . . . . . . . . 23
3.2.5 Expresi´on anal
´
itica de una forma n-lineal alternada. . . . . . . 23
3.2.6 Determinante de un sistema de vectores. . . . . . . . . . . . . . 23
3.2.7 Determinante de una matriz cuadrada. . . . . . . . . . . . . . . 24
3.2.8 Determinante de un endomorfismo. . . . . . . . . . . . . . . . . 24
3.2.9 Rango de una matriz. . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.10 Matriz inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Sistemas lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Clasificaci´on de Endomorfismos. Matrices de Jordan 45
4.1 Clasificaci´on de endomorfismos. . . . . . . . . . . . . . . . . . . . 45
4.2 Polinomio m´ınimo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Subespacios invariantes. . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Grado del polinomio m´ınimo. . . . . . . . . . . . . . . . . . . . . . 50
4.5 Matriz can´onica de un endomorfismo. (Jordan). . . . . . . . . 52
vi
´
INDICE GENERAL
4.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5 Formas Bilineales y Cuadr´aticas. 67
5.1 Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.1 Diagonalizaci´on de formas bilineales. . . . . . . . . . . . . . . . 71
5.2 Formas cuadr´aticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6 Espacios vectoriales eucl´ıdeos. 89
6.1 Espacios vectoriales eucl´ıdeos. . . . . . . . . . . . . . . . . . . . . . . . 89
6.2 Espacio Dual. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3 Subespacio ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.4 Producto vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.5 Aplicaciones entre espacios eucl
´
ideos. . . . . . . . . . . . . . . . . . . . 93
6.5.1 Aplicaciones adjuntas y autoadjuntas . . . . . . . . . . . . . . 93
6.5.2 Diagonalizaci´on de aplicaciones autoadjuntas y herm
´
iticas. . . 94
6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias . . . . . . . . 97
6.5.4 Diagonalizaci´on de matrices unitarias. . . . . . . . . . . . . . . 98
6.5.5 Forma can´onica de una matriz ortogonal. . . . . . . . . . . . . 99
6.6 Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Cap´ıtulo 1
ESPACIOS VECTORIALES.
1.1 Espacios Vectoriales.
Definici´on 1.1.1 Sea K un cuerpo conmutativo. Un espacio vectorial V definido
sobre un cuerpo K vieve dado por un conjunto no vacio de elementos vectoriales
sobre los que est´an definidos dos operaciones:
1. Una interna, la suma, (V, +) tiene estructura de grupo abeliano
+ : V V −→ V
(u, v) −→ u +v
i.e. verifica las propiedades:
• asociativa
• ∃ elemento neutro
• ∃ inverso
• conmutativa.
2. Externa, (V, ) producto por escalares:
: KV −→ V
(λ, u) −→ λu
verificando las siguientes propiedades:
• λ(u +v) = λu +λv
• λ(µ +v) = λµ +λv
• λ(µv) = λµv
• 1µ = µ
Bajo estas circunstancias podemos decir que (V, +, ) es un espacio vectorial
sobre el cuerpo K.
Definici´on 1.1.2 Subespacio. Sea W un conjunto no vacio. Decimos que W es un
subespacio vectorial de V si verifica las siguientes condiciones:
• Sean u, v ∈ W =⇒ u +v ∈ W
• λ ∈ K, u ∈ W =⇒ λu ∈ W
2 Espacios Vectoriales.
Definici´on 1.1.3 Suma directa de subespacios. Sean W
1
y W
2
dos subespacios vec-
toriales. Si W
1
∩ W
2
=

0 entonces decimos que la suma entre los dos subespacios es
directa y se denota por W
1
⊕W
2
. La suma de dos subespacios W
1
y W
2
es directa sii
cada vector de W
1
+W
2
se puede expresar de manera ´ unica como suma de un vector
de W
1
y de otro de W
2
.
Definici´on 1.1.4 Combinaci´on lineal. Sea V un espacio vectorial. Sean ¦v
1
, ...., v
n
¦
vectores del espacio V . Decimos que un vector u es combinaci´on lineal de ¦v
1
, ...., v
n
¦
si se puede expresar de la siguiente forma:
u =
¸
i
λ
i
v
i
Definici´on 1.1.5 Sistema de generadores. Se dice que un conjunto b de vectores
de V es sistema de generadores si cualquier vector de V se puede expresar como
combinaci´on lineal de vectores de b.
Definici´on 1.1.6 Un conjunto b de vectores es linealmente dependiente si existen
escalares λ
i
no todos nulos tales que
¸
i
λ
i
v
i
=

0
y lo es linealmente independiente si λ
i
o son todos nulos tales que
¸
i
λ
i
v
i
=

0
Proposici´on 1.1.1 Sean ¦v
1
, ...., v
n
¦ vectores de V entonces ¦v
1
, ...., v
n
¦ son lineal-
mente independientes sii al menos uno de ellos se puede expresar como combinaci´on
lineal de los dem´as.
Proposici´on 1.1.2 Supongamos que ¦v
1
, ...., v
n
¦ son todos linealmente independi-
entes. Sea u ∈ V tal que u no es combinaci´on lineal de ¦v
1
, ...., v
n
¦ entonces
¦v
1
, ...., v
n
¦ son linealmente independientes (L.I.).
1.2 Bases.
Definici´on 1.2.1 Base. Decimos que S es base de un espacio V si cumple las sigu-
ientes condiciones:
1. S es sistema de generadores de V
2. S es L.I.
Teorema 1.2.1 Base.
1. Todo espacio vectorial V tiene al menos una base.
2. Todas las bases de V tienen el mismo n´ umero de elementos.
Bases. 3
Demostraci´on. (1).- Sea B ⊂ V /B es un sistema de generadores B =
¦v
1
, ...., v
n
¦ , si los ¦v
1
, ...., v
n
¦ son LI entonces forman base. Si no es as
´
i entonces
alguno de los vectores ser´a combinaci´on lineal de los otros, entonces elimonamos ese
vector de tal forma que queden n−1 vectores y comprobamos si son LI o no. Si resulta
que estos n −1 vectores son LI entonces forman base en caso contrario continuamos
el m´etodo de ir eliminando vectores LD hasta que en el peor de los casos s´olo quede
un ´ unico vector, en este caso formar´a base al ser sistema de generadores.
(2).- Sea S = ¦v
1
, ...., v
p
¦ ⊂ V. Sabemos que existe una base B = ¦v
1
, ...., v
n
¦
del espacio vectorial V . Lo que tenemos que ver es que cualquier otra base de V
tiene igual n´ umero de elementos que B i.e. n elementos. Sea B/ otra base de V ,
como los vectores de B

son LI entonces cualquier subconjunto suyo tambi´en ser´a
LI, luego el n´ umero de elementos de cualquier subconjunto finito de B/ tendr´a que
ser menor igual que el n´ umero de elementos de B i.e. n, pero al ser B sistema de
generadores entonces el n´ umero de elemetos de B/ es menor igual que el n´ umero de
elemetos de B i.e. n. Por lo tanto tenemos que cardB/ ≤ cardB. Si cambiamos los
papeles i.e B/ ←→ B aplicando el mismo razonamiento llegar
´
iamos a la conclusi´on de
que cardB ≤ cardB

de lo que deducioms que cardB/ = cardB y por lo tanto todas
las bases tienen igual n´ umero de elementos.
Definici´on 1.2.2 Sea V un espacio de tipo finito sobre K. Se llama dimensi´on del
espacio V al n´ umero de elementos que tiene una base cualquiera de V y se denota
por dimV.
Proposici´on 1.2.1 Un conjunto B de vectores de un espacio vectorial es base de V
sii cada vector de V se expresa de manera ´ unica como combinaci´on lineal de vectores
de B.
Sea V un espacio vectorial de tipo finito sobre un cuerpo K, sea S = ¦v
1
, ...., v
n
¦
un sistema de generadores de V . Sean ¦v
1
, ...., v
p
¦ L.I. entonces encontramos que
n ≥ p. De igual forma si S = ¦v
1
, ...., v
p
¦ es un sistema de generadoresde V en-
tonces p ≥ dimV y si ¦v
1
, ...., v
p
¦ son un conjunto L.I. de vectores de V resulta que
p ≤ dimV. Si S = ¦v
1
, ...., v
p
¦ es un sistema de generadores de V y p = dimV en-
tonces S forma un conjunto L.I. y por lo tanto base. Y por ´ ultimo si S = ¦v
1
, ...., v
n
¦
son vectores L.I. tales que n = dimV entonces S es base de V .
Teorema 1.2.2 Base incompleta. Sea V un espacio vectorial de dimensi´on finita n
sobre un cuerpo K. Sea ¦v
1
, ...., v
p
¦ vectores L.I. con p ≤ n. Entonces existen n − p
vectores ¦u
1
, ...., u
n−p
¦ tales que ¦v
1
, ...., v
p
, u
1
, ...., u
n−p
¦ que forman base de V.
Demostraci´on. Sea (V, K) un e.v. tal que dimV = n. Sea ¦v
1
, ...., v
p
¦
vectores L.I. con p ≤ n. Si p = n entonces forman base. Si p < n como los ¦v
1
, ...., v
p
¦
son un sistema de generadores entonces existe un vector u
i
/ ∈ L[v
1
, ...., v
p
] entonces
¦u
i
, v
1
, ...., v
p
¦ son LI. Si resulta que n = p+1 entonces formar
´
ian base. Si p+1 < n,
repitiendo el razonamiento, vemos que existe un vector u
j
/ ∈ L[u
i
, v
1
, ...., v
p
] entonces
¦u
j
, u
i
, v
1
, ...., v
p
¦ son LI. Si resulta que n = p+2 entonces formar
´
ian base. Repitiendo
el argumento n − p veces llegamos a la conclusi´on de que existen ¦u
1
, ...., u
n−p
¦
vectores de tal forma que ¦v
1
, ...., v
p
, u
1
, ...., u
n−p
¦ que forman base de V.
Consecuencia: Sea L ⊂ V / L = L[v
1
, ...., v
p
] entonces existe B
V
=
¦v
1
, ...., v
n
¦ / ¦v
p+1
, ...., v
n
¦ engendran un subespacio M ⊂ V i.e. M = L[v
p+1
, ...., v
n
]
4 Espacios Vectoriales.
y por lo tanto dimM = n − p. Estos dos subespacios son complementarios i.e.
V = L ⊕ M, (L ∩ M = ∅) y por lo tanto cualquier vector v ∈ V se escribir´a co-
mo combinaci´on de vectores de L y de M i.e
v =
p
¸
i=1
λ
i
v
i
. .. .
L
+
n
¸
j=p+1
λ
j
v
j
. .. .
M
Teorema 1.2.3 F´ormulas de Grassmann. Sea V un espacio vectorial de dimensi´on
finita n sobre un cuerpo K. Sea W un subesapcio vectorial de V entonces:
1. W es de tipo finito
2. dimW ≤ dimV
3. dimW = dimV sii W = V
Corolario 1.2.1 Sea V un espacio vectorial de dimensi´on finita n sobre un cuerpo
K. Sean W, U subespacios de V entonces
dim(U +W) = dimU + dimW −dim(U ∩ W).
Demostraci´on. Sean L, M subespacios de V tal que L ∩ M = ∅. Sea
¦u
1
, ...., u
k
¦ una base de L∩M entonces dimL∩M = k. Entonces estos ¦u
1
, ...., u
k
¦
vectores son LI tanto en L como en M, i.e. ¦u
1
, ...., u
k
¦ ⊂ L son LI y ¦u
1
, ...., u
k
¦ ⊂ M
son LI. Las bases de L y M estan formadas por: B
L
= ¦u
1
, ...., u
k
, u
k+1
, ......, u
p
¦ y
B
M
= ¦u
1
, ...., u
k
, ω
k+1
, ......, ω
r
¦ por el teorema de prolongaci´on. Sea ahora un vector
v ∈ L+M que podemos escribir como v = u+ω i.e. v ∈ C.L. ¦u
1
, ...., u
k
, u
k+1
, ......, u
p
, ω
k+1
, ......, ω
r
¦
entonces
L +M = L[u
1
, ...., u
k
, u
k+1
, ......, u
p
, ω
k+1
, ......, ω
r
]
entonces dimL+M = p +r −k tenemos que ver que estos vectore son realmente LI
i.e. existen escalares ¦λ
i
, µ
i
¦ / λ
1
u
1
+ ....+ λ
p
u
p
+ µ
k+1
ω
k+1
+ ...... + µ
r
ω
r
= 0 i.e.
λ
i
= µ
i
= 0
λ
1
u
1
+.... +λ
p
u
p
= −

µ
k+1
ω
k+1
+...... +µ
r
ω
r

entonces L∩M = ∅. Se pueden expresar como combinaci´on lineal de ¦u
1
, ...., u
k
¦ con
escalares ¦δ
j
¦ de tal forma que
λ
1
u
1
+.... +λ
p
u
p
= −

µ
k+1
ω
k+1
+...... +µ
r
ω
r

= δ
1
u
1
+.... +δ
k
u
k
entonces
δ
1
u
1
+.... +δ
k
u
k

k+1
ω
k+1
+...... +µ
r
ω
r
= 0
al formar base, resulta que el conjunto de ¦δ
j
¦ = 0. Por lo tanto
dim(L +M) = dimL + dimM −dim(L ∩ M)
como quer
´
iamos demostrar.
Composici´on de espacios. 5
Definici´on 1.2.3 Subespacio complementario. Sea V un espacio vectorial de dimen-
si´on finita n sobre un cuerpo K. Sea U un subespacio de V . Se dice que un subespacio
vectorial W de V es complementrario de U si
V = W ⊕U
Proposici´on 1.2.2 Todo subespacio vectorial de un espacio vectorial V de dimensi´on
finita tiene al menos un subespacio complementario.
1.3 Composici´on de espacios.
Definici´on 1.3.1 Producto de espacios vectoriales. Sean V y W espacios vec-
toriales sobre un mismo cuerpo K. Consideramos el producto cartesiano
V W = ¦(v, w) / v ∈ V y w ∈ W¦
definimos una opreaci´on interna que viene dada por
(u, w) + (u

+w

) = (u +u

, w +w

)
y tambi´en definimos en V W una operaci´on de producto por escalares de K (externa)
λ(v, w, ) = (λv, λw)
El conjunto V W con las operaciones as
´
i definidas es un espacio vectorial.
Proposici´on 1.3.1 Si ¦v
1
, ...., v
p
¦ es una base de V y ¦w
1
, ...., w
n
¦ es una base de
W se tiene que
¦(v
1
, 0), ...., (v
p
, 0), (0, w
1
), ......., (0, w
n

es base de V W
Proposici´on 1.3.2 Si V y W son dos espacios vectoriales de dimensi´on finita sobre
un cuerpo K entonces
dim(V W) = dimV + dimW
Definici´on 1.3.2 Partici´ on de un conjunto. Sea X un conjunto no vacio. Se llama
partici´on de X a un subconjunto P de X /
• ∀ x ∈ X existe un elemento A de la partici´on / x ∈ A
• ∀ A, B ∈ P, si A = B entonces A∩ B = ∅ son disjuntos.
• ∅ ∈ P
Definici´on 1.3.3 Relaci´on biun
´
ivoca. Sea X un conjunto. Se llama relaci´on bi-
un
´
ivoca de X a cada subconjunto R de X X. Si (x, y) ∈ R se dice que x est´a
realcionado con y por la relaci´on R y se denota xRy.
Definici´on 1.3.4 Realci´on de equivalencia. Se dice que una relaci´on biun
´
ivoca sobre
un conjunto X es de equivalencia si cumple las siguientes propiedades
1. Reflexiva xRx
6 Espacios Vectoriales.
2. Sim´etrica xRy =⇒ yRx
3. Transitiva xRy ∧ yRz =⇒ xRz
Definici´on 1.3.5 Clase de equivalencia. Sea X un conjunto no vacio y sea R una
relaci´on de equivalencia sobre X. Se llama clase de equivalencia del elemneto x al
siguiente conjunto
¦y ∈ X; xRy¦ := [x]
R
Definici´on 1.3.6 Conjunto cociente. Llamamos conjunto cociente X/R al conjunto
cuyos elementos son clases de equivalencia seg´ un R. Los elementos de X/R consti-
tuyen una partici´on de X.
Definici´on 1.3.7 Espacio vectorial cociente. Sea (V/W) un conjunto en el que
definimos las siguientes operaciones:
1. Suma. u +W, v +W ∈ V/W entonces (u +W) + (v +W) = (u +v) +W
2. Producto por escalares. u +W ∈ V/W y λ ∈ K =⇒ λ(u +W) = λu +W
Proposici´on 1.3.3 (V/W) tiene estructura de espacio vectorial con las operaciones
anteriormente definidas.
Demostraci´on. V/W = ¦v +W / v ∈ V ¦ y sobre este conjunto definimos
dos operaciones (como en la primera definici´on) y comprobamos que con ellas el
conjunto (V/W, +, ) tiene estructura de espacio vectorial.
Con respecto a la primera de las operaciones la interna, vemos que (v +L) +
(w +L) = (v +w) + L est´a bien definida y que por lo tanto el conjunto (V/W, +)
tien estructura de grupo abeliano i.e. verifiaca las propiedades (asociativa, elemento
neutro, inverso y conmutativa)
Sea α ∈ K, definimos α(w +L) = αv + L. Comprobamos que est´a bien
definida y verificamos que el conjunto (V/W, ) cumple las siguiente propiedades
λ(u +v) +L = λ(u +L) +λ(v +L)
(λµ) v +L = (λµv) +L
(λ +µ) (v +L) = λ(v +L) +µ(v +L)
1µ +L = v +L
por lo tanto queda demostrado.
Teorema 1.3.1 Sea V espacio vectorial de dimensi´on finita sobre un cuerpo K. Sea
W un subespacio de V entonces el espacio vectorial cociente es tambi´en de dimensi´on
finita y
dim(V/W) = dimV −dimW
Demostraci´on. Sea ¦w
j
¦
k
j=1
= B
L
entonces B
V
= ¦w
j
¦
n
j=1
(por el teo-
rema de prolongaci´on de la base). Si B
V/L
= ¦w
j
+L¦
n
j=k+1
entonces dimV/L =
n − k. Ve´amoslo: V/L = ¦x +L / x ∈ V ¦ tenemos que ver que la base B
V/L
=
¦w
j
+L¦
n
j=k+1
forma un sistema de generadores y que son LI.
Ejemplos 7
S.G.: B
V/L
= ¦w
j
+L¦
n
j=k+1
ya que para todo x + L ∈ V/L con x ∈ V
podemos expresar
x =
k
¸
i=1
a
i
w
i
+
n
¸
j=k+1
b
j
w
j
x +L =
k
¸
i=1
a
i
(w
i
+L) +
n
¸
j=k+1
b
j
(w
j
+L) =
=
n
¸
j=k+1
b
j
(w
j
+L)
ya que ¦w
j
¦
k
j=1
∈ L entonces ¦w
j
¦
k
j=1
+ L = 0 + L ⇐⇒ ¦w
j
¦
k
j=1
− 0 ∈ L ⇐⇒
¦w
j
¦
k
j=1
∈ L.
L.I.: ¦w
j
+L¦
n
j=k+1
son LI ya que
n
¸
j=k+1
α
j
(w
j
+L) = 0 +L ⇐⇒
n
¸
j=k+1

j
w
j
) +L = 0 +L ⇐⇒
n
¸
j=k+1

j
w
j
) ∈ L
supongamos que
¸
n
j=k+1

j
w
j
) ∈ M entonces
¸
n
j=k+1

j
w
j
) ∈ L ∩ M entonces
¸
n
j=k+1

j
w
j
) = 0 ⇐⇒ (α
j
) = 0.
1.4 Ejemplos
8 Espacios Vectoriales.
Cap´ıtulo 2
APLICACIONES LINEALES
2.1 Aplicaciones Lineales.
Definici´on 2.1.1 Sean V, W dos espacios vectoriales definidos sobre un cuerpo K.
Decimos que la aplicaci´on f es lineal
f : V −→ W
si verifica que:
1. ∀ v
1
, v
2
∈ V, f(v
1
+v
2
) = f(v
1
) +f(v
2
)
2. ∀ v
1
∈ V, λ ∈ K f(λv
1
) = λf(v
1
)
Proposici´on 2.1.1 f es aplicaci´on lineal sii ∀ v
1
, v
2
∈ V, ∀ λ, µ ∈ K
f(λv
1
+µv
2
) = λf(v
1
) +µf(v
2
)
Observaci´on 2.1.1 Las aplicaciones lineales transforman combinaciones lineales en
combinaciones lineales.
Proposici´on 2.1.2 Sea f : V −→ W. Si ¦v
1
, ......, v
n
¦ ⊂ V son LD entonces
¦f(v
1
), ...., f(v
n
)¦ ⊂ W son LD.
Proposici´on 2.1.3 Sea f : V −→ W inyectiva, entonces si ¦v
1
, ......, v
n
¦ ⊂ V son
LI entonces ¦f(v
1
), ...., f(v
n
)¦ son LI
Definici´on 2.1.2 Sea f : V −→ W. Definimos el ker f como:
ker f =

v ∈ V / f(v) =

0
¸
⊂ V
y la Imf como:
Imf = ¦w ∈ W / ∃v ∈ V / f(v) = w¦ ⊂ W
Observaci´on 2.1.2 Los conjuntos ker f e Imf tienen estructura de espacio vectori-
al. Ve´amoslo: Por ejemplo consideremos dos vectores u, v ∈ ker f entonces tenemos
que ver que la suma de ambos tambi´en perteneces al ker f; f(v +u) = f(u) +f(v) =
f(0)+f(0) = 0 por la linealidad de f podemos asegurar que (u+v) ∈ ker f. Sea ahora
λ ∈ K y v ∈ ker f tenemos que ver que λv ∈ ker f, como antes apoy´andonos en el echo
de que la aplicaci´on f es lineal tenemos que f(λv) = λf(v) = 0 entonces λv ∈ ker f.
De igual forma se demuestra que Imf tiene estructura de espacio vectorial.
10 Aplicaciones Lineales
Proposici´on 2.1.4 Sea f : V −→ W isomorfismo, entonces f
−1
: W −→ V es un
isomorfismo.
Proposici´on 2.1.5 Sea f : V −→ W , es inyectiva sii ker f =

0
¸
.
Demostraci´on. =⇒| Sea v ∈ ker f, entonces f(v) = 0, pero f es lineal
entonces f(0) = 0 y f(v) = f(0) = 0, pero al ser f inyectiva entonces v = 0.
⇐=| ker f =

0
¸
entonces f es inyectiva. Sean v, v/ ∈ V / f(v) = f(v

)
entonces f(v) − f(v

) = 0, f(v − v/) = 0 lo que demuestra que v − v

∈ ker f pero
como ker f =

0
¸
entonces v = v

lo que demuestra la inyectividad de la aplicaci´on.
Proposici´on 2.1.6 Sea f : V −→ W una aplicaci´on lineal tal que dimV = n.
Sea B
V
= ¦v
1
, ......, v
n
¦ entonces ¦f(v
1
), ...., f(v
n
)¦ es un sistema de generadores de
Imf ⊂ W.
Corolario 2.1.1 dimImf ≤ dimV
Proposici´on 2.1.7 dimImf = dimV ≤ dimW ⇐⇒ f es inyectiva.
Observaci´on 2.1.3 Sea f : V −→ W isomorfismo ⇐⇒dimW = dimV. Si dimW =
dimV y f inyectiva entonces es un isomorfismo.
Observaci´on 2.1.4 Si f es sobre. entonces dimImf = dimW.
Teorema 2.1.1 Isomorfismo. Sea f : V −→ W una aplicaci´on lineal entoces:
V/ ker f ≈ Imf
Demostraci´on. Tenemos que establer una aplicaci´on biyectiva (inyectiva
y sobre) y luego demostrar adem´as que se trata de una aplicaci´on lineal. Sea Sea
f : V −→ W; xRy si f(x) = f(y)
V/R
g
−→ Imf
∀x ∈ V , [x] ∈ V/R y por lo tanto g([x]) = f(x). Queremos demostrar que la
aplicaci´on g es biyectiva y lineal.
Veamos que se trata de una aplicaci´on. [x] = [y] =⇒ xRy entonces f(x) =
f(y) con lo que g ([x]) = g ([y]) luego g es aplicaci´on.
Inyectiva. g ([x]) = g ([y]) ⇐⇒ [x] = [y] =⇒ xRy entonces f(x) = f(y).
Sobreyectiva. Sea z ∈ Imf =⇒ ∃x ∈ V / f(x) = z. Tomamos [x] ∈ V/R de
tal forma que g ([x]) = f(x) = z.
Veamos que V/R es V/ ker f. Como ker f ⊂ V , xRy ⇐⇒ x − y ∈ ker f.
Como xRy ⇐⇒ x − y ∈ ker f ⇐⇒ f(x − y) = 0 ⇐⇒ f(x) = f(y) ⇐⇒ xRy. Luego
V/R ≡ V/ ker f, donde [x] = x + ker f. Hasta ahora hemos demostrado que
V/ (ker f)
g
−→ Imf
Aplicaciones Lineales. 11
es una aplicaci´on biyectiva, veamos ahora que es lineal. Sean x, y ∈ ker f ∈ V/ ker f,
∀α, β ∈ K
g(α(x + ker f) +β(y + ker f))
= αg(x + ker f) +βg(y + ker f)
ya que g(α(x + ker f)) = g(αx + ker f) = f(αx) = αf(x) i.e.
g(α(x + ker f) +β(y + ker f)) = g((αx +βy) + ker f)
f(αx +βy) = f(αx) +f(βy) = αf(x) +βf(y)
αg(x + ker f) +βg(y + ker f)
entonces g es biyectiva y lineal.
Observaci´on 2.1.5
V
f
-
W

V/ ker f
p
?
f

-
Imf
i
6
i f

p = f
donde
p(x) = x + ker f
f

(x + ker f) = f(x)
i(y) = y
Corolario 2.1.2
dim(V/ ker f) = dim(Imf)
dim(V ) −dim(ker f) = dim(Imf) =⇒
dim(V ) = dim(ker f) + dim(Imf)
Demostraci´on. Queremos demostrar que dim(V ) = dim(ker f)+dim(Imf)
para ello consideramos que f : V −→ W una aplicaci´on lineal tal que dimV = n y
que como ker f ⊂ V tomamos una base de dicho subespacio B
ker f
= ¦v
1
, ......, v
r
¦
aplicando el teorema de prolongaci´on de la base la ampliamos hasta obtener una base
de V i.e. B
V
= ¦v
1
, .., v
r
, v
r+1
, ...., v
n
¦ de tal forma que los f(v
i
) = 0 ∀i = 1, ..., r
y los f(v
j
) ∀j = r + 1, ..., n forman base de Imf. En efecto, si v ∈ Imf =⇒ ∃
u =
¸
a
i
v
i
∈ V / v = f(u) =
¸
a
i
f(v
i
) adem´as son LI ya que

0 =
n
¸
i=r+1
a
i
f(v
i
) = f

n
¸
i=r+1
a
i
v
i

=⇒
n
¸
i=r+1
a
i
v
i
∈ ker f
n
¸
i=r+1
a
i
v
i
=
r
¸
i=1
b
i
v
i
=⇒
r
¸
i=1
b
i
v
i

n
¸
i=r+1
a
i
v
i
=

0
i.e. sonn LI si a
i
, b
i
= 0.
12 Aplicaciones Lineales
Definici´on 2.1.3 Matriz de un homomorfismo. Sea f : V −→ W una aplicaci´on lin-
eal tal que dimV = n y dimW = r y sean B
V
= ¦v
1
, ......, v
n
¦ y B
W
= ¦w
1
, ......, w
r
¦ .
Sean x ∈ V e y ∈ W tales que

x = x
1
v
1
+...... +x
n
v
n
/ f(x) = y
y = y
1
w
1
+....... +y
r
w
r
adem´as

f(v
1
) = a
11
w
1
+...... +a
1r
w
r
.
.
. / f(x) = y
f(v
n
) = a
n1
w
1
+...... +a
nr
w
r
entonces
y
i
=
¸
a
ij
x
i
de tal forma que podemos escribir:
´(f) =

¸
¸
a
11
a
1r
.
.
.
.
.
.
.
.
.
a
n1
a
nr
¸

∈ M
n×r

¸
¸
y
1
.
.
.
y
n
¸

=

¸
¸
a
11
a
1r
.
.
.
.
.
.
.
.
.
a
n1
a
nr
¸

¸
¸
x
1
.
.
.
x
n
¸

Definici´on 2.1.4 Matriz de la composici´on de aplicaciones lineales. Producto de
matrices.
V
f
-
W
@
@
@
@
@
g • f
R
U
g
?
la composici´on de aplicaciones lineales es lineal.
Definici´on 2.1.5 Matriz inversa. Sea f : V −→ W una aplicaci´on lineal tal que
dimV = n y dimW = n y sean B
V
= ¦v
1
, ......, v
n
¦ y B
W
= ¦w
1
, ......, w
n
¦ tal que
´(f) = A ∈ M
n×n
(K). Entonces la matriz de la aplicaci´on f
−1
: W −→ V est´a
dada por ´(f
−1
) = B de tal forma que si f f
−1
= I entonces A B = I
n×n
Observaci´on 2.1.6 La f´ormula de c´alaculo de la matriz inversa no puede demostrarse
hasta que no se haya mostrado la teor
´
ia de determinantes.
Definici´on 2.1.6 Sean V, W espacios vectoriales sobre un cuerpo K. El conjunto
Hom(V, W) = ¦f : V −→ W / f es apli. lineal¦
tiene estructura de espacio vectorial con las siguientes operaciones:
Aplicaciones Lineales. 13
1. Ley interna. f, g ∈ Hom(V, W) : f + g : V −→ W / x ∈ V −→ f(x) + g(x)
entonces f +g ∈ Hom(V, W)
2. Ley externa. f ∈ Hom(V, W), ∀α ∈ K. (αf) (x) = α[f (x)] i.e. (αf) ∈
Hom(V, W)
Teorema 2.1.2 Hom(V, W) tiene estructura de espacio vectorial.
Demostraci´on. Simplemente definimos dos operaciones y comprobamos la
ristra de propiedades que debe verificar todo espacio vectorial.
Definimos la operaci´on interna (+) tal que para toda f, g ∈ Hom(V, W) :
f + g : V −→ W / x ∈ V −→ f(x) + g(x) entonces ¿f + g ∈ Hom(V, W)?. Vemos
que est´a bien definida:
(f +g) (αx +βy) = f(αx +βy) +g(αx +βy) =
α(f(x) +g(x)) +β(f(y) +g(y)) = α(f +g)(x) +β(f +g)(y)
Veamos ahora que el conjunto (Hom(V, W), +) tiene estructura de grupo abeliano,
i.e. que verifica las propiedades
1. Asociativa: f + (g +h) = (f +g) +h.
2. Existe elemento neutro: f +f
0
= f.
3. Existe elemento opuesto: f + (−f) = 0.
4. Conmutativa: f +g = g +f.
Definimos ohora una operaci´on externa y comprobamos que est´a bien definida.
f ∈ Hom(V, W), ∀α ∈ K. (αf) (x) = α[f (x)] i.e. (αf) ∈ Hom(V, W). Vemos que
esta bien definida ya que
αf [λx +µy] = αf(λx) +αf(µy) = αλf(x) +αµf(y) =
λ(αf(x)) +µ(αf(y))
comprobamos que el conjunto (Hom(V, W), ) verifica todas las propiedades distribu-
tivas (simpleemnte hay que marear los par´entesis):
1. α(f +g) = αf +αg
2. (α +β) f = αf +βf
3. α(βf) = αβf
4. 1 f = f
Con esto demostramos que el conjunto (Hom(V, W), +, ) tiene estructura de
espacio vectorial.
Proposici´on 2.1.8 dim(Hom(V, W)) = dimV dimW
14 Aplicaciones Lineales
Teorema 2.1.3 Sea ϕ : Hom(V, W) −→M
n×r
(K) es un isomorfismo entre espacios
vectoriales

.
Demostraci´on. Tenemos que demostrar que entre dichos espacios existe una
aplicaci´on lineal y biyectiva.
ϕ es lineal i.e. ϕ(αf +βg) = αϕ(f) +βϕ(g) = ´(αf) +´(βg). Sea
´(f) =

¸
¸
a
11
a
1p
.
.
.
.
.
.
.
.
.
a
ni
a
np
¸

y ´(g) =

¸
¸
b
11
b
1p
.
.
.
.
.
.
.
.
.
b
ni
b
np
¸

f(v
1
) =
p
¸
j=i
a
1j
w
j
, ........., f(v
n
) =
p
¸
j=i
a
nj
w
j
g(v
1
) =
p
¸
j=i
b
1j
w
j
, ........., g(v
n
) =
p
¸
j=i
b
nj
w
j
(αf +βg)(v
i
) = αf(v
j
) +βg(v
i
) = α

p
¸
j=i
a
ij
w
j
¸
¸

p
¸
j=i
b
ij
w
j
¸
¸
p
¸
j=i
(αa
ij
+βb
ij
) w
j
entonces
M(αf +βg) =

¸
¸
αa
11
+βb
11
αa
1p
+βb
1p
.
.
.
.
.
.
.
.
.
αa
n1
+βb
n1
αa
np
+βb
np
¸

=
= ´(αf) +´(βg)
luego ϕ(αf +βg) = αϕ(f) +βϕ(g) = ´(αf) +´(βg) como quer
´
iamos demostrar.
Ahora tenemos que ver, que esta aplicaci´on lineal es biyectiva i.e. inyectiva y
sobreyectiva.
Inyectiva: Sea f ∈ Hom(v, W) y sea f = f
0
: V −→ W tal que f
0
(x) = 0
∀x ∈ V. La aplicaci´on f : V −→ W =⇒ ∃x ∈ V / f(x) =

0 i.e. ∃i ∈ ¦1, ...., n¦ /
f(v
i
) =

0 y
´(f) =

¸
¸
¸
¸
0
.
.
.
0
.
.
.
a
i1
a
in
0
.
.
.
0
.
.
.
¸

con a
ij
= 0 y f = f
0
=⇒
´(f
0
) = ϕ(f
0
) =

¸
¸
¸
0
.
.
.
0
.
.
.
0
.
.
.
0
0 0
¸


Entendemos que se da por supuesto que el conjunto M
n×r
(K) tiene estructura de espacio vec-
torial.
Espacio Dual. 15
de tal forma que f / ∈ ker ϕ =⇒ ker ϕ = ¦f
0
¦ .
Sobre.: ϕ es sobre ya que si
A =

¸
¸
a
11
a
1p
.
.
.
.
.
.
.
.
.
a
ni
a
np
¸

tal que f : V −→ W es aplicaci´on lineal y f(v
j
) =
¸
p
j=i
a
ij
w
j
, ∀x ∈ V x =
¸
x
i
v
i
entonces f(x) =
¸
x
i
f(v
i
), demostrando as
´
i que ´(f) = A o lo que es lo mismo
ϕ(f) = A como quer
´
iamos demostrar.
En consecuencia existe una aplicaci´on lineal y biyectiva (un isomorfismo) entre
dichos espacios por lo que son isomorfos.
2.2 Espacio Dual.
Definici´on 2.2.1 Espacio Dual.
Hom(V, K) = ¦f : V −→K ¦ := V

dimV

= dimV
a los elementos f ∈ V

se les denomina formas lineales. Esta f´ormula s´olo es v´alida
si dimV < ∞.
Observaci´on 2.2.1 Supongamos que B
V
= ¦v
1
, ......, v
n
¦ es una base de V, que puede
escribirse de forma matricial como una matriz ´ ∈ M
n×1
. Sabemos que existe φ :
Hom(V, K) −→ M
n×1
que asigna a cada homomorfismo f una matriz de la forma
f −→

¸
¸
f(v
1
)
.
.
.
f(v
n
)
¸

Sea ahora la base del espacio de matrices M
n×1
formada por:
B

M
n×1
=

¸
¸
1
.
.
.
0
¸

, ...........,

¸
¸
0
.
.
.
1
¸

entonces llamamos base dual de B a la base de V

definida por:
B

=

φ
−1

¸
¸
1
.
.
.
0
¸

, ..........., φ
−1

¸
¸
0
.
.
.
1
¸

i.e.
f
1
= φ
−1

¸
¸
1
.
.
.
0
¸

, ......, f
n
= φ
−1

¸
¸
0
.
.
.
1
¸

de tal forma que podemos escribir
B

= ¦f
1
, ........., f
n
¦
16 Aplicaciones Lineales
como la base del espacio dual. Las formas lineales de la base B

quedan determinadas
como:
f
1
(v
1
) = 1 .... .... f
1
(v
n
) = 0
f
2
(v
1
) = 0 f
2
(v
2
) = 1 ..... f
2
(v
n
) = 0
.
.
.
.
.
.
.
.
.
.
.
.
f
n
(v
1
) = 0 ...... .... f
n
(v
n
) = 1
i.e.
f
i
(v
j
) = δ
ij
si por ejemplo x ∈ V, x =
¸
x
i
v
i
entonces
f
1
(x) = f
1
(x
1
v
1
+.... +x
n
v
n
) = x
1
f
1
(v
1
) = x
1
f
2
(x) = f
2
(x
1
v
1
+.... +x
n
v
n
) = x
2
f
2
(v
2
) = x
2
.
.
.
f
n
(x) = f
n
(x
1
v
1
+.... +x
n
v
n
) = x
n
f
n
(v
n
) = x
n
As
´
i f
i
(x) es la coordenada i-´esima de x, x
i
por lo que podemos considerar las formas
lineales de la base dual B

como las funciones coordenadas de los vectores x ∈ V
respecto de la base B.
Definici´on 2.2.2 Dual de un subespacio. Sea L ⊂ V entonces L

= Hom(L, K)
V

, i.e. no es un subespacio vectorial de V

. Sea B
L
= ¦v
1
, ......, v
r
¦, podemos comple-
tar esta base a una completa de V, B
V
= ¦v
1
, ...v
r
, v
r+1
, ..., v
n
¦ . Si B

L
= ¦f
1
, ......, f
r
¦
es la base dual de B
L
y B

= ¦f
1
, ...f
r
, f
r+1
, ..., f
n
¦ tal que f
i
: L −→K / f
i
(v
j
) = δ
ij
.
Sea ξ : L

−→ V

que manda cada f
i
en ξ(f
i
) ⊂ V

. Isomorfismo entre L

y
ξ(L

) ⊂ V

. Identificamos a ξ(L

) ⊂ V

como subespacio de V

.
Definici´on 2.2.3 Ortogonalidad asociada a un subespacio dual. Sea V es un espacio
vectorial sobre un cuerpo K y V

es su dual. Sea L ⊂ V , llamamos ortogonal de L
en V

al conjunto
L

= ¦f ∈ V

/ f(x) = 0 ∀x ∈ L¦
Proposici´on 2.2.1 L

⊂ V

Observaci´on 2.2.2 Sea B
L
= ¦v
1
, ......, v
r
¦ y B
V
= ¦v
1
, ...v
r
, v
r+1
, ..., v
n
¦ hemos
visto que B

V
∗ = ¦f
1
, ...f
r
, f
r+1
, ..., f
n
¦ y que B

L
∗ = ¦f
1
, ......, f
r
¦ de tal forma que
L

⊂ V

. Las formas ¦f
r+1
, ..., f
n
¦ forman base de L

. Por lo tanto V

= L

⊕L

y
se aplica la f´ormula de las dimensiones dimV

= dimL

+ dimL

.
2.2.1 Ecuaciones impl´ıcitas de un subespacio.
Teorema 2.2.1 La condici´on necesaria y suficiente para que el vector x ∈ L es que
∀ f ∈ L

sea f(x) = 0
Corolario 2.2.1 Si ¦g
1
, ...., g
r
¦ es un sistema de generadores del ortogonal L

de L.
los elementos x ∈ L quedan caracterizados por las relaciones:

g
1
(x) = 0
.
.
.
g
r
(x) = 0
que denominamos ecuaciones impl
´
icitas del subespacio L.
Homomorfismo transpuesto. 17
Ejemplo 2.2.1 Sea V = R
4
y K = R, el subespacio L esta generado por los sigu-
ientes vectores:
L :=

v
1
= (3, 1, 2, 1)
v
2
= (2, 1, 3, 1)
si f ∈ L

ser´a f(v
1
) = f(v
2
) = 0. B
V
= ¦e
1
, e
2
, e
3
, e
4
¦ a la forma lineal f le
corresponde una matriz
´(f) =

¸
¸
¸
a
b
c
d
¸

de manera que ∀x = (x
1
, x
2
, x
3
, x
4
) ∈ V ser´a
f(x) = (x
1
, x
2
, x
3
, x
4
)

¸
¸
¸
a
b
c
d
¸

= 0
entonces
f
1
(v
1
) = 0 = 3a +b + 2c +d = 0
f
2
(v
2
) = 0 = 2a +b + 3c +d = 0
resolviendo el sistema obtenemos:
´(f
1
) =

¸
¸
¸
1
−5
1
0
¸

´(f
2
) =

¸
¸
¸
0
−1
0
1
¸

por lo tanto las ecuaciones impl
´
icitas de un subespacio vendr´an dadas por:
x
1
−5x
2
+x
3
= 0
−x
2
+x
4
= 0
2.3 Homomorfismo transpuesto.
Definici´on 2.3.1 Homomorfismo transpuesto.
V
f
-
W
@
@
@
@
@
g • f
R
K
g
?
donde g ∈ W

, g f ∈ V

y
f
t
: W

−→ V

tal que
f
t
(g) = f g
verificando las siguientes propiedades:
18 Aplicaciones Lineales
1. f, g : V −→ W, (f +g)
t
= f
t
+g
t
2. (g f)
t
= f
t
g
t
3. f : V −→ V, es un isomorfismo, entonces: f
t
tambi´en es isomorfismo.
Definici´on 2.3.2 Matriz transpuesta. En las mismas condiciones de antes: Sea
h : V −→ W B
V
= ¦v
1
, ...., v
n
¦ B
W
= ¦w
1
, ...., w
q
¦
h
t
: W

−→ V

B
V
∗ = ¦f
1
, ...., f
n
¦ B
W
∗ = ¦u
1
, ...., u
q
¦
de tal forma que
´(h) = A =

¸
¸
a
11
a
ij
.
.
.
¸

∈ M
n×q
´(h
t
) = B =

¸
¸
b
11
b
ij
.
.
.
¸

∈ M
q×n
sabemos que h
t
= h u.
h
t
(u
j
) =
n
¸
i=1
b
ji
f
i
= g
j
h
Sea x ∈ V / x =
¸
n
i=1
x
i
v
i
entonces
h(x) =
n
¸
i=1
y
i
w
i
tal que y
i
=
¸
n
i=1
a
ij
x
i
. Por lo tanto:

h
t
(u
j
)

(x) = u
j
[h(x)] = y
i
=
n
¸
i=1
a
ij
x
i
por otro lado

h
t
(u
j
)

(x) =
n
¸
i=1
b
ji
f
i
(x) =
n
¸
i=1
b
ji
x
i
observando que
n
¸
i=1
b
ji
x
i
=
n
¸
i=1
a
ij
x
i
i.e.
b
ji
= a
ij
=⇒ ´(h
t
) = a
ji
Observaci´on 2.3.1 Se verifica:
1. (A+B)
t
= A
t
+B
t
2. Si A es invertible entonces A
t
tambi´en.
3. (A
t
)
t
= A
2.4 Ejemplos.
Cap´ıtulo 3
DETERMINANTES Y SISTEMAS
3.1 Aplicaciones multilineales.
Llegados a este punto se puede generalizar la noci´on de aplicaci´on lineal entre espacios
vectoriales y definir lo que se deniminan aplicaciones multilineles, como por ejemplo
las aplicaciones bilineales y todo lo referente a tensores y algebra tensorial, los tensores
antisim´etricos y el ´algebra de Grassmann etc.... Ve´amoslo de forma telegr´afica.
Sean V
1
, V
2
, W espacios vectoriales y sea f : V
1
V
2
−→ W una aplicaci´on
bilineal i.e. lineal en cada una de sus variables:
f(λu +µv, w) = λf(u, w) +µf(v, w)
f(u, µv +λw) = λf(u, w) +µf(u, v)
pero podemos extender esta definici´on de tal forma que a tales aplicaciones las de-
nominamos multilineales.
Supongamos que w ∈ V

y α ∈ W

definimos la aplicaci´on multilineal (bi-
linela)
w ⊗α(u, v) = w(u)α(v)
denominado producto tensorial de w y α.
Las aplicaciones multilineales pueden ser multiplicadas por escalares y sumar
entre si. Lo mismo que en le caso lineal, el conjunto de funciones multilineales
L(V
1
, ....., V
r
; W)
tiene estructura de espacio vectorial.
Consideremos ahora la siguiente aplicaci´on bilineal:
Definici´on 3.1.1 Espacio Bidual V
∗∗
. Sea (V, K) un espacio vectorial de dimen-
si´on finita i.e. (dimV < ∞). Consideramos la aplicaci´on bilineal
', ` : V

V −→K
(ω, v) −→ 'ω, v` = ω(v)
Si fijamos v ∈ V , entonces la aplicaci´on
', v` : V

−→K
ω −→ 'ω, v`
que es lineal y por lo tanto un elemento de V
∗∗
.
La aplicaci´on
ϕ : V −→ V
∗∗
u −→ ', u`
es un isomorfismo.
20 Determinantes y Sistemas
Podemos ahora definir el concepto de Espacio Tensorial. Definimos la apli-
caci´on multilineal que denominamos tensor:
T
r
s
: V ⊗... ⊗V
. .. .
r

s
. .. .
V

⊗... ⊗V

−→ W
r covariante y s contravariante.
Definimos el producto tensorial de dos tensores A ∈ T
r
s
y B ∈ T
t
n
como:
A⊗B ∈ T
r+t
s+n
definido como una funci´on sobre (V

)
r+t
(V )
s+n
mediante
A⊗B

ω
1
, ..., ω
r+t
, v
1
, .., v
s+n

= A(ω
1
, ..., ω
r
, v
1
, .., v
s
)B(ω
r+1
, ..., ω
t+r
, v
s+1
, ...., v
n+s
)
Observaci´on 3.1.1 Sobre la notaci´on:
• las ω deben llevar el
´
indice arriba, super
´
indice.
• las v deben llevar el
´
indice abajo, sub
´
indice.
Este producto tensorial verifica trivialmente las leyes asociative y distributiva.
Teorema 3.1.1 Un tensor est´as determinado por su vlaor sobre una base y su dual
(i.e. es localizable). Estos vlaores son las componentes de un tensor con respecto al
productotensorial de los elementos de las bases y ssu duales las cuales formana base
del espacio vectorial.
Observaci´on 3.1.2 Sea B
V
= ¦e
1
, ...., e
s
¦ y B
V
∗ =
¸
ω
1
, ....., ω
r
¸
y sea A ∈ T
r
s
entonces
A = A
i
1
,......,i
r
j
1
,......,j
s
e
i
1
⊗...... ⊗e
i
r
⊗ω
j
1
⊗...... ⊗ω
j
s
Corolario 3.1.1
dim(T
r
s
) = r +s
3.1.1 Tensores sim´etricos.
Un tensor A es sim´etrico en sus
´
indices p y q si las componentes con respecto a toda
base no cambian cuando estos
´
indices seintercambian. Un tensor A es sim´etrico en sus
(p, q) variables si el valor como funci´on multilineal no cambia cuando estas variables
se intercambian.
Teorema 3.1.2 Son equilavelentes:
1. A es sim´etrico en los
´
indices (p, q) ,
2. A es sim´etrico en las (p, q) variables,
3. las componentes de A con respecto a una base no cambian cuando se cambian
los
´
indices (p, q) .
Determinantes. 21
3.1.2 Tensores antisim´etricos.
La noci´on de tansor antisim´etrico es an´aloga a la de tensor sim´etrico s´olo que aqu
´
i
al intercambiar
´
indices o variables el tensor resultante es igual al tensor s´olo que con
signo negativo (i.e. le cambia el signo).
Teorema 3.1.3 Son equilavelentes:
1. A es antisim´etrico en los
´
indices (p, q) ,
2. A es antisim´etrico en las (p, q) variables,
3. las componentes de A con respecto a una base cambian de signo.
Teorema 3.1.4 A es antisim´etrico sii ∀ α ∈ V

A(ω
1
, .., α, ...., τ, ...., ω
r
, v
1
, .., v
s
) = 0
∀ ω
i
, α ∈ V

y v
i
∈ V.
3.1.3
´
Algebra exterior.
Lo an´alogo de la multiplicaci´on de tensores sim´etricos para antisim´etricos se denomina
producto esterior (o alternante, o Grassmann o wedge) y el ´algebra resultante se
denomina exterior o de Grassmann. El s
´
imbolo para este producto es ∧ y el espacio
de formas antisim´etricas de tipo (0, s) se denota por Λ
s
(V

).
Definimos el operador alternador: A −→ A
n
como una aplicaci´on lineal
T
0
s
−→ Λ
s
(V

) ∀s
que asigna a cada tensor su parte antisim´etrica ∀ ¦v
1
, ....., v
s
¦ ∈ V definimos:
A
n
(v
1
, .., v
s
) =
1
s!
¸
i
1
,....,i
s
sgn(i
1
, ...., i
s
)A(v
1
, .., v
s
)
para todas las s!-permutaciones de (1, ...., s) .
Entonces el producto exterior se define como:
A∧ B = (A⊗B)
a
verificando las leyes (asociativa, anticonmutativa y distributiva).
3.2 Determinantes.
3.2.1 Permutaciones de orden n.
Definici´on 3.2.1 Llamamos permutaci´on de orden n a toda aplicaci´on biyectiva σ
de un conjunto de n elementos A = ¦a
1
, ....., a
n
¦ sobre si mismo, i.e. σ : A −→ A.
Al conjunto de todas las permutaciones lo denotamos por S
n
.
Un elemento j ∈ Aes un elemento fijo por una permutaci´on σ ∈ S
n
si σ(j) = j.
Cuando j ∈ A es un elemento fijo de la permutaci´on σ, la sucesi´on
j, σ(j), σ
2
(j), ....., σ
r
(j)
es finita por serlo el comjunto A; por lo tanto ∃ un elemento de la misma, σ
k
(j) con
k ≥ 0 que coincide con alguno de los anteriores.
22 Determinantes y Sistemas
Proposici´on 3.2.1 Si es r = max
¸
k / σ
k
(j) = σ
h
(j); 0 ≤ h ≤ k
¸
entonces σ
r+1
(j) =
j.
Dados los elementos distintos de A =
¸
j, σ(j), σ
2
(j), ....., σ
r
(j)
¸
/ σ
r+1
(j) = j
decimos que σ es un ciclo de orden r si deja fijos los elementos de A que aparecen en
la sucesi´on anterior. Designamos tal permutaci´on como:
σ =
¸
j, σ(j), σ
2
(j), ....., σ
r
(j)
¸
Proposici´on 3.2.2 Toda permutaci´on σ de S
n
distinta de la identidad puede de-
scomponerse como producto de ciclos.
Decimos que una transposici´on es un ciclo de orden 2. Observamos que todo
ciclo σ puede descomponerse como producto de transposiciones.
Proposici´on 3.2.3 Toda permutaci´on σ de S
n
puede descomponerse como producto
de transposiciones (de forma no ´ unica).
Corolario 3.2.1 Si σ ∈ S
n
y τ
r
.....τ
2
τ
1
= ρ
s
.....ρ
1
son dos descomposiciones de σ
como producto de transposiciones, r +s es un n´ umero par.
Como consecuencia de este ´ ultimo corolario podemos concluir que el n´ umero
de factores de cualquier descomposici´on de una permutaci´on S
n
tiene siempre la
misma parida. Esto nos permite clasificar las permutaciones de orden n en dos
clases: pares, aquellas que se descomponen en el producto de un n´ umero par de
transposiciones e impares como las las que tienen un n´ umero impar.
Definimos el signo de la permutaci´on σ ∈ S
n
como el n´ umero ε(σ) determinado
conforme al siguiente criterio:
• ε(σ) = +1 si σ es par,
• ε(σ) = −1 si σ es impar.
Si σ es un ciclo de orden r, entonces ε(σ) = (−1)
r−1
.
3.2.2 Determinantes.
3.2.3 Formas n−lienales alternadas.
Sea V un esapcio vectorial / dimV = n sobre K. Una aplicaci´on
D :
n−veces
. .. .
V ..... V −→K
es una forma n−lineal alternada definida sobre V si cumple:
1. D(a
1
, ..., λa
i
, ....., a
n
) = λD(a
1
, ........, a
n
)
2. D(a
1
, ..., a
i
+a

i
....., a
n
) = D(a
1
, ...., a
i
, ...., a
n
) +D(a
1
, ...., a

i
, ...., a
n
)
3. D(a
1
, ...., a
i
, ...., a
n
) = 0 ⇐⇒ a
i
= a
j
con i = j.
Las dos primeras dicen que la forma es multilineal y la 3 que es alternada.
Determinantes. 23
3.2.4 Propiedades de las formas n-lineales alternadas.
1. Dada una transposici´on (i, j) se S
n
entonces:
D(a
1
, ...., a
i
, ., a
j
..., a
n
) = −D(a
1
, ..., a
j
, ., a
i
, ...., a
n
)
2. Si a
i
= 0
D(a
1
, ...., a
i
, ...., a
n
) = 0
3. ∀ σ ∈ S
n
D

a
σ(1)
, ........, a
σ(n)

= ε (σ) D(a
1
, ......., a
n
)
4. si ¦a
1
, ......., a
n
¦ son LD entonces
D(a
1
, ......., a
n
) = 0
5. D(a
1
, ......., a
n
) no var
´
ia si se le suma a un a
i
una combinaci´on lineal de los
restantes.
3.2.5 Expresi´on anal
´
itica de una forma n-lineal alternada.
Sea B
V
= ¦e
1
, ...., e
n
¦ /
x
1
= a
11
e
1
+..... +a
1n
e
n
.
.
.
x
n
= a
n1
e
1
+..... +a
nn
e
n
D(x
1
, ......., x
n
) =
¸
σ∈S
n
a
1σ(1)
........a
nσ(n)
D

e
σ(1)
, ........, e
σ(n)

=
D(e
1
, ...., e
n
)
¸
σ∈S
n
ε (σ) a
1σ(1)
........a
nσ(n)
3.2.6 Determinante de un sistema de vectores.
Sea (V, K) y B
V
= ¦e
1
, ...., e
n
¦ , llamamos determinante de los vectores ¦x
1
, ...., x
n
¦ ∈
V a la expresi´on
det
B
(x
1
, ......., x
n
) =
¸
σ∈S
n
ε (σ) a
1σ(1)
........a
nσ(n)
se desprende de la definici´on que ∀ D forma n-lineal definida en V,
D(x
1
, ......., x
n
) = D(e
1
, ...., e
n
) det
B
(x
1
, ......., x
n
)
Proposici´on 3.2.4 Sea B
V
= ¦e
1
, ...., e
n
¦ y sea k ∈ K entonces ∃! D en V /
D(e
1
, ...., e
n
) = k.
Proposici´on 3.2.5 Sea B
V
= ¦e
1
, ...., e
n
¦ y sea B

V
= ¦u
1
, ...., u
n
¦ entonces para
todo conjunto de vectores ¦x
1
, ...., x
n
¦ ∈ V se tiene:
det
B

(x
1
, ......., x
n
) = det
B
(x
1
, ......., x
n
) det
B

(e
1
, ...., e
n
)
24 Determinantes y Sistemas
Proposici´on 3.2.6 Si D es una forma n-lineal alternada definida en V y existe
B
V
= ¦e
1
, ...., e
n
¦ tal que D(e
1
, ...., e
n
) = 0 para cualquier otra base B

V
= ¦u
1
, ...., u
n
¦
se tiene que D(u
1
, ...., u
n
) = 0.
Proposici´on 3.2.7 Si D es una forma n-lineal alternada definida en V no identi-
camente nula entonces para cualquier otra forma D

∃ λ ∈ K / ∀ (x
1
, ......., x
n
)
D

(x
1
, ......., x
n
) = λD(x
1
, ......., x
n
)
Proposici´on 3.2.8 Los vectores (a
1
, ........, a
n
) son linealmente independientes si y
solo si ∀ B
V
det
B
(a
1
, ........, a
n
) = 0
3.2.7 Determinante de una matriz cuadrada.
Consideramos el conjunto de matrices cuadradas M
n×n
(K) en el cuerpo K,
A =

¸
¸
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
¸

tomamos la base can´onica de V i.e. B
V
= ¦e
1
, ...., e
n
¦ de tal forma que
x
1
= a
11
e
1
+..... +a
1n
e
n
.
.
.
x
n
= a
n1
e
1
+..... +a
nn
e
n
queremos asociar a cada elemento A ∈ M
n×n
(K) un n´ umero a ∈ K que denominare-
mos su determinante. A = (a
ij
) entonces
det A = det
B
(x
1
, ......., x
n
) i.e.
det A =
¸
σ∈S
n
ε (σ) a
1σ(1)
........a
nσ(n)
det A = [a
ij
[
como antes hemos identificado mediante un isomorfismo a cada endomorfismo con su
matriz, entoces hablar del determiante de un endomorfismo se reduce a hablar del
determinnate de su matriz.
Proposici´on 3.2.9 det A = det A
t
3.2.8 Determinante de un endomorfismo.
Sea f un endomorfismo en V (etc....). Si D es una forma n-lineal alternada V no
id´enticamente nula, entonces la aplicaci´on
D
f
: V ....... V −→K
(x
1
, ......., x
n
) −→ D(f(x
1
), ...., f(x
n
))
es tambi´en una forma n-lineal alternada definida en V .
Como hemos visto antes
D
f
= λD
Determinantes. 25
Proposici´on 3.2.10 El escalar λ es independiente de la forma n-linela alternada D.
El escalar λ est´a determinado de manera ´ unica por el endomorfismo f que
recibe el nombre de det f = λ, entonces
D
f
= det fD
i.e.
D[f(x
1
), ...., f(x
n
)] = det fD(x
1
, ......., x
n
)
∀ B
V
= ¦e
1
, ...., e
n
¦ se verifica:
det f = det
B
[f(x
1
), ...., f(x
n
)]
Sea ahora B
V
= ¦e
1
, ...., e
n
¦ y si f ∈ End(V ) / M(f, B
V
) = (a
ij
) entonces ∀ j =
1, 2, .., n
f(e
j
) =
n
¸
i=1
a
ij
e
i
entonces
det f = det
B
[f(x
1
), ...., f(x
n
)]
det f = det A
Proposici´on 3.2.11 El determinante de f ∈ End(V ) coincide con el determinante
de su matriz asociada con respecto de cualquier base.
Proposici´on 3.2.12 Todas las matrices asociadas a un mismo endomorfismo tienen
el mismo determinante.
Proposici´on 3.2.13 Un endomorfismo f es automorfismo sii det f = 0.
Proposici´on 3.2.14 Sean f, g ∈ End(V ) entonces:
1. det(f g) = det(f) det(g) =⇒ det(AB) = det(A) det(B)
2. det(I) = 1
3. f automorfismo, entonces det(f
−1
) = [det(f)]
−1
=⇒ det A
−1
= (det A)
−1
.
3.2.9 Rango de una matriz.
Sea A = (a
ij
) ∈ M
n×p
(K). Sean los vectores columna
a
11
e
1
+..... +a
p1
e
p
= b
1
.
.
.
a
1n
e
1
+..... +a
pn
e
p
= b
n
Definici´on 3.2.2 Llamamos rango de A al n´ umero de vectores columna de A con
determinante distinto de cero i.e. que son LI
rg(A) = dim[l (b
1
, ....., b
p
)]
26 Determinantes y Sistemas
Llamamos menor de una matriz arbitraria A a toda matriz cuadrada obtenida
a partir de A suprimiendo filas y columnas de la misma.
Proposici´on 3.2.15 El rango de A es el m´aximo de los ´ordenes de los menores de
A con determinante distinto de cero.
Proposici´on 3.2.16 rangA = al mayor n´ umero de vectroes fila LI.
Proposici´on 3.2.17 Sea f ∈ End(V ) y sea A = M(f, B) entonces
rg (A) = dim(Imf)
3.2.10 Matriz inversa.
Sea A = (a
ij
) ∈ M
n×n
(K). Para cada i, j ∈ (1, .., n) consideramos la matriz
C
ij
=

¸
¸
¸
¸
¸
¸
¸
a
11
a
1j
a
1n
.
.
.
.
.
.
.
.
.
0 1 0
.
.
.
.
.
.
.
.
.
a
n1
a
nj
a
nn
¸

llamamos menor adjunto de a
ij
al elemento de K
α
ij
= det(C
ij
)
y matriz adjunta de A a la matriz
ad(A) = (α
ij
)
i.e. la matriz adjunta de una matriz cuadrada A es la matriz transpuesta de la matriz
cuyos t´erminos son los menores adjuntos de los elementos de A.
Proposici´on 3.2.18 Matriz inversa.
A
−1
=
C
t
det A
donde C
t
es el menor de orden n −1 n −1
Ejemplo 3.2.1 Sea
A =

a b
c d

=⇒ A
−1
=

d
ad−bc

b
ad−bc

c
ad−bc
a
ad−bc

y sea
B =

¸
a b c
d e f
g h i
¸

=⇒ B
−1
=
1
det B

¸
ie −fh −ib +ch bf −ce
−id +fg ia −cg −af +cd
dh −eg −ah +bg ae −bd
¸

Sistemas lineales. 27
3.3 Sistemas lineales.
Definici´on 3.3.1 Sea (V, K) / dimV = n y sea B
V
= ¦e
1
, ......, e
n
¦. Sean ¦e
1
, ......, e
n
¦
y ¦a
1
, ......, a
n
¦ ⊂ V / a
i
= (a
i1
, ......, a
in
). El n´ umero m´aximo de vectores LI es el
rango de los ¦a
1
, ......, a
k
¦ = dim[L(¦a
1
, ......, a
k
¦)] . Sea
A =

¸
¸
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
¸

rangA = rang ¦a
1
, ......, a
k
¦
Proposici´on 3.3.1 Dada la matriz A, el rangA es igual al mayor orden de los
menores con det = 0.
Teorema 3.3.1 Rouch´e-Frobenious. Sean (V, K) / dimV = n y ¦a
1
, ......, a
r
¦ ∈ V
v ∈ L(a
1
, ......, a
r
) ⇐⇒ v(a
1
, ......, a
r
) = v(a
1
, ......, a
r
, v)
Consecuencias: Sea el sistema
a
11
x
1
+..... +a
1n
x
n
= b
1
a
1
= (a
11
, ......, a
1n
)
.
.
.
.
.
. v = (b
1
, ...., b
n
)
a
n1
x
1
+..... +a
nn
x
n
= b
n
a
n
= (a
n1
, ......, a
nn
)
decimos que el sistema es incompatible (no tiene soluci´on) sii v / ∈ L(a
1
, ......, a
r
) ⇐⇒
rangA = rangB donde
A =

¸
¸
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
¸

y B =

¸
¸
a
11
a
1n
b
1
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
nn
b
n
¸

el sistema
a
11
x
1
+..... +a
1n
x
n
= b
1
.
.
.
a
n1
x
1
+..... +a
nn
x
n
= b
n
es compatible sii v ∈ L(a
1
, ......, a
r
) ⇐⇒ rangA = rangB.
Observaci´on 3.3.1 Si rangA es m´aximo e igual a la dimensi´on de V entonces el
sistema es compatible determinado (existe una ´ unica soluci´on).
Si rangA es menor que la dimensi´on del espacio entonces el sistema es com-
patible pero existen muchas soluciones.
Otro punto de vista es el siguiente: Consideremos el sistema
a
11
x
1
+..... +a
1n
x
n
= b
1
.
.
.
a
n1
x
1
+..... +a
nn
x
n
= b
n
(3.1)
que podemos reescribir de la forma

¸
¸
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
¸

¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
b
1
.
.
.
b
n
¸

28 Determinantes y Sistemas
la soluci´on del sistema es un conjunto de escalares (α
1
, ......, α
n
) /
¸
a
ij
α
j
= b
j
. Sea
ahora f : V −→ W tal que dimV = n y dimW = p tal que B
V
= ¦e
1
, ......, e
n
¦ y
B
W
= ¦u
1
, ......, u
p
¦ tal que
´(f, B
V
) =

¸
¸
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
¸

las ecuaciones de f respecto de B
V
son

¸
i
a
1i
x
i
= y
1
.
.
.
¸
i
a
pi
x
i
= y
p
Teorema 3.3.2 Rouche-Frobenious. El sistema de ecuaciones lineales tiene solu-
ciones sii el vector
b =
¸
i
b
i
u
i
∈ Imf
Observaci´on 3.3.2 Teniendo en cuenta que los vectores ¦f(e
i

n
i=1
constituyen un
sistema de generadores de Imf y puesto que dim[Imf] = rangA si llamamos B a la
matriz ampliada, entonces el toerema de R-F dice:
Corolario 3.3.1 ∃! soluci´on si rangA = rangB.
Observaci´on 3.3.3 Las ecuaciones del sistema homog´eneo representan las ecua-
ciones del ker f. Si el sistema es compatible, el conjunto de sus soluciones es el
conjunto f
−1
(b) i.e. las soluciones del sistema (3.1) constityen en virtud del teorema
de isomorf
´
ia una clase de equivalencia de V respecto del subespacio ker f de man-
era que si (α
1
, ......, α
n
) es una soluci´on concreta de (3.1) el conjunto de todas las
soluciones del sistema es:
[(α
1
, ......, α
n
) + ker f] ∈ (V/ ker f)
por lo tanto las soluciones del sistema (3.1) se obtiene sumando a una soluci´on par-
ticualr del mismo el conjunto de todos los vectores de ker f, o lo que es lo mismo, el
conjunto de todas las soluciones del sistema homog´eneo asociado a (3.1). Sabemos
que dimImf = rangA entonces dimker f = n −rangA.
Proposici´on 3.3.2 Si el sistema es compatible entonces si
rangA = n determinado
rangA < n indeterminado
Proposici´on 3.3.3 Regla de Cramer. Sistema en el que el n´ umero de ecuaciones
coincide con el de inc´ognitas / det A = 0.
Sea
(a
ij
)
n×n
(x
i
) = (b
j
)
como det A = 0 entonces ∃ A
−1
/
x
i
= A
−1
b
j
Ejemplos. 29
i.e.

¸
¸
x
1
.
.
.
x
n
¸

=
1
det A

¸
¸
α
11
α
n1
.
.
.
.
.
.
.
.
.
α
1n
α
nn
¸

¸
¸
b
1
.
.
.
b
n
¸

i.e.
x
1
=
det

¸
¸
b
1
a
12
a
1n
.
.
.
.
.
.
b
n
a
2n
a
nn
¸

det A
,
.
.
.
x
1
=
det

¸
¸
a
11
a
1n−1
b
1
.
.
.
.
.
.
a
n1
a
nn−1
b
n
¸

det A
Ejemplo 3.3.1 Resolver el sistema
x +y +z = 4
2x −y +z = 3
x −y −z = −2
Sea
c =

¸
1 1 1
2 −1 1
1 −1 −1
¸

y A =

¸
1 1 1 4
2 −1 1 3
1 −1 −1 −2
¸

como det C = [C[ = 4 entonces rangC = rangA por lo tanto
x =

4 1 1
3 −1 1
−2 −1 1

4
, y =

4 1 1
3 2 1
−2 1 −1

4
, z =

4 1 1
3 2 −1
−2 1 −1

4
3.4 Ejemplos.
Ejemplo 3.4.1 Sea V / dimV = 3 y sea f ∈ End(V ) de tal forma que
M(f, B
V
) =

¸
1 2 3
−1 1 2
0 0 −1
¸

y L un subespacio vectorial engendrado por los vectores u, v / L = L(u, v) siendo
u = (1, 2, 1) y v = (1, −1, 1) respecto de la base B
V
. Queremos hallar f(L) y f
−1
(L).
¿Es f
2
: f
−1
(L) −→ L un isomorfismo?
30 Determinantes y Sistemas
Soluci´on.
En primer lugar vamos a calcular las ecuaciones impl
´
icitas del subespacio L,
estas son:
L ≡

x y z
1 2 1
1 −1 1

= x −z = 0
Observaci´on 3.4.1 Podemos pensar de forma intuitiva en que estos dos vectores
generan un plano cuya ecuaci´on es:
n = (u ∧ v) = (1, 0, −1) =⇒ x −z = 0
Las ecuaciones de f son:

¸
x

y

z

¸

=

¸
1 2 3
−1 1 2
0 0 −1
¸

¸
x
y
z
¸

o lo que es lo mismo

¸
x

y

z

¸

=

¸
x + 2y + 3z
−x +y + 2z
−z
¸

f(ω) ∈ L ⇐⇒ ω ∈ f
−1
(L)
por lo tanto
f(ω) ∈ L ⇐⇒ (x + 2y + 3z, −x +y + 2z, −z)
de tal forma que este vector ha de verificar las ecuaciones de L i.e. x −z = 0 por lo
tanto
x + 2y + 3z −(−z) = 0 ⇐⇒ x + 2y + 4z = 0
entonces las ecuaciones impl
´
icitas de f
−1
(L) son:
x + 2y + 4z = 0
Observaci´on 3.4.2 Darse cuenta de que
(1, 0, −1)

¸
1 2 3
−1 1 2
0 0 −1
¸

¸
x
y
z
¸

= x + 2y + 4z = 0
f(L) estar´a generada por ¦f(u), f(v)¦ donde f(u) = (8, 3, 1) y f(v) = (2, 0, −1)
por lo tanto
f(L) =

x y z
8 3 −1
2 0 −1

= 0 =⇒
f(L) ≡ x −2y + 2z = 0
Por ´ ultimo como f es biyectiva entonces es un isomorfismo (det M(f, B
V
) = 0) en-
tonces f f = f
2
es un isomorfismo
f
2
(f
−1
(L)) = f(L)
es un isomorfismo.
Ejemplos. 31
Ejemplo 3.4.2 Sea f : R
3
−→R
4
tal que

¸
¸
¸
x

y

z

t

¸

=

¸
¸
¸
1 2 5
−2 −1 −1
1 −1 −4
5 1 −2
¸

¸
x
y
z
¸

.
Determinar f
−1
(L) si:
1. L =
¸
(x, y, z, t) ∈ R
4
/ ax +by +cz +dt = 0
¸
2. L = L¦(1, 0, −1, −1) , (1, −1, 0, 2)¦
Soluci´on.
Como en el ejemplo anterior. Sea ω = (x, y, z) entonces
f(w) = [(x + 2y + 5z) , (−2x −y −z) , (x −y −4z) , (5x +y −2z)]
que debe satisfacer las ecuaciones de L i.e. ax +by +cz +dt = 0 ⇐⇒
a (x + 2y + 5z) +b (−2x −y −z) +c (x −y −4z) +d (5x +y −2z) = 0
despejando x, y, z se obtiene:
(a −2b +c + 5d) x + (2a −b −c +d) y + (5a −b −4c −2d) z = 0
i.e.
(a, b, c, d)

¸
¸
¸
1 2 5
−2 −1 −1
1 −1 −4
5 1 −2
¸

¸
x
y
z
¸

= 0
En el segundo caso operamos de la siguiente manera (siguiendo el ejemplo de
la teor
´
ia)
(a, b, c, d)

¸
¸
¸
1
0
−1
−1
¸

= 0, (a, b, c, d)

¸
¸
¸
1
−1
0
2
¸

= 0
entonces
B
L
◦ = ¦(1, 1, 1, 0) , (1, 3, 0, 1)¦
as
´
i
L ≡

x +y +z = 0
x + 3y +t = 0
entonces como en el caso (1) ser´a:

1 1 1 0
1 3 0 1

¸
¸
¸
1 2 5
−2 −1 −1
1 −1 −4
5 1 −2
¸

¸
x
y
z
¸

=

0
0

0 0 0
0 0 0

¸
x
y
z
¸

=

0
0

obteni´endose que f
−1
(L) ≡ R
3
.
32 Determinantes y Sistemas
Ejemplo 3.4.3 Sea f : R
4
−→R
4
tal que
A = M(f, B
V
) =

¸
¸
¸
1 3 1 −2
0 2 2 1
2 4 0 −5
−1 −1 1 3
¸

calcular:
1. Bases de ker f, Imf, R
4
/ ker f
2. Ec. impl
´
icitas de Imf
3. Ec. del isomorfsmo can´onico.
Soluci´on.
Calculamos el rango de la matriz A siendo rangA = 2 por lo tanto dimImf =
dimker f = 2. Las ecuaciones del ker f son:
ker f :=

x + 3y +z −2t = 0
2y + 2z +t = 0
2x + 4y −5t = 0
−x −y +z + 3t = 0
=⇒ B
ker f
= ¦(2, −1, 1, 0) , (7, 1, 0, 2)¦
y una base de Imf puede ser:
B
Imf
= ¦(1, 0, 2, −1) , (3, 2, 4, −1)¦
de esta forma obtenemos que
B
R
4
/ ker f
= ¦(e
1
+ ker f) , (e
2
+ ker f)¦ .
Las ecuaciones impl
´
icitas de Imf son:
B
Imf
= ¦(1, 0, 2, −1) , (3, 2, 4, −1)¦
Imf :=

y
1
= α + 3β
y
2
= 2β
y
3
= 2α + 4β
y
4
= −α −β
=⇒

y
1
1 3
y
2
0 2
y
3
2 4

= 0,

y
1
1 3
y
2
0 2
y
4
−1 −1

= 0

=⇒
Imf :=

−2y
1
+y
2
+y
3
= 0
y
1
−y
2
+y
4
= 0
Veamos otro m´etodo de calcular las ecuaciones de Imf.
Sea L = Imf y L

R
4


; h ∈ L

⇐⇒ h(x) = 0 ∀ x ∈ L
h(v
1
) = 0
h(v
2
) = 0

=⇒

a + 2c −d = 0
3a + 2b + 4c −d = 0
=⇒

a = −2λ +µ
b = λ −µ
c = λ
d = µ
Ejemplos. 33
recordamos que B
Imf
= ¦(1, 0, 2, −1) , (3, 2, 4, −1)¦
=⇒ B
L
◦ = ¦(−2, 1, 1, 0) , (1, −1, 0, 1)¦
por lo tanto las ecuaciones impl
´
icitas de L son:
L :=

−2x +y +z = 0
x −y +t = 0
Por ´ ultimo calcularemos las ecuaciones can´onicas. Recordamos el gr´afico
R
4
f
-
R
4

R
4
/ ker f
p
?
f

-
Imf
i
6
como B
R
4
/ ker f
= ¦(e
1
+ ker f) , (e
2
+ ker f)¦ entonces calculamos
¦f

(e
1
+ ker f) , f

(e
2
+ ker f)¦
f

(e
1
+ ker f) = f

(e
1
) = (1, 0, 2, −1) = y
1
f

(e
2
+ ker f) = f

(e
2
) = (3, 2, 4, −1) = y
2
por lo tanto
M(f

) =

1 0
0 1

=

α β
α

β

ya que
y
1
= αy
1
+βy
2
y
2
= α

y
1

y
2
como quer
´
iamos ver.
Ejemplo 3.4.4 Mismo enunciado que el anterior para:
f : R
3
−→R
4
/ f(x
1
, x
2
, x
3
) =

x
1
+x
3
x
2
−2x
3
2x
1
+x
2
x
1
+x
3

Soluci´on.
Calculamos la matriz M(f, B
V
) donde B
V
= ¦e
1
, e
2
, e
3
¦
f(1, 0, 0) = (1, 0, 2, 1)
f(0, 1, 0) = (0, 1, 1, 0)
f(0, 0, 1) = (1, −2, 0, 1)
entonces
M(f, B
V
) =

¸
1 0 2 1
0 1 1 0
1 −2 0 1
¸

34 Determinantes y Sistemas
cuyo rango es 2 por lo tanto dimImf = 2. Una base de Imf puede ser:
B
Imf
= ¦(1, 0, 2, 1) , (0, 1, 1, 0)¦
y dimker f = 1 (recordamos que dimV = dimker f + dimImf). Las ecuaciones del
ker f son:
ker f :=

x +z = 0
y −2z = 0
2x +y = 0
x +z = 0
=⇒ B
ker f
= ¦(−1, 2, 1)¦
de esta forma obtenemos una base de V como:
B
V
= ¦(−1, 2, 1) , (1, 0, 0) , (0, 1, 0)¦
y
B
V/ ker f
= ¦(1, 0, 0) + ker f, (0, 1, 0) + ker f¦
las ecuaciones del isomorfismo can´onico son:
f

(e
1
+ ker f) = f

(e
1
) = (1, 0, 2, 1) = y
1
f

(e
2
+ ker f) = f

(e
2
) = (0, 1, 1, 0) = y
2
por lo tanto
M(f

) =

1 0
0 1

=

α β
α

β

ya que
y
1
= αy
1
+βy
2
y
2
= α

y
1

y
2
como quer´ıamos ver.
Ejemplo 3.4.5 Sea f : R
4
−→R
4
tal que
A = M(f, B
V
) =

¸
¸
¸
1 2 2 −3
−2 1 −4 6
3 −1 3 −9
−1 2 −1 3
¸

calcular:
1. Bases de ker f, Imf, R
4
/ ker f
2. Ec. impl
´
icitas de Imf
3. Ec. del isomorfsmo can´onico.
Ejemplos. 35
Soluci´on.
Calculamos el rango de la matriz A siendo rangA = 3 por lo tanto dimker f =
1. Las ecuaciones del ker f son:
x + 2y + 2z −3t = 0
−2x +y −4z + 6t = 0
3x −y + 3z −9t = 0
−x + 2y −z + 3t = 0

=⇒ B
ker f
= ¦(3, 0, 0, 1)¦
mientras que una base de Imf es:
B
Imf
= ¦(1, −2, 3, −1) , (2, 1, −1, 2) , (2, −4, 3, −1)¦
las ecuaciones implicitas de Imf son:

1 2 2 x
−2 1 −4 y
3 −1 3 z
−1 2 −1 t

= −3t −z +y + 2x = 0
Por ´ ultimo calcularemos las ecuaciones can´onicas. Recordamos el gr´afico
R
4
f
-
R
4

R
4
/ ker f
p
?
f

-
Imf
i
6
como B
R
4
/ ker f
= ¦(e
1
+ ker f) , (e
2
+ ker f) , (e
3
+ ker f)¦ entonces calculamos
¦f

(e
1
+ ker f) , f

(e
2
+ ker f) , (e
3
+ ker f)¦
f

(e
1
+ ker f) = f

(e
1
) = (1, −2, 3, −1) = y
1
f

(e
2
+ ker f) = f

(e
2
) = (2, 1, −1, 2) = y
2
f

(e
3
+ ker f) = f

(e
3
) = (2, −4, 3, −1) = y
3
por lo tanto (como en los ejemplos anteriores)
M(f

, B) =

¸
1 0 0
0 1 0
0 0 1
¸

la matriz de la aplicaci´on p : R
4
−→R
4
/
ker f
es:
M(p, B) =

¸
1 0 0 0
0 1 0 0
0 0 1 0
¸

36 Determinantes y Sistemas
y la matriz de la inclusi´on i : Imf −→R
4
es:
M(i, B) =

¸
¸
¸
1 2 2
−2 1 −4
3 −1 2
−1 2 −1
¸

viendo as´ı que el tema carrula bien.
Ejemplo 3.4.6 Sea f : R
3
−→ R
3
/ f(x, y, z) = (x +y, x +z, y −z) . Queremos
encontrar bases de ker f, Imf y R
3
/ ker f respecto de las cuales las matrices de las
aplicaciones p, f

e i sean diagonales.
Soluci´on.
De forma r´apida vemos que:
f(e
1
) = (1, 1, 0) , f(e
2
) = (1, 0, 1) , f(e
3
) = (0, 1, −1)
as
´
i pues:
M(f, B) =

¸
1 1 0
1 0 1
0 1 −1
¸

cuyo rango es 2 como facilmete se puede comprobar. Las ecuaciones del ker f son:
x +y = 0,
x +z = 0,
y −z = 0
por lo que una base es:
B
ker f
= ¦(1, −1, −1)¦ ,
B
R
3 = ¦(1, 0, 0) , (0, 1, 0) , (1, −1, −1)¦ ,
B
Imf
= ¦(1, 1, 0) , (1, 0, 1)¦ ,
B
R
3
/ ker f
= ¦(e
1
+ ker f) , (e
2
+ ker f)¦
unas ecuaciones de Imf son:

x y z
1 1 0
1 0 1

= x −y −z = 0
Las expresiones de las aplicaciones p, f

e i son:
p(e
i
) =

1 0 0
0 1 0

f

(e
i
) =

1 0
0 1

i(e
i
) =

¸
1 0
0 1
0 0
¸

Ejemplos. 37
de tal forma que
i f

p =

¸
1 0 0
0 1 0
0 0 0
¸

Observaci´on 3.4.3 se puede comprobar que la matriz diagonal de A es precisamenete
la resultante de i f

p

¸
1 1 0
1 0 1
0 1 −1
¸

¸
0 0 0
0

3 0
0 0 −

3
¸

y como se estudiar´a en cap´ıtulos posteriores al ser A sim´etrica entonces siempre
podemos encontrar una base respecto de la cual sea diagonal con ±1 y 0 en ella.
Ejemplo 3.4.7 Dadas las formas lineales sobre R
3
f
1
(x, y, z) = x + 2y −3z
f
2
(x, y, z) = 2x + 3y −4z
f
3
(x, y, z) = 2x −2y +z
queremos probar que B

= ¦f
1
, f
2
, f
3
¦ forma base del dual y hallar una base B

de
R
3
tal que (B

)

= B

.
Soluci´on.
Sea B = ¦e
1
, e
2
, e
3
¦ base de R
3
y sea B

= ¦e

1
, e

2
, e

3
¦ su base dual puesto
que
f
i
= f
i
(e
1
)e

1
+f
i
(e
2
)e

2
+f
i
(e
3
)e

3
con i = 1, 2, 3
resulta que la matriz de coordenadas por columnas, de los f
i
respecto a B

es
Q =

¸
1 2 2
2 3 −1
−3 −4 1
¸

como det Q = 0 entonces ¦f
1
, f
2
, f
3
¦ son LI y por lo tanto forman base.
Respecto al segundo apartado vemos que la matriz de base de B

a B

es Q

Q
−1

t
=
1
3

¸
−1 1 1
−10 7 −2
−8 5 −1
¸

si C = ¦u
1
, u
2
, u
3
¦
u
1
= −
1
3
e
1
+
1
3
e
2
+
1
3
e
3
u
2
= −
10
3
e
1
+
7
3
e
2

2
3
e
3
u
3
= −
8
3
e
1
+
5
3
e
2

1
3
e
3
38 Determinantes y Sistemas
Ejemplo 3.4.8 Sea V un R−espacio vectorial. B = ¦e
1
, e
2
, e
3
¦ es una base y sea
C = ¦u
1
, u
2
, u
3
¦ tal que
u
1
= 2e
1
+e
3
u
2
= 3e
3
u
3
= e
2
−e
3
demostrar que:
1. C es base de V.
2. Hallar las ec del cambio de B a C,
3. Hallar las ec del cambio de B

a C

,
4. Obtener coordenadas de 3e

1
+e

2
−e

3
respecto de C

.
Soluci´on.
En primer lugar comprobamos que
det A = det

¸
2 0 0
0 0 1
1 3 −1
¸

= 0 =⇒ LI i.e. forman base.
la matriz de cambio de base de B a C es

¸
x

y

z

¸

B
=

¸
2 0 0
0 0 1
1 3 −1
¸

¸
x
y
z
¸

C
Las ecuaciones de cambio de B

a C

son:

¸
x

y

z

¸

=

¸
2 0 0
0 0 1
1 3 −1
¸

−1
¸
¸
¸
t
¸
x
y
z
¸

¸
x

y

z

¸

=

¸
1
2

1
6
0
0
1
3
1
0
1
3
0
¸

¸
x
y
z
¸

Por ´ ultimo las coordenadas de u

= 3e

1
+e

2
−e

3
respecto de C

son:
u

(u
1
) = 3e

1
(u
1
) +e

2
(u
1
) −e

3
(u
1
)
u

(u
2
) = 3e

1
(u
2
) +e

2
(u
2
) −e

3
(u
2
)
u

(u
3
) = 3e

1
(u
3
) +e

2
(u
3
) −e

3
(u
3
)
entonces como
u
1
= 2e
1
+e
3
u
2
= 3e
3
u
3
= e
2
−e
3
Ejemplos. 39
vemos que
u

(u
1
) = 3e

1
(2e
1
+e
3
) +e

2
(2e
1
+e
3
) −e

3
(2e
1
+e
3
)
u

(u
2
) = 3e

1
(3e
3
) +e

2
(3e
3
) −e

3
(3e
3
)
u

(u
3
) = 3e

1
(e
2
−e
3
) +e

2
(e
2
−e
3
) −e

3
(e
2
−e
3
)
y teniendo en cuenta que e

i
(e
j
) = δ
ij
= ¦1, 0¦ vemos por lo tanto que
(u

(u
1
) , u

(u
2
) , u

(u
3
)) = (5, −3, 2)
otra forma de calcular estas coordenadas son:
A
t

¸
3
1
−1
¸

=

¸
5
−3
2
¸

¸
2 0 1
0 0 3
0 1 −1
¸

¸
3
1
−1
¸

=

¸
5
−3
2
¸

como comprobamos.
Ejemplo 3.4.9 Sea f : R
4
−→R
3
tal que
f(x, y, z, t) = (x −y, 2y −z, 2z −t)
Calcular:
1. Bases de ker f, Imf y R
4
/ ker f.
2. Sea g : R
3
−→ R tal que las coordenadas de (g f) ∈

R
4


respecto de la base
dual de la can´onica son (2, 0, 1, −1). Calcular las coordenadas de g respecto de
la base dual
¦(1, 0, 0) , (1, 1, 0) , (1, 1, 1)¦
Soluci´on.
Ya de forma rutinaria pasamos a calcular las bases.
M(f, B) =

¸
1 −1 0 0
0 2 −1 0
0 0 2 −1
¸

cuyo rango es 3.
B
Imf
= ¦(1, 0, 0) , (−1, 2, 0) , (0, −1, 2)¦
mientras que ker f es:

x −y = 0
2y −z = 0
2z −t = 0
=⇒ B
ker f
= ¦(1, 1, 2, 4)¦
por lo tanto
B
R
4
/ ker f
= ¦(e
1
+ ker f) , (e
2
+ ker f) , (e
3
+ ker f)¦
40 Determinantes y Sistemas
f

(e
i
+ ker f) = f

(e
i
) = f(e
i
) = y
i
entonces
M(f

, B) =

¸
1 0 0
0 1 0
0 0 1
¸

Con respecto al segundo apartado consideramos g : R
3
−→ R i.e. g ∈

R
3


tal que
R
4
f
-
R
3
@
@
@
@
@
g • f
R
R
g
?
Sea
B = ¦(1, 0, 0) , (1, 1, 0) , (1, 1, 1)¦ = ¦v
1
, v
2
, v
3
¦
y
g = αu
1
+βu
2
+γu
3
con B

= ¦u

1
, u

2
, u

3
¦ tal que g f = 2h
1
+ h
3
− h
4
= (2, 0, 1, −1) . Recordamos que
u
i
(v
j
) = δ
ij
. Pasamos a calculas las formas u
i
:
u
1
=

a = 1
a +b = 0
a +b +c = 0
, u
2
=

a = 0
a +b = 1
a +b +c = 0
, u
3
=

a = 0
a +b = 0
a +b +c = 1
u
1
= x −y, u
2
= y −z, u
3
= z
como g = αu
1
+βu
2
+γu
3
entonces
g = α

x

−y

y

−z

z

y
(g f) (x, y, z, t) = g (f (x, y, z, t)) = g (x −y, 2y −z, 2z −t) = 2h
1
+h
3
−h
4
eligiendo
x

= x −y, y

= 2y −z, z

= 2z −t
entonces
α

x

−y

y

−z

z

=
α(x −y −2y +z) +β (2y −z −2z +t) +γ (2z −t) =⇒
αx = 2
(−3α + 2β) y = 0
(α −3β + 2γ) z = 1
(β −γ) t = −1
por lo tanto
α = 2, β = 3 y γ = 4
Ejemplos. 41
Ejemplo 3.4.10 Sea V etc.. tal que B
V
= ¦e
i
¦
3
i=1
y sea B

= ¦(1, −3, 1) , (2, 0, 1) , (−1, 2, −2)¦
i.e. B

= ¦v
i
¦
3
i=1
queremos comprobar:
1. B

es base de V,
2. Determinar (B

)

, (referenciada a la base dual de B)
3. L = L(v
1
, v
2
) entonces determinar L

y las ecuaciones impl
´
icitas de L.
Soluci´on.
Comprobamos de forma trivial que B

es base de V si det
B
(¦v
i
¦
3
i=1
) = 0 i.e.
A =

¸
1 −3 1
2 0 1
−1 2 −2
¸

1 −3 1
2 0 1
−1 2 −2

= 0
donde A es la matriz de paso de B −→ B

.
(B

)

= ¦f
i
¦
3
i=1
/ f
i
(v
j
) = δ
ij
entonces tenemos:
f
1
:

(1, −3, 1)

¸
a
b
c
¸

= 1
(2, 0, 1)

¸
a
b
c
¸

= 0
(−1, 2, −2)

¸
a
b
c
¸

= 0
=⇒
a −3b +c = 1
2a +c = 0
−a + 2b −2c = 0
lo hacemos para f
2
y f
3
obteniendo:
f
2
:

a −3b +c = 0
2a +c = 1
−a + 2b −2c = 0
, f
2
:

a −3b +c = 0
2a +c = 0
−a + 2b −2c = 1
de esta forma obtenemos:
f
1
=
2
7
x −
3
7
y −
4
7
z
f
2
=
4
7
x +
1
7
y −
1
7
z
f
3
=
3
7
x −
1
7
y −
6
7
z
comprobamos que si B
A
−→ B

y B

A

−→ (B

)

entonces A

=

A
−1

t
i.e.
A =

¸
1 −3 1
2 0 1
−1 2 −2
¸

−→ A

=
1
7

¸
2 −3 −4
4 1 −1
3 −1 −6
¸

Sea L = L(v
1
, v
2
) entonces determinar L

y las ecuaciones impl
´
icitas de L.
Como L = L¦v
1
, v
2
¦ entonces L

= ¦f(v
i
) = 0¦. Como dimV = 3 y dimL = 2
entonces dimL

= 1. Calculamos
f(v
1
) = a −3b +c = 0
f(v
2
) = 2a +c = 0
42 Determinantes y Sistemas
entonces resolviendo el sistemilla en (a, b, c) obtenemos:
B
L
◦ = ¦3λ, −λ, −6λ¦
mientras que las ecuaciones de L

son:
x −3y +z = 0
2x +z = 0
y por ´ ultimo las ecuaciones de L son:

x y z
1 −3 1
2 0 1

= −3x +y + 6z = 0
Ejemplo 3.4.11 Sea V etc.. tal que B
V
= ¦u
1
, u
2
, u
3
¦. Sea L la variedad de V
engendrada por
L :

w
1
= (1, 1, 3)
w
2
= (−1, 1, −1)
w
3
= (2, 3, 7)
resepcto de B
V
. Calcular:
1. Extraer de ¦w
i
¦
3
i=1
una base de L y prolongarla a una base de V. Hallar su dual.
2. Determinar L

as
´
i como una base suya.
3. Obtener una variedad L
1
suplementaria de L

en V

.
4. Hallar dim y las ec. impl
´
icitas de (L
1
)

.
Soluci´on.
Vemos de forma trivial que
det
B
¦w
i
¦
3
i=1
= 0 i.e.

1 1 3
−1 1 −1
2 3 7

= 0
por lo tanto los vectores que generan L i.e. ¦w
i
¦
3
i=1
son LD. Ahora bien ¦w
i
¦
2
i=1
son LI entonces L = L

¦w
i
¦
2
i=1

por lo tanto B
L
= ¦w
1
, w
2
¦ comprobando de esta
forma que dimL = 2 de tal forma que L ⊂ V. Una base de V se obtiene de forma
trivial simplemente agrag´andole un vector B

V
= ¦w
1
, w
2
, e
3
¦.Para calcualr una base
B

= ¦u

1
, u

2
, u

3
¦ y (B

V
)

= ¦w

1
, w

2
, e

3
¦ como en ejemplos anteriores vemos que si
la matriz de paso de una base a otra es A i.e. B
A
−→ B

entonces B

A

−→ (B

)

de tal
forma que
A =

¸
1 −1 0
1 1 0
3 −1 1
¸

−→ A

=
1
2

¸
1 −1 −4
1 1 −2
0 0 2
¸

Ejemplos. 43
entonces (B

V
)

= ¦w

1
, w

2
, e

3
¦ donde
w

1
=
1
2
[x +y]
w

2
=
1
2
[−x +y]
e

3
=
1
2
[−4x −y +z]
Las ecuaciones de L

son:
L

=

x +y + 3z = 0
−x +y −z = 0
observ´andose que V = L ⊕L

. La base B
L
◦ la obtenemos de

x y z
1 1 3
−1 1 −1

= −2x −y +z = 0
As´ı pues (−2u

1
−u

2
+u

3
) es una base de (B
L
◦) .
El subespacio vectorial L
1
⊂ V

/ L
1
= ¦u

1
, u

2
¦ es un suplemanetario de L

en V

ya que ¦u

1
, u

2
¦ y (−2u

1
−u

2
+u

3
) son LI
Por ´ ultimo como dimL
1
= 2 entonces (dimL
1
)

= 3 −2 = 1. Las ecuaciones
impl
´
icitas de (L
1
)

son:
(L
1
)

:

x = 0
y = 0
ecuaciones cuyos coeficientes son las coordenadas respecto de B

de una base de L
1
.
Ejemplo 3.4.12 Sea f : R
3
−→R
4
cuyas ecuaciones respecto de las bases can´onicas
son:

¸
¸
¸
y
1
y
2
y
3
y
4
¸

=

¸
¸
¸
−1 2 1
−2 1 −4
3 −2 5
−2 4 2
¸

¸
x
1
x
2
x
3
¸

1. Hallar f
t
,
2. Determinar ker f
t
, Imf
t
,
3. Sea α(x, y, z, t) = 2x −y −+t / α ∈ Λ
1
(R
4
) hallar f
t
(α) .
Soluci´on.
Sean B

R
3
y B

R
4
duales de las bases can´onicas respectivas y (x
1
, x
2
, x
3
),
(y
1
, y
2
, y
3
, y
4
) coordenadas respecto de dichas bases entonces f
t
es:

¸
x
1
x
2
x
3
¸

=

¸
−1 −2 3 −2
2 1 −2 4
1 −4 5 2
¸

¸
¸
¸
y
1
y
2
y
3
y
4
¸

44 Determinantes y Sistemas
por lo tanto ker f
t
es:
ker f
t
:

−y
1
−2y
2
+ 3y
3
−2y
4
= 0
2y
1
+y
2
−2y
3
+ 4y
4
= 0
y
1
−4y
2
+ 5y
3
+ 2y
4
= 0
donde
B
ker f
t = ¦(λ −2µ, 4λ, 3λ, µ) / λ, µ ∈ R¦ ,
observ´andose que
dimker f
t
= dimImf
t
entonces una base de ker f
t
est´a formada por las formas lineales ¦u

1
, u

2
¦ las coor-
denadas respecto de B

R
4
son ¦(1, 4, 3, 0) , (−2, 0, 0, 1)¦ . Una base de Imf
t
est´a for-
mada por las formas ¦v

1
, v

2
¦ ∈ R
3
cuyas coordenadas respecto de la base B

R
3
son
¦(−1, 2, 1) , (−2, 1, −4)¦ .
Las ecuaciones impl´ıcitas de Imf
t
resultan de:

x y z
−1 2 1
−2 1 −4

= −3x −2y +z = 0
Por ´ ultimo las coordenadas de α respecto de B

R
4
= ¦e

1
, .., e

4
¦ son:
¦α(e
1
) , ...., α(e
4
)¦ / B
R
4 = ¦e
1
, .., e
4
¦
entonces dichas coordenadas son: (2, −1, 0, 1) . Las coordenadas de f
t
respecto de
B

R
3
son:

¸
x
1
x
2
x
3
¸

=

¸
−1 −2 3 −2
2 1 −2 4
1 −4 5 2
¸

¸
¸
¸
2
−1
0
1
¸

=

¸
−2
7
8
¸

entonces f
t
(α) (x, y, z) = −2x + 7y + 8z ∀ (x, y, z) ∈ R
3
.
Cap´ıtulo 4
CLASIFICACI
´
ON DE ENDOMORFISMOS. MATRICES DE JORDAN
4.1 Clasificaci´on de endomorfismos.
Sea f : V −→ W una aplicaci´on entre espacios vectoriales, nos interesa escoger una
base respecto de la cual f tenga una expresi´on matricial sencilla.
Definici´on 4.1.1 Valor propio y vector propio. Sea f ∈ End(V ) tal que f(v) = λv.
f(v) −λv = 0 ⇐⇒ v ∈ ker(f −λI)
λ ∈ K es valor propio de f sii ker(f − λI) =

0, λ ∈ σ(f). Denotamos por V
λ
i
=
ker(f −λ
i
I). V
λ
i
⊂ V y sean λ
1
, λ
2
∈ σ(f)/ λ
1
= λ
2
entonces V
λ
1
∩ V
λ
2
=

0
¸
.
Observaci´on 4.1.1 V
λ
= ker(f − λI), sea x ∈ ker(f − λI) ⇐⇒ (f − λI)(x) =
f(x) −λx ⇐⇒ f(x) = λx i.e. ⇐⇒ x ∈ V
λ
.
V
λ
i
⊂ V como es inmediato de ver ya que, sean x, y ∈ V
λ
y α, β ∈ K, entonces
f(x +y) = f(x) +f(y) = λx +λy = λ(x +y) ∈ V
λ
f(αx +βy) = λ(αx +βy) ⊂ V
λ
y por ´ ultimo.
Si λ
1
, λ
2
∈ σ(f)/ λ
1
= λ
2
entonces V
λ
1
∩ V
λ
2
=

0
¸
ya que si tomo ∀x ∈
V
λ
1
∩ V
λ
2
i.e. x ∈ V
λ
1
y x ∈ V
λ
2
entonces f(x) = λ
1
x = λ
2
x entonces (λ
1
−λ
2
) x =

0
¸
⇐⇒ λ
1
= λ
2
como quer
´
iamos hacer ver.
Definici´on 4.1.2 Multiplicidad del valor propio λ a la dimensi´on de ker(f −λI)
Proposici´on 4.1.1 λ ∈ K es autovalor de f sii det(f −λI) = 0.
Demostraci´on. λ ∈ σ(f) ⇐⇒ ker(f −λI) =

0 ⇐⇒ det(f −λI) = 0.
Definici´on 4.1.3 Polinomio caracter
´
istico. Sea f ∈ End(V ) tal que A = ´(f, B)
es su matriz.
p
f
(λ) = det(A−λI) = 0
Proposici´on 4.1.2 El polinomio caracter
´
istico no depende de la base.
Proposici´on 4.1.3 Los vectores propios de valores propios diferentes son LI.
46 Clasificaci´on de Endomorfismos. Matrices de Jordan
Demostraci´on. Sea L = L(x
1
, ..., x
r
) ⊂ V . Supongamos que B
L
= ¦x
1
, ..., x
p
¦
con p < r. Sea x
r
=
¸
p
r=1
α
i
x
i
con x
r
=

0, entonces existe un α
i
= 0, tal que
f(x
r
) =
¸
p
r=1
α
i
f (x
i
) y f lineal, entonces λ
r
x
r
=
¸
p
r=1

i
λ
i
) x
i
. Si λ
r
= 0 entonces

i
λ
i
) = 0

0 =
p
¸
r=1

i
λ
i
) x
i
entonces (α
i
λ
i
) = 0 lo que implica que ¦x
1
, ..., x
p
¦ son LD lo cual es contrdictorio !¡.
Si λ
r
= 0 entonces ∃ λ
−1
r
∈ K / x
r
=
¸
p
r=1

α
i
λ
i
λ
−1
r

x
i
tal que x
r
=
¸
p
r=1
α
i
x
i
con
α
i
= 0 definimos α
i
=

λ
i
λ
−1
r

de tal que λ
i
λ
−1
r
= 1 entonces λ
i
= λ
r
!¡=⇒ p = r.
Corolario 4.1.1 El n´ umero de valores propios diferentes es menor igual que la di-
mensi´on del espacio V . Si hay exactamente n diferentes entonces f es diagonalizable.
Ejemplo 4.1.1 Sea f ∈ End(V ) tal que A = ´(f, B) es su matriz.
A =
1
5

3 4
4 −3

=⇒ p(λ) =

3
5
−λ
4
5
4
5
−3
5
−λ

= 0
el polinomio caracter´ısco es
λ
2
−1 = 0
y las soluciones por lo tanto (i.e. los autovalores) son:
σ(λ) = ¦1, −1¦
su matriz diagonal es:
D =

1 0
0 −1

y los vectores propios los calculamos
ker(A−λI)
i.e.

1
5

3 4
4 −3

−λ
i

1 0
0 1

v
1
v
2

= 0
resultando que para λ = 1 su autovector es v = (2, 1) mientras que para λ = −1
w = (1, −2). De esta forma se observa que
A = B
−1
DB
donde
B =

2 1
1 −2

3
5
4
5
4
5

3
5

=

2 1
1 −2

−1

1 0
0 −1

2 1
1 −2

Polinomio m´ınimo. 47
Proposici´on 4.1.4 Si r es la multiplicidad del autovalor λ, y s es la multiplicidad
del cero k del polinomio caracter´ıstico, entonces r ≤ s.
Teorema 4.1.1 Un endomorfismo f es diagonalizable sii su polinomio caracter´ıstico
se descompone en factores lineales y la multiplicidad de cada uno de sus ceros coincide
con su multiplicidad como autovalor de f.
Demostraci´on. σ(f) = ¦λ
1
, ......, λ
r
¦ donde p(λ) = (λ
1
−λ)
s
1

2
−λ)
s
2
...... (λ
r
−λ)
s
r
i.e. p(λ) =
¸
r
i=1

i
−λ)
s
i
de tal forma que
¸
r
i=1
s
i
≤ n = dimV
dim(V
1
) = s
1
→ ¦e
11
, ......, e
rs
1
¦

dim(V
r
) = s
r
→ ¦e
r1
, ......, e
rs
r
¦

B
V
= ¦e
11
, ......, e
rs
1
, ......, e
rs
r
¦
comprobando que

11
e
11
+...... +λ
1s
1
e
rs
1
) +..... + (λ
r1
e
r1
+...... +λ
rs
r
e
rs
r
) =

0
entonces
¸
r
i=1
v
i
=

0 =⇒ v
1
= ... = v
r
=

0
v
1
= 0 =⇒ λ
11
= ...... = λ
1s
1
= 0

v
r
= 0 =⇒ λ
r1
= ...... = λ
rs
r
= 0
por lo que la matriz resultante es de la forma:
M(f, B
V
) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
λ
1
.
.
.
λ
1
.
.
.
λ
r
.
.
.
λ
r
¸

como quer´ıamos hacer ver.
4.2 Polinomio m´ınimo.
Queremos descomponer V (dimV = n) en suma directa de subespacios, de tal forma
que podemos obtener bases de cada uno de ellos y poder as´ı expresar el endomorfismo.
Consideramos las potencias de f : f
r
/ r = 0, 1, ..., n, ... donde
f
0
= I, f
1
= f, ....., f
r
= f f
r−1
a
0
f
0
+a
1
f
1
+..... +a
r
f
r
= 0
las potencias de f
r
no pueden ser todas LI. Definimos,
φ
f
: K[x] −→ End(V )
p(x) −→ p(f) = a
0
I +a
1
f +..... +a
r
f
r
tal que
ker

φ
f

:= ¦p(x) ∈ K[x] / p(f) = 0¦ := m
f
(x)
48 Clasificaci´on de Endomorfismos. Matrices de Jordan
Definici´on 4.2.1 El conjunto de polinomios p(x) ∈ ker

φ
f

se denominan anu-
ladores de f, N(f), y a m
f
(x) polinomio m´ınimo de f. Verific´andose m
f
(x) ∈ N(f).
Fijamos un vector u ∈ V y consideramos
φ
u
: K[x] −→ (V )
p(x) −→ p(f)(u)
tal que
ker (φ
u
) :=

p(x) ∈ K[x] / p(f)(u) =

0
¸
:= m
u
(x)
Definici´on 4.2.2 m
u
(x) es el polinomio m´ınimo de f en u.
Proposici´on 4.2.1 Sea m
u
(x) = a
0
+ a
1
x + ..... + a
s
x
s
el polinomio m´ınimo de u
entonces
¸
u, f(u), ....., f
s−1
(u)
¸
son LI y
¸
u, f(u), ....., f
s−1
(u), f
t
(u)
¸
son LD.
4.3 Subespacios invariantes.
Sea f ∈ End(V ). Un subespacio F ⊂ V se llama invariante por f si f(F) ⊂ F. Sea
f

:= f
|
F
: F −→ F
v −→ f(v)
Proposici´on 4.3.1 m
f
divide a m
f
.
Corolario 4.3.1 Sean F, G ⊂ V dos subespacios, tal que (m
F
, m
G
) = 1, entonces
F ∩ G = ∅.
Proposici´on 4.3.2 Para todo p(x) ∈ K [x], ker p(f), Imp(f) son subespacios in-
variantes por f.
Supongamos que m
f
(x) se descompone en producto de factores primos entre
si, i.e.
m
f
(x) = p(x)q(x)
consideramos los subespacios invariantes ker p(f), ker q(f) entonces p(x) y q(x) son
anuladores de f restringidos a estos espacios, entonces
ker p(f) ∩ ker q(f) =

0
¸
observ´andose que
ker p(f) ⊃ Imq(f)
ker q(f) ⊃ Imp(f)

=⇒
n = dimker p(f) + dimImp(f) ≤ dimker p(f) + dimker q(f)
=⇒ dim(ker p(f) ⊕ker q(f)) ≤ n
V = ker p(f) ⊕ker q(f)
Teorema 4.3.1 Primer teorema de descomposici´on. Si m
f
(x) = m
1
(x)
n
1
......m
r
(x)
n
r
tal que (m
i
(x), m
j
(x)) = 1 ∀i, j entonces V = V
1
⊕.... ⊕V
r
de tal forma que el poli-
nomio m
´
inimo de la restricci´on de f a V
i
es m
i
(x)
n
i
. Esta descomposici´on es ´ unica.
V
i
= ker (m
i
(f)
n
i
) .
Subespacios invariantes. 49
Demostraci´on. Por inducci´on: Si m
f
(x) = m
1
(x)
n
1
entonces V = V
1

0
¸
tal que V
1
= ker (m
1
(f)
n
1
) . Supongo ahora que m
f
(x) = m
1
(x)
n
1
......m
r−1
(x)
n
r−1
entonces V = V
1
⊕ .... ⊕ V
r−1
tal que m
f
i
(x) = m
i
(x)
n
i
donde V
i
= ker (m
i
(f)
n
i
) .
Para el caso r entonces tenemos que:
m
f
(x) = [m
1
(x)
n
1
......m
r−1
(x)
n
r−1
]
. .. .
p(x)
m
r
(x)
n
r
de tal forma que (p(x), m
r
(x)
n
r
) = 1, entonces V = L ⊕ V
r
tal que L = ker [p(f)]
y V
r
= ker (m
r
(f)
n
r
) donde f

= f
|
L
−→ m
f
(x) = p(x), y f
r
= f
|
V
r
−→ m
f
r
(x) =
m
r
(x)
n
r
. El subespacio L est´a formado por L = V
1
⊕ .... ⊕ V
r−1
ya que m
L
(x) =
m
1
(x)
n
1
......m
r−1
(x)
n
r−1
donde ∀i, j V
i
∩ V
j
=

0
¸
, con V
i
= ker (m
i
(f)
n
i
) de esta
forma V = V
1
⊕.... ⊕V
r
.
La descomposici´on de V en suma directa de subespacios invariantes, reduce
el estudio del comportamiento de f al estudio de sus restricciones a cada uno de estos
subespacios.
Ejemplo 4.3.1 Sea A dada por
A =

3
5
4
5
4
5

3
5

tal que A = ´(f, B) etc.... Vemos que:
A
0
= I, A
1
= A, A
2
= I
entonces (X
2
−1) es su polinomio anulador.
m
f
(x) = x −1 m
f
(f) = f −I = 0 =⇒ f = I
m
f
(x) = x + 1 m
f
(f) = f +I = 0 =⇒ f = −I
ninguno de estos casos es el nuestro, entonces
m
f
(x) = (x −1)(x + 1)
y por lo tanto V = V
1
⊕V
2
donde
V
1
= ker(f −λ
1
I) = (2, 1) f
|
V
1
= I
V
1
V
2
= ker(f −λ
2
I) = (1, −2) f
|
V
2
= −I
V
2
Teorema 4.3.2 De diagonalizaci´on. Un endomorfismo es diagonalizable sii su poli-
nomio m
´
inimo se descompone en factores lineales no repetidos.
Demostraci´on. f diagonalizable, entonces existe una base B de V tal que
la matriz de f respecto de dicha base es diagonal i.e.
M(f, B) =

¸
¸
λ
1
.
.
.
λ
r
¸

50 Clasificaci´on de Endomorfismos. Matrices de Jordan
donde σ(f) = ¦λ
1
, ....., λ
r
¦, B
V
= ¦v
i
¦ formada de vectores propios. El espacio V se
descompone en suma directa de subespacios i.e. V = V
λ
1
⊕ ..... ⊕ V
λ
r
tal que V
λ
1
=
ker [f −λ
1
I] con lo que m
f
(x) = (x−λ
1
) y as
´
i sucesivamente i.e. V
λ
r
= ker [f −λ
r
I]
con lo que m
f
(x) = (x −λ
r
) de tal forma que el polinomio m
´
inimo ser´a
m
f
(x) =
r
¸
i=1
(x −λ
i
)
Si m
f
(x) =
¸
r
i=1
(x−λ
i
) entonces el espacio V se descompone en suma directa
de subespacios propios i.e. V = V
λ
1
⊕..... ⊕V
λ
r
tal que V
λ
r
= ker [f −λ
r
I] pero esto
implica que existe una base de V formada por vectores propios de cada una de estos
autovalores de tal forma que la expresi´on matricial del endomorfismo respecto de esta
base es diagonal.
4.4 Grado del polinomio m´ınimo.
Proposici´on 4.4.1 grad(m
f
(x)) ≤ n
Observaci´on 4.4.1 Los ceros del polinomio caracter
´
istico p
f
(x) son tambi´en ceros
del polinomio m
f
(x).
Proposici´on 4.4.2 a es un cero de m
f
(x) sii lo es de p
f
(x).
Teorema 4.4.1 Si el polinomio m
´
inimo y el caracter
´
istico se descomponen en fac-
tores lineales, entonces el polinomio caracter
´
istico es un anulador de f i.e. p
f
(f) = 0.
Teorema 4.4.2 Cayle-Hamilton. El polinomio m
´
inimo divide siempre al carac-
ter
´
istico.
Demostraci´on. Sea V tal que dimV = n y ´(f, B) = A ; B(x) = (A−xI)
y sea B

(x) = adj [B(x)] cada t´ermino de esta matriz va a ser un polinomio de grado
como mucho n−1. Entonces B

(x) = B
0
+B
1
x+.....+B
n−1
x
n−1
donde B(x)B

(x) =
det [B(x)]I. donde det [B(x)] = p
f
(x) y por lo tanto B(x)B

(x) = p
f
(x)I. Supongo
que p
f
(x) = a
0
+.... + (−1)
n
x
n
,
B(x) B

(x) = (A−xI)

B
0
+B
1
x +..... +B
n−1
x
n−1

= p
f
(x) I
(a
0
+.... + (−1)
n
x
n
) I = a
0
I +.... + (−1)
n
x
n
I
(A−xI)

B
0
+B
1
x +..... +B
n−1
x
n−1

= AB
0
+ (AB
1
−B
0
I) x +............. + (−B
n−1
I)x
n
=
= (a
0
I) +.... + ((−1)
n
I) x
n
identificando t´ermino a t´ermino se observa que:
I AB
0
= a
0
I
A AB
1
−B
0
= a
1
I

A
n−1
AB
n−1
−B
n−2
= a
n−1
I
A
n
−B
n−1
= (−1)
n
I
Grado del polinomio m´ınimo. 51
multiplicando cada fila por lo se indica a la izquierda entonces
AB
0
= a
0
I
A
2
B
1
−AB
0
= a
1
A

A
n
B
n−1
−A
n−1
B
n−2
= a
n−1
A
n−1
−A
n
B
n−1
= (−1)
n
A
n
sumamos entonces
0 = a
0
I +.... + ((−1)
n
A
n
)
de esta forma demostramos que ´(p
f
(f), B
V
) = 0 ∈ M
n×n
y A = ´(f, B
V
) de esta
forma p
f
(f) = 0(x) ∈ [End(V )] =⇒ p
f
(x) ∈ N(f) y adem´as (m
f
(x)/p
f
(x)) como
quer
´
iamos hacer ver.
Observaci´on 4.4.2 Este teorema proporciona un m´etodo pr´actico para calcular el
polinomio m
´
inimo de un endomorfismo f. Sea A = ´(f, B), el polinomio carac-
ter
´
istico p
A
(x) lo descomponemos en factores irreducibles y buscamos el menor de
sus divisores q(x)tal que q(f) = 0, entonces q(f) = m
f
(x).
Sea m
f
(x) el polinomio m´onico de grado m´as peque˜ no entre los del conjunto
ker(φ
u
). Se tiene que
q(x) ∈ ker(φ
u
) ⇐⇒ m
f
(x) [ q(x)
Teorema 4.4.3 Sea p
f
el polinomio caracter
´
istico del endomorfismo f. El polinomio
m
´
inimo es:
m
f
=
p
f
(x)
q(x)
,
donde q(x) es el m´aximo com´ un divisor de los menores de orden (n −1) de la matriz
A−xI
n
.
Ejemplo 4.4.1 Consideremos el endomorfismo
f : R
4
−→ R
4
tal que su expresi´on matricial es la siguiente:
M(f, B) =

¸
¸
¸
1 0 0 0
0 1 0 0
0 0 1 1
0 0 −1 1
¸

cuyo polinomio caracter´ıstico es:
p(x) = (X −1)
2

X
2
−2X + 2

mientras que el polinomio m
´
inimo es:
m(x) = (X −1)

X
2
−2X + 2

52 Clasificaci´on de Endomorfismos. Matrices de Jordan
ya que los determinantes de los menores de orden 3 de la matriz A−xI
4
son:
q
1
(x) = (1 −x)
3
q
2
(x) = −(1 −x)
2
q
3
(x) = (1 −x)
2
q
4
(x) = (1 −x)

2 −2x +x
2

por ejemplo veamos como hemos calculado q
4
(x) :

¸
1 0 0
0 1 1
0 −1 1
¸

−x

¸
1 0 0
0 1 0
0 0 1
¸

=

¸
1 −x 0 0
0 1 −x 1
0 −1 1 −x
¸

1 −x 0 0
0 1 −x 1
0 −1 1 −x

= (1 −x)

2 −2x +x
2

= q
4
(x)
por lo tanto
q(x) = m.c.d (q
i
(x))
4
i=1
= (1 −x)
de tal forma que el polinomio m
´
inimo es:
m
f
=
p
f
(x)
q(x)
= (X −1)

X
2
−2X + 2

,
como quer´ıamos hacer ver.
4.5 Matriz can´onica de un endomorfismo. (Jordan).
Vamos a descomponer cada subespacio V
i
en suma de subespacios invariantes sobre
los cuales la actuaci´on de f es muy clara. Los subespacios f−c
´
iclicos. Un subespacio
F ⊂ V es f−c
´
iclico si existe un vector u ∈ V / F = ¦u, f(u), ...., ¦ F es invariante
por f (dimF = gradm
f
(x)) . si este polinomio es:
a
0
+a
1
x +..... +a
s−1
x
s−1
+x
s
entonces
¸
u, f(u), ...., f
s−1
(u)
¸
es base de F y en esta base la matriz de la restricci´on de f es:

¸
¸
¸
¸
¸
0 −a
o
1 0 −a
2
0 1
.
.
.
.
.
.
.
.
. 1 −a
s−1
¸

Teorema 4.5.1 Segundo teorema de descomposici´on. Sea f ∈ End(V ). Entonces
podemos descomponer V en suma directa de subespacios f−c
´
iclicos.
Matriz can´onica de un endomorfismo. (Jordan). 53
Supomgamos que m
f
(x) se descompone en factores lineales y V = V
1
⊕....⊕V
r
.
Si tomo ∀V
i
un vector u
i
con polinomio m
´
inimo (x −a
i
)
s
i
entonces
(u
i
, (f −a
i
I) u
i
, ....., (f −a
i
I)
s
i−1
u
i
)
son LI con dimV
i
= s
i
, estos vectores forman base. La matriz de f restringida a V
i
en esta base es:
J(a
i
, s
i
) =

¸
¸
¸
¸
¸
¸
¸
¸
a
i
0 0
1 a
i
.
.
.
.
.
. 1
.
.
.
0
.
.
. 0
0 1 a
i
¸

Teorema 4.5.2 Si el polinomio m
´
inimo de f se descompone en factores lineales,
entonces existe una base de V en la que la matriz de f es de la forma:
J =

¸
¸
¸
¸
¸
¸
¸
¸
¸
J(a
0
,s
0
)
.
.
.
.
.
.
.
.
. J(a
i
,s
i
)
.
.
.
.
.
.
J(a
r
,s
r
)
¸

que es la matriz can´onica de Jordan.
Los elementos de la diagonal son precisamente los autovalores. Para obtener
una base de V en la cual la matriz de f sea la matriz can´onica de Jordan procedemos
de la siguiente manera: Sea
p(x) = (x −λ
1
)
α
1
.....(x −λ
r
)
α
r
el polinomio caracter
´
istico de f, tal que
¸
α
i
= dimV y sea
m(x) = (x −λ
1
)
s
1
.....(x −λ
r
)
s
r
el polinomio m
´
inimo de f tal que s
i
≤ α
i
∀i. Los s
i
estan caracterizos de la siguiente
manera:

0
¸
⊂ ker (f −λ
i
I) ⊂ ker (f −λ
i
I)
2
⊂ ...... ⊂ ker (f −λ
i
I)
i
tal que
ker (f −λ
i
I)
s
i
= ker (f −λ
i
I)
t
= V
i
V =
¸
⊕V
i
54 Clasificaci´on de Endomorfismos. Matrices de Jordan
4.6 Ejemplos.
Empezamos con un esquema.
1. C´alculo de los autovalores σ(λ) i.e.
det (A−λI) = 0
fundamental, tener encuanta la multiplicidad de cada uno de los autovalores
γ(λ
i
) de tal forma que
¸
γ(λ
i
) = n = dimV.
2. Para cada autovalor λ
i
∈ σ(λ) vamos a conocer las cajas de Jordan a que da
lugar
rang (A−λ
i
I) = rang (J −λ
i
I) = k
i
i.e.
k
i
−n +γ(λ
i
) = n
o
de 1 en la caja de λ
i
Si esto no funciona entonces deberemos calcular los n´ umeros de Segr´e, i.e.,
para cada λ
i
∈ σ(λ) con multiplicidad γ(λ
i
) = p
i
calculamos las dimensiones de los
espacios
ker (A−λ
i
I) = 0 S
1
= I
1
ker (A−λI)
2
= 0 S
2
= I
2
−I
1
.
.
.
.
.
.
ker (A−λI)
p
i
= 0 S
p
= I
p
−I
p−1
donde I
i
= dimV −rang (A−λI)
i
= dimker (A−λI)
i
de tal forma que
q
1
+q
2
+....... +q
p
= S
1
q
2
+....... +q
p
= S
2
.
.
.
q
p
= S
p
donde q
i
indica el n´ umero de cajas de orden i.
Ejemplo 4.6.1 Calcular la forma de Jordan de la matriz
A =

¸
¸
¸
¸
¸
1 2 3 0 0
0 1 2 0 0
0 0 1 2 0
0 0 0 2 1
0 0 0 0 1
¸

Soluci´on. Siguiendo el esquema anteriormente expuesto tenemos que
p(λ) = (λ −1)
4
(λ −2)
y que por lo tanto σ(λ) = (1, 2) donde γ(1) = 4 y γ(2) = 1 (vemos que
¸
γ(λ
i
) =
4+1 = dimV = 5) tambi´en podemos comprobar (th
a
Caley-Hamilton) que el polinmio
m
´
inimo coincide con el caracter
´
istico i.e.
m
f
(X) = (X −1)
4
(X −2)
Ejemplos. 55
por lo que la matriz no es diagonalizable y debemos aplicar sin remedio el m´etodo de
Jordan.
Calculamos por lo tanto las dimensiones de los subespacios (A−λI)
i
1. rang (A−λI) = 4 como se ve facilmete, por lo tanto dimker(A−λI) = 1

¸
¸
¸
¸
¸
0 2 3 0 0
0 0 2 0 0
0 0 0 2 0
0 0 0 1 1
0 0 0 0 0
¸

¸
¸
¸
¸
¸
x
y
z
t
f
¸

= 0 =⇒
2y + 3z = 0
2z = 0
2t = 0
t +f = 0
B
ker(A−λI)
= (1, 0, 0, 0, 0)
2. rang (A−λI)
2
= 3 como se ve facilmete, dimker(A−λI)
2
= 2

¸
¸
¸
¸
¸
0 0 4 6 0
0 0 0 4 0
0 0 0 2 2
0 0 0 1 1
0 0 0 0 0
¸

¸
¸
¸
¸
¸
x
y
z
t
f
¸

= 0 =⇒
4z + 6t = 0
4t = 0
2t + 2f = 0
t +f = 0
B
ker(A−λI)
2 = ¦(1, 0, 0, 0, 0) , (0, 1, 0, 0, 0)¦ = ¦e
1
, e
2
¦
3. rang (A−λI)
3
= 2 como se ve facilmete entonces dimker(A−λI)
3
= 3

¸
¸
¸
¸
¸
0 0 0 14 6
0 0 0 4 4
0 0 0 2 2
0 0 0 1 1
0 0 0 0 0
¸

¸
¸
¸
¸
¸
x
y
z
t
f
¸

= 0 =⇒
14t + 6f = 0
4t + 4f = 0
2t + 2f = 0
t +f = 0
B
ker(A−λI)
3 = ¦e
1
, e
2
, e
3
¦
con e
3
= (0, 0, 1, 0, 0)
4. rang (A−λI)
4
= 1 como se ve facilmete y por lo tanto dimker(A−λI)
4
= 4

¸
¸
¸
¸
¸
0 0 0 14 14
0 0 0 4 4
0 0 0 2 2
0 0 0 1 1
0 0 0 0 0
¸

¸
¸
¸
¸
¸
x
y
z
t
f
¸

= 0 =⇒
14t + 14f = 0
4t + 4f = 0
2t + 2f = 0
t +f = 0
B
ker(A−λI)
4 = ¦e
1
, e
2
, e
3
, (0, 0, 01, −1)¦
5. rang(A−2I) = 4 y por lo tanto dimker(A−2I) = 1

¸
¸
¸
¸
¸
−1 2 3 0 0
0 −1 2 0 0
0 0 −1 2 0
0 0 0 0 1
0 0 0 0 −1
¸

¸
¸
¸
¸
¸
x
y
z
t
f
¸

= 0 =⇒
−x + 2y + 3z = 0
−y + 2z = 0
−z + 2t = 0
f = 0
−f = 0
B
ker(A−2I)
= ¦(14, 4, 2, 1, 0)¦
56 Clasificaci´on de Endomorfismos. Matrices de Jordan
De esta forma los n´ umeros de Segr´e son:
q
1
+q
2
+q
3
+q
4
= 1 I
1
= 1 = S
1
q
2
+q
3
+q
4
= 1 I
2
= 2 =⇒ S
2
= I
2
−I
1
= 1
q
3
+q
4
= 1 I
3
= 3 =⇒ S
3
= 1
q
4
= 1 I
4
= 4 =⇒ S
4
= 1
i.e. q
4
= 1 esto quiere decir que s´olo habr´a una ´ unica caja pero de orden 4. Por lo
tanto la matriz de Jordan de A ser´a:
J
A
=

¸
¸
¸
¸
¸
1 0 0 0 0
1 1 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 0 2
¸

Pasamos ahora a calcular la base. Tomamos un vector u
4
∈ E
4
− E
3
donde E
4
=
ker(A−λI)
4
etc... y el resto de los vectores los voy tomando de
u
4
∈ E
4
−E
3
= (0, 0, 0, 1, −1)
u
3
= (A−λI)a
4
= (0, 0, 2, 0, 0)
u
2
= (A−λI)a
3
= (A−λI)
2
a
4
= (6, 4, 0, 0, 0)
u
1
= (A−λI)a
2
= (A−λI)
3
a
4
= (8, 0, 0, 0, 0)
de tal forma que los vectores ¦u
1
, u
2
, u
3
, u
4
¦ formen base. Se comprueba que A =
CJC
−1
´o J = C
−1
AC

¸
¸
¸
¸
¸
1 2 3 0 0
0 1 2 0 0
0 0 1 2 0
0 0 0 2 1
0 0 0 0 1
¸

=

¸
¸
¸
¸
¸
14 8 6 0 0
4 0 4 0 0
2 0 0 2 0
1 0 0 0 1
0 0 0 0 −1
¸

¸
¸
¸
¸
¸
2 0 0 0 0
0 1 1 0 0
0 0 1 1 0
0 0 0 1 1
0 0 0 0 1
¸

¸
¸
¸
¸
¸
0 0 0 1 1
1
8

3
16
0 −1 −1
0
1
4
0 −1 −1
0 0
1
2
−1 −1
0 0 0 0 −1
¸

Ejemplo 4.6.2 Calcular la forma de Jordan de la matriz
A =

¸
¸
¸
1 0 2 −6
0 1 −1 3
0 0 1 3
0 0 0 2
¸

Soluci´on. Siguiendo el esquema expuesto al principio de la secci´on
vemos que el polinomio caracter´ıstico es:
p (λ) = (λ −1)
3
(λ −2)
mientras que el polinomio m
´
inimo es:
m
f
(X) = (X −1)
2
(X −2)
el conjunto de autovalores est´a formado por: σ (λ) = (1, 2) de tal forma que γ (1) = 3
mientras que γ (2) = 1.
Pasamos a calcular los subespacios invariantes.
Ejemplos. 57
1. rang (A−I) = 2 entonces dimker (A−I) = 2
2. rang (A−I)
2
= 1 entonces dimker (A−I) = 3 = γ (1)
Por lo tanto los n´ umeros de Segr´e en este caso son:
q
1
+q
2
= 2 I
1
= 2 = S
1
q
2
= 1 I
2
= 3 =⇒ S
2
= I
2
−I
1
= 1
por lo tanto habr´a dos cajas, una de oreden 2 y la otra de orden 1 i.e.
J
A
=

¸
¸
¸
1 1 0 0
0 1 0 0
0 0 1 0
0 0 0 2
¸

La base estar´a formada por los siguientes vectores:
u
1
∈ ker (A−I) = (1, 0, 0, 0)
u
2
∈ ker (A−I)
2
= (0, 0, 1, 0)
u
3
= (A−I) u
2
= (2, −1, 0, 0)
u
4
∈ ker (A−2I) = (0, 0, 3, 1)
de tal forma que A = CJC
−1

¸
¸
¸
1 0 2 −6
0 1 −1 3
0 0 1 3
0 0 0 2
¸

=

¸
¸
¸
0 2 0 1
0 −1 0 0
3 0 1 0
1 0 0 0
¸

¸
¸
¸
2 0 0 0
0 1 1 0
0 0 1 0
0 0 0 1
¸

¸
¸
¸
0 2 0 1
0 −1 0 0
3 0 1 0
1 0 0 0
¸

−1
Ejemplo 4.6.3 Calcular la forma de Jordan de la matriz
A =

¸
0 3 1
2 −1 −1
−2 −1 −1
¸

Soluci´on.
En primer lugar calculamos el polinomio caracter´ıstico, siendo ´este:
p (λ) = (λ −2) (λ + 2)
2
mientras que el polinomio m
´
inimo es:
m
f
(X) = (X −2) (X + 2)
2
el conjunto de autovalores esta formado por: σ (λ) = (2, −2) con γ(−2) = 2 y
γ(2) = 1. Pasamos a calcular los subespacios invariantes.
58 Clasificaci´on de Endomorfismos. Matrices de Jordan
1. rang (A−2I) = 2 por lo tanto dimker (A−2I) = 1 = γ(2). Las ecuaciones del
ker (A−2I) son

¸
−2 3 1
2 −3 −1
−2 −1 −3
¸

¸
x
y
z
¸

= 0 =⇒
−2x + 3y +z = 0
2x −3y −z = 0
−2x −y −3z = 0
B
ker(A−2I)
= ¦1, 1, −1¦
2. rang (A+ 2I) = 2, entonces dimker (A+ 2I) = 1 = γ(−2) Las ecuaciones del
ker son:

¸
2 3 1
2 1 −1
−2 −1 1
¸

¸
x
y
z
¸

= 0 =⇒
2x + 3y +z = 0
2x +y −z = 0
−2x −y +z = 0
B
ker(A+2I)
= ¦1, −1, 1¦
3. rang (A+ 2I)
2
= 1, entonces dimker (A+ 2I)
2
= 2 = γ(−2)

¸
8 8 0
8 8 0
−8 −8 0
¸

¸
x
y
z
¸

= 0 =⇒
8x + 8y = 0
8x + 8y = 0
−8x −8y = 0
B
ker(A+2I)
2 = ¦(−1, 1, 0) , (0, 0, 1)¦
4. Los n´ umeros de Segr´e nos dicen:
q
1
+q
2
= 1
q
2
= 1
por lo tanto la matriz de Jordan ser´a de la forma:
J
A
=

¸
2 0 0
0 −2 1
0 0 −2
¸

los vectores de la base son:
v
1
∈ ker (A−2I) = (1, 1, −1)
v
2
= ker (A+ 2I) v
3
= (1, −1, 1)
v
3
∈ ker (A+ 2I)
2
= (0, 0, 1)

¸
0 3 1
2 −1 −1
−2 −1 −1
¸

=

¸
1 1 0
1 −1 0
−1 1 1
¸

¸
2 0 0
0 −2 1
0 0 −2
¸

¸
1
2
1
2
0
1
2

1
2
0
0 1 1
¸

Ejemplo 4.6.4 Calcular la forma de Jordan de la matriz
A =

¸
−2 1 −1
−1 −1 0
0 1 −3
¸

Ejemplos. 59
Soluci´on.
El polinomio caracter´ıstico es:
p (λ) = (λ + 2)
3
= m
f
(X)
por lo tanto
σ(λ) = ¦−2¦ / γ (λ) = 3
los subespacios invariantes de este autovalor son:
1. rang(A+ 2I) = 2 por lo tanto dimker(A+ 2I) = 1

¸
0 1 −1
−1 1 0
0 1 −1
¸

¸
x
y
z
¸

= 0 =⇒
y −z = 0
−x +y = 0
B
ker(A+2I)
= ¦(1, 1, 1)¦
2. rang(A+ 2I)
2
= 1 entonces dimker(A+ 2I)
2
= 2

¸
−1 0 1
−1 0 1
−1 0 1
¸

¸
x
y
z
¸

= 0 =⇒ −x +z = 0
B
ker(A+2I)
2 = ¦(1, 0, 1) , (0, 1, 0)¦
3. rang(A+ 2I)
3
= 0 entonces dimker(A+ 2I)
3
= 3
B
ker(A+2I)
3 = ¦(1, 0, 0) , (0, 1, 0) , (0, 0, 1)¦
Los n´ umeros de Segr´e nos dicen:
q
1
+q
2
+q
3
= 1
q
2
+q
3
= 1
q
3
= 1
i.e
J
A
=

¸
−2 1 0
0 −2 1
0 0 −2
¸

y que la matriz de paso esta formada por los siguientes vectores:
v
3
∈ E
3
= (1, 0, 0)
v
2
= (A+ 2I)v
3
= (0, −1, 0)
v
1
= (A+ 2I)v
2
= (−1, −1, −1)

¸
−2 1 −1
−1 −1 0
0 1 −3
¸

=

¸
−1 0 1
−1 −1 0
−1 0 0
¸

¸
−2 1 0
0 −2 1
0 0 −2
¸

¸
0 0 −1
0 −1 1
1 0 −1
¸

60 Clasificaci´on de Endomorfismos. Matrices de Jordan
Ejemplo 4.6.5 Calcular la forma de Jordan de la matriz
A =

¸
¸
¸
0 1 −1 0
0 −1 0 1
1 1 0 0
0 −2 0 1
¸

Soluci´on.
El polinomio caracter´ıstico coincide con el polinomio m´ınimo
p (λ) = λ
4
+ 2λ
2
+ 1 = m
f
(λ)
los autovalores son:
σ (λ) = ¦i, −i¦ / γ (i) = 2, γ (−i) = 2
Calculamos los subespacios.
1. rang(A−iI) = 3 por lo tanto dimker(A−iI) = 1

¸
¸
¸
−i 1 −1 0
0 −1 −i 0 1
1 1 −i 0
0 −2 0 1 −i
¸

¸
¸
¸
z
1
z
2
z
3
z
4
¸

= 0 =⇒
−iz
1
+z
2
−z
3
= 0
−z
2
−iz
2
+z
4
= 0
z
1
+z
2
−iz
3
= 0
−2z
2
+z
4
−iz
4
= 0
las ecuaciones del ker = ¦z
1
= iz
3
, z
3
= z
3
, z
2
= 0, z
4
= 0¦
B
ker(A−iI)
= ¦(1, 0, −i, 0)¦
2. rang(A−iI)
2
= 2 por lo tanto dimker(A−iI)
2
= 2

¸
¸
¸
−2 −2 −2i 2i 1
0 −2 + 2i 0 −2i
−2i −2i −2 1
0 4i 0 −2 −2i
¸

¸
¸
¸
z
1
z
2
z
3
z
4
¸

= 0 =⇒
−2z
1
−2z
2
−2iz
2
+ 2iz
3
+z
4
= 0
−2z
2
+ 2iz
2
−2iz
4
= 0
−2iz
1
−2iz
2
−2z
3
+z
4
= 0
4iz
2
−2z
4
−2iz
4
= 0
las ecuaciones del ker =
¸
z
4
= iz
2
+z
2
, z
3
= −iz
1

1
2
iz
2
+
1
2
z
2
, z
1
= z
1
, z
2
= z
2
¸
B
ker(A−iI)
2 = ¦(1, −1 +i, 0, −2) , (0, 1 +i, 1, 2i)¦
otra base es:
B
ker(A−iI)
2 = ¦(i, 0, 1, 0) , (0, 1 +i, 1, 2i)¦
3. rang(A+iI) = 3 por lo tanto dimker(A+iI) = 1

¸
¸
¸
i 1 −1 0
0 −1 +i 0 1
1 1 i 0
0 −2 0 1 +i
¸

¸
¸
¸
z
1
z
2
z
3
z
4
¸

= 0 =⇒
iz
1
+z
2
−z
3
= 0
−z
2
+iz
2
+z
4
= 0
z
1
+z
2
+iz
3
= 0
−2z
2
+z
4
+iz
4
= 0
las ecuaciones del ker = ¦z
3
= z
3
, z
2
= 0, z
4
= 0, z
1
= −iz
3
¦
B
ker(A+iI)
= ¦(−i, 0, 1, 0)¦
Ejemplos. 61
4. rang(A+iI)
2
= 2 por lo tanto dimker(A+iI)
2
= 2

¸
¸
¸
−2 −2 + 2i −2i 1
0 −2 −2i 0 2i
2i 2i −2 1
0 −4i 0 −2 + 2i
¸

¸
¸
¸
z
1
z
2
z
3
z
4
¸

= 0 =⇒
−2z
1
−2z
2
+ 2iz
2
−2iz
3
+z
4
= 0
−2z
2
−2iz
2
+ 2iz
4
= 0
2iz
1
+ 2iz
2
−2z
3
+z
4
= 0
−4iz
2
−2z
4
+ 2iz
4
= 0
las ecuaciones del ker =
¸
z
1
= z
1
, z
2
= z
2
, z
3
= iz
1
+
1
2
iz
2
+
1
2
z
2
, z
4
= −iz
2
+z
2
¸
B
ker(A+iI)
2 = ¦(−i, 0, 1, 0) , (−1 +i, 2, 0, 2 −2i)¦
Por lo tanto la matriz de Jordan es:
J
A
=

¸
¸
¸
i 1 0 0
0 i 0 0
0 0 −i 1
0 0 0 −i
¸

donde la matriz de paso esta formada por los vectores:
v
2
∈ ker(A−iI)
2
= (0, 1 +i, 1, 2i)
v
1
= (A−iI)v
2
= (i, 0, 1, 0)
v
4
∈ ker(A+iI)
2
= (−1 +i, 2, 0, 2 −2i)
v
3
= (A+iI)v
4
= (1 −i, 0, 1 +i, 0)
resulta entonces que:

¸
¸
¸
0 1 −1 0
0 −1 0 1
1 1 0 0
0 −2 0 1
¸

=

¸
¸
¸
i 0 1 −i −1 + 1i
0 1 +i 0 2
1 1 1 +i 0
0 2i 0 2 −2i
¸

¸
¸
¸
i 1 0 0
0 i 0 0
0 0 −i 1
0 0 0 −i
¸

¸
¸
¸

1
2
i −
1
2
1
2
1
4
0
1
2
0 −
1
4

1
4
i
1
4
+
1
4
i 0
1
4

1
4
i
1
8
+
1
8
i
0
1
4

1
4
i 0
1
4
i
¸

si la matriz la resolvemos en R entonces:
(0, 1 +i, 1, 2i) =⇒

(0, 1, 1, 0)
(0, 1, 0, 2)
(i, 0, 1, 0) =⇒

(0, 0, 1, 0)
(1, 0, 0, 0)
de tal forma que,

¸
¸
¸
0 1 0 0
0 0 1 1
1 0 1 0
0 0 0 2
¸

−1

¸
¸
¸
0 1 −1 0
0 −1 0 1
1 1 0 0
0 −2 0 1
¸

¸
¸
¸
0 1 0 0
0 0 1 1
1 0 1 0
0 0 0 2
¸

=

¸
¸
¸
0 1 1 0
−1 0 0 1
0 0 0 1
0 0 −1 0
¸

62 Clasificaci´on de Endomorfismos. Matrices de Jordan
Si por ejemplo tomamos
(1 −i, 0, 1 +i, 0) ⇒ ¦(1, 0, 1, 0) , (−1, 0, 1, 0)¦
(−1 +i, 2, 0, 2 −2i) ⇒ ¦(−1, 2, 0, 2) , (1, 0, 0, −2)¦

¸
¸
¸
1 −1 −1 1
0 0 2 0
1 1 0 0
0 0 2 −2
¸

−1

¸
¸
¸
0 1 −1 0
0 −1 0 1
1 1 0 0
0 −2 0 1
¸

¸
¸
¸
1 −1 −1 1
0 0 2 0
1 1 0 0
0 0 2 −2
¸

=

¸
¸
¸
0 −1 1 0
1 0 0 1
0 0 0 −1
0 0 1 0
¸

Ejemplo 4.6.6 Calcular la forma de Jordan de la matriz
A =

¸
2 0 −3
0 −1 0
1 0 −1
¸

Soluci´on. Operando de forma r´apida vemos que el polinomio carac-
ter´ıstico coincide con el m´ınimo siendo
p (λ) = λ
3
+ 1 = m
f
(λ)
el conjunto de autovales esta formado por:
σ (λ) =

−1,
1
2

1
2
i

3,
1
2
+
1
2
i

3

calculamos los subespacios:
1. rang (A+I) = 2 por lo que la base del ker ser´a

¸
3 0 −3
0 0 0
1 0 0
¸

¸
x
y
z
¸

= 0 =⇒
x = z = 0
y = µ
B
ker(A+I)
= ¦(0, 1, 0)¦
2. rang

A−

1
2

1
2
i

3

I

= 2

¸
3
2
+
1
2
i

3 0 −3
0 −
3
2
+
1
2
i

3 0
1 0 −
3
2
+
1
2
i

3
¸

¸
x
y
z
¸

= 0 =⇒
3
2
x +
1
2
ix

3 −3z = 0
1
2

−3 +i

3

y = 0
x −
3
2
z +
1
2
iz

3 = 0
=⇒
las ecuaciones del ker =
¸
z = z, y = 0, x =
3
2
z −
1
2
iz

3
¸
B
ker(A−(
1
2

1
2
i

3)I)
=

3
2

1
2
i

3, 0, 1

Ejemplos. 63
3. rang

A−

1
2
+
1
2
i

3

I

= 2

¸
3
2

1
2
i

3 0 −3
0 −
3
2

1
2
i

3 0
1 0 −
3
2

1
2
i

3
¸

¸
x
y
z
¸

= 0 =⇒
3
2
x −
1
2
ix

3 −3z = 0
1
2

−3 −i

3

y = 0
x −
3
2
z −
1
2
iz

3 = 0
=⇒
las ecuaciones del ker =
¸
z = z, y = 0, x =
3
2
z +
1
2
iz

3
¸
B
ker(A−(
1
2
+
1
2
i

3)I)
=

3
2
+
1
2
i

3, 0, 1

Por lo tanto la forma de Jordan de la matriz A ser´a:
J
A
=

¸
−1 0 0
0
1
2
+
1
2
i

3 0
0 0
1
2

1
2
i

3
¸

de tal forma que
A =

¸
2 0 −3
0 −1 0
1 0 −1
¸

=
=

¸
0
1
2

1
2
i

3
1
2
+
1
2
i

3
1 0 0
0 −
1
3
i

3
1
3
i

3
¸

¸
−1 0 0
0
1
2
+
1
2
i

3 0
0 0
1
2

1
2
i

3
¸

¸
0 1 0
1 0
1
2
i

1 +i

3

3
1 0
1
2
i

−1 +i

3

3
¸

La forma de Jordan real de A es:

¸
−1 0 0
0
1
2
1
2

3
0 −
1
2

3
1
2
¸

=

¸
0 3/2
1
2

3
1 0 0
0 1 0
¸

−1

¸
2 0 −3
0 −1 0
1 0 −1
¸

¸
0 3/2
1
2

3
1 0 0
0 1 0
¸

Ejemplo 4.6.7 Calcular la forma de Jordan de
A =

¸
¸
¸
−7 10 −8 14
−7 9 −8 16
−8 10 −9 18
−3 4 −3 5
¸

Soluci´on.
El polinomio caracter´ıstico es
p(X) = X
4
+ 2X
3
+ 2X
2
+ 2X + 1 = m
f
(X)
as
´
i pues
σ(X) = ¦i, −i, −1, −1¦
calculamos los subespacios correspondientes viendo que:
64 Clasificaci´on de Endomorfismos. Matrices de Jordan
1. rang(A−iI) = 3 por lo tanto

¸
¸
¸
−7 −i 10 −8 14
−7 9 −i −8 16
−8 10 −9 −i 18
−3 4 −3 5 −i
¸

¸
¸
¸
x
y
z
t
¸

= 0 ⇒
−7x −ix + 10y −8z + 14t = 0
−7x + 9y −iy −8z + 16t = 0
−8x + 10y −9z −iz + 18t = 0
−3x + 4y −3z + 5t −it = 0
las ecuaciones del ker =
¸
x = 2t −it, y =
5
2
t −
1
2
it, z = 3t, t = t
¸
B
ker(A−iI)
=

2 −i,
5
2

1
2
i, 3, 1

2. rang(A+iI) = 3 por lo tanto

¸
¸
¸
−7 +i 10 −8 14
−7 9 +i −8 16
−8 10 −9 +i 18
−3 4 −3 5 +i
¸

¸
¸
¸
x
y
z
t
¸

= 0 ⇒
−7x +ix + 10y −8z + 14t = 0
−7x + 9y +iy −8z + 16t = 0
−8x + 10y −9z +iz + 18t = 0
−3x + 4y −3z + 5t +it = 0
las ecuaciones del ker =
¸
x = 2t +it, y =
5
2
t +
1
2
it, z = 3t, t = t
¸
B
ker(A−iI)
=

2 +i,
5
2
+
1
2
i, 3, 1

3. rang(A+I) = 3entonces

¸
¸
¸
−6 10 −8 14
−7 10 −8 16
−8 10 −8 18
−3 4 −3 6
¸

¸
¸
¸
x
y
z
t
¸

= 0 ⇒
−6x + 10y −8z + 14t = 0
−7x + 10y −8z + 16t = 0
−8x + 10y −8z + 18t = 0
−3x + 4y −3z + 6t = 0
las ecuaciones del ker = ¦y = 3t, t = t, z = 4t, x = 2t¦
B
ker(A+I)
= ¦(2, 3, 4, 1)¦
4. rang(A+I)
2
= 2 por lo tanto

¸
¸
¸
−12 16 −10 16
−12 14 −8 14
−12 12 −6 12
−4 4 −2 4
¸

¸
¸
¸
x
y
z
t
¸

= 0 ⇒
−12x + 16y −10z + 16t = 0
−12x + 14y −8z + 14t = 0
−12x + 12y −6z + 12t = 0
−4x + 4y −2z + 4t = 0
las ecuaciones del ker = ¦t = 2x −y, z = 2x, y = y, x = x¦
B
ker(A+I)
2 = ¦(1, 2, 2, 0) , (0, −1, 0, 1)¦
La forma de Jordan es:
J
A
=

¸
¸
¸
i 0 0 0
0 −i 0 0
0 0 −1 1
0 0 0 −1
¸

Ejemplos. 65
mientras que la matriz de paso es:
v
1
=

2 −i,
5
2

1
2
i, 3, 1

∈ ker(A−iI)
v
2
=

2 +i,
5
2
+
1
2
i, 3, 1

∈ ker(A+iI)
v
4
= (1, 2, 2, 0) ∈ ker(A+I)
2
v
3
= (A+I)v
4
= (−3, −5, −6, −1)
alternativamente obtenemos:

¸
¸
¸
−1 + 3i −1 −3i 2 3
−2 + 3i −2 −3i 3 4
−3 + 3i −3 −3i 4 6
−1 +i −1 −i 1 2
¸

¸
¸
¸
i 0 0 0
0 −i 0 0
0 0 −1 1
0 0 0 −1
¸

¸
¸
¸
1 −
3
2

1
2
i 1 +
1
2
i −
3
2

1
2
i
1 −
3
2
+
1
2
i 1 −
1
2
i −
3
2
+
1
2
i
0 0 1 −3
1 −2 1 0
¸

mientras que la matriz real de Jordan es:

¸
¸
¸
−1 3 2 3
−2 3 3 4
−3 3 4 6
−1 1 1 2
¸

−1

¸
¸
¸
−7 10 −8 14
−7 9 −8 16
−8 10 −9 18
−3 4 −3 5
¸

¸
¸
¸
−1 3 2 3
−2 3 3 4
−3 3 4 6
−1 1 1 2
¸

=

¸
¸
¸
0 1 0 0
−1 0 0 0
0 0 −1 1
0 0 0 −1
¸

Ejemplo 4.6.8 Calcular la forma de Jordan de la matriz
A =

¸
¸
¸
6 6 4 4
−4 −2 0 −4
0 −2 −2 2
−4 −4 −4 −2
¸

Soluci´on.
El polinomio caracter´ıstico es:
P(X) = X
4
+ 8X
2
+ 16
as
´
i que los autovalores son σ(X) = ¦2i, −2i, 2i, −2i¦ , de esta forma los subespacios
son:
1. rang(A−2iI) = 2

¸
¸
¸
6 −2i 6 4 4
−4 −2 −2i 0 −4
0 −2 −2 −2i 2
−4 −4 −4 −2 −2i
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒
6x −2ix + 6y + 4z + 4t = 0
−4x −2y −2iy −4t = 0
−2y −2z −2iz + 2t = 0
−4x −4y −4z −2t −2it = 0
las ecuaciones del ker =
¸
x = −
3
2
y −
1
2
iy −z −iz, y = y, z = z, t = y +z +iz
¸
B
ker(A−2iI)
=


3
2

1
2
i, 1, 0, 1

, (i, −1 −i, 1, 0)

66 Clasificaci´on de Endomorfismos. Matrices de Jordan
2. rang(A+ 2iI) = 2

¸
¸
¸
6 + 2i 6 4 4
−4 −2 + 2i 0 −4
0 −2 −2 + 2i 2
−4 −4 −4 −2 + 2i
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒
6x + 2ix + 6y + 4z + 4t = 0
−4x −2y + 2iy −4t = 0
−2y −2z + 2iz + 2t = 0
−4x −4y −4z −2t + 2it = 0
las ecuaciones del ker =
¸
y = y, z = z, t = y +z −iz, x = −
3
2
y +
1
2
iy −z +iz
¸
,
B
ker(A+2iI)
=


3
2
+
1
2
i, 1, 0, 1

, (−i, −1 +i, 1, 0)

Por lo tanto la forma de Jordan es:
J
A
=

¸
¸
¸
2i 0 0 0
0 2i 0 0
0 0 −2i 0
0 0 0 −2i
¸

donde la matriz de paso esta formada por los vectores:

¸
¸
¸
1
2

5
2
i −i
1
2
+
5
2
i i
i 0 −i 0
1
2
+
1
2
i
1
2
+
1
2
i
1
2

1
2
i
1
2

1
2
i
2i i −2i −i
¸

mientras que la forma real de Jordan es:

¸
¸
¸
1/2 −5/2 0 −1
0 1 0 0
1/2 1/2 1/2 1/2
0 2 0 1
¸

−1

¸
¸
¸
6 6 4 4
−4 −2 0 −4
0 −2 −2 2
−4 −4 −4 −2
¸

¸
¸
¸
1/2 −5/2 0 −1
0 1 0 0
1/2 1/2 1/2 1/2
0 2 0 1
¸

=
=

¸
¸
¸
0 2 0 0
−2 0 0 0
0 0 0 2
0 0 −2 0
¸

Cap´ıtulo 5
FORMAS BILINEALES Y CUADR
´
ATICAS.
5.1 Formas bilineales.
Definici´on 5.1.1 Aplicaci´on bilineal. Sea (V, K) definimos
b : V V −→K
u, v −→ b(u, v)
verificnado:
1. b(u +v, w) = b(u, w) +b(v, w), b(λu, v) = λb(u, v)
2. b(u, v +w) = b(u, v) +b(u, w), b(u, λv) = λb(u, v)
Observaci´on 5.1.1 Se dice que la aplicaci´on b es bilineal si K = R y sesquilineal si
K = C.
1. Sim´etrica si b(u, w) = b(w, u)
2. antisim´etrica si b(u, w) = −b(w, u)
3. alternada si b(u, u) = 0
Se observa que (2) ⇐⇒ (3) .
Denotamos por B(V ) el conjunto de todas las formas bilineales sobre V.
B(V ) tiene estructura de espacio vectorial definiendo las siguientes operaciones:
(f +g) (u, v) = f (u, v) +g (u, v)
(kf) (u, v) = kf (u, v)
∀ f, g ∈ B(V ) y ∀ k ∈ K
Teorema 5.1.1 Sea V un espacio vectorial definido sobre un cuerpo K y sea B
V
∗ =
¦φ
1
, ..., φ
n
¦ una base del espacio dual de V , entonces B
B
= ¦f
ij
; i, j = 1, ..., n¦ tal
que
f
ij
(u, v) = φ
i
(u)φ
j
(v)
entonces dimB(V ) = n
2
Definici´on 5.1.2 Expresi´on anal
´
itica de la forma bilineal, unicidad respecto de una
base. Sea B
V
= ¦v
1
, ...., v
n
¦ base de V y B
W
= ¦w
1
, ...., w
r
¦ base de W, y sea
b : V W −→K una forma bilineal.
A = ´(b, B) = a
ij
= b(v
i
, w
j
)
68 Formas Bilineales y Cuadr´aticas.
determinan la forma bilineal b y
b(x, y) = xAy
t
donde x ∈ V e y ∈ W.
Cambio de base.
Sean B
V
C
−→ B

V
bases de V tal que la matriz de paso es C y sean B
W
D
−→ B

W
bases de W tal que la matriz de paso es D, i.e.
(x
1
, ....., x
n
) =

x

1
, ....., x

n

C
(y
1
, ....., y
n
) = (y
1
, ....., y
n
) D
entonces

¸
¸
y
1
.
.
.
y
n
¸

= D
t

¸
¸
y

1
.
.
.
y

n
¸

como
b(x, y) = x A y
t
=

x

1
, ....., x

n

C

A

D
t

¸
¸
y

1
.
.
.
y

n
¸

¸
¸
¸
= x

B y
t
donde B = CAD
t
.
Observaci´on 5.1.2 Sea
b : V V −→K
u, v −→ b(u, v)
y sea B
V
C
−→ B

V
entonces
B=CAC
t
tal que det C = 0 entonces decimos que A y B son congruentes.
Corolario 5.1.1 Si A = ´(b, B) y A

= ´(b, B

) entonces A = P
t
A

P.
Definici´on 5.1.3 Matrices congruentes. Dos matrices A = ´(b, B) y A

= ´(b, B

)
son congruentes si ∃ P ∈ ´ tal que A = P
t
A

P donde la matriz P es no singular
i.e det (P) = 0 y propiedades.
Teorema 5.1.2 Dos matrices son congruentes sii ∃! b y dos bases de V, B y B

tal
que A = P
t
A

P.
Proposici´on 5.1.1 Dos matrices congruentes tienen el miso rango.
Definici´on 5.1.4 Rango de una aplicaci´on bilineal es el rango de su matriz. Se
clasifican en:
1. b es degenerada si rang (b) < dimV.
2. b es no degenerada o regular si rang (b) = dimV
Formas bilineales. 69
Veamos m´as a fondo estas definiciones: Sea
b : V V −→K
u, v −→ b(u, v)
y sean
d : V −→ W

y s : W −→ V

de tal forma que
a ∈ V, [d(a)] (y) = b(a, y) ∀y ∈ W
b ∈ W, [s(b)] (x) = b(x, b) ∀x ∈ V
sean ahora las bases B
V
= ¦v
1
, ..., v
n
¦ B
W
= ¦w
1
, ...., w
r
¦ y B

V
= ¦f
1
, ..., f
n
¦ B

W
=
¦g
1
, ...., g
r
¦. Sea A = (a
ij
)
n×r
/ a
ij
= b(v
i
, w
j
) entonces ´(d) = A y ´(s) = A
t
.
Tenemos entonces las siguientes definiciones:
1. Decimos que b es degenerada por la derecha si ∃ a ∈ V, a = 0 / ∀y ∈ W =⇒
b(a, y) = 0.
2. Decimos que b es degenerada por la izquierda si ∃ b ∈ W, b = 0 / ∀x ∈ V =⇒
b(x, b) = 0.
3. Decimos que b es ordianria si no es degenerada ni por la derecha ni por la
izquierda.
Proposici´on 5.1.2 Decimos que:
1. b es degenerada por la derecha ⇐⇒ d es un monomorfismo.
2. b es degenerada por la izquierda ⇐⇒ s es un monomorfismo.
3. si V = W, b es ordianria ⇐⇒ s y d son isomorfismos.
Corolario 5.1.2 Decimos que:
1. b es degenerada por la derecha ⇐⇒ rang(A) = dim(V ) = n.
2. b es degenerada por la izquierda ⇐⇒ rang(A) = dim(W) = r.
3. si V = W, b es ordianria ⇐⇒ det A = 0.
Definici´on 5.1.5 Sea (V, R) y b es sim´etrica si b(u, v) = b(v, u). Sea (V, C) y b
herm
´
itica i.e. b(u, v) = b(v, u).
Observaci´on 5.1.3 Tabla resumen:
R C
bilineal sesquilineal
sim´etrica herm
´
itica
Lema 5.1.1 b es sim´etrica sii existe una base tal que la matriz de b respecto de dicha
base es sim´etrica i.e. b es sim´etrica si ∃B / A = ´(b, B) de tal forma que A = A
t
.
Una forma sesquilineal es herm
´
itica sii A = A
t
.
70 Formas Bilineales y Cuadr´aticas.
Definici´on 5.1.6 Sea (V, K), dimV = n y sea
b : V V −→K
u, v −→ b(u, v)
entonces u⊥v ⇐⇒ b(u, v) = 0.
Definici´on 5.1.7 Sea J ⊂ V entonces
J

= ¦w ∈ V / ∀v ∈ J; b(w, v) = 0 ¦
Observaci´on 5.1.4 J

= ∅ y que J

⊂ V. Si W, U ⊂ V se dice que W⊥U si
W ⊂ U

.
Definici´on 5.1.8 Subespacio isotr´opico. Decimos que L ⊂ V es un subespacio
isotr´opico si L ∩ L

=

0
¸
.
Definici´on 5.1.9 Vector isotr´opico. Decimos que v ∈ V es isotr´opico si b(v, v) = 0
i.e. es ortogonal de si mismo. Si v ∈ L ⊂ V es isotr´opico entonces L ∩ L

=

0
¸
.
Observaci´on 5.1.5 V = W ⊕W

sii W es no isotr´opico.
Observaci´on 5.1.6 Sea b forma bilineal sim´etrica definida y B = ¦v
1
, ....., v
n
¦ una
base ortogonal respecto a b i.e. v
i
⊥v
j
⇐⇒ b(v
i
, v
j
) = 0 ∀i = j. Entonces la expresi´on
matricial de la forma b respecto de dicha base es diagonal.
´(b, B) =

¸
¸
¸
¸
¸
¸
¸
b(v
1
, v
1
) 0 0
0
.
.
.
.
.
. b(v
i
, v
i
)
0 0
0 0 b(v
n
, v
n
)
¸

Proposici´on 5.1.3 Si b es una forma bilineal sim´etrica definida, entonces existe una
base ortogonal del espacio V.
Definici´on 5.1.10 Decimos que la forma b es definida si:
1. definida positiva si b(v
i
, v
i
) > 0
2. definida negativa si b(v
i
, v
i
) < 0.
Proposici´on 5.1.4 Sea b : V V −→ K una forma bilineal definida. Si B =
¦v
1
, ....., v
n
¦ es una base ortogonal entonces B

= ¦e
1
, ....., e
n
¦ es una base ortonormal
/
e
i
=
v
i

[b(v
i
, v
i
)[
Observaci´on 5.1.7 Si b definida positiva entonces existe una baseB tal que ´(b, B) =
I. Si b definida negativa entonces existe una base B tal que ´(b, B) = −I
Formas bilineales. 71
5.1.1 Diagonalizaci´on de formas bilineales.
Proposici´on 5.1.5 Sea b una forma bilineal definida ordinaria (o regular i.e. V =
L ⊕L

) entonces existe una base B
V
/
´(b, B) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
1
−1
.
.
.
−1
¸

i.e. es una matriz diagonal con todos los t´erminos de la diagonal ¦±1¦ .
Demostraci´on. La demostraci´on es un poco pesadita y est´a dividida en
cuatro fases. Primero comprobar que la aplicaci´on b es ordinaria, segundo que el
espacio se descompone en suma directa de subespacios no is´otropos, tercera que
existe la base que hace la matriz diagonal y por ´ ultimo que ponemos normalizarla.
1. La aplicaci´on b es ordinaria, entonces b(x, x) = 0. Supongamos lo contrario
∀x ∈ V b(x, x) = 0, tomo un x = 0 fijo y ∀y ∈ V
b((x +y), (x +y)) = b(x, x) +b(y, y) + 2b(x, y) = 0
=⇒ 2b(x, y) = 0 !¡
entonces la forma b es ordinaria.
2. Si ∀x ∈ V , la forma b es ordinaria i.e. b(x, x) = 0 entonces L = L(x) es
no is´otropo, i.e. V = L ⊕ L

. Si L ∩ L

=

0
¸
entonces exsite un vector
z ∈ L ∩ L

tal que z ∈ L y z ∈ L

. Sea z = αx entonces b(z, z) = 0 / z ∈ L

,
b(z, z) = α
2
b(x, x) = 0 ⇐⇒ α = 0 ya que al ser b ordinaria b(x, x) = 0 ∀x ∈ V,
entonces z = 0 y por lo tanto L ∩ L

=

0
¸
.
3. Existe la base B

V
. Por inducci´on sobre la dimensi´on del espacio. Si dimV = 1
es inmediato que existe B
V
= ¦x¦ , entonces supongamos que en todo espacio
vectorial de dimV = n − 1 y ∀ forma bilineal del mismo existe B

V
en las
condiciones dadas. Si dimV = n entonces ∃x ∈ V / b(x, x) = 0 y por lo
tanto puedo descomponer el espacio V en suma de subespacio no is´otropos i.e.
V = L ⊕ L

de tal forma que dimL = 1 y dimL

= n − 1. Veamos que la
forma b restringida al subespacio L

es bilineal sim´etrica y definida de L

.
Sea B
L
⊥ = ¦v
2
, ....., v
n
¦ base de L

(base ortogonal respecto de b
L
⊥) entonces
tambi´en lo es respecto de b. Si llamo a v
1
= x entonces B
V
= ¦v
1
, v
2
, ....., v
n
¦
base de V ortogonal respecto de b i.e. b(v
i
, v
j
) = 0, i = j de tal forma que
´(b, B) =

¸
¸
b(v
1
, v
1
) 0
.
.
. b(v
i
, v
i
)
.
.
.
0 b(v
n
, v
n
)
¸

72 Formas Bilineales y Cuadr´aticas.
4. Es inmediato que ∃B

= ¦e
1
, e
2
, ....., e
n
¦ tal que b(e
i
, e
i
) = ±1, tal que
e
i
=
v
i

[b(v
i
, v
i
)[
como quer
´
iamos hacer ver.
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Ejemplo 5.1.1 Sea V = R
3
y b tal que su expresi´on matricial es:
A = ´(b, B) =

¸
0 1 1
1 0 1
1 1 0
¸

al ser el rango de la matriz 3 ya que el determinante de la matriz es distinto de
cero entonces la forma b es ordinaria por lo que existe x ∈ V / b(x, x) = 0 entonces
podemos descomponer el espacio V en suma directa de subespacios no is´otropos i.e.
V = L ⊕ L

. Sea v
1
= (1, 1, 0) entonces b(v
1
, v
1
) = 2 = 0 entonces L = L(v
1
). El
espacio L

esta formado por el conjunto de vectores de x ∈ V tal que b(v
1
, x) = 0
i.e.
L

= ¦x ∈ V / b(v
1
, x) = 0¦ con v
1
∈ L
(1, 1, 0)

¸
0 1 1
1 0 1
1 1 0
¸

¸
x
y
z
¸

= 0
⇐⇒ x +y + 2z = 0 ⇐⇒

x = −λ −2µ
y = λ
z = µ
de tal forma que una base de L

estar´a formada por los vectores B
L
⊥ = ¦(−1, 1, 0) , (−2, 0, 1)¦
comprobamos que b(v
i
, v
i
) = 0 y que b(v
i
, v
j
) = 0 viendo que los vectores v
2
y v
3
no
son ortogonales con respecto a b, luego tenemos que buscar un vector v
3
= (x, y, z)
que sea ortogonal a v
2
= (−1, 1, 0) y continue perteneciendo a L

i.e debe verificar
x +y + 2z = 0
x −y = 0
esta ´ ultima ecuaci´on la hemos obtenido al imponer que b(v
2
, v
3
) = 0, i.e.
(−1, 1, 0)

¸
0 1 1
1 0 1
1 1 0
¸

¸
x
y
z
¸

= 0 = x −y.
Al resolver las ecuaciones obtenemos que v
3
= (1, 1, −1) comprobando que b(v
3
, v
3
) =
0. Hemos obtenido una base B

= ¦(1, 1, 0), (−1, 1, 0) , (1, 1, −1)¦ de V respecto de la
cual b tiene una expresi´on diagonal
´(b, B

) =

¸
2 0 0
0 −2 0
0 0 −2
¸

P
t
AP=D
Formas bilineales. 73

¸
1 1 0
−1 1 0
1 1 −1
¸

¸
0 1 1
1 0 1
1 1 0
¸

¸
1 −1 1
1 1 1
0 0 −1
¸

=

¸
2 0 0
0 −2 0
0 0 −2
¸

Si normalizamos i.e. si e
i
=
v
i

|b(v
i
,v
i
)|
obtenemos una nueva base B

tal que
´(b, B

) =

¸
1 0 0
0 −1 0
0 0 −1
¸

comprobamos que:
B

=

1

2
(1, 1, 0),
1

2
(−1, 1, 0) ,
1

2
(1, 1, −1)

ya que
b(v
1
, v
1
) = 2, b(v
2
, v
2
) = −2 = b(v
3
, v
3
)
como podemos comprobar facilmente:
1

2

¸
1 1 0
−1 1 0
1 1 −1
¸

¸
0 1 1
1 0 1
1 1 0
¸

1

2

¸
1 −1 1
1 1 1
0 0 −1
¸

=

¸
1 0 0
0 −1 0
0 0 −1
¸

por ´ ultimo resaltamos que la matriz original A (de rango 3) es diagonlaizable y que
su matriz diagonal es:

¸
0 1 1
1 0 1
1 1 0
¸

=

¸

1
3
1
3
−1

1
3
1
3
0
2
3
1
3
1
¸

¸
−1 0 0
0 2 0
0 0 −1
¸

¸
1 −2 1
1 1 1
−1 1 0
¸

donde el polinomio caracter
´
istico es: p(X) = X
3
−3X −2, el m
´
inimo p(X) = −2 −
X +X
2
, los autovectores son σ(X) = ¦2, −1, −1¦ y los subespacios caracter
´
isticos:
V
2
= ¦(1, 1, 1)¦ y V
−1
= ¦(−1, 0, 1) , (−1, 1, 0)¦
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Definici´on 5.1.11 Radical o n´ ucleo de b. Sea b : V V −→ K una forma bilineal
sim´etrica definimos el nucleo de b como:
N = ¦v ∈ V / b(v, w) = 0, ∀w ∈ V ¦
tambi´en se llama n´ ucleo. Se define el radical por la derecha y por la izquierda. La
forma b es ordinaria sii N =

0
¸
.
Proposici´on 5.1.6 Sea B = ¦v
1
, ....., v
n
¦ una base de V, entonces u ∈ rad(b) sii
b(u, v
i
) = 0. Adem´as:
1. rad(b) ⊂ V
2. dim(rad(b)) = dimV −rang(b)
3. b es no degenerada sii rad(b) = ¦0¦
74 Formas Bilineales y Cuadr´aticas.
Definici´on 5.1.12 Definimos la forma
¯
b : V/N V/N −→K
(x +N, y +N) −→
¯
b(x +N, y +N) = b(x, y)
Proposici´on 5.1.7 La aplicaci´on
¯
b es bilineal sim´etrica y ordinaria en V/N.
Proposici´on 5.1.8 Sea b una forma bilineal sim´etrica de V en K, entonces existe
una base ortogonal de b /
´(b, B) =

¸
¸
¸
¸
¸
¸
¸
1
.
.
.
−1
.
.
.
0
¸

Demostraci´on. Sea b : V/N V/N −→ R ordinaria. Sabemos que existe
una base orotogonal de V/N
B

= ¦v
1
+N, ....., v
r
+N¦ / b(v
i
+N, v
i
+N) = ±1
pero como b(v
i
+N, v
i
+N) = b(v
i
, v
i
) = ±1 ∀i = 1, ..., r. Sea B
N
= ¦v
r+1
, ...., v
n
¦ una
base cualquiera del nucleo / b(v
j
, v
k
) = 0. Tomo como base B = ¦v
1
, ...., v
r
, v
r+1
, ...., v
n
¦
de tal forma que
b(v
i
, v
i
) = ±1 ∀i = 1, ..., r
b(v
j
, v
k
) = 0 ∀j, k = r + 1, ..., n
entonces la matriz de b respecto de sta base es de la forma:
´(b, B) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
1
−1
.
.
.
−1
0
.
.
.
0
¸

como quer
´
iamos hacer ver.
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Ejemplo 5.1.2 Sea la matriz A asociada al forma bilinela b
A =

¸
1 1 2
1 2 3
2 3 5
¸

Formas bilineales. 75
queremos ver la forma diagonal que tiene respecto de la base B que debemos encontrar.
En primer lugar debemos calcular el nucleo de b i.e.

¸
1 1 2
1 2 3
2 3 5
¸

¸
x
y
z
¸

= 0 ⇐⇒

x +y + 2z = 0
x + 2y + 3z = 0
2x + 3y + 5x = 0
encontrando que unna base del nucleo esta generada por
B
N
= ¦−λ, −λ, λ¦
podemos tomar como base por ejemplo B
N
= ¦−1, −1, 1¦ . Tomamos ahora un v
1
=
(1, 0, 0) / ∈ N y compruebo que efectivamente b(v
1
, v
1
) = 0, i.e.
(1, 0, 0)

¸
1 1 2
1 2 3
2 3 5
¸

¸
1
0
0
¸

= 1
y busco un v
2
tal que v
1
⊥ v
2
y b(v
2
, v
2
) = 0 (v
2
tampoco puede pertener al n´ ucleo
N) i.e.
(1, 0, 0)

¸
1 1 2
1 2 3
2 3 5
¸

¸
x
y
z
¸

= 0 ⇐⇒ x +y + 2z = 0
como v
2
/ ∈ N entonces el vector v
2
puede ser de la forma v
2
∈ ¦(−λ, λ, 0) , (−2µ, 0, µ)¦
si por ejempl otomamos v
2
= (−2, 0, 1) entonces la base formada por los vectores
B = ¦(1, 0, 0) , (−2, 0, 1) , (−1, −1, 1)¦ hace que la matriz de b respecto de ella sea de
la forma:

¸
1
1
0
¸

como se comprueba con facilidad.
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Proposici´on 5.1.9 Todas las matrices asociadas a una misma forma bilinela sim´etrica
tienen el mismo rango.
Teorema 5.1.3 Inercia o de Silvester. Es invariante el n´ umero de ¦1, −1, 0¦ en la
matriz diagonal asociada a la forma b.
Demostraci´on. Sea b la forma tal que con respecto de la base
B = ¦v
1
, ....., v
p
, v
p+1
, ......., v
r
, v
r+1
, ......., v
n
¦
tiene una expresi´on metricial de la forma
´(b, B) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
m
1
.
.
.
m
p
−m
p+1
.
.
.
−m
r
0
.
.
.
0
¸

76 Formas Bilineales y Cuadr´aticas.
y sea B

=
¸
w
1
, ..., w
p
, w
p

+1
, ...., w
r
, w
r

+1
, ...., w
n

¸
´(b, B

) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
d
1
.
.
.
d
p

−d
p

+1
.
.
.
−d
r

0
.
.
.
0
¸

tenemos que demostrar que p = p

. Sabemos que el rango de bes r y que N =
L(v
r+1
, ...., v
n
) = L(w
r

+1
, ...., w
n
).
Supongamos que p < p

. Sea L = L(v
p+1
, ...., v
r
, v
r+1
, ...., v
n
) y sea x ∈ L /
x = 0v
1
+.... + 0v
p
+x
p+1
v
p+1
+.... +x
r
v
r
+ 0v
r+1
+.... + 0v
n
de tal forma que
b(x, x) = −m
p+1
x
2
p+1
−.... −m
r
x
r
≤ 0
x ∈ L =⇒ x / ∈ N si x = 0 entonces b(x, x) < 0. Sea M = L(w
1
, ......., w
n
) y sea
y ∈ M tal que
y = y
1
w
1
+... +y
p
w
p
+y
p

+1
w
p

+1
+... +y
n
w
n

tal que
b(y, y) = y
2
1
d
1
+... +y
2
p
d
p
≥ 0
con y / ∈ N si y = 0 entonces b(x, x) > 0. Atendiendo a ls f´ormulas de Grassmann,
vemos que
dim(L +M) = dimL + dimM −dim(L ∩ M) = (r −p) +

n −r +p

−dim(L ∩ M) =
= n +

p

−p

−dim(L ∩ M) ≤ n
entonces la dim(L ∩ M) > 0, ya que (p

−p) ≥ 0 por hip´otesis. Entonces existe un
z = 0 tal que z ∈ L ∩ M, con z ∈ L, z / ∈ N entonces b(z, z) < 0 y z ∈ M, z / ∈ N
entonces b(z, z) > 0 pero esto es imposible entonces p ≥ p

.
Supoongamos ahora que p

< p haciendo el mismo razonamiento que antes
llegar
´
iamos a la conclusi´on de que p ≤ p

y por lo tanto concluimos que necesariamente
p = p

como quer
´
iamos demostrar.
5.2 Formas cuadr´aticas.
Asociada a toda forma bilineal aparece su forma cuadr´atica definida de la siguiente
manera.
Definici´on 5.2.1 Sea b : V V −→ K una forma bilineal, definimos su forma
cuadr´atica como la aplicaci´on q tal que
q : V −→K
v −→ b(v, v)
y verificando:
Ejemplos. 77
1. 2b(v, w) = q(v +w) −q(v) −q(w) forma polar de b,
2. en el caso herm
´
itico
4b(v, w) = q(v +w) −q(v −w) +i (q(v +iw) −q(v −iw))
3. q(λv) = b(λv, λv)
Definici´on 5.2.2 Forma polar. La forma bilineal sim´etrica b
q
determinada por q se
llama forma polar de q. rang(q) = rang(b) = rang(A).
Definici´on 5.2.3 Definida etc...
q

def. positiva q(v) > 0
semidef. pos q(v) ≥ 0
def. negativ q(v) < 0
semidef. neg q(v) ≤ 0
Definici´on 5.2.4 Decimos que es indefinida si q(v) > 0 y q(w) < 0.
Criterio 5.2.1 Criterio de Sylvester sobre la positividad de una forma bilineal.
1. Para que una forma cuadr´atica b(x, x) sea definida positiva es necesario y su-
ficiente que sean positivos todos los menores “angulares” de la matriz A =
´(b, B) i.e. los menores

1
= a
11
> 0, ∆
2
=

a
11
a
12
a
21
a
22

> 0, ....., ∆
n
= [A[ > 0
deben ser positivos.
2. Para que una forma sea definida negativa es necesario y suficiente que se veri-
fique

1
= a
11
< 0, ∆
2
=

a
11
a
12
a
21
a
22

> 0....., ∆
n
= [A[ ≶ 0
i.e. que se alternen los signos de los menores angulares de la matriz A siendo
de signo negativo el primero i.e. ∆
1
= a
11
.
5.3 Ejemplos.
Ejemplo 5.3.1 Diagonalizar la aplicaci´on bilineal dada por
A =

¸
2 −5 0
−5 −1 3
0 3 −6
¸

Soluci´on.
En primer lugar calculaomos el polinomio caracteristico viendo que es igual a
p(X) = X
3
+ 5X
2
−42X −144
y que por lo tanto los autovalores son:
σ(X) = ¦−8, 6, −3¦
pasando a calcular cada uno de los subespacios:
78 Formas Bilineales y Cuadr´aticas.
1. rang(A+ 8I) = 2 entonces dimker(A+ 8I) = 1 como se ve en:

¸
10 −5 0
−5 7 3
0 3 2
¸

¸
x
y
z
¸

= 0 =⇒
10x −5y = 0
−5x + 7y + 3z = 0
3y + 2z = 0
la ecuaci´on del ker es
¸
y = y, z = −
3
2
y, x =
1
2
y
¸
, mientras que una base es:
B
ker(A+8I)
= ¦(1, 2, −3)¦
2. rang(A−6I) = 2

¸
−4 −5 0
−5 −7 3
0 3 −12
¸

¸
x
y
z
¸

= 0 =⇒
−4x −5y = 0
−5x −7y + 3z = 0
3y −12z = 0
las ecuaciones del ker son:
¸
y = y, x = −
5
4
y, z =
1
4
y
¸
, mientras que una base es:
B
ker(A−6I)
= ¦(−5, 4, 1)¦
3. rang(A+ 3I) = 2

¸
5 −5 0
−5 2 3
0 3 −3
¸

¸
x
y
z
¸

= 0 =⇒
5x −5y = 0
−5x + 2y + 3z = 0
3y −3z = 0
las ecuaciones del ker son:¦x = z, z = z, y = z¦ ,mientras que una base es:
B
ker(A+3I)
= ¦(1, 1, 1)¦
Por lo tanto la matriz diagonal ser´a:
D
A
=

¸
−3 0 0
0 6 0
0 0 −8
¸

y la matriz de paso esta formada por los vectores:
B = ¦(−5, 4, 1) , (1, 1, 1) , (1, 2, −3)¦
de tal forma que

¸
2 −5 0
−5 −1 3
0 3 −6
¸

=

¸
−5 1 1
4 1 2
1 1 −3
¸

¸
6 0 0
0 −3 0
0 0 −8
¸

¸
−5 1 1
4 1 2
1 1 −3
¸

−1
mientras que P
t
AP = D

¸
−5 4 1
1 1 1
1 2 −3
¸

¸
2 −5 0
−5 −1 3
0 3 −6
¸

¸
−5 1 1
4 1 2
1 1 −3
¸

=

¸
252 0 0
0 −9 0
0 0 −112
¸

Ejemplos. 79
con

¸
−5 1 1
4 1 2
1 1 −3
¸

−1
=

¸

5
42
2
21
1
42
1
3
1
3
1
3
1
14
1
7

3
14
¸

observamos adem´as cada autovector es ortogonal i.e.

1 1 1

¸
2 −5 0
−5 −1 3
0 3 −6
¸

¸
−5
4
1
¸

= 0
etc... . Si normalizamos la base i.e. si
B

=

1

252
(−5, 4, 1) ,
1
3
(1, 1, 1) ,
1

112
(1, 2, −3)

esta es la base buscada. Por lo tanto la matriz diagonal queda P
t
AP = D: (se han
simplificado las expresiones para que no aparezcan raices en el denominador)

¸

5
42

7
2
21

7
1
42

7
1
3
1
3
1
3
1
28

7
1
14

7 −
3
28

7
¸

¸
2 −5 0
−5 −1 3
0 3 −6
¸

¸

5
42

7
1
3
1
28

7
2
21

7
1
3
1
14

7
1
42

7
1
3

3
28

7
¸

=

¸
1 0 0
0 −1 0
0 0 −1
¸

Podemos comprobar que esta matriz es diagonalizable y que la matriz diagonal
es:

¸
2 −5 0
−5 −1 3
0 3 −6
¸

=

¸
−5 1 1
4 1 2
1 1 −3
¸

¸
6 0 0
0 −3 0
0 0 −8
¸

¸
−5 1 1
4 1 2
1 1 −3
¸

−1
el polinomio caracter
´
istico y el m
´
inimo coinciden:
p(X) = X
3
+ 5X
2
−42X −144 = m
f
(X),
los autovalores son σ(f) = ¦6, −3, −8¦, y sus correspondientes autovectores son:
V
6
= ¦(−5, 4, 1)¦ , V
−3
= ¦(1, 1, 1)¦ , V
−8
= ¦(1, 2, −3)¦
Observaci´on 5.3.1 En este caso coincide que la matriz es diagonlaizable, pero como
veremos exsiten casos de aplicaciones bilinelaes no diagonalizables y sin embargo
existir bases respecto de las cuales la forma es diagonal.
Ejemplo 5.3.2 Dada la forma bibilineal A, queremos encontrar una base respecto
de la cual la expresi´on del endomorfismo tenga una expresi´on diagonal ±1, 0.
A =

¸
3 6 4
6 9 6
4 6 4
¸

80 Formas Bilineales y Cuadr´aticas.
Soluci´on.
el espacio hay que descomponerlo
V = L ⊕L

⊕ker f
en primer lugar observamos que A tiene rango 2 por lo tanto el ker A = 0

¸
3 6 4
6 9 6
4 6 4
¸

¸
x
y
z
¸

= 0 =⇒
3x + 6y + 4z = 0
6x + 9y + 6z = 0
4x + 6y + 4z = 0
las euaciones del ker son,
¸
z = −
3
2
y, x = 0, y = y
¸
, y una base es
B
ker A
= ¦(0, 2, −3)¦
Tomamos un vector cualquiera e
1
= ¦(1, 0, 0)¦ de tal forma que L = L(e
1
)

1 0 0

¸
3 6 4
6 9 6
4 6 4
¸

¸
1
0
0
¸

= 3
i.e. f
L
> 0 y calculamos el subespacio ortogonal a L i.e.

1 0 0

¸
3 6 4
6 9 6
4 6 4
¸

¸
x
y
z
¸

= 3x + 6y + 4z
L

= ¦3x + 6y + 4z = 0¦
las ecuaciones de L

son
L

=

x = −2λ −
4
3
µ
y = λ
z = µ
por ejemplo una base de L

puede ser
B
L
⊥ = ¦(2, −1, 0) , (0, −2, 3)¦
comprobando que

2 −1 0

¸
3 6 4
6 9 6
4 6 4
¸

¸
2
−1
0
¸

= −3
observando que (0, −2, 3) ∈ ker f. De esta forma si
B = ¦(1, 0, 0) , (2, −1, 0) , (0, −2, 3)¦
tenemos que
M(f, B) =

¸
3 0 0
0 −3 0
0 0 0
¸

Ejemplos. 81
si normalizamos entonces
M(f, B

) =

¸
1 0 0
0 −1 0
0 0 0
¸

siendo
B

=

1

3
, 0, 0

,

2

3
,
−1

3
, 0

, (0, −2, 3)

Ejemplo 5.3.3 Sea (mismo enunciado que antes)
A =

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

Soluci´on.
V = L ⊕L

⊕ker f
Vemos que dimker f = 1 ya que

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒
x + 2y + 3z = 0
2x + 3y + 6z = 0
3x + 6y + 5z + 2t = 0
2z −t = 0
las ecuaciones del ker : ¦z = z, y = 0, x = −3z, t = 2z¦, una base esta formada por
B
ker f
= ¦(−3, 0, 1, 2)¦
El subespacio L esta generado por e
1
i.e. L = L(e
1
) de tal forma que

1 0 0 0

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
1
0
0
0
¸

= 1
Calculamos el esoacio ortogonal L

1 0 0 0

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
x
y
z
t
¸

= x + 2y + 3z
L

= ¦x + 2y + 3z = 0¦
las ecuaciones parametricas de
L

=

x = −2λ −3µ
y = λ
z = µ
t = α
82 Formas Bilineales y Cuadr´aticas.
una base estar´a formada por:
B
L
⊥ = ¦(−2, 1, 0, 0) , (−3, 0, 1, 0) , (0, 0, 0, 1)¦
observando que

−2 1 0 0

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
−2
1
0
0
¸

= −1

−3 0 1 0

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
−3
0
1
0
¸

= −4

0 0 0 1

¸
¸
¸
1 2 3 0
2 3 6 0
3 6 5 2
0 0 2 −1
¸

¸
¸
¸
0
0
0
1
¸

= −1
Podemos tomar la base formaba por
B =

(1, 0, 0, 0)
. .. .
L
, (−2, 1, 0, 0) , (0, 0, 0, 1)
. .. .
L

, (−3, 0, 1, 2)
. .. .
ker f

V = L ⊕L

⊕ker f
de tal forma que
L ⊥ L

⊥ ker f
son ortogonales entre si y respecto de la forma A.
Ejemplo 5.3.4 Dada la forma bilineal
B =

¸
3 1 −2
1 2 1
−2 1 0
¸

Soluci´on.
vemos que la forma cuadr´atica asociada es:
q = 3x
2
+ 2xy −4xz + 2y
2
+ 2yz
y que existe un vector e
3
= (0, 0, 1) tal que
b(e
3
, e
3
) = 0
i.e

0 0 1

¸
3 1 −2
1 2 1
−2 1 0
¸

¸
0
0
1
¸

= 0
Ejemplos. 83
sin embargo rangB = 3. Nos piden calcular la ecuaci´on del subespacio generado por
los vectores L = L¦(1, 3, 0) , (−1, 1, 2)¦ . De forma trivial calculamos que
L = det

¸
x y z
1 3 0
−1 1 2
¸

= 0 = 3x −y + 2z
siendo B
L
= ¦(1, 3, 0) , (−1, 1, 2)¦ , las ecuaciones del subespacio ortogonal son por lo
tanto

1 3 0

¸
3 1 −2
1 2 1
−2 1 0
¸

¸
x
y
z
¸

= 6x + 7y +z

−1 1 2

¸
3 1 −2
1 2 1
−2 1 0
¸

¸
x
y
z
¸

= −6x + 3y + 3z
L

:=

6x + 7y +z = 0
−6x + 3y + 3z = 0
=⇒

x = 3λ
y = −4λ
z = 10λ
siendo B
L
= ¦(3, −4, 10)¦ . Comprobando trivialmente que ambos espacios son NO
is´otropos i.e. L ∩ L

=

0, simplemente viendo que los vectores son LI i.e.
det

¸
3 −4 10
1 3 0
−1 1 2
¸

= 66 = 0
Ejemplo 5.3.5 Probar que la matriz A no es diagonalizable pero sin embargo existe
una matriz P invertible / P
t
AP es diagonal.
La matriz A est´a dada por
A =

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

Soluci´on.
Vemos que el polinomio caracter´ıstico es:
p(X) = X
3
−14X
2
+ 60X −72 = m
f
(X)
y que por lo tanto σ(f) = ¦2, 6, 6¦ , vemos ahora que la dimensi´on de cada uno de
los subespacios invariantes no coincide con la multiplicidad de su correspondiente
autovalor ya que dim(ker(f − 2I)) = 1 pero dim(ker(f − 6I)) = 1 y para que sea
diagonalizable deber
´
ia ser 2. Sin embargo podemos comprobar que la forma de Jordan
es:

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

=

¸
0 2i

2
1
2
i

2

1
2
−2
1
2
1
2
−2
1
2
¸

¸
2 0 0
0 6 1
0 0 6
¸

¸
0 −1 1

1
8
i

2 −
1
8

1
8

1
2
i

2
1
2
1
2
¸

84 Formas Bilineales y Cuadr´aticas.
Entonces vamos a operar como en ejercicios anteriores. Sea la matriz
A =

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

de rango 3 entonces la forma bilineal es ordinaria. Tomamos un vector cualquiera
v
1
=

8, i

2, i

2

, siendo L = L(v
1
), de tal forma que b(v
1
, v
1
) = 432

8 i

2 i

2

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

¸
8
i

2
i

2
¸

= 432
de esta forma buscamos una descomposici´on del espacio tal que V = L ⊕ L

. El
subespacio L

esta generado por:

8 i

2 i

2

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

¸
x
y
z
¸

= 0
60x + 12i

2y + 12i

2z = 0 ⇐⇒

x = −
i

2
5
λ −−
i

2
5
µ
y = λ
z = µ
luego una base de L

est´a generada por: B
L
⊥ =


i

2
5
, 1, 0

,


i

2
5
, 0, 1
¸
com-
probamos que son ortogonales i.e. b(v
2
, v
3
) = 0


i

2
5
1 0

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

¸
−i

2
5
0
1
¸

=
29
25
como no son ortogonales debemos buscar un vector v
3
∈ L

/ b(v
2
, v
3
) = 0 i.e.
60x + 12i

2y + 12i

2z = 0

3
5
i

2x +
17
5
y +
7
5
z = 0
resoviendo este sistema encontramos que
v
3
=

10
29
i

2, 1, −
79
29

comprobamdo ahora que:


i

2
5
1 0

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

¸
10
29
i

2
1

79
29
¸

= 0
de esta forma hemos obtebido una base de V
B
V
=

8, i

2, i

2

,


i

2
5
, 1, 0

,

10
29
i

2, 1, −
79
29

¸
Ejemplos. 85
de tal forma que P
t
AP = D ve´amoslo:

¸
8 i

2 i

2

1
5
i

2 1 0
10
29
i

2 1 −
79
29
¸

¸
8 i

2 i

2
i

2 3 1
i

2 1 3
¸

¸
¸
8 −
i

2
5
10
29
i

2
i

2 1 1
i

2 0 −
79
29
¸

=
=

¸
432 0 0
0
79
25
0
0 0
17 064
841
¸

si normalizamos esta base i.e.
e
i
=
v
i

[b(v
i
, v
i
)[
entonces obtenemos la siguiente matriz:

¸
1 0 0
0 1 0
0 0 1
¸

por ´ ultimo resaltar que la matriz encontrada P es invertible como se puede comprobar:

¸
8 i

2 i

2

1
5
i

2 1 0
10
29
i

2 1 −
79
29
¸

−1
=

¸
5
36

15
79
i

2
145
2844
i

2
1
36
i

2
85
79

29
1422
1
36
i

2
35
79

551
1422
¸

Ejemplo 5.3.6 Sea la forma cuadr´atica definida sobre R respecto de la base can´onica:
q(x) = x
2
1
−3x
2
2
−4x
2
3
+λx
2
4
+ 2µx
1
x
2
λ, µ ∈ R
queremos hallar la forma polar de q, y escribir la matriz respecto de la base can´onica.
Definir el rango de q seg´ un los valores de λ, µ y por ´ ultimo descomponer q en suma
de cuadrados y encontrar su signatura.
Soluci´on.
Vemos que la forma forma pola de q es:
2f(x, y) = q(x +y) −q(x) −q(y)
i.e.
2f(x, y) =

(x
1
+y
1
)
2
−3 (x
2
+y
2
)
2
−4 (x
3
+y
3
)
2
+λ(x
4
+y
4
)
2
+ 2µ(x
1
+y
1
) (x
2
+y
2
)


x
2
1
−3x
2
2
−4x
2
3
+λx
2
4
+ 2µx
1
x
2

y
2
1
−3y
2
2
−4y
2
3
+λy
2
4
+ 2µy
1
y
2

= x
1
y
1
+λx
4
y
4
−3x
2
y
2
−4x
3
y
3
+µy
1
x
2
+µx
1
y
2
= x
1
(y
1
+µy
2
) +x
2
(µy
1
−3y
2
) −4x
3
y
3
+λx
4
y
4
86 Formas Bilineales y Cuadr´aticas.
por lo tanto
(x
1
, x
2
, x
3
, x
4
)

¸
¸
¸
y
1
+µy
2
µy
1
−3y
2
−4y
3
λy
4
¸

por lo tanto
(x
1
, x
2
, x
3
, x
4
)

¸
¸
¸
1 µ 0 0
µ −3 0 0
0 0 −4 0
0 0 0 λ
¸

¸
¸
¸
y
1
y
2
y
3
y
4
¸

de esta forma obtenemos que:
´(f, B) =

¸
¸
¸
1 µ 0 0
µ −3 0 0
0 0 −4 0
0 0 0 λ
¸

el determinante es det (A) = 12λ + 4µ
2
λ = 4λ(3 + µ
2
) pudiendo distinguir los sigu-
ientes casos.
1. si λ = 0 entonces el rango de A es 4
2. si λ = 0 entonces el rango de A es 3
Por ´ ultimo podemos ver que
q(x) = (x
1
+µx
2
)
2
+

−µ
2
−3

(x
2
)
2
−4 (x
3
)
2
+λ(x
4
)
2
=
= x
2
1
−3x
2
2
−4x
2
3
+λx
2
4
+ 2µx
1
x
2
la signatura depende de λ por lo tanto
1. si λ = 0 entonces la signatura es: (+, −, −, sig (λ))
2. si λ = 0 entonces la signatura es: (+, −, −, 0) .
Ejemplo 5.3.7 Dada la forma bilinela A
A =

¸
¸
¸
1 0 1 0
0 2 −1 0
−1 1 0 −1
1 0 3 4
¸

queremos:
1. ver que el subespacio L es no is´otropo tal que
L =

x −y −z = 0
2x −y −t = 0
Ejemplos. 87
2. Ecuaciones y base de L

3. M(f, B

) / B

= ¦B
L
, B
L
⊥¦
Soluci´on.
En primer lugar vemos que r(A) = 4. Una base del subespacio L est´a dada
por:
L =

x −y −z = 0
2x −y −t = 0
=⇒ L =

x = λ
y = µ
z = λ −µ
t = 2λ −µ
B
L
= ¦(1, 0, 1, 2) , (0, 1, −1, −1)¦
Como en ejemplos anteriores el subespacio L

viene dado por:

1 0 1 2

¸
¸
¸
1 0 1 0
0 2 −1 0
−1 1 0 −1
1 0 3 4
¸

¸
¸
¸
x
y
z
t
¸

= 2x +y + 7z + 7t = 0

0 1 −1 −1

¸
¸
¸
1 0 1 0
0 2 −1 0
−1 1 0 −1
1 0 3 4
¸

¸
¸
¸
x
y
z
t
¸

= y −4z −3t = 0
as
´
i pues las ecuaciones de L

L

=

2x +y + 7z + 7t = 0
y −4z −3t = 0
=⇒ L

=

x = −7λ −5µ
y = 4λ + 3µ
z = λ
t = µ
B
L
⊥ = ¦(−7, 4, 1, 0) , (−5, 3, 0, 1)¦
simplemente comprobamos que el determinante de todos estos vectores es = 0

−7 −5 1 0
4 3 0 1
1 0 1 −1
0 1 2 −1

= 24
por ´ ultimo
M(f, B

) =

¸
¸
¸
23 −13 0 0
−10 8 0 0
= 0 = 0 81 66
= 0 = 0 47 42
¸

vemos que hemos elegido los vectores de L

por la izquierda y que como A no es
sim´etrica entonces v
i
Av
t
j
= v
j
Av
t
i
.
88 Formas Bilineales y Cuadr´aticas.
Cap´ıtulo 6
ESPACIOS VECTORIALES EUCL´ıDEOS.
6.1 Espacios vectoriales eucl´ıdeos.
Definici´on 6.1.1 Producto escalar. Forma bilineal sim´etrica (sesquilineal herm´ıtica)
que verifica las siguientes propiedades:
g : V V −→K
u, v −→ g(u, v)
1. sim´etrica g(u, v) = g(v, u)
2. def. positiva g(u, v) ≥ 0
3. nula g(v, v) = 0 sii v = 0
Definici´on 6.1.2 Espacio euclideo (resp. unitario) (V, g) con g producto escalar.
Definici´on 6.1.3 Norma. (V, ||) es una aplicaci´on
|| : V −→R
v −→ |v|
verificando:
1. |v| = 0 ⇐⇒ v = 0
2. |kv| = [k[ |v|
3. |v +u| ≤ |v| +|u| triangular.
Proposici´on 6.1.1 Desidualdad de Cauchy-Schwarz.
[g(u, v)[
2
≤ g (u, u) g (v, v)
Proposici´on 6.1.2 El prodcuto escalar induce una norma.
|u| =

g(u, u)
Definici´on 6.1.4 M´etrica en (V, g)
d : V V −→R
u, v −→ d(u, v)
se observa que
d(u, v) = |v −u|
verificando:
90 Espacios vectoriales eucl´ıdeos.
1. d(u, v) = 0 ⇐⇒ u = v
2. d(u, v) = d(v, u)
3. d(u, w) ≤ d(u, v) +d(v, w)
Definici´on 6.1.5
´
Angulo entre vectores.
cos α =
g(u, v)
|u| |v|
de tal forma que se define
g(u, v) = |u| |v| cos α
Definici´on 6.1.6 Vector unitario sii g(u, u) = 1 y decimos que u⊥v (vectores oro-
togonales) sii g(u, v) = 0
Proposici´on 6.1.3 Todo conjunto de vectores ortogonales dos a dos es LI
Proposici´on 6.1.4 Todo (V, g) tiene al menos una base ortogonal.
Teorema 6.1.1 Gramm-Schmidt. En (V, g) existe siempre una base ortonormal de
vectores.
Demostraci´on. Por inducci´on sobre la dimensi´on del espacio V . Sea B =
¦e
1
, ......, e
n
¦ una base cualquiera del espacio V. Consideramos los subespacios
V
1
= 'e
1
` ⊂ V
2
= 'e
1
, e
2
` ⊂ ...... ⊂ V
n
= 'e
1
, ......, e
n
` = V
El subespacio V
1
tiene una base ortonormal que es:
u
1
=
e
1

g(e
1
, e
1
)
supongamos que B

= ¦u
1
, ......, u
r
¦ es una base ortonormal de V
r
. Construyamos una
base ortonormal de V
r+1
= 'u
1
, ......, u
r
, e
r+1
` de la siguiente manera: sea
u

r+1
= e
r+1

k
1
u
1
+..... +k
r
u
r

ortogonal a cada u
i
con i = 1, ..., r
0 = g(u

r+1
, u
i
) = g(e
r+1
, u
i
) −k
i
entonces
k
i
= g(e
r+1
, u
i
)
de esta forma los vectores
¸
u
1
, ......, u
r
, u

r+1
¸
son LI y por lo tanto forman base de
V
r+1
. Tomo ahora
u
r+1
=
u

r+1

g(u

r+1
, u

r+1
)
de esta forma la base ¦u
1
, ......, u
r
, u
r+1
¦ es ortonormal. Por inducci´on completamos
el razonamiento hasta obtener una base de V.
Espacios vectoriales eucl´ıdeos. 91
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Observaci´on 6.1.1 Este toerema es fundamental para varias de las ramas de la
matem´atica como el an´alisis de Fourier etc... veamos un ejemplo.
Ejemplo 6.1.1 En el espacio (([a, b]) consideramos el producto interior definido por
'f, g` =

b
a
f(x)g(x)dx
y comprobamos que en (([−π, π]) la base de funciones B = ¦1, cos t, sin t, cos 2t, sin 2t, ....¦
son ortogonales dos a dos con respecto al producto interior anteriormente definido i.e.
'cos nt, sin mt` = 0 =

π
−π
(cos nt sin mt) dt =
1
2

π
−π
sin (m+n) tdt −
1
2

π
−π
sin (n −m) tdt
Pensemos ahora en el desarrollo de Fourier de la funci´on f(x) = x
2
en el intervalo
x ∈ (−π, π)
f(x) ≈
a
0
2
+

¸
k=1
(a
k
cos kx +b
k
sin kx)
considerando la base de funciones B = ¦1, cos x, sin x, cos 2x, sin 2x, ....¦, como la
funci´on la funci´on es par entonces se observa que b
k
= 0. La idea es la de ir calculando
las respectivas proyecciones de la funci´on f con respecto a cada uno de los elementos
de la base i.e.
proy
1
f =
'f, 1`
'1, 1`
=

π
−π
x
2
dx

π
−π
1dx
=
2
3
π
3

=
π
2
3
en la teor
´
ia de series de Fourier se define
a
0
=
1
π

π
−π
f(x)dx =
1
π

π
−π
x
2
dx =

2
3
vamos viendo la analg
´
ia, i.e.
a
0
2
= proy
1
f, mientra que el t´ermino a
k
se define como:
a
k
=
1
π

π
−π
f(x) cos kxdx =
1
π

π
−π
x
2
cos kxdx
mientras que la proyecci´on de f con respecto a cos x se define como
proy
cos x
f =
'f, cos x`
'cos x, cos x`
=

π
−π
x
2
cos xdx

π
−π
cos
2
xdx
=

π
−π
x
2
cos xdx
π
i.e. a
1
= proy
cos x
f, y as
´
i sucesivamente de tal forma que
f(x) ≈ proy
1
f +proy
cos x
f cos x +.....
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Proposici´on 6.1.5 Si una forma bilineal (resp. sesquilineal) tiene una matriz iden-
tidad en una base B entonces dicha forma bilineal o sesquilineal es un producto escalar
Proposici´on 6.1.6 Sea b una aplicaci´on bilineal (resp. sesquilineal) con matriz A =
´(b, B) / B = ¦e
i
¦
n
i=1
. Designamos por B
r
el menor formado por las r primeras
filas y las r primeras columnas de A. Entonces b es un producto escalar sii A es
sim´etrica (resp. herm
´
itica) y det B
r
> 0 ∀r.
92 Espacios vectoriales eucl´ıdeos.
6.2 Espacio Dual.
Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimensi´on finita, ∀u ∈ V la
aplicaci´on
v

: V −→K
v −→ uv
es lineal, podemos definir as
´
i
ϕ

: V −→ V

v −→ v

que es lineal y biyectiva
Teorema 6.2.1 Isomorf
´
ia, espacio dual. Sea (V, g) espacio euclideo entonces se
establece el isomorfismo canonico entre el espacio V y su dual.
ϕ

: V −→ V

v −→ v

6.3 Subespacio ortogonal.
Sea (V, g) un espacio vectorial euclideo (resp.unitario) de dimensi´on finita y sea W ⊂
V definimos el subespacio ortogonal a W como el conjunto
W

= ¦v ∈ V / g(u, v) = 0 ∀u ∈ W¦
Proposici´on 6.3.1 Espacio ortogonal y suma directa
V = W ⊕W

verific´andose:
dimW

= dimV −dimW
por las f´ormulas de Grassmamm.
Demostraci´on. Sea ¦u
1
, ......, u
r
¦ una base ortonormal de W, la podemos
completar hasta obtener una base de V dada por ¦u
1
, ......, u
r
, e
r+1
, ...., e
n
¦ aplicando
el teorema de Gram-Schimdt conseguimos una vase ortonormal de V ¦u
1
, ......, u
n
¦ de
tal forma que ¦u
r+1
, ......, u
n
¦ forman base de W

de esta forma podemos expresar
cualquier vector v ∈ V como
v =

v
1
u
1
+...... +v
r
u
r

+

v
r+1
u
r+1
+...... +v
n
u
n

∈ W +W

y por lo tanto V = W ⊕W

como quer
´
iamos hacer ver.
6.4 Producto vectorial.
Sea (V, g) un espacio vectorial euclideo / dimV = 3 y sea B
V
= ¦e
1
, e
2
, e
3
¦ una
base ortonormal de V . Fijados v, u ∈ V la aplicaci´on V −→ R que asigna a cada
ω −→ det
B
(u, v, ω) es lineal y por lo tanto un elemento del dual V

. Sea x el vector
correspondiente a este elemento a trav´es del isomorfismo V −→ V

que asigna a cada
x −→ x

= det
B
(u, v, ) i.e. ∀ ω, ω x = det
B
(u, v, ω). x es por definici´on el producto
vectorial de u y v i.e. x = u ∧ v.
Aplicaciones entre espacios eucl
´
ideos. 93
Proposici´on 6.4.1 Se verifica:
1. ω (u ∧ v) = det
B
(u, v, ω) ,
2. u ∧ v = −v ∧ u,
3. (ku) ∧ v = k (u ∧ v) ,
4. (u +u

) ∧ v = u ∧ v +u

∧ v,
5. u ∧ v es ortogonal tanto a u como a v,
6. u ∧ v = 0 sii son LD,
7. Si u ∧ v = 0 entonces ¦u, v, u ∧ v¦ forman base de V e inducen la misma
orientaci´on que B
V
= ¦e
1
, e
2
, e
3
¦ .
Proposici´on 6.4.2 Se verifica:
1. e
1
∧ e
2
= e
3
, e
2
∧ e
3
= e
1
, e
3
∧ e
1
= e
2
,
2. Si u =
¸
e
i
u
j
y v =
¸
e
i
v
j
entonces
u ∧ v =

e
1
u
1
v
1
e
2
u
2
v
2
e
3
u
3
v
3

Proposici´on 6.4.3 Identidad de Jacobi:
(u ∧ v) ∧ ω + (u ∧ ω) ∧ v + (ω ∧ u) ∧ v =

0.
Proposici´on 6.4.4 (u
1
∧ u
2
) (v
1
∧ v
2
) = (v
1
v
1
) (u
2
u
2
) −(u
1
v
2
) (u
2
v
1
)
Proposici´on 6.4.5 |u ∧ v|
2
= |u|
2
|v|
2
−(u v)
2
6.5 Aplicaciones entre espacios eucl
´
ideos.
6.5.1 Aplicaciones adjuntas y autoadjuntas
Definici´on 6.5.1 Aplicaci´on adjunta o traspuesta de f. Sea (V, g) un espacio vec-
torial euclideo o unitario. Un endomorfismo h se llama aplicaci´on adjunta de f ∈
End(V ) si
g(v, h(u)) = g(f(v), u) ∀u, v ∈ V
Observaci´on 6.5.1 Si existe entonces es ´ unica. h es la aplicaci´on traspuesta de f
i.e. h = f
t
.
Proposici´on 6.5.1 Si h es la aplicaci´on adjunta de f ∈ End(V ) tal que dimV = n
(finita) entonces
ker h = (Imf)

Img = (ker f)

94 Espacios vectoriales eucl´ıdeos.
Proposici´on 6.5.2 Sea A = ´(f, B) / f : V −→ V , entonces la matriz de la
aplicaci´on adjunta de f es A
t
en el caso real y A
t
en el caso complejo.
Definici´on 6.5.2 Aplicaci´on autoadjunta (o sim´etrica) f ∈ End(V ) es una apli-
caci´on lineal que coincide con su adjunta i.e. / f = f
t
g(u, f(v)) = g(f(u), v) ∀u, v ∈ V
Proposici´on 6.5.3 Si A es la matriz de f en una base ortonormal, f es autoadjunta
sii
A = A
t
(A sim´etrica) en R
A = A
t
(A herm
´
itica) en C
6.5.2 Diagonalizaci´on de aplicaciones autoadjuntas y herm
´
iticas.
Toda matriz sim´etrica real o compleja es la matriz de una aplicaci´on autoadjunta en
una base ortonormal. El problema de diagonalizar esas matrices equivale, pues, al de
encontrar una base de vectores propios de una aplicaci´on autoadjunta.
Proposici´on 6.5.4 Sea (V, g) es un espacio euclideo o unitario y sea f : V −→ V
una aplicaci´on autoadjunta (i.e. sim´etrica o herm
´
itica resp.) entonces el polinomio
caracter
´
istico p
f
(λ) = det(f − λI) tiene raices reales (tanto en R como en C) i.e.
los autovalores de una matriz sim´etrica t real son reales.
Demostraci´on.
1. Caso unitario:
si f(u) = λu / u =

0 entonces
λg(u, u) = g(λu, u) = g(f(u), u) = g(u, f(u)) = λg(u, u) =

0
entonces λ = λ sii λ ∈ R.
2. Caso eucl
´
ideo:
Sea A la matriz de la aplici´on sim´etrica f y B una una base ortogonal. Si
considero A como matriz compleja entonces es herm
´
itica entonces ser
´
ia la matriz
de cierta aplicaci´on f : V −→ V entre espacios unitarios. puesto que f y f
tiene la misma matriz, su polinomio caracter
´
istico se´ra el mismo y sabemos
que en el caso complejo λ ∈ R entonces s´olo puede pasar que λ ∈ R.
Como vemos los autovalores de una matriz sim´etrica son siempre reales.
Veamos una nueva demostraci´on:
Sea
A = (a
ij
) / a
ij
= a
ji
i.e. A = A
t
considero un endomorfismo f : C
n
−→ C
n
tal que la matriz de dicho endomorfismo
respecto de cierta base B es precisamente A i.e. A = ´(f, B). Sean λ
1
, λ
2
∈ σ(f)
tal que λ
1
= λ
2
y sea x ∈ V
λ
1
e y ∈ V
λ
2
i.e. f(x) = λ
1
x , f(y) = λ
2
y donde
x = (x
1
, ...., x
n
)
f(x) = x
i
A
f(y) = y
j
A
Aplicaciones entre espacios eucl
´
ideos. 95
si
x
i
Ay
t
j
= z ∈ C =⇒λ
1
x
i
y
t
j
= z
y
j
Ax
t
i
= z ∈ C =⇒λ
2
y
j
x
t
i
= z
adem´as hay que tener en cuenta que
x
i
y
t
j
= y
j
x
t
i
i.e
λ
1
x
i
y
t
j
= z = λ
2
y
j
x
t
i
reagrupando

1
−λ
2
) x
i
y
t
j
= 0
esto se cumple para cualesquiera valores propios de f dsitintos.
Si existe λ ∈ σ(f) tal que λ ∈ C entonces su conjungado tambi´en es autovalor
de f i.e. λ ∈ σ(f). Entonces eligiendo adecuadamente un x ∈ V
λ
e y ∈ V
λ
tal que
y = x i.e. f(y) = λx ⇐⇒ y ∈ V
λ
aplicamos el resultado anterior i.e. (λ
1
−λ
2
) x
i
y
t
j
=
0 al caso λ, λ observando que

λ −λ

x
i
x
t
j
= 0

λ −λ

[x
i
[
2

= 0
pero esto s´olo puede pasar si

λ = λ

pero esto es imposible si estamos en C as
´
i que
λ ∈ R.
Proposici´on 6.5.5 Autovalores distintos engendran subespacios ortogonales.
Demostraci´on. Por la proposici´on anterior, si consideramos el resultado
principal v´alido para cualesquiera valores propios de f dsitintos i.e. (λ
1
−λ
2
) x
i
y
t
j
= 0
con λ
1
, λ
2
∈ σ(f) tal que λ
1
= λ
2
y sea x ∈ V
λ
1
e y ∈ V
λ
2
i.e. f(x) = λ
1
x , f(y) = λ
2
y
donde x = (x
1
, ...., x
n
) entonces como λ
1
= λ
2
se deduce de (λ
1
−λ
2
) x
i
y
t
j
= 0 que
x
i
y
t
j
= 0 i.e. V
λ
1
⊥ V
λ
2
como quer
´
iamos demostrar.
Teorema 6.5.1 Sea (V, g) (resp. unitario) y f ∈ End(V ); f : V −→ V autoadjunta
entonces existe una base de vectores propios ortogonales.
Demostraci´on. Por inducci´on sobre la dimensi´on del espacio V .
Si dimV = 1 entonces todo vector es vector propio .
Si dimV = n entonces p
f
(λ) = det(f − λI) ∈ C[λ] tiene siempre una raiz.
Sea v un vector unitario de valor propio λ, f(v) = λv. El subespacio
F = 'v`

= ¦u ∈ V / g(u, v) = 0¦
es invariante por f. En efecto, si u ∈ F
g(f(u), v) = g(u, f(v)) = g(u, λv) = λg(u, v) = 0
de donde f(u) ∈ F. Por hip´otesis de inducci´on, existe una base ortonormal de vectores
propios de F, ¦u
2
, ......, u
n
¦. Entonces si tomamos u
1
= v vemos que el conjunto de
vectores ¦u
1
, u
2
, ......, u
n
¦ es base ortonormal de vectores propios de f tal y como
quer
´
iamos hacer ver.
96 Espacios vectoriales eucl´ıdeos.
Teorema 6.5.2 Espectral. Si (V, g) es un espacio euclideo y f : V −→ V una
aplicaci´on autoadjunta entonces existe una base de vectores propios ortonormal.
Tambi´en lo podemos enunciar de la siguiente manera:
Sea f : V −→ V una aplicaci´on autoadjunta en (V, g) de dimensi´on finita,
entonces existen E
1
, ..., E
r
proyecciones ortogonales sobre V y r escalares ¦λ
1
, ..., λ
r
¦
tales que:
1. f =
¸
i
λ
i
E
i
2.
¸
i
λ
i
E
i
= I
V
3. E
i
E
j
= 0 ∀i = j
Demostraci´on. La demostraci´on es la misma que la expuesta anteriormente
en el caso C s´olo que aqu
´
i p
f
(λ) = det(f − λI) ∈ R[λ] tiene raices en R esto es lo
que demuestra la anterior proposici´on.
Veamos otra demostraci´on.
Si dimV = 1 entonces ∀x ∈ V ; V = L(x) y f(x) = λx ∈ L(x) tomando
v
1
=
x
x
forma la base de V ; B
V
= ¦v
1
¦
Supongamos cierto si dimV = n − 1 veamos que pasa si dimV = n. Sea
λ ∈ σ(f) entonces ∃ x = 0 tal que f(x) = λx de tal forma que (x ∈ V
λ
). Sea
L = L(x) y dim(L) = 1, sea W = L

de tal forma que V = L ⊕ L

entonces
dim(L

) = n −1.
Veamos ahora que f
|
W
: W −→ W es un subespacio invariante i.e f(W) ⊂ W,
donde estamos denotanto W = L

, para ello tomamos un vector z ∈ W y nos
preguntamos si la imagen por f de dicho vector pertenece al subespacio W i.e. si z ∈
W =⇒¿f(z) ∈ W? vemos ∀z ∈ W ⇐⇒ g (z, x) = 0 / x ∈ L, entonces ¿g(f(z), x) =
0?

f(z) = (z
1
, ....., z
n
) A
f(z)x = (z
1
, ....., z
n
) Ax
t
= (x
1
, ...., x
n
) A
t
z
t
f(x)z = λxz = 0 ⇐⇒ f(z) ∈ W
luego f(W) ⊂ W. Por lo tanto f
|
W
: W −→ W es un endomorfismo tal que dim(W) =
n −1. Sea B
W
= ¦v
2
, ....., v
n
¦ una base ortonormal de W tal que
D = ´(f
|
W
, B
W
)
es sim´etrica. Aplicando la hip´otesis de inducci´on ∃ B
W
= ¦u
2
, ....., u
n
¦ de vectores
propios de f
|
W
que por el m´etodo de ortonormalizaci´on de G-M la convierto en
ortonormal de vectores propios. Tomando ahora como
u
1
=
v
1
|v
1
|
B

L
= ¦u
1
¦
luego
B

V
= ¦u
1
, u
2
, ....., u
n
¦
base ortonormal de vectores propios de V.

A
t
= A
Aplicaciones entre espacios eucl
´
ideos. 97
Observaci´on 6.5.2 La matriz de cambio pertenece al grupo ortogonal.
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
Ejemplo 6.5.1 Consideramos la matriz diagonal
A =

¸
¸
¸
2 0 0 0
0 3 0 0
0 0 3 0
0 0 0 5
¸

y sean
E
1
=

¸
¸
¸
1 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
¸

, E
2
=

¸
¸
¸
0 0 0 0
0 1 0 0
0 0 1 0
0 0 0 0
¸

, E
3
=

¸
¸
¸
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 1
¸

vemos que cada E
i
es un proyector ya que E
2
i
= E
i
A = 2E
1
+ 3E
2
+ 5E
3
E
1
+E
2
+E
3
= I
E
i
E
j
= 0
∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗
6.5.3 Aplicaciones ortogonales. Aplicaciones unitarias
Definici´on 6.5.3 (V, g) espacio vectorial euclideo (o unitario). Sea f ∈ End(V );
f : V −→ V una aplicaci´on, decimos que es ortogonal en el caso real y unitaria en el
caso complejo si
g(f(u), f(v)) = g(u, v) ∀u, v ∈ V
Proposici´on 6.5.6 Toda aplicaci´on que conserve el producto el producto escalar es
lineal.
Proposici´on 6.5.7 Si f es ortogonal o unitaria entonces:
1. |f(u)| = |u| ∀u ∈ V
2. u, v son ortogonales sii f(u), f(v) lo son
3. f es biyectiva
4. Si k es un valor propio de f, entonces [k[ = 1.
5. Autovaloes distintos engendran subespacios ortogonales.
Proposici´on 6.5.8 Sea f ∈ End(V ); f : V −→ V tal que A = ´(f, B) donde
B = ¦e
1
, ...., e
n
¦ . f es ortogonal (resp. unitaria) sii
g(f(e
i
), f(e
j
)) = g(e
i
, e
j
)
A
t
GA = G
donde G es la matriz del producto escalar en la base B.
98 Espacios vectoriales eucl´ıdeos.
Corolario 6.5.1 Sea f ∈ End(V ); f : V −→ V tal que A = ´(f, B) donde B es
una base ortonormal, entonces
f ortonormal ⇐⇒ A
t
A = I
f unitaria ⇐⇒ A
t
A = I
Definici´on 6.5.4 A es ortonormal si A
t
A = I i.e. A
−1
= A
t
=⇒ det A = ±1
Definici´on 6.5.5 A es unitaria si A
t
A = I i.e. A
−1
= A
t
=⇒ [det A[ = 1
Las aplicaciones ortogonales de un espacio vectorial euclideo de dimensi´on
finita forman un grupo que denominamos el grupo ortogonal O(n). Este grupo es
isomorfo al de las aplicaciones ortogonales. Las aplicaciones unitarias forman el
grupo U(n) grupo unitario de orden n.
6.5.4 Diagonalizaci´on de matrices unitarias.
Teorema 6.5.3 Sea (V, g) espacio unitario y sea f ∈ End(V ) una aplicaci´on uni-
taria, entonces existe siempre una base ortonormal de V formada por vectores propios
de f.
Demostraci´on. Por inducci´on sobre la dimensi´on del espacio.
Supongamos que existe una base B = ¦v
i
¦ con i = 1, ..., n en la que f tiene
una matriz triangular, es decir
f(v
i
) ∈ 'v
1
, ......, v
i
`
Sea ¦w
1
, ...., w
n
¦ una base ortonormal obtenida a partir de la anterior por el m´etodo
de Gram-Schmidt. Como w
i
∈ 'v
1
, ......, v
i
` resulta que
f(w
i
) ∈ 'f(v
1
), ......, f(v
i
)` = 'v
1
, ......, v
i
` = 'w
1
, ......, w
i
`
y por lo tanto la matriz de f en la base ¦w
1
, ...., w
n
¦ tambi´en es triangular. Veamos
que ¦w
1
, ...., w
n
¦ son vectores propios; w
1
claramente es un vector propio. Supong-
amos que ¦w
1
, ...., w
k
¦ son vectores propios y sea
f(w
k+1
) = a

w
1
+...... +a
k
w
k
+a
k+1
w
k+1
entonces tenemos que si
f(w
i
) = b
i
w
i
para i = 1, ...., k
0 = w
k+1
w
i
= f(w
k+1
)f(w
i
) = f(w
k+1
)

b
i
w
i

= a
i
b
i
pero

b
i

= 1 entonces b
i
= 0 de donde a
i
= 0 ∀i = 1, ..., k entonces
f(w
k+1
) = a
k+1
w
k+1
i.e. w
k+1
es tambi´en vector propio.
Ejemplos. 99
6.5.5 Forma can´onica de una matriz ortogonal.
Teorema 6.5.4 Sea (V, g) espacio euclideo y f : V −→ V tal que A = ´(f, B)
donde B es una base ortonormal tal que
A =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1
.
.
.
−1
.
.
.
A
1
.
.
.
A
n
¸

donde las matrices A
i
son del tipo
A
i
=

a b
−b a

/ a
2
+b
2
= 1
6.6 Ejemplos.
Ejemplo 6.6.1 Se considera en R
3
la forma bilineal sim´etrica definida por
f(x, y) = x
1
y
1
+ (x
2
−x
3
) (y
2
−y
3
) + (x
1
+x
3
) (y
1
+y
3
)
queremos ver que f es un producto escalar, calcular la matriz de f respecto de la base
can´onica y por ´ ultimo calcular la base ortonormal de
B = ¦(1, 1, 1) , (0, 1, −1) , (0, 2, 0)¦
Soluci´on. La matriz de la aplicaci´on f respecto de la base can´onica es
M(f, B) =

¸
2 0 1
0 1 −1
1 −1 2
¸

= g
ij
para ver que se trata de un producto escalar tenemos que ver que se trata de una forma
bilineal sim´etrica y definida positiva, es obvio que es bilineal y sim´etrica s´olo queda
ver que es definida positiva pero es sencillo si tenemos encuenta que el determinante
de todos los menores angulares es positivo e incluso el determinante de det A = 1.
De esta forma garantizamos que A es un producto escalar.
Para ortonormalizar la base procedemos mediante el m´etodo de Gramm-
Schmidt de la siguiente manera.
B = ¦(1, 1, 1) , (0, 1, −1) , (0, 2, 0)¦
tomamos el primero de los vectores
v
1
= (1, 1, 1) = e
1
el segundo vector e
2
lo calculamos como sigue:
e
2
= v
2
+λe
1
/ g(e
2
, e
1
) = 0
100 Espacios vectoriales eucl´ıdeos.
i.e. g(e
2
, e
1
) = 0 = g(e
1
, v
2
) +λg(e
1
, e
1
) ⇐⇒ λ = −
g(v
2
, e
1
)
g(e
1
, e
1
)
de esta forma obtenemos que
λ = −
g(v
2
, e
1
)
g(e
1
, e
1
)
= −

−2
5

donde
g(v
2
, e
1
) =

0 1 −1

¸
2 0 1
0 1 −1
1 −1 2
¸

¸
1
1
1
¸

= −1
g(e
1
, e
1
) =

1 1 1

¸
2 0 1
0 1 −1
1 −1 2
¸

¸
1
1
1
¸

= 5
por lo tanto
e
2
= v
2
+λe
1
= (0, 1, −1) +

2
5

(1, 1, 1) =

2
5
,
7
5
, −
3
5

de igual forma calcularemos el vector e
3
e
3
= v
3
+λe
1
+µe
2
/ g(e
i
, e
j
) = 0,
por lo tanto
λ = −
g(v
3
, e
1
)
g(e
1
, e
1
)
y µ = −
g(v
3
, e
2
)
g(e
2
, e
2
)
en este caso
g(v
3
, e
1
) =

0 2 0

¸
2 0 1
0 1 −1
1 −1 2
¸

¸
1
1
1
¸

= 0 =⇒ λ = 0
g(v
3
, e
2
) =

0 2 0

¸
2 0 1
0 1 −1
1 −1 2
¸

¸
2
5
7
5

3
5
¸

= 4
g(e
2
, e
2
) =

2
5
7
5

3
5

¸
2 0 1
0 1 −1
1 −1 2
¸

¸
2
5
7
5

3
5
¸

=
21
5
µ = −
g(v
3
, e
2
)
g(e
2
, e
2
)
= −
20
21
e
3
= v
3
+λe
1
+µe
2
= (0, 2, 0) −
20
21

2
5
,
7
5
, −
3
5

=


8
21
,
2
3
,
4
7

por lo que la base ortogonal resulta ser:
B

=

(1, 1, 1) ,

2
5
,
7
5
, −
3
5

,


8
21
,
2
3
,
4
7

ahora s´olo queda normalizarla i.e.
B

=

e
i

g(e
i
, e
i
)
¸
Ejemplos. 101
B

=

1

5
(1, 1, 1) ,
1

21
5

2
5
,
7
5
, −
3
5

,
1

4
21


8
21
,
2
3
,
4
7

ya que
g(e
3
, e
3
) =


8
21
2
3
4
7

¸
2 0 1
0 1 −1
1 −1 2
¸

¸

8
21
2
3
4
7
¸

=
4
21
por lo tanto nuestra base ortonormal es:
B

=

1

5
(1, 1, 1) ,
1

21
5

2
5
,
7
5
, −
3
5

,
1

4
21


8
21
,
2
3
,
4
7

Ejemplo 6.6.2 Buscar una base ortonormal del siguiente subespacio F de C
4
.
F =
¸
x +iy −z = 0 ∀ (x, y, z, t) ∈ C
4
¸
Soluci´on.
En primer lugar vamos a calcular las ecuaciones param´etricas del subespacio
F, siendo estas:
F =

x = λ
y = µ
z = λ +iµ
z = δ
=⇒ B
L
= ¦(1, 0, 1, 0) , (0, 1, i, 0) , (0, 0, 0, 1)¦
mediante G-M obtenemos la base buscada.
Sea v
1
= u
1
= (1, 0, 1, 0)
v
2
= λv
1
+u
2
si hacemos g(v
1
, v
2
) = 0 ⇐⇒ λ = −
g(u
2
,v
1
)
g(v
1
,v
1
)
entonces obtenemos:
λ = −
g(u
2
, v
1
)
g(v
1
, v
1
)
= −
i
2
=⇒ v
2
= (−i, 2, i, 0)
v
3
= λv
1
+ µv
2
+ u
3
imponiendo que g(v
1
, v
3
) = 0 y g(v
3
, v
2
) = 0 obtenemos
que
λ = −
g(u
3
, v
1
)
g(v
1
, v
1
)
= 0 y µ = −
g(u
3
, v
2
)
g(v
2
, v
2
)
= 0
luego v
3
= (0, 0, 0, 1). Una vez obtenida la base ortogonal s´olo queda normalizarla.
B =

1

2
(1, 0, 1, 0) ,
1

2
(−i, 2, i, 0) , (0, 0, 0, 1)

Ejemplo 6.6.3 Sea
A =

¸
2 −2 0
−2 3 2
0 2 5
¸

calcular una base ortonormal (igual que en el primer ejemplo).
102 Espacios vectoriales eucl´ıdeos.
Soluci´on.
Al ser un ejercicio puramente mec´anico s´olo se indica la soluci´on siendo ´esta:
B =

1

2
(1, 0, 0) , (1, 1, 0) , (−2, −2, 1)

OBS: la matriz A es una forma bilineal sim´etrica definida positiva de tal
forma que por ejemplo la expresi´on g(v
1
, v
1
) se ha calculado con respecto a dicha
matriz i.e. g(v
1
, v
1
) = v
1
Av
t
1
= 2.
Ejemplo 6.6.4 Sea F ⊂ R
3
generado por los siguientes vectores
F = L¦(1, 0, 1) , (0, 1, −1) , (0, 0, 0) , (1, 1, 0)¦
calcular F

y F
◦◦
.
Soluci´on. Vemos que
F

=

x +z = 0
y −z = 0
x +y = 0
∀ (x, y, z) ∈ R
3
=⇒ B
F
◦ = ¦(1, −1, −1)¦
F
◦◦
=
¸
(x, y, z) ∈ R
3
/ '(x, y, z) , (1, −1, −1)` = 0
¸
= F
i.e. x = y +z
Ejemplo 6.6.5 Sea F ⊂ R
4
generado por
F =

x +y +z = 0
z +t = 0
∀ (x, y, z, t) ∈ R
4

calcular bases ortonormales de F y F

. Calculese la matriz en la base can´onica de
la proyecci´on ortogonal sobre el subespacio F.
Soluci´on. Tomando una base cualquiera de F i.e. F = ¦(1, −1, 0, 0) , (1, 0, −1, 1)¦
y aplicando el m´etodo de G-M obtenemos
B
F
=

1

2
(1, −1, 0, 0) ,
1

10
(1, 1, −2, 2)

OBS: vemos que v
2
= λv
1
+ u
2
entonces λ = −
1
2
con respecto al producto
escalar ordinario de R
4
.
Vemos trivialmente que
F

=

x −y = 0
x −z +t = 0
∀ (x, y, z, t) ∈ R
4

y que por lo tanto por G-M obtenemos que
B
F
◦ =

1

2
(0, 0, 1, 1) ,
1

10
(2, 2, 1, −1)

Ejemplos. 103
Por ´ ultimo, para calcular la proyecci´on ortogonal de v = (x, y, z, t) ∈ R
4
,
sobre F consideramos la base ortonormal (b
1
, b
2
) de F. Sabemos que
p(x) = 'x [ b
1
` b
1
+'x [ b
2
` b
2
entonces no tenemos m´as que desarrollar la expresi´on:
'x [ b
1
` b
1
=

(x, y, z, t)
1

2
(1, −1, 0, 0)

1

2
(1, −1, 0, 0) =
1
2
(x −y, −x +y, 0, 0)
'x [ b
2
` b
2
=

(x, y, z, t)
1

10
(1, 1, −2, 2)

1

10
(1, 1, −2, 2) =
=
1
10
(x +y −2z + 2t, x +y −2z + 2t, −2x −2y + 4z −4t, 2x + 2y −4z + 4t)
por lo tanto
'x [ b
1
` b
1
+'x [ b
2
` b
2
=
=
1
2

¸
¸
¸
x −y
−x +y
0
0
¸

+
1
10

¸
¸
¸
x +y −2z + 2t
x +y −2z + 2t
−2x −2y + 4z −4t
2x + 2y −4z + 4t
¸

=

¸
¸
¸
3
5
x −
2
5
y −
1
5
z +
1
5
t

2
5
x +
3
5
y −
1
5
z +
1
5
t

1
5
x −
1
5
y +
2
5
z −
2
5
t
1
5
x +
1
5
y −
2
5
z +
2
5
t
¸

de tal forma que la matriz de la proyecci´on en la base cac´onica toma la siguiente
expresi´on:
´(p, B) =
1
5

¸
¸
¸
3 −2 −1 1
−2 3 1 1
−1 −1 2 −2
1 1 −2 2
¸

Ejemplo 6.6.6 Encontrar una matriz P tal que P
t
AP sea diagonal siendo A
A =

¸
5 −2 2
−2 2 4
2 4 2
¸

y A =

¸
5 −2i −4
2i 8 2i
−4 −2i 5
¸

Soluci´on. Empezemos con la primera matriz
A =

¸
5 −2 2
−2 2 4
2 4 2
¸

en primer lugar caluclamos el polinimio caracter
´
istico siendo ´este:
p(X) = X
3
−9X
2
+ 108
y por lo tanto los autovalores son: σ(f) = ¦−3, 6, 6¦ , el polonomio m
´
inimo en este
caso es:
m
f
(X) = −18 −3X +X
2
Los subespacios propios son:
104 Espacios vectoriales eucl´ıdeos.
1. V
−3
= ker (A+ 3I)

¸
8 −2 2
−2 5 4
2 4 5
¸

¸
x
y
z
¸

= 0 =⇒

8x −2y + 2z = 0
−2x + 5y + 4z = 0
2x + 4y + 5z = 0
B
V
−3
= ¦(1, 2, −2)¦
2. V
6
= ker (A−6I) (la dimensi´on de este esapcio coincide con la multiplicidad
del autovalor)

¸
−1 −2 2
−2 −4 4
2 4 −4
¸

¸
x
y
z
¸

= 0 =⇒

−x −2y + 2z = 0
−2x −4y + 4z = 0
2x + 4y −4z = 0
B
V
6
= ¦(2, 0, 1) , (−2, 1, 0)¦
Comprobamos que

¸
5 −2 2
−2 2 4
2 4 2
¸

=

¸
1 2 −2
2 0 1
−2 1 0
¸

¸
−3 0 0
0 6 0
0 0 6
¸

¸
1 2 −2
2 0 1
−2 1 0
¸

−1
donde

¸
1 2 −2
2 0 1
−2 1 0
¸

−1
=

¸
1
9
2
9

2
9
2
9
4
9
5
9

2
9
5
9
4
9
¸

si aplicamos el m´etodo de G-M obtendremos una base ortonormal, siendo ´esta
B =

1
3
(1, 2, −2) ,
1

5
(2, 0, 1) ,
1
3

5
(−2, 5, 4)

lo ´ unico que hay que ver es que v
2
∈ V
6
v
2
= λv
1
+u
2
/ λ = −
'v
1
, u
2
`
'v
1
, v
1
`
=
4
5
=⇒ v
2
= (−2, 5, 4)
de esta forma

¸
1
3
2
3

2
3
2
5

5 0
1
5

5

2
15

5
1
3

5
4
15

5
¸

¸
5 −2 2
−2 2 4
2 4 2
¸

¸
¸
1
3
2

5

2
3

5
2
3
0
5
3

5

2
3
1

5
4
3

5
¸

=

¸
−3 0 0
0 6 0
0 0 6
¸

observ´andose que P
t
= P
−1
.
Con respecto a la segunda matriz operamos de igual forma i.e.
A =

¸
5 −2i −4
2i 8 2i
−4 −2i 5
¸

vemos que el polinomio caracter
´
istico es:
p(X) = X
3
−18X
2
+ 81X
Ejemplos. 105
mientras que el m
´
inimo es:
m
f
(X) = −9X +X
2
de esta forma comprobamos que los autovalores son:
σ(f) = ¦0, 9, 9¦
as
´
i los subespacios caracter
´
isticos son:
1. V
0
= ker(A)

¸
5 −2i −4
2i 8 2i
−4 −2i 5
¸

¸
x
y
z
¸

= 0 =⇒=

5x −2iy −4z = 0
2ix + 8y + 2iz = 0
−4x −2iy + 5z = 0
cuya soluci´on es:
¸
y = −
1
2
iz, z = z, x = z
¸
de esta forma una base es:
B
V
0
= ¦(2, −i, 2)¦
2. V
9
= ker(A−9I)

¸
−4 −2i −4
2i −1 2i
−4 −2i −4
¸

¸
x
y
z
¸

= 0 =⇒=

−4x −2iy −4z = 0
2ix −y + 2iz = 0
−4x −2iy −4z = 0
−4x −2iy −4z = 0
2ix −y + 2iz = 0
−4x −2iy −4z = 0
cuya soluci´on es: ¦y = 2ix + 2iz¦, de esta forma una base es:
B
V
9
= ¦(1, 2i, 0) , (0, 2i, 1)¦
Al igual que antes aplicamos el m´etodo de G-M para obtener una base ortonor-
mal respecto de A. De esta forma
B =

1
3
(2, −i, 2) ,
1

5
(1, 2i, 0) ,
1
3

5
(−4, 2i, 5)

lo ´ unico que hay que ver es que v
2
∈ V
9
v
2
= λv
1
+u
2
/ λ = −
'v
1
, u
2
`
'v
1
, v
1
`
=
−4
5
=⇒ v
2
= (−4, 2i, 5)
recordamos que:
(a +bi) (c +di) = (ac −bd) + (ad +bc) i
'x [ y` =
¸
i
x
i
y
i
∀ x, y ∈ C
n
106 Espacios vectoriales eucl´ıdeos.
Ejemplo 6.6.7 Sea
A =

¸
¸
¸
2 0 0 −2
0 1 −3 0
0 −3 1 0
−2 0 0 2
¸

calcular una base ortonormal de vectores propios y la descomposi´on espectral.
Soluci´on.
Vemos que el polinomio caracter
´
istico es:
p(X) = X
4
−6X
3
+ 32X
mientras que el m
´
inimo es:
m
f
(X) = −8X −2X
2
+X
3
de esta forma comprobamos que los autovalores son:
σ(f) = ¦0, −2, 4, 4¦
as
´
i los subespacios caracter
´
isticos son:
1. V
0
= ker(A)

¸
¸
¸
2 0 0 −2
0 1 −3 0
0 −3 1 0
−2 0 0 2
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒

2x −2t = 0
y −3z = 0
−3y +z = 0
−2x + 2t = 0
cuya soluci´on es: ¦y = 0, z = 0, x = x, t = x¦ , as
´
i una base es:
B
V
0
= ¦(1, 0, 0, 1)¦
2. V
4
= ker(A−4I)

¸
¸
¸
−2 0 0 −2
0 −3 −3 0
0 −3 −3 0
−2 0 0 −2
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒

−2x −2t = 0
−3y −3z = 0
−3y −3z = 0
−2x −2t = 0
cuya soluci´on es : ¦x = −t, y = −z¦ , as
´
i una base del subespacio es:
B
V
4
= ¦(−1, 0, 0, 1) , (0, −1, 1, 0)¦
3. V
−2
= ker(A+ 2I)

¸
¸
¸
4 0 0 −2
0 3 −3 0
0 −3 3 0
−2 0 0 4
¸

¸
¸
¸
x
y
z
t
¸

= 0 =⇒

4x −2t = 0
3y −3z = 0
−3y + 3z = 0
−2x + 4t = 0
cuya soluci´on es : ¦y = z, t = 0, x = 0, z = z¦ , as
´
i una base es:
B
V
−2
= ¦(0, 1, 1, 0)¦
Ejemplos. 107
De esta forma la base busca es:
B =

1

2
(1, 0, 0, 1) ,
1

2
(−1, 0, 0, 1) ,
1

2
(0, −1, 1, 0) ,
1

2
(0, 1, 1, 0)

Si v es un vector y ¦p
i
¦
3
i=1
son las proyecciones ortogonales sobre cada uno
de los subespacios (V
0
, V
4
, V
−2
):
p
1
= 'v [ a
1
` a
1
p
2
= 'v [ a
2
` a
2
+'v [ a
3
` a
3
p
3
= 'v [ a
4
` a
4
entonces
p
1
= 'v [ a
1
` a
1
=
1
2
'(x, y, z, t) [ (1, 0, 0, 1)` (1, 0, 0, 1) =
1
2
(x +t, 0, 0, x +t)
p
2
= 'v [ a
2
` a
2
+'v [ a
3
` a
3
=
1
2
(x −t, y −z, z −y, t −x)
p
3
= 'v [ a
4
` a
4
=
1
2
(0, y +z, z +y, 0)
como quer
´
iamos ver.
Ejemplo 6.6.8 Sea A la expresi´on matricial de un endomorfismo en C.
A =

¸
1 +i 0 1 +i
0 2i 0
−1 −i 0 1 +i
¸

Comprobar que es normal, calcular una base de autovectores y calcular la descom-
posici´on espectral.
Soluci´on. Decimos que A es normal sii AA

= A

A donde A

= A
t
.
En este caso:

¸
1 +i 0 1 +i
0 2i 0
−1 −i 0 1 +i
¸

¸
1 −i 0 −1 +i
0 −2i 0
1 −i 0 1 −i
¸

=

¸
4 0 0
0 4 0
0 0 4
¸

¸
1 −i 0 −1 +i
0 −2i 0
1 −i 0 1 −i
¸

¸
1 +i 0 1 +i
0 2i 0
−1 −i 0 1 +i
¸

=

¸
4 0 0
0 4 0
0 0 4
¸

AA

= A

A
La base de autoves est´a formada por:
p(X) = X
3
−4iX
2
−2X
2
+ 8iX −4X + 8
m
f
(X) = 4i + (−2 −2i) X +X
2
σ(f) = ¦2, 2i, 2i¦
Los subespacios caracter
´
isticos son:
108 Espacios vectoriales eucl´ıdeos.
1. V
2i
= ¦ix −z = 0¦ , entonces una base de este espacio est´a formada por (ya
normalizada):
B
V
2i
=

1

2
(1, 0, i) , (0, 1, 0)

2. V
2
= ¦ix +z = 0, y = 0¦ , entonces una base de este espacio est´a formada por:
B
V
2
=

1

2
(1, 0, −i)

De esta forma:
p
1
= 'v [ a
1
` a
1
+'v [ a
2
` a
2
p
3
= 'v [ a
3
` a
3
entonces
p
1
= 'v [ a
1
` a
1
+'v [ a
2
` a
2
=
1
2
(x −iz, y, ix +z)
p
3
= 'v [ a
3
` a
3
=
1
2
(x +iz, 0, −ix +z)
Ejemplo 6.6.9 En R
4
con el producto escalar ordinario calcular las coordenadas del
vector proyecci´on ortogonal de u = (1, 3, −1, 0) sobre el subespacio L
L =

x −2y +t = 0
y +z −2t = 0
∀ (x, y, z, t) ∈ R
4

as
´
i como la distancia de u al subespacio L.
Soluci´on.
las ecuaciones de L son:
L =

x = 2λ −µ
y = λ
z = −λ + 2µ
t = µ
u = x +z / x = proy
L
(u) y d(u, L) = |z|
B
L
= ¦(2, 1, −1, 0) , (−1, 0, 2, 1)¦
L

=

x = λ
y = −2λ +µ
z = µ
t = λ −2µ
⇐⇒
2x +y −z = 0
−x + 2z +t = 0
B
L
⊥ = ¦(1, −2, 0, 1) , (0, 1, 1, −2)¦
B
V
=

(2, 1, −1, 0) , (−1, 0, 2, 1)
. .. .
B
L
, (1, −2, 0, 1) , (0, 1, 1, −2)
. .. .
B
L

Ejemplos. 109

¸
¸
¸
2 −1 1 0
1 0 −2 1
−1 2 0 1
0 1 1 −2
¸

¸
¸
¸
x
y
z
t
¸

=

¸
¸
¸
1
3
−1
0
¸

2x −y +z = 1
x −2z +t = 3
−x + 2y +t = −1
y +z −2t = 0
⇐⇒
x = 6/5
y = 3/10
z = −11/10
t = −2/5
entonces:
proy
L
(u) = x =
6
5
(2, 1, −1, 0) +
3
10
(−1, 0, 2, 1) =

21
10
,
6
5
, −
3
5
,
3
10

z = −
11
10
(1, −2, 0, 1) −
2
5
(0, 1, 1, −2) =


11
10
,
9
5
, −
2
5
, −
3
10

d(u, L) = |z| =
1
10

470