You are on page 1of 101

Universidad Mayor de San Simón

Facultad de Ciencias y Tecnologı́a Carrera de Matemáticas

Algebra Lineal

Hans C. Müller Santa Cruz

Cochabamba, .
Contenido

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
I.- Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.- Espacios de Generación Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.- Matriz de una Aplicación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
7.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.- Formas Bilineales Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.- Formas Hermı́ticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
1.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.- Triangularización y Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.- Descomposicón Canónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.- Descomposición de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Prefacio

El Algebra Lineal es una de las ramas fundamentales de las Matemáticas; por un lado, porque es herramienta
de trabajo imprescindible en otras áreas de las matemáticas como el Análisis, la Geométrı́a, el Análisis
Numérico, las Estadı́sticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la solución de
problemas de otras disciplinas y ciencias es moneda corriente.
El texto de Algebra Lineal está inscrito dentro el desarrollo que pretende dar la Carrera de Matemáticas
en su nueva formulación. Este texto contiene lo más importante dentro lo que es el Algebra Lineal, dando
el vocabulario y conceptos de base para una buena utilización, presentando los razonamientos de manera
rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de solución
a los problemas presentados.
Para un buen asimilación de los conocimientos y razonamientos de este texto; las definiciones y conceptos
más significativos están escritos en negrillas, estos deberán ser memorizados y manipulados fluidamente.
Los resultados mas importantes están expresados en los teoremas, corolarios y proposiciones, estos deberán
también ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deberán ser
trabajadas, con la finalidad de adquirir las diferentes técnicas de demostración que se emplean en el Algebra
Lineal. Con fines pedágogicos, en algunos paragrafos se presentan los resultados fundamentales que serán
tratados en el paragrafo en cuestión, estos están escritos en carácteres itálicos.
La práctica del curso, es una fuente para practicar los conocimientos adquiridos y ası́ mismo como un
medio de adquirir conocimientos adicionales. Por lo tanto, una resolución en gran número de estos ejercicios,
podrá medir el grado de asimilación del estudiante.
Capı́tulo I
Espacios Vectoriales y Aplicaciones Lineales

I.1 Preliminares

Cuerpos Conmutativos
Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con:

Q el conjunto de los números racionales = {n/m|n, m enteros, m 6= 0};


R el conjunto de los números reales;
C el conjunto de los números complejos.

Estos tres conjuntos están dotados de:

una adición: α + β
una multiplicación: α · β

que verifican las tres familias de axiomas:


I. Adición
i) la adición es conmutativa, α + β = β + α.
ii) la adición es asociativa, (α + β) + γ = α + (β + γ).
iii) existe un elemento cero 0 tal que 0 + α = α + 0 = α, ∀α.
iv) ∀α existe un opuesto −α, tal que α + (−α) = 0.
II. Multiplicación
i) la multiplicación es conmutativa, α · β = β · α.
ii) la multiplicación es asociativa, (α · β) · γ = α · (β · γ).
iii) existe el elemento uno 1, tal que 1 · α = α, ∀α.
iv) ∀β 6= 0, β posee un inverso β −1 = 1/β, tal que β · β −1 = 1.
III. Distributividad
i) α · (β + γ) = α · β + α · γ.
ii) (α + β) · γ = α · γ + β · γ.
Un conjunto K, provisto de una adición y de una multiplicación se llama cuerpo conmutativo, si
satisface los tres grupos de axiomas mencionados más arriba.
Remarca.- Un conjunto K provisto de una adición y de una multiplicación que satisface las tres familias de
axiomas, quizás excepto el axioma II.i se llama cuerpo.
Proposición I.1.1.- En un cuerpo conmutativo K, se tiene
1) El elemento 0 es único.
2) El opuesto de α es único.
3) El elemento 1, ası́ como el inverso de β 6= 0 son únicos.
4) Se tiene α + α = α ⇐⇒ α = 0.
2 I Espacios Vectoriales y Aplicaciones Lineales

5) Se tiene α · 0 = 0, ∀α.
Demostración:
1.- Supóngase que 0 y 0′ son ceros, entonces

0′ = 0 + 0′ = 0′ + 0 = 0 ⇒ 0 = 0′ .

2.- Sea α ∈ K, −α y −α′ opuestos de α. Se tiene

−α = −α + 0 = −α + (α + (−α′ )) = (−α + α) + (−α′ ) = 0 + α′ = α′ .

3.- Ejercicio.
4.- ⇐ trivial,

⇒ α + α = α,
(α + α) + (−α) = α + (−α),
α + (α + (−α)) = 0,
α + 0 = 0 ⇒ α = 0.

5.- Utilizando el punto 4) de la proposición, se tiene

α · 0 = α · (0 + 0),
α · 0 = α · 0 + α · 0 ⇒ α · 0 = 0. 

En lo que sigue del capı́tulo K denotará un cuerpo conmutativo. Se convendrá α − β = α + (−β) y


αβ = α · β.

Espacios Vectoriales
Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones:

V ×V →V
adición
(x, y) 7→ x + y

K×V →V
multiplicación por escalar
(α, x) 7→ αx

que verifican los dos sistemas de axiomas:


I Adición
i) la adición es conmutativa x + y = y + x, ∀x, y ∈ V .
ii) la adición es asociativa (x + y) + z = x + (y + z), ∀x, y, z ∈ V .
iii) existe un cero, 0 ∈ V tal que 0 + x = x, ∀x ∈ V .
iv) Todo x ∈ V posee un opuesto −x, tal que x + (−x) = 0.
II Multiplicación por escalar
i) α(βx) = (αβ)x, ∀α, β ∈ K, ∀x ∈ V .
ii) (α + β)x = αx + βx, ∀α, β ∈ K, ∀x ∈ V .
iii) α(x + y) = αx + αy, ∀αK, x, y ∈ V .
Definición I.1.2.- Un subconjunto U 6= ∅ de V espacio vectorial, es un subespacio vectorial de V , si

x, y ∈ U ⇒ αx + βy ∈ U, ∀α, β ∈ K.

Ejemplos
I.1 Preliminares 3

1.- K es un espacio vectorial sobre K, para la adición y la multiplicación de K.


2.- Sea Kn = {(α1 , α2 , . . . , αn )|αi ∈ K, i = 1, . . . , n}, con la adición y la multiplicación por escalar,
definidas:
(α1 , α2 , . . . , αn ) + (β1 , β2 , . . . , βn ) = (α1 + β1 , α2 + β2 , . . . , αn + βn ),
α(α1 , α2 , . . . , αn ) = (αα1 , αα2 , . . . , ααn ),
es un espacio vectorial sobre K.
3.- {0} ⊂ V y V son subespacios vectoriales de V , si V es un espacio vectorial. Son conocidos como los
subespacios triviales de V.
Proposición I.1.3.- En un espacio vectorial V , sobre un cuerpo K, se tiene:
1.- El elemento 0 ∈ V es único, ası́ como el opuesto −x.
2.- y ∈ V , y + y = y ⇐⇒ y = 0.
3.- α0 = 0, ∀α ∈ K.
4.- 0x = 0, ∀x ∈ V .
5.- Sean α ∈ K, x ∈ V , entonces
αx = 0 ⇒ α = 0 o x = 0.

Demostración.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 está demostrado, sino α 6= 0, por
consiguiente

α−1 (αx) =α−1 0,


1x = 0,
x = 0. 

Convención.- Generalmente el elemento cero 0 de V espacio vectorial se lo denota también 0. En lo que


sigue se utilizará esta notación.
Ejemplos
4.- Sea X un conjunto no nulo, se define

KX = {f : X → K}

el conjunto de las aplicaciones de X en K. KX es un espacio vectorial para

(f + g)(x) = f (x) + g(x)


(I.1.1)
(αf )(x) = α(f (x))

El cero de KX es la aplicación 0 : x 7→ 0.
En particular RR = {f : R → B} es un espacio vectorial con las operaciones (I.1.1).
5.- C 0 (R, R) = {f : R → R, continua} es un espacio vectorial con las leyes (I.1.1).
6.- Se dice que p : R → R es polinomial si
n
X
p(t) = αi ti , αi ∈ R, αn 6= 0;
i=0

n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de las


funciones polinomiales de grado ≤ n.
Ejercicio.- Mostrar que P es un subespacio vectorial de C 0 (R, R) y Pn es un subespacio vectorial de P.
Remarca.- Un subespacio vectorial es en si mismo es un espacio vectorial.
7.- Consideremos el sistema lineal homogeneo de n ecuaciones y m incognitas, dado por

 a11 ξ1 + a12 ξ2 + · · · + a1m ξm = 0

.. ..
 . .

an1 ξ1 + an2 ξ2 + · · · + anm ξm = 0
4 I Espacios Vectoriales y Aplicaciones Lineales

donde los aik pertenecen a K.


Ejercicio.- Mostrar que las soluciones de este sistema forman un subespacio vectorial de Km .
Proposición I.1.4.- Sean V y W dos espacios vectoriales sobre un cuerpo K. El conjunto producto

V × W = {(v, w)|v ∈ V, w ∈ W }

es un K-espacio vectorial, para

(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ),


α(v, w) = (αv, αw).

Demostración.- Ejercicio.
\
Proposición I.1.5.- Sea {Ui }i∈I una familia de subespacios de V . Entonces Ui es un subespacio vectorial
i∈I
de V , donde \
Ui = {x ∈ V |x ∈ Ui , ∀i ∈ I}.
i∈I

Demostración.- Ejercicio.
[
Remarca.- Ui = {x ∈ V |∃i ∈ I, con x ∈ Ui } no es en general un subespacio vectorial de V .
i∈I

Definición I.1.6.- Sea A un subconjunto de V . El subespacio engendrado por A es el subespacio vectorial


más pequeño que contiene A, se lo denota por < A >.
Se tiene < ∅ >= {0}. Existen subespacios de V que contienen un subconjunto A de V , por ejemplo V
mismo. Por consiguiente se tendrá \
< A >= U.
A⊂U subespacio

En realidad < A > está formado por el conjunto de las v ∈ V que se escriben bajo la forma
X
v= αi ai , αi ∈ K, ai ∈ A.
suma finita

Mostrar esta última afirmación es un interesante ejercicio, hacerlo.


Se dice que A ⊂ V engendra V si y solamente si < A >= V . Por la anterior observación, esta definición
significa que todo v ∈ V se escribe como
X
v= αi ai , αi ∈ K, ai ∈ A.
suma finita

Ejemplos
8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene
β = (βα−1 )α.
9.- Kn . Introducimos los elementos

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).

{e1 , e2 , . . . , en } engendra V . En efecto sea (α1 , . . . , αn ) ∈ Kn , se tiene


n
X
α1 , . . . , αn ) = αi ei .
i=1
I.1 Preliminares 5

10.- Ejercicio.- Mostrar que

< {t → ti }i≥0 >= P y Pn =< {t → ti }ni=0 >

11.- Sean U1 , U2 , . . . , Un subespacios vectoriales de V , se denota

U1 + U2 + · · · + Un
n
[
el subespacio engendrado por Ui .
i=1
n
X
Ejercicio.- Mostrar que los elementos de son aquéllos de V que se escriben bajo la forma
i=1

n
X
v= ui , ui ∈ U.
i=1

Definición I.1.7.- Se dice que la familia {v1 , . . . , vm } de V es linealmente dependiente si y solamente


si existen α1 , α2 , . . . , αn ∈ K no todos nulos, tales que
n
X
αi vi = 0.
i=1

Si {v1 , . . . , vm } no es linealmente dependiente, se dice que es linealmente independiente; es decir,


{v1 , . . . , vm } es linealmente independiente si y solamente si

n
X
αi vi = 0 ⇒ α1 = α2 = · · · = αm = 0.
i=1

Se dice que ∅ = 6 A ⊂ V , no necesariamente finito, es linealmente dependiente, si existe {v1 , . . . , vm } ⊂ A


linealmente dependiente.
Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente independiente si toda familia finita
{v1 , . . . , vm } ⊂ A es linealmente independiente. Se conviene que ∅ es linealmente independiente.
Ejemplos
12.- A = {0}, entonces A es linealmente dependiente.
13.- Los vectores ei , i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente indepen-
diente.
14.- Sea V 6= {0} un espacio vectorial, 0 6= x ∈ V , entonces {x} es linealmente independiente. En efecto,
utilizando la proposición (I.1.3), punto 5, se tiene αx = 0 ⇒ α = 0.
15.- Sea P el espacio de las funciones polinomiales reales.
Ejercicio.-Mostrar que el conjunto
A = {t 7→ ti }i≥0
es una familia linealmente independiente de P.
Definición I.1.8.- Se dice que B ⊂ V es una base de V espacio vectorial si y solamente si B es linealmente
independiente y B engendra V .
Ejemplos
16.- V = K, sea α ∈ K, con α 6= 0, entonces {α} es una base de K.
17.- V = Kn . El conjunto {e1 , e2 , . . . , en } es una base de K n .
18.- {t 7→ ti }ni=0 es una base de Pn .
6 I Espacios Vectoriales y Aplicaciones Lineales

Proposición I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todo
elemento v ∈ V se escribe de manera única bajo la forma
X
v= αi vi , αi ∈ K.
sumaf inita

Demostración.- En los ejercicios propuestos de la práctica.


Aplicación a los Sistemas Lineales

 a11 ξ1
 + a12 ξ2 + ··· + a1m ξm = 0
.. .. (I.1.2)
 . .

an1 ξ1 + an2 ξ2 + ··· + anm ξm = 0
Planteando
a1 =(a11 , a21 , . . . , an1 ) ∈ Kn ,
..
.
am =(a1m , a2m , . . . , anm ) ∈ Kn ,
b =(b1 , b2 , . . . , bn ) ∈ Kn .
El sistema (I.1.2) es equivalente a resolver ξ1 a1 + ξ2 a2 + · · · + ξm am = b. Por consiguiente:
i) El sistema (I.1.2) tiene una solución, si y solamente si b ∈< {a1 , . . . , am } >.
ii) Si {a1 , . . . , am } es linealmente independiente y (I.1.2) tiene solución, entonces ésta es única.
I.2 Espacios de Generación Finita 7

I.2 Espacios de Generación Finita

Se dice que el espacio vectorial V es de generación finita si posee un sistema de generadores finito, es
decir si existe v1 , v2 , . . . , vn ∈ V , tales que todo v ∈ V , se escribe como
n
X
v= αi vi , αi ∈ K.
i=1

Ejemplos
1.- Kn es de generación finita, porque es engendrado por {e1 , e2 , . . . , en }.
2.- El espacio P de las funciones polinomiales no es de generación finita. Esto se verá más adelante.
3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V × W es de generación
finita.
En este parágrafo se verá como resultado principal que los espacios vectoriales de generación finita
tienen bases finitas, además que todas las bases de un espacio vectorial de generación finita tienen el mismo
número de elementos.
Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generación finita. Sea Gr =
{y1 , y2 , . . . , yr } un sistema de generadores de V . Sea L = {x1 , . . . , xs } un subconjunto linealmente indepen-
diente en V . Entonces:
i) r ≥ s;
ii) Existen (r − s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que

{x1 , . . . , xs , yis+1 , yis+2 , . . . , yir } engendra V.

Demostración.- Por inducción sobre s, donde s es el número de elementos de L. Para s = 0, el enunciado


es cierto de manera trivial.
Supongamos cierto el teorema para s − 1, con s > 0. A demostrar que el teorema es cierto para s.
Se utiliza la hipótesis de inducción para L′ = {x1 , x2 , . . . , xs−1 }, obteniendo:
i) r ≥ (s − 1),
ii) existen yis , yis+1 , . . . , yir en Gr tales que

{x1 , . . . , xs−1 , yis , yis+1 , . . . , yir } engendra V.

Si es necesario renumerar los yi , se puede suponer que yij = yj , es decir


{x1 , . . . , xs−1 , ys , . . . , yr } engendra V .
Por lo tanto, el elemento xs se puede escribir como combinación lineal de
x1 , . . . , xs−1 , ys , . . . , yr
s−1
X r
X
xs = αi xi + βj yj ,
i=1 j=s

los βj no son todos nulos, sino L′ serı́a linealmente dependiente.


De ahı́, se deduce que r ≥ s, existe un j, con βj 6= 0. Si es necesario renumerar los yj , se puede suponer
que βs 6= 0. De donde
s−1
X Xr
xs = αi xi + βs ys + βj yj . (I.2.1)
i=1 j=s+1

El siguiente paso, es mostrar que {x1 , . . . , xs , ys+1 , . . . , yr } engendra V . Sea v ∈ V , por hipótesis de inducción,
se puede escribir
s−1
X Xr
v= γi xi + δs ys + δj yj , (I.2.2)
i=1 i=s+1
8 I Espacios Vectoriales y Aplicaciones Lineales

por otro lado, se tiene a partir de (I.2.1)


s−1
X Xr
−αi 1 −βj
ys = xi + xs + yj ,
i=1
βs βs j=s+1
βs

introduciendo esta última expresión en (I.2.2) y efectuando los cálculos necesarios se llega a
s
X r
X
v= αi′ xi + δj′ yj .
i=1 i=s+1


Corolario I.2.2.- Sea V un espacio vectorial de generación finita y Gr un sistema de generadores de V .


Entonces todo subconjunto linealmente independiente contiene a lo mas #(Gr).
Consecuencia.- Sea V un espacio vectorial, se supone que V contiene un subconjunto infinito linealmente
independiente, entonces V no es de generación finita. Por lo tanto P, no es de generación finita.
Corolario I.2.3.- Sea V espacio vectorial de generación finita y L un subconjunto linealmente independiente
de V . Entonces se puede completar L en un sistema finito de generadores de V .
Teorema I.2.4.- Un espacio vectorial de generación finita, posee bases finitas. Más precisamente, de todo
sistema de generación finita, se puede extraer una base; es decir si Gr ⊂ V engendra V , existe una base B
de V con B ⊂ Gr. Si el espacio es V = {0}, se conviente que ∅ es la base de V .
Demostración.- Supongamos que V 6= {0}, sino el teorema está mostrado. Sea Gr = {y1 , y2 , . . . , yr } un
sistema de generadores de V . Se elige B ⊂ Gr tal que B es linealmente independiente y B es maximal para
esta propiedad; es decir, si B & B ′ ⊂ Gr, entonces B’ es linealmente dependiente. La existencia del conjunto
B está asegurada por que todo subconjunto linealmente en V cuenta con un número finito de elementos y
además este numero está acotado por r, el número de generadores de Gr.
Afirmamos que B es una base, con lo que el teorema estarı́a demostrado. En efecto, B es linealmente
independiente por construcción. Solo queda mostrar que B engendra V . Si es necesario renumerar, se puede
suponer que
B = {y1 , y2 , . . . , ys }.
Si s = r, se tiene B = Gr y por consiguiente B es un sistema de generadores.
Si s < r, por maximilidad de B, el subconjunto {y1 , y2 , . . . , ys , yi }, para i = s + 1, . . . , r es linealmente
dependiente. Por lo tanto para cada i = s + 1, . . . , r, existen α1 , α2 , . . . , αn y β ∈ K no todos nulos, tales que
s
X
αk yk + βyi = 0.
k=1

Se observa que β 6= 0, por que sino B no serı́a linealmente independiente.


Por consiguiente
X s
−αk
yi = yk , s < i ≤ r. (I.2.3)
β
k=1

Por otro lado, sea v ∈ V , como Gr es un sistema de generadores, se tiene también


s
X r
X
v= γk yk + γi yi , γj ∈ K.
k=1 i=s+1

Introduciendo (I.2.3), en cada uno de los yi con s < i ≤ r, se tiene finalmente


s
X
v= δk yk . 
k=1
I.2 Espacios de Generación Finita 9

Proposición I.2.5.- Sea V un espacio vectorial de generación finita. Entonces, todas las bases de B son
finitas y comportan el mismo número de elementos. Este número se llama dimensión de V y se escribe

dimK V, dim(V ), dim V.

Se tiene que dim V es el número máximo, respectivamente mı́nimo, de elementos de un subconjunto lineal-
mente independiente en V , respectivamente que engendra V .
Demostración.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas.

b) Sean {v1 , v2 , . . . , vn } y {v1′ , v2′ , . . . , vm } dos bases de V . Utilizando el teorema de Grassmann con:

Gr = {v1 , v2 , . . . , vn }, L = {v1′ , v2′ , . . . , vm



} ⇒ m ≤ n,
′ ′ ′
Gr = {v1 , v2 , . . . , vm }, L = {v1 , v2 , . . . , vn } ⇒ m ≤ m.

c) Se denota d la dimensión de V . Sea L un subconjunto linealmente independiente de V . Por el teorema


de Grassmann, con Gr una base y L, se tiene

d = #(Gr) ≥ #(L).

d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, se
tiene
#(GR) ≥ #(B) = d. 

Ejemplos
4.- dim(Kn ) = n.
5.- dim(Pn ) = n + 1.
6.- Ejercicio.- Mostrar que si V y W son de generación finita, entonces V × W es de generación finita y
además
dim(V × W ) = dim(V ) + dim(W ).

Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ de
elementos, o si V no es de generación finita, se dice que V es de generación infinita.
Proposición I.2.6.- Sea V de dimensión d y v1 , v2 , . . . , vn n elementos de V , entonces:
i Si n > d, {v1 , v2 , . . . , vn } es linealmente dependiente.
ii Si n < d, {v1 , v2 , . . . , vn } no engendra V .
iii Si n = d, los enunciados siguientes son equivalentes:
a) {v1 , v2 , . . . , vn } es linealmente independiente,
b) {v1 , v2 , . . . , vn } engendra V ,
c) {v1 , v2 , . . . , vn } es una base de V .
Demostración.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii).
a)⇒b) Sea B = {x1 , . . . , xd } una base de B, utilizando Grassman con Gr = B y L = {v1 , v2 , . . . , vn }, se
tiene que {v1 , v2 , . . . , vn } engendra V .
b)⇒c) De todo sistema de generadores se puede extraer una base.
c)⇒a) trivial. 
Proposición I.2.7.- Sea V un espacio vectorial de generación finita. Entonces, todo conjunto linealmente
independiente puede ser completado en una base de V .
Demostración.- Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente. B = {y1 , . . . , yd } una
base de V . Por el teorema de Grassmann, si es necesario renumerar los yi , el subconjunto

{x1 , . . . , xs , ys+1 , . . . , yd }

engendra V . De la proposición I.2.6, se deduce que {x1 , . . . , xs , ys+1 , . . . , yd } es una base de V . 


10 I Espacios Vectoriales y Aplicaciones Lineales

Proposición I.2.8.- Sea V de generación finita y U un subespacio de V . Entonces, U es de generación


finita y se tiene dim(U ) ≤ dim(V ). Además

dim(U ) = dim(V ) ⇐⇒ U = V.

Demostración.- Se observa que un subconjunto linealmente independiente de U es también un subconjunto


linealmente independiente de V .
Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto,
los subconjuntos linealmente independientes de U son finitos con a lo más dim(V ) elementos.
Se elige B = {u1 , u2 , . . . , un } un subconjunto linealmente independiente maximal; es decir, si B & B ′ ⊂
U , entonces B ′ es linealmente dependiente.
Afirmamos que B es una base de U , con lo que estarı́a demostrado que U es de generación finita y
dim(U ) ≤ dim(V ). En efecto, sea u ∈ U , a demostrar que existe α1 , . . . , αn ∈ K, tales que
n
X
u= αi ui .
i=1

Si u ∈ {u1 , u2 , . . . , un } está claro.


Si u 6∈ {u1 , u2 , . . . , un }, se considera B ′ = {u1 , u2 , . . . , un , u}, por maximilidad B ′ es linealmente dependiente.
Por consiguiente, existen β1 , . . . , βn , β no todos nulos tales que
n
X
0= βi ui + βu.
i=1

beta 6= 0, sino B serı́a linealmente dependiente, entonces


n
X −βi
u= ui .
i=1
β

Falta probar que dim(U ) = dim(V ) ⇒ U = V . Sea B = {u1 , . . . , un } una base de U, es por lo tanto un
subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B
es una base de V . La implicación del otro sentido es trivial 
Proposición I.2.9.- (Fórmula de Dimensión).- Sea V de generación finita. P y Q subespacios de V .
Entonces
dim(P + Q) = dim(P ) + dim(Q) − dim(P ∩ Q).

Demostración.- En los ejercicios de la Práctica.


Ejemplo
7.- La intersección de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene:
P + Q = R3 , porque sino P = Q,
aplicando la fórmula de dimensión de subespacios, se deduce que
dim(P ∩ Q) = 1.
I.3 Aplicaciones Lineales 11

I.3 Aplicaciones Lineales

Definición I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicación

f :V →W

es lineal, o homomorfismo de espacios vectoriales, si

f (v1 + v2 ) = f (v1 ) + f (v2 ), ∀v1 , v2 ∈ V ;


f (αv) = αf (v), ∀α ∈ K, ∀v ∈ V.

Remarca.- f (0) = 0, en efecto f (0) = f (0 + 0) = f (0) + f (0).


Se denota por Hom(V, W ) el conjunto de las aplicaciones lineales de V en W .
Proposición I.3.2.- Hom(V, W ) es un espacio vectorial para las operaciones definidas por:

(f + g)(v) = f (v) + g(v),


(αf )(v) = αf (v).

Demostración.- Ejercicio.
Definición I.3.3.- Una aplicación lineal biyectiva se llama isomorfismo, una aplicación lineal f : V → V
se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo,
Gl(V ) = {automorfismos de V }.
Ejemplos y/o Ejercicios
1.- Sea U un subespacio de V espacio vectorial, entonces la inclusión

U →V
u 7→ u

es lineal.
2.- La aplicación definida por

Kn → Kn
(α1 , . . . , αn ) 7→ (α1 , . . . , αp , 0, . . . , 0) p ≤ n

es lineal.
3.- V = R2 . Las siguientes aplicaciones, estudiadas en el curso de Geometrı́a, son lineales:
rotación de centro O,
simetrı́a de eje que pasa por 0,
homotecia de centro 0.
4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales:

D:P→P Dn : P → P
p 7→ p′ p 7→ p(n)

5.- Consideremos V = C 0 ([0, 1], R) = {f : [0, 1] → R continua}. Las siguientes aplicaciones son lineales:

C 0 ([0, 1], R) → R
f 7→ f (a), a ∈ [0, 1]
Z 1
f 7→ f (t)dt.
0
12 I Espacios Vectoriales y Aplicaciones Lineales

La aplicación f → max |f (x)| no es lineal.


x∈[0,1]
6.- Consideremos el sistema

 a11 ξ1
 + a12 ξ2 + ··· + a1m ξm = b1
.. .. (I.3.1)
 . .

an1 ξ1 + an2 ξ2 + · · · + anm ξm = bn

Planteando
a1 =(a11 , a21 , . . . , an1 ) ∈ Kn ,
..
.
am =(a1m , a2m , . . . , anm ) ∈ Kn ,
b =(b1 , b2 , . . . , bn ) ∈ Kn .
La escritura vectorial de (I.3.1) está dada por ξ1 a1 + ξ2 a2 + · · · + ξm am = b.
Se asocia a (I.3.1) la aplicación lineal

a : Km → Km
(ξ1 , . . . , ξm ) 7→ ξ1 a1 + ξ2 a2 + · · · + ξm am

Resolver el sistema (I.3.1) es equivalente a encontrar ξ = (ξ1 , . . . , ξm ) ∈ Km tal que

a(ξ) = b.

7.- Sea f : V → W un isomorfismo, entonces f −1 : W → V es lineal.


En efecto

f −1 (w1 + w2 ) = f −1 (f (v1 ) + f (v2 )) = f −1 (f (v1 + v2 )) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ),


f −1 (αw) = f −1 (αf (v)) = f −1 (f (αv)) = αv = αf −1 (w).

El resultado principal de este parágrafo, está dado por: ”Si V y W son espacios vectoriales, {v1 , . . . , vn }
una base de V , entonces para toda sucesión (w1 , w2 , . . . , wn ) de elementos de W , existe exactamente una
aplicación lineal f : V → W tal que f (vi ) = wi , para i = 1, 2, . . . , n.
Definición I.3.4.- Sean P y Q dos subespacios de V . Si P ∩ Q = {0}, en lugar de P + Q, se escribe P ⊕ Q
suma directa de P y Q.
Proposición I.3.5.- Si P ∩ Q = {0}, la aplicación

P ×Q→P ⊕Q⊂V
(x, y) 7→ x + y

es un isomorfismo.
Demostración.- Ejercicio.
Definición I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es
suplementario de Q, si V = P ⊕ Q.
Ejemplo
8.- Consideremos el espacio de las funciones f : R → R. Sean

P = {f |f (t) = f (−t)}
Q = {f |f (−t) = −f (t)}
I.3 Aplicaciones Lineales 13

subespacios vectoriales del espacio de las funciones reales. Se tiene que

V = P ⊕ Q,

donde V es el espacio de las funciones reales. En efecto

f (t) + f (−t) f (t) − f (−t)


p(t) = + q(t) = y f (t) = p(t) + q(t).
2 2
se tiene que V = P ⊕ Q. 
Proposición I.3.7.- Sea P ⊂ V un subespacio vectorial de V espacio vectorial de dimensión finita, entonces
existe al menos un suplementario de P .
Demostración.- Sea {v1 , . . . , vn } una base de P , la cual se la prolonga en
{v1 , . . . , vn , vn+1 , . . . , vd } base de V . Planteamos

Q =< {vn+1 , . . . , vd } >,

Definición I.3.8.- (Vocabulario) Sea f : V → W una aplicación lineal. Sea V1 un subespacio de V ,


entonces
f (V1 ) = {w ∈ W |∃v ∈ V1 tal que f (v) = w}.
Si V1 = V , entonces f (V ) se llama la imagen de f y se denota Im(f ).
Sea W1 un subespacio de W , entonces

f −1 (W1 ) = {v ∈ V |f (v) ∈ W }.

Si W1 = {0}, f −1 ({0}) se llama nucleo de f se denota ker(f ).


Proposición I.3.9.- f (V1 ) y f −1 (W1 ) de la definición precedente son subespacios vectoriales de V y W
respectivamente.
Demostración.- Ejercicio.
Proposición I.3.10.- Sea f : V → W lineal, entonces

a) f es sobreyectiva ⇐⇒ Im(f ) = W,
b) f es inyectiva ⇐⇒ ker(f ) = {0},
c) f es biyectiva ⇐⇒ ker(f ) = {0} y Im(f ) = W.

Demostración.- El punto a) es evidente.


b)⇒ Sea v ∈ ker(f ), entonces
f (v) = 0 = f (0) ⇒ v = 0.
⇐ Sean v1 y v2 tales que f (v1 ) = f (v2 ), por consiguiente

f (v1 − v2 ) = 0,
v1 − v2 ∈ ker(f ) ⇒ v1 − v2 = 0 ⇒ v1 = v2 .

c) Consecuencia directa de a) y b). 


Teorema I.3.11.- Fórmula de Dimensión.- Sea V espacio vectorial de dimensión finita y f : V → W lineal.
Entonces Im(f ) es de generación finita y se tiene

dim V = dim Im(f ) + dim ker(f ).


14 I Espacios Vectoriales y Aplicaciones Lineales

Demostración.- a) Sea {v1 . . . , vm } una base de V , entonces {f (v1 ), . . . , f (vm )} engendra Im(f ), por lo
que Im(f ) es de generación finita.
En efecto, sea w ∈ Im(f ), por definición existe v ∈ V tal que f (v) = w. Se tiene
m
X m
X
v= αi vi ⇒ f (v) = αi f (vi ).
i=1 i=1

b)Sea {v1 , . . . , vn } una base de ker(f ) que se completa a


{v1 , . . . , vn , vn+1 , . . . , vm } base de V .
Afirmamos que B = {f (vn+ ), . . . , f (vm )} es una base de Im(f ), con lo que quedarı́a demostrada la
fórmula de dimensión.
En efecto, B engendra Im(f ), por a) se tiene que {f (v1 ), . . . , f (vm )} engendra Im(f ), ahora bien f (v1 ) =
· · · = f (vn ) = 0.
B es linealmente independiente, sean αn+1 , . . . , αm ∈ K tales que
m
X
αi f (vi ) = 0,
i=n+1

por consiguiente !
m
X m
X
0=f αi vi ⇒ αi vi ∈ ker(f ).
i=n+1 i=n+1

n
X
Por lo tanto v ∈ ker(f ), también se escribe como βi vi . De donde
i=1

n
X m
X
βi vi = αi vi ,
i=1 i=n+1

por independencia lineal, se tiene necesariamente que los αi = 0. 


Corolario I.3.12.- Sea f : V → W lineal con V y W de dimensión finita, entonces:
a) Si dim V > dim W , entonces f no es inyectiva.
b) Si dim V < dim W , entonces f no es sobrectiva.
c) Si dim V = dim W , las tres condiciones siguientes son equivalentes:
i) f es inyectiva,
ii) f es sobreyectiva,
iii) f es biyectiva.
Demostración.- Se utiliza la fórmula de dimensión.
a) dim ker(f ) = dim V − dim Im(f ) ≥ dim V − dim W > 0, de donde ker(f ) 6= {0}, por consiguiente f no es
inyectiva.
b)dim Im(f ) = dim V −dim ker(f ) ≤ dim V < dim W , de donde Im(f ) 6= W , por lo tanto f no es sobreyectiva.
c) i) ⇐⇒ ii)
dim ker(f ) = 0 ⇐⇒ dim W = dim Im(f ) ⇐⇒ f es sobreyectiva.
Por lo tanto una función inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostrada
i)⇒iii). 
Remarca.- El corolario I.3.12 es falso si la dimensión de los espacios no es finita. Consideremos P el espacio
de las funciones polinomiales reales. La aplicación

D:P →P
p 7→ p′
I.3 Aplicaciones Lineales 15

es sobreyectiva, pero no inyectiva.


Teorema I.3.13.- Fundamental.- Sea {v1 , . . . , vn } una base de V espacio vectorial. Entonces, para toda
sucesión w1 , . . . , wn de elementos de W , existe exactamente una aplicación lineal f : V → W , tal que

f (vi ) = wi , i = 1, . . . , n.

“Una aplicación lineal es enteramente determinada por el comportamiento de la imagen de su base”.


Demostración.- a) Existencia.
n
X
Para todo v ∈ V , se tiene una escritura única v = αi vi , αi ∈ K. Se plantea
i=1

n
X
f (v) = αi wi ,
i=1

función bien determinada por que los αi son únicos. Por construcción se tiene f (vi ) = wi para i = 1, . . . , n.
Falta ver que f es lineal, sean v y v ′ dos elementos de V , entonces
n
X n
X n
X
v= αi vi , v′ = αi′ vi ⇒ v + v′ = (αi + αi′ )vi .
i=1 i=1 i=1

Por consiguiente:
n
X n
X n
X

f (v) = αi wi f (v ) = αi′ wi ′
f (v + v ) = (αi + αi′ )vi .
i=1 i=1 i=1

Se constata que f (v + v ′ ) = f (v) + f (v ′ ), lo mismo para f (αv) = αf (v).


b) Unicidad.
Sean f y g aplicaciones lineales de V en W , tales que f (vi ) = g(vi ) para i = 1, . . . , n. Se tiene
n
X n
X n
X n
X
f (v) = f ( αi vi ) = αi f (vi ) = αi g(vi ) = g( αi vi ) = g(v). 
i=1 i=1 i=1 i=1

Proposición I.3.14.- Si V y W dos espacios de dimensión finita. Entonces, V y W son isomorfos, es decir
existe un isomorfismo V → W , si y solamente si dim V = dim W .
Demostración.- Si V y W son isomorfos, entonces dim V = dim W , caracterı́stica de la fórmula de di-
mensión.
Si dim V = dim W , sean {v1 , . . . , vn } y {w1 , . . . , wn } bases de V y W respectivamente. Por el teorema
fundamental existe f : V → W lineal tal que f (vi ) = wi . Utilizando la demostración de la proposición
fórmula de dimensión para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicación es
biyectiva, consecuencia del corolario I.3.12.
Proposición I.3.15.- Sea {v1 , . . . , vn } una base de V , entonces la aplicación
ϕ
Hom(V, W ) −→ W × W × · · · × W = W n
f 7→ (f (v1 ), f (v2 ), . . . , f (vn ))

es un isomorfismo de espacios vectoriales.


Demostración.- ϕ es lineal:

ϕ(αf ) = ((αf )(v1 ), . . . , (αf )(vn ))


= α(f (v1 ), . . . , f (vn )) = αϕ(f ),
ϕ(f + g) = ((f + g)(v1 ), . . . , (f + g)(vn ))
= (f (v1 ) + g(v1 ), . . . , f (vn ) + g(vn ))
= (f (v1 ), . . . , f (vn )) + (g(v1 ), . . . , g(vn )) = ϕ(f ) + ϕ(g).
16 I Espacios Vectoriales y Aplicaciones Lineales

El teorema fundamental indicará que ϕ es biyectiva. 

Aplicación a los Sistemas Lineales


Consideremos el sistema de n ecuaciones a n incognitas

 a11 ξ1 + a12 ξ2 + · · · + a1n ξn
 = b1
.. .. (I.3.2)
 . .

an1 ξ1 + an2 ξ2 + · · · + ann ξn = b2

Proposición I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2).
i) ∀(bi ) ∈ K, existe a lo más una solución del sistema (I.3.2).
ii) ∀(bi ) ∈ K, existe al menos una solución del sistema (I.3.2).
iii) ∀(bi ) ∈ K, existe exactamente una solución del sistema (I.3.2).
iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como única solución.
Demostración.- Al sistema (I.3.2), se asocia la aplicación linel a, ver ejemplo 6 de este parágrafo. Por
consiguiente
Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b.
Es decir encontrar, a−1 ({b}). Los enunciados de la proposición se traducen
i) ∀b ∈ Kn , a−1 ({b}) comporta a lo más un elemento ⇐⇒ a es inyectiva.
ii) ∀b ∈ Kn , a−1 ({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva.
iii) ∀b ∈ Kn , a−1 ({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva.
iv) a−1 ({0}) = {0} ⇐⇒ ker a = {0}.
Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12) 
I.4 Anillo de Homomorfismos 17

I.4 Anillo de Homomorfismos

Proposición I.4.1.- Sean f ∈ Hom(U, V ) y g ∈ Hom(V, W ), entonces g ◦ f ∈ Hom(U, W ), donde U, V, W


son espacios vectoriales.
Demostración.- Se tiene:
g ◦ f (u1 + u2 ) = g(f (u1 + u2 ))
= g(f (u1 ) + f (u2 ))
= g(f (u1 )) + g((u2 )) = f ◦ g(u1 ) + f ◦ g(u2 ),
g ◦ f (αu) = g(f (αu))
= g(α(f (u))
= αg(f (u)) = αg ◦ f (u). 

Sobre End(V ), se tiene una adicion


(f + g)(v) = f (v) + g(v),
y una “ multiplicación” que es la composición de aplicaciones
(g ◦ f )(v) = g(f (v)).
Estas dos leyes de composición interna o operaciones verifican los axiomas siguientes:
I.- Adición
i la adición es asociativa;
ii la adición es conmutativa;
iii existe un elemento cero 0 tal que 0 + f = f , para todo f ;
iv Para todo f ∈ End(V ), existe un opuesto (−f ), tal que f + (−f ) = 0.
II.- Multiplicación
i la multiplicación es asociativa;
ii existe un uno 1, tal que 1 ◦ f = f ◦ 1 = f , para todo f .
1 = id : V → V
v 7→ v
I.- Distributividad
i f ◦ (g + h) = f ◦ g + f ◦ h;
ii (f + g) ◦ h = f ◦ h + g ◦ h.
Un conjunto A con una adición y una multiplicación que satisface los tres sistemas de axiomas descritos,
se llama anillo.
Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicación es conmutativa.
Por lo tanto, End(V ) con la adición y la composición de aplicaciones es un anillo.
Ejemplos
1.- Z con la adición y la multiplicación usual es un anillo conmutativo.
2.- Un cuerpo (conmutativo) es un anillo (conmutativo).
3.- End(V ) no es un anillo conmutativo si dim V ≥ 2. En efecto, sea {v1 , . . . , vn } una base de V y
consideremos los endomorfismos definidos por:
f :V →W g:V →W
v1 7→ αv1 v1 7 v1 + v2

v2 7→ βv2 v2 7→ v2
vi 7→ vi , i ≥ 3; vi 7→ vi , i ≥ 3;
18 I Espacios Vectoriales y Aplicaciones Lineales

entonces
g◦f :V →W f ◦g :→W
v1 7→ αv1 + βv2 v1 7→ α(v1 + v2 )
v2 7→ βv2 v2 7→ βv2
vi 7→ vi , i ≥ 3; vi 7→ vi , i ≥ 3;
Si α 6= β, se tiene f ◦ g(v1 ) 6= g ◦ f (v1 ) y por consiguiente f ◦ g 6= g ◦ f .
Definición I.4.2.- Sea A y B dos anillos. Una aplicación f : A → B es un homomorfismo de anillos si
i f (a1 + a2 ) = f (a1 ) + f (a2 ),
ii f (a1 a2 ) = f (a1 )f (a2 ),
iii f (1) = 1.
Definición I.4.3.- Sea A un anillo, se dice que I ⊂ A diferente del conjunto vacio es un ideal por izquierda
(por derecha), si
i ∀x, y ∈ I ⇒ x + y ∈ I,
ii x ∈ I, a ∈ A ⇒ ax ∈ I (xa ∈ I).

Grupos
Un grupo G es un conjunto dotado de una ley de composición interna o operación

G×G→G
(g1 , g2 ) 7→ g1 ∗ g2

tal que
i (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3 ), ∀g1 , g2 , g3 ∈ G (Asociatividad);
ii Existe un elemento neutro e tal que e ∗ g = g ∗ e = g, ∀g ∈ G;
iii Todo elemento g ∈ G posee un inverso g ′ tal que

g ∗ g ′ = g ′ ∗ g = e.

Se dice que G un grupo es conmutativo o abeliano si ademas

g1 ∗ g2 = g2 ∗ g1 , ∀g1 , g2 ∈ G.

Notación Multiplicativa
Si G es un grupo y la operación ∗ se la denota por ·, es decir

G×G→G
(g1 , g2 ) 7→ g1 · g2

el elemento neutro (uno) se denota por 1 y el inverso se denota por g −1 .


Notación Aditiva (Reservada a los grupos abelianos)
Si G es un grupo y la operación ∗ se la denota por +, es decir

G×G→G
(g1 , g2 ) 7→ g1 + g2

el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por −g.
Ejemplos
4.- (Z, adición) es un grupo abeliano.
5.- (Z, multiplicación) no es grupo.
6.- (V, +) donde V es un espacio vectorial es un grupo abeliano.
I.4 Anillo de Homomorfismos 19

7.- Sea E un conjunto.


SE = {f : E → E biyectiva}
con la composición de aplicaciones es un grupo no conmutativo si #(E) ≥ 3.
8.- Sea V un espacio vectorial, el grupo lineal

Gl(V ) = {f : V → V automorfismo}

con la composición de aplicaciones es un grupo no conmutativo.


Definición I.4.4.- Sean (G, ∗) y (H, ⋆) dos grupos. Un homomorfismo de grupos es una aplicación tal
que
f (g1 ∗ g2 ) = f (g1 ) ⋆ f (g2 ).

Ejemplo
9.- La aplicación
(R, +) → (R − {0}, ·)
x 7→ ex
es un homorfismo de grupos.
20 I Espacios Vectoriales y Aplicaciones Lineales

I.5 Matriz de una Aplicación Lineal

Sea V un espacio vectorial y {v1 , . . . , vn } una base de V , entonces existe un isomorfismo natural dado por

ϕ : V → Kn
vi 7→ ei , i = 1, . . . , n
n
X
donde {e1 , . . . , en } es la base canónica de Kn . Por consiguiente, si v = αi vi , se tiene
i=1

ϕ(v) = (α1 , α2 , . . . , αn ) ∈ Kn .

El elemento de K, αi , se llama la i-sima componente de v respecto a la base {v1 , . . . , vn } y v ∈ V puede


escribirse en forma de componentes respecto a la base {v1 , . . . , vn } como
 
α1
 α2 
v = ( α1 α2 · · · αn ) o bien v =  
 ...  ;
αn

la segunda escritura en vector columna será muy util para lo que sigue en el curso.
Una matriz A de n × m a coeficientes en K es un tablero de n filas y m columnas de elementos de K
 
a11 a12 ··· a1m
 a21 a2m 
A=
 ... ..  .
. 
an1 an2 · · · anm

El conjunto de las matrices n × m a coeficientes en K, se lo denota por Mn,m (K).


Sean V y W dos espacios de dimensión m y n respectivamente,

{v1 , . . . , vm } una base de V,


{w1 , . . . , wn } una base de W ;

sea f : V → W lineal, se tiene para cada uno de los elementos de la base de V


 
n a1j
X  
f (vj ) = aij wi =  ...  j = 1, . . . , m;
i=1
anj

donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1 , . . . , vm } y {w1 , . . . , wn }, la matriz
 
a11 a12 ··· a1m
 a21 a2m 
Mf = 
 ... ..  ∈ Mn,m (K)
. 
an1 an2 · · · anm

que se llama la matriz de f respecto a las bases {v1 , . . . , vm } y {w1 , . . . , wn }. Se observa inmediatamente
que el número de filas es igual a la dimensión del espacio destino W para f y el número de columnas es igual
a la dimensión del espacio fuente V para f .
I.5 Matriz de una Aplicación Lineal 21

Receta.- Para construir la matriz de f respecto a las bases {vi } y {wj } disponer en vectores columnas las
componentes de f (vj ) respecto a la base {wj }.
Remarca.- Mn,m (K) está en biyección con Knm , pero con las nociones de fila y columna.
Proposición I.5.1.- Resultado principal.- Sea {vi }m n
i=1 una base de V y {wj }i=1 una base de W . La aplicación

Hom(V, W ) → Mn,m (K)


f 7→ Mf respecto a las bases en cuestión,

es biyectiva.
Demostración.- Recordamos que

Hom(V, W ) → W n
f 7→ (f (v1 ), . . . , f (vn ))

es un isomorfismo de espacios vectoriales y que

W → Kn
 
n α1
X .
w= wi 7→  .. 
i=1 αn

es otro isomorfismo. De esta manera

Hom(V, W ) −→ Wn −→ Knm ∼ = Mn,m (K)


 
a11 a12 · · · a1m
 a21 a2m 
f 7 (f (v1 ), . . . , f (vn )) 7→ 
→  ... .. 
. 
an1 an2 · · · anm

es biyectiva. 
Ejemplos
1.- Consideremos la proyección del plano R2 sobre el eje x. La matriz de la proyección respecto a la base
canónica está dada por
 
e1 → e1 1 0
⇒ Mf =
e2 → e2 0 0

2.- Ejercicio.- Determinar las matrices respecto a la base canónica de las aplicaciones lineales del curso de
Geometrı́a, es decir: rotaciones, homotecias, simetrı́as, similitudes, etc.

Transcripción de las Operaciones Lineales en Términos de Matriz


Una vez determinada la relación existente entre el conjunto de las matrices y el espacio de los homomorfismos
es transcribir las operaciones de las aplicaciones lineales en términos de operaciones de matrices.
Sean V espacio vectorial de base {v1 , . . . , vm } y W espacio vectorial de base {w1 , . . . , wn }. Consideremos
las aplicaciones lineales
f, g : V → W,
cuyas matrices respecto a las bases en cuestión son

A = (aij ), B = (bij )

matrices pertenecientes a Mnm (K).


22 I Espacios Vectoriales y Aplicaciones Lineales

Proposición I.5.2.- Sea C = (cij ) la matriz de f + g respecto a las mismas bases en cuestión, entonces

C =A+B
cij = aij + bij .

Sea D la matriz de αf respecto a las bases {vi } y {wj }, entonces

D = αA
dij = αdij

Demostración.- Ejercicio.
Corolario I.5.3.- Se tiene

Hom(V, W ) → Mn,m (K)


f 7→ Mf respecto a las bases {vi } y {wj },

es un isomorfismo de espacios vectoriales, con la adición y la multiplicación por escalares.


El siguiente paso es determinar la matriz de la composición de aplicaciones lineales. Sean:
U espacio vectorial con {u1 , . . . , ul } base;
V espacio vectorial con {v1 , . . . , vm } base;
W espacio vectorial con {w1 , . . . , wn } base;
los homomorfismos:
f :U →V g : V → W.
¿Cual es la matriz de g ◦ f : U → W respecto a las bases {ui } y {wj }.?
Sean:
A = (aik ) la matriz de f respecto a las bases {ui } y {vk };
B = (bkj ) la matriz de g respecto a las bases {vk } y {wj };
C = (cij ) la matriz de g ◦ f respecto a las bases {ui } y {wj }.
Por lo tanto n
X
g ◦ f (ui ) = cji wj
i=1
||
m
! m
X X
g(f (ui )) = g aki vk = aki g(vk )
k=1 k=1
  !
m
X Xn n
X m
X
= aki  bjk wj  = bjk aki wj ,
k=1 j=1 j=1 k=1
m
X
=⇒ cji = bjk aki .
k=1

Por consiguiente C es la matriz obtenida de multiplicar BA, es decir

C = BA.

Por el uso frecuente de algunas matrices, vale la pena citarlas:


 
1 0 ··· 0
0 1 0 
I = Ir = 
 ..  ∈ Mr,r (K) = Mr (K)

.
0 1
I.5 Matriz de una Aplicación Lineal 23

Se tiene Ir A = A, ∀A ∈ Mr,d (K); y BIr = B, ∀B ∈ Ms,r (K). Ir se llama la matriz identidad.


0 ∈ Mp,q (K) es la matriz cuyos coeficientes son nulos.
Corolario I.5.4.- Mn,n (K) con la adición y la multiplicación es un anillo (no conmutativo si n ≥ 2). Además
la aplicación (dim V = n):
End(V ) → Mn,n (K)
f 7→ Mf
es un isomorfismo de anillos.
Para el espacio V = Kn con la base canónica, se dispone de un isomorfismo canónico

Gl(Kn ) −→ Gl(n, K) = {A ∈ Mn,n (K)|A es inversible}



End(Kn ) → Mn,n (K)
f 7→ Mf matriz de f respecto a la base canónica de V.

Demostración.- Ejercicio.
Remarca.- Sea f : V → W lineal, A = (aij ) la matriz de f respecto a las bases {vi } y {wj }. Sea v ∈ V ,
¿Como calcular f(v)?
X n
Se escribe v = , entonces
i=1

!  
m
X m
X n
X n
X m
X
f (v) = αj f (vj ) = αj aij wi =  aij αj  wi ,
i=1 j=1 i=1 i=1 j=1

lo que en notación de componentes se traduce a


        
β1 a11 a1m a11 ··· a1m α1
 ..  . . . ..   .. 
 .  = α1  ..  + · · · + αm  ..  =  .. . . .
βn an1 anm an1 · · · anm αm
24 I Espacios Vectoriales y Aplicaciones Lineales

I.6 Cambio de Base

Sean:
V espacio vectorial, {v1 , . . . , vm }, {v1′ , . . . , vm

} dos bases de V ;
W espacio vectorial, {w1 , . . . , wn }, {w1 , . . . , wn′ } dos bases de W ;

Se tiene ∼
Hom(V, W ) −→ Mn,m (K)
f 7→ A(f ): matriz de f respecto a {vi } y {wj },


Hom(V, W ) −→ Mn,m (K)
f 7→ A′ (f ): matriz de f respecto a {vi′ } y {wj′ },

Programa.- Explicitar la aplicación


Mn,m (K) → Mn,m (K)
A(f ) 7→ A′ (f ).

Noción de Matriz de Pasaje


Sean {v1 , . . . , vm } y {v1′ , . . . , vm

} dos bases de V . Se escribe
m
X
vj = mij vi′ , M = (mij ) ∈ Mm,m (K),
i=1

se llama la matriz de pasaje de {vi } a {vi′ }.


M es también la matriz de la aplicación identidad de V respecto a {vi } en la fuente y {vi′ } en el destino.
De la misma manera se define N = (nij ) ∈ Mn,n por

n
X
wj = nij wi′ ,
i=1

la matriz de pasaje de {wj } a {wj′ }.


Proposición I.6.1.- Sean {vi }, {vi′ } y {vi′′ }, tres bases de V espacio vectorial. Se denota
M = (mij ) la matriz de pasaje de {vi } a {vi′ },
M ′ = (m′ij ) la matriz de pasaje de {vi′ } a {vi′′ }.
Entonces M ′ M es la matriz de pasaje de {vi } a {vi′′ }.
Demostración.- Se tiene:
m
X m
X
vj = mkj vk′ , vk′ = m′ik vi′′ ,
k=1 i=1

obteniendo ası́ !
m
X m
X
vj = mkj m′ik vi′′ ,
k=1 i=1

de donde !
m
X m
X
vj = m′ik mkj vi ,
i=1 k=1
| {z }
m′′ij
I.6 Cambio de Base 25

por lo tanto M ′′ = M ′ M . 
Proposición I.6.2.- Sea A ∈ Mm,m (K), si existe B ∈ Mm,m (K) tal que AB = I o BA = I, entonces A es
una matriz inversible de inversa B.
Demostración.- Ejercicio.
Proposición I.6.3.- Para las matrices de pasaje se tiene:
a) Las matrices de pasaje son inversibles.
b) N y M como antes, se tiene
A(f ) = N −1 A′ (f )M.

Demostración.-a) Se utiliza la proposición I.6.1 con M ′ la matriz de pasaje de {vi′ } a {vi }. obteniendo de
esta manera M ′ M = I, por la proposición I.6.2 se tiene que M es inversible.
b) recordemos:
X m
vj = mkj vk′ ,
k=1
n
X
wj′ = ñij wi con (ñij ) = N −1 ,
i=1
n
X
f (vj ) = aij wi con A(f ) = (aij ),
i=1
Xn
f (vj′ ) = a′ij wi con A′ (f ) = (a′ij ).
i=1

Para mostrar el punto b), es suficiente mostrar que

aij = (N −1 A′ M )ij

Se tiene: !
X X
f (vj ) = f mkj vk′ = mkj f (vk′ )
k k
! !
X X X X
= mkj a′lk wl′ = a′lk mkj wl′
k l l k
| {z }
(AM )lj = clj
! !
X X X X
= clj ñil wi = ñil clj wi .
l i i i
| {z }
(N −1 A′ M )ij
Por lo tanto aij = (N −1 A′ M )ij . 
Corolario I.6.4.- Sea V espacio vectorial con las bases {v1 , . . . , vm } y Para f ∈ End(V ), ′
{v1′ , . . . , vm }.
se denota A(f ), respectivamente A′ (f ), la matriz de f en la base {v1 , . . . , vm }, respectivamente en la base
{v1′ , . . . , vm

}. Se denota M la matriz de pasaje de {vi } a {vi′ }. Entonces

A(f ) = M −1 A′ (f )M.

Aplicación al Rango de una Matriz


Definición I.6.5.- Sea f → W lineal. Se llama rango de f la dimensión de Im(f ).
26 I Espacios Vectoriales y Aplicaciones Lineales

Proposición I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1 , . . . , vm } de V y una
base {w1 , . . . , wn } de W tales que

f (vi ) = wi para i = 1, . . . , r;
f (vi ) = 0 para i = r + 1, . . . , m.

Dicho de otra forma, la matriz de f respecto a {vi } y {wj } es de la forma


 
Ir 0
.
0 0

Demostración.- La fórmula de dimensión para aplicaciones lineales da

dim
| {z V} = |dim {z
Im(f ) + dim ker(f ) .
} | {z }
m r m−r

Se elije una base {vr+1 , . . . , vm } base de ker(f ), se completa en


{v1 , . . . , vr , vr+1 , . . . , vm } base de V . Se toma como base de Im(f ) {f (v1 ), . . . , f (vr )} y luego se completa
esta base en una base de W . 
Corolario I.6.7.- Sea B ∈ Mn,m (K), entonces existe dos matrices N ∈ Gl(n, K) y M ∈ Gl(m, K), tales que
 
−1 Ir 0
N BM = .
0 0

Demostración.- Se aplica la proposición I.6.6 a b : Km → Kn cuya matriz respecto a las bases canónicas
es B.
Por la proposició precedente, existen {v1 , . . . , vm } y {w1 , . . . , wn } bases de Km y Kn respecto a las cuales
la matriz asociada a b es  
Ir 0
B′ = .
0 0
Sea M la matriz de pasaje de {vi } a la base canónica en Km ,
N la matriz de pasaje de {wi } a la base canónica en Kn , entonces por la proposición I.6.3, se tiene B ′ =
N −1 BM 
Definición I.6.8.- Sea B ∈ Mn,m (K)
 
b11 ... b1m
. .. 
B =  .. .
bn1 · · · bnm

Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn


El rango fila (columna) de B es la dimensión del subespacio de Km (Kn ) engendrado por las filas (colum-
nas) de B.
El rango columna de B es igual al rango de la aplicación b : Km → Kn cuya matriz respecto a las
bases canónicas es B. En efecto, se tiene que b(ei ) es la i-sima columna de la matriz B, la imagen de b esta
engendrada por b(e1 ), . . . , b(em ).
Transpuesta de una Matriz
Sea B ∈ Mn,m (K). Se llama transpuesta deB y se la denota B t la matriz de Mm,n (K) definida por

(B t )ij = Bji .
I.6 Cambio de Base 27

De esta forma el rango fila de B es igual al rango columna de B t . En efecto, el rango fila de B es igual al
rango de la aplicación bt : Kn → Km , cuya matriz respecto a las bases canónicas es B t .
Proposición I.6.9.- La transpuesta verifica las siguientes propiedades:
i) (B t )t = B.
ii (AB)t = B t At .
iii A ∈ Gl(n, K) ⇒ At ∈ Gl(n, K) y (At )−1 = (A−1 )t .
Demostración.- i) y ii) ejercicio. Para el punto iii), se tiene

At (A−1 )t = (A−1 A)t = I t = I ⇒ (At )−1 = (A−1 )t . 

Proposición I.6.10.- El rango fila de B es igual al rango columna de B.


Demostración.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N ∈ Gl(n, K) y M ∈ Gl(m, K)
tales que  
−1 Ir 0
B=N M.
0 0
Se tiene aplicando las propiedades de la matriz transpuesta
 
Ir 0
Bt = M t (M −1 )t .
0 0

Se interpreta las matrices como aplicaciones lineales (respecto a las bases canónicas);

Bt bt : Kn → Km
t
M mt : Km → Km
(N t )−1 (nt )−1 : Kn → Km
 
Ir 0
ir : Kn → Km
0 0
(x1 , . . . , xn ) 7→ (x1 , . . . , xr , 0, . . . , 0).

Se tiene bt = mt ir (nt )−1 , ver el diagrama

bt
Kn −→ Km
(nt)−1 ↓ ↑ mt
ir
Kn −→ Km

por lo tanto se tiene que rango(bt ) = rango(ir ) = r. 


Definición I.6.11.- Sea B ∈ Mn,m (K), el rango de de B es

rang B = rango columna de B = rango fila deB.


28 I Espacios Vectoriales y Aplicaciones Lineales

I.7 Operaciones Elementales sobre las Matrices

Justificación.- Sea

 a11 ξ1
 + a12 ξ2 + ··· + a1m ξm = b1
.. ..
 . .

an1 ξ1 + an2 ξ2 + · · · + anm ξm = bn
Se introduce  
ξ1 !
 ..  b1
A = (aij ) ∈ Mn,m ,  .  ∈ Km = Mm,1 (K), b= .. ∈ Kn .
.b
n
ξm
Introduciendo la notación matricial, el sistema de ecuaciones, se convierte en

Aξ = b.
 
Ir 0
Se observa que si A = , se encuentra la solución a la vista.
0 0
En el parágrafo precedente, se mostró que existen M y N inversibles tales que
 
Ir 0
A = N −1 M;
0 0

por consiguiente se tiene  


Ir 0
Aξ = N −1 M ξ = b.
0 0
Planteando b′ = N b y ζ = M ξ, se obtiene el sistema
 
Ir 0
ζ = b′ .
0 0

Por lo tanto, conociendo N se deduce ζ y conociendo M −1 se deduce ξ.


Programa.- Explicitar un procedimiento o algoritmo que permita calcular ξ.
Se denota Sn el conjunto de las biyecciones o permutaciones de {1, 2, . . . , n}. Es un grupo para la
composición de aplicaciones llamado grupo simétrico. Hay n! elementos en Sn .
Una permutación σ de {1, 2, . . . , n} se representa mediante
 
1 2 3 ··· n
σ(1) σ(2) σ(3) · · · σ(n)
I.7 Operaciones Elementales sobre las Matrices 29

Ejemplo
1.- Las 6 permutaciones de S3 tienen las representaciones siguientes:
     
1 2 3 1 2 3 1 2 3
id =
1 2 3 1 3 2 2 1 3
     
1 2 3 1 2 3 1 2 3
3 2 1 3 1 2 2 3 1

Para evitar una escritura pesada, en lugar denotar σ1 ◦ σ2 la composición de permutaciones, se utilizará
la notación σ1 σ2 .
A σ ∈ Sm , se asocia una aplicación lineal mediante

ρ(σ) : Km → Km
ei 7→ eσ(i)

donde {e1 , . . . , en } es la base canónica de Km . La matriz M (σ) de ρ(σ) respecto a la base canónica es de
la forma, M (σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no
nulo es 1. Esta matriz se llama matriz de permutación.
Proposición I.7.1.- La aplicación
ρ
Sm → Gl(Km )
σ 7→ ρ(σ)
es un homomorfismo de grupo, representación lineal de Sm .
La aplicación
Sm → Gl(m, K)
σ 7→ M (σ)
es un homorfismo de grupos, representación matricial de Sm .
Demostración.- Ejercicio.
Una vez conocidas las matrices de permutación, se debe determinar como actua las matrices de per-
mutación sobre una matriz. Esto está dado en la:
Proposición I.7.2.- a) Multiplicar a la derecha B por M (σ) es equivalente a efectuar las correspondientes
permutaciones de las columnas de B.
b) Multiplicar por la izquierda B por M (σ) es equivalenTe a efectuar las correspondientes permutaciones de
las filas de B.
Demostración.- Ejercicio
Matrices Diagonales
Una matriz A diagonal es de la forma
 
a11 0
 0 a22 
A=
 ..  = diag(a11 , a22 , . . . , amm )

.
0 amm

Proposición I.7.3.- a) Multiplicar B por la derecha con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar
la i-sima columna de B por di , para i = 1, . . . , m.
b) Multiplicar B por la izquierda con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima fila de B por
di , para i = 1, . . . , m.
Demostración.- Ejercicio.

Resultado Principal
30 I Espacios Vectoriales y Aplicaciones Lineales

Sea B ∈ Mn,m (K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N −1 ∈
Gl(n, K) y M ∈ Gl(m, K) tales que  
Ir 0
N −1 BM = .
0 0
Si B = 0, no hay nada que hacer.
Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente:
i) Multiplicando a la izquierda y derecha por matrices de permutación, se lleva este coeficiente al lugar
(1, 1).
ii) Multiplicando por diag(b−1
11 , 1, . . . , 1) se va al caso b11 = 1.
iii) Luego
    
1 0 ··· 0 1 b12 · · · b1m 1 b12 · · · b1m
 −b21 1 0   b21  0 
 . ..  . = . 
 .. .   .
.   .
. B ′ 
−bn1 0 1 bn1 · · · bnm 0
    
1 b12 · · · b1m 1 −b12 · · · −b1m 1 0 ··· 0
0  0 1 0  0 
 .  . .. = . .
 .. B′   .. .   .. B ′′ 
0 0 0 1 0

Ejemplo
1.- Consideremos la matriz  
0 1 4
B= .
1 1 3
Se tiene    
0 1 1 1 3
B= = B (1) ,
1 0 0 1 4
 
  1 −1 −3  
1 1 3 0 1 1 0 0
0 = = B (2) ,
0 1 4 0 1 4
0 0 1
 
  1 0 0  
1 0 0   1 0 0
0 1 −4 = .
0 1 4 0 1 0
0 0 1
De donde   
1 −1 −3 1 0 0  
0 1
M = 0 1 0   0 1 −4  y N −1
= .
1 0
0 0 1 0 0 1

Corolario I.7.4.- Una matriz A ∈ Gl(m, K) se escribe como producto de:


i) matrices de permutación;
ii) matrices diagonales inversibles;
iii) matrices del tipo I + Li o I + Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quizás los
lki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quizás los hjk con k > j.
Demostración.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que

I = P AQ,

donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces

A = P −1 Q−1 .

Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para
iii) ejercicio 32 de la práctica. 
I.7 Operaciones Elementales sobre las Matrices 31

Mejora del Resultado


Definimos los siguientes subconjuntos de Gl(m, K):
  
 1 0 
U− =  ∗ ..  ∈ Gl(m, K)
.
 
∗ ∗ 1

matrices triangulares con 1 sobre la diagonal.


  
 b11 ∗ ∗ 
B+  0 ..
 . ∗  ∈ Gl(m, K)
0 bmm

matrices triangulares superiores.


Para σ ∈ Sm se plantea

U− M (σ)B+ = {XM (σ)Y |X ∈ U− , Y ∈ B+ } .

Proposición I.7.5.- Descomposición de Bruhat. Gl(m, K) es la reunión disjunta de subconjuntos U− M (σ)B+ ,


σ ∈ Sm .
Demostración.- i) Sea A ∈ Gl(m, K), se debe mostrar que existe X ∈ U− , Y ∈ B+ y σ ∈ Sm tales que

A = XM (σ)Y.

La demostración se la hará por inducción sobre m. El caso m = 1 es evidente. Supongamos cierto para
m − 1, con m > 1.
Sea A ∈ Gl(m, K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:
 
  0
0
 A12 
 A12   
   0 
 0  −1  
 a  diag(ai1 , 1, . . . , 1) =  1 ;
 i1   ã 
 A22   i+1,1 A22 
 
am1
| {z } ãm1
A
  
1 0 0
 ..
.  A12   1 −ai2 · · · −aim

  
  0  1 
 1   
 ..  1 ai2 · · · aim  .. 
 −ãi+1,1 .   ã  .
   i+1,1 
  A22  1
−ãm,1 1 ãm1
 
0 C11 C12
= 1 0 0 .
0 C21 C22

Por hipótesis de inducción existen U ∈ Gl(m−1, K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1, K)
triangular superior, τ ∈ Sm−1 , tales que
 
C11 C22
= U M (σ)B
C21 C22
32 I Espacios Vectoriales y Aplicaciones Lineales

o todavı́a  
−1 C11 C22
U B −1 = M (τ )
C21 C22
     
U11 0 C11 C22 B11 B21 T11 T12
= .
U21 U22 C21 C22 0 B22 T21 T22
Por consiguiente  
0 C11 C12
A = Ũ  1 0 0  B̃
0 C21 C22
   
U11 0 0 0 C11 C12 1 0 0
 0 1 0 1 0 0   0 B11 B12 
U21 0 U22 0 C21 C22 0 0 B22
 
0 T11 T22
= 1 0 0 .
0 T21 T22
| {z }
M (σ)

ii) A mostrar que si (U− M (σ)B+ ) ∩ (U− M (τ )B+ ) ⇒ σ = τ , en clases. 


38 I Espacios Vectoriales y Aplicaciones Lineales

I.8 Signo de las Permutaciones

Recordemos que
 biy.
Sm = σ : {1, . . . , m} −→ {1, . . . , m}}
Sean a, b ∈ {1, . . . , m}, a 6= 0, la permutación definida por

a 7→ b;
b 7→ a;
i 7→ i, i 6= a y i 6= b

se llama transposición y se denota (a, b). Por consiguiente,


 
1 2 ··· a ··· b ··· m
(a, b) = .
1 2 ··· b ··· a ··· m

Proposición I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm , existen
τ1 , τ2 , . . . , τp transposiciones, tales que
σ = τ1 τ2 · · · τp .

Demostración.- Por inducción sobre m.


Para m = 2 el enunciado es cierto.
Se supone cierto el enunciado para m − 1. Demostremos que se cumple para m.
Sea σ ∈ Sm . Si σ(m) = m, se tiene que la restricción de σ sobre {1, . . . , m − 1} es una permutación que
pertenece a Sm−1 y por hipótesis de inducción σ es el producto de transposiciones.
Si σ(m) 6= m, se considera σ ′ = (σ(m), m)σ. Por construcción σ ′ (m) = (σ(m), m)σ(m)
= m, de donde por el argumento del primer caso σ ′ pertenece a Sm−1 y es producto de transposiciones,
digamos σ ′ = τ1 τ2 · · · τp . Por lo tanto

σ = (m, σ(m))τ1τ2 · · · τp . 

Ejemplos
1.-  
1 2 ··· m − 1 m
= (1, m)(1, m − 1) · · · (1, 3)(1, 2).
2 3 ··· m 1
2.- La escritura de σ como producto de transposiciones no es única.

id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), (2, 3) = (1, 2)(1, 3)(1, 2).

Definición de signo de una permutación


 f
Introducimos P = Rm :−→ R| f polinomial .
f : Rm → R es polinomial si
X
f (x1 , . . . , xm ) = ai1 ,i2 ,...,im xi11 xi22 · · · ximm .
finita

P es un espacio vectorial sobre R y también es un anillo conmutativo para la adición y multiplicación de


polinomios.
I.8 Signo de las Permutaciones 39

A σ ∈ Sm se asocia la aplicación

ϕ(σ) : P −→ P
X X
ai1 ,i2 ,...,im xi11 xi22 · · · ximm 7→ ai1 ,i2 ,...,im xiσ(1)
1
xiσ(2)
2
· · · xiσ(m)
m

finita finita

Ejemplo
3.- Consideremos  
1 2 3 4 3
σ= , f (x1 , x2 , x3 , x4 ) = x21 + x1 x3 + x12
4 .
2 3 4 1 2
Entonces
3 3
ϕ(σ)(f (x1 , x2 , x3 , x4 )) = x2σ(1) + xσ(1) xσ(3) + x12 2 12
σ(4) = x2 + x2 x4 + x1 .
2 2

Proposición I.8.2.- ϕ(σ) es un automorfismo de (espacios vectoriales y de anillo), es decir:


i) ϕ(σ)(f + g) = ϕ(σ)(f ) + ϕ(σ)(g),
ii) ϕ(σ)(αf ) = αϕ(σ)(f ),
iii) ϕ(σ)(f · g) = ϕ(σ)(f ) · ϕ(σ)(g).
Además ϕ(σ1 σ2 ) = ϕ(σ1 ) ◦ ϕ(σ2 ).
Demostración.- Ejercicio.
Ejemplo
4.- Los polinomios simétricos elementales a m variables son:

f1 (x1 , . . . , xm ) = x1 + x2 + · · · + xm ;
X
f2 (x1 , . . . , xm ) = xi xj = x1 x2 + · · · + xm−1 xm ;
i<j
X
f3 (x1 , . . . , xm ) = x1 xj xk ;
i<j<k
..
.
fm (x1 , . . . , xm ) = x1 x2 · · · xm .

Ejercicio.- Mostrar que ϕ(σ)(fi ) = fi para i = 1, . . . , m y σ ∈ Sm .


Definamos el polinomio d ∈ P, como
Y
d= (xi − xj ) = (x1 − x2 ) · · · (x1 − xm ) · · · (xm−1 − xm ).
1≤i<j≤m

Si σ ∈ Sm , entonces ϕ(σ)(d) = ±d. Se plantea


(
1 si ϕ(σ)(d) = d,
sg(σ) = signo(σ) =
−1 si ϕ(σ)(d) = −d.

Ejemplo
5.- En el espacio de las funciones polinomiales a 4 variables tenemos

d = (x1 − x2 )(x1 − x3 )(x1 − x4 )(x2 − x3 )(x2 − x4 )(x3 − x4 ).

Tomando la permutación del ejemplo 3, se tiene

ϕ(σ)(d) = (x2 − x3 )(x2 − x4 )(x2 − x1 )(x3 − x1 )(x3 − x4 )(x4 − x1 ) = −d.


40 I Espacios Vectoriales y Aplicaciones Lineales

Proposición I.8.3.- Se tiene que


sg
Sm −→ {±1}
es un homomorfismo de grupos.
Demostración.-En efecto:

ϕ(σ1 σ2 )(d) = (ϕ(σ1 ) ◦ ϕ(σ2 ))(d) = ϕ(σ1 )(ϕ(σ2 ))(d)) =


ϕ(σ1 )(sg(σ2 )d) = sg(σ2 )ϕ(σ1 )(d) = sg(σ2 ) sg(σ1 ),

Por consiguiente
sg(σ1 σ2 ) = sg(σ1 )sg(σ2 ). 

Proposición I.8.4.- Sea τ una transposicion, entonces sg(τ ) = −1.


Demostracion.- Sea τ = (a, b) con a < b, se tiene
Y
d= (xi − xj )
i<j
Y Y Y Y Y
= (xa − xb ) (xi − xj ) (xi − xa ) (xa − xj ) (xi − xb ) (xb − xj )
i<j i<j a<j i<b j>b
i6=a,b j6=b i6=a
j6=a,b
Y Y
= (xa − xb ) [(xi − xa )(xi − xb )] [(xa − xi )(xi − xb )]
i<a a<i<b
Y Y
[(xa − xi )(xb − xi )] (xi − xj );
b<i i<j
i6=a,b
j6=a,b

Y Y
ϕ(σ)(d) = (xb − xa ) [(xi − xb )(xi − xa )] [(xb − xi )(xi − xa )]
i<a a<i<b
Y Y
[(xb − xi )(xa − xi )] (xi − xj );
b<i i<j
i6=a,b
j6=a,b

ϕ(σ)(d) = −d. 

Corolario I.8.5.- i) Si σ = τ1 · · · τp , con τi transposicion, entonces

sg(σ) = (−1)p .

ii) Sea σ = τ1 · · · τp = τ1′ · · · τp′ ′ donde τi y τi′ transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p , entonces
p y p′ tienen la misma paridad.

Cálculo Práctico de sg(σ)


Sea σ ∈ Sm , la permutacion cuyo representación es

0 1 2 i j m 1
B CA
(1) j (i) i (j ) m (m)

Para determinar el signo de la permutación, se debe contar el número de intersecciones de los segmentos que
unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este número se lo denota por
j(σ).
I.8 Signo de las Permutaciones 41

Proposición I.8.6.- j(σ) es


j(σ) = #{(i, j)| i < j y σ(i) > σ(j)}
número de inversiones.
Demostración Mostraremos que g(i) > g(j) ⇐⇒ hay intersección de los segmentos de extremidades σ(i)
y σ(j). En efecto  
σ(i) i σ(j) j
 .
σ(i) σ(j)
Hay interseccion, el diagrama indicará que σ(i) > σ(j),
 
σ(j) i σ(i) j
 . 
σ(i) σ(j)

Proposición I.8.7.- Se tiene


sg(d) = (−1)j(σ) .

Demostración Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la acción de ϕ(σ) sobre los factores de d, por
consiguiente

un factor de d si σ(i) < σ(j),
(xi − xj ) 7→ (xσ(i) − xσ(j) ) =
(−1) · un factor de d si σ(i) > σ(j).

42 I Espacios Vectoriales y Aplicaciones Lineales

I.9 Formas Multilineales Alternadas

Definición I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicación

| ×V ×
F :V {z· · · × V} → W
m veces

es mulitilineal, si

F (v1 , v2 , . . . , α′ vi′ + α′′ vi′′ , . . . , vm ) = α′ F (v1 , . . . , vi′ , . . . , vm ) + α′′ F (v1 , . . . , vi′′ , . . . , vm ),

∀i = 1, . . . , m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente.
Ejemplos
1.- La siguiente aplicación es m-lineal
K × ··· × K → K
| {z }
m
m
Y
(α1 , . . . , αm ) 7→ αi .
i=1

2.- Sea A ∈ Mn,n (K) una matriz, la aplicación definida por

K×K→K
  
a11 ··· a1n y1
. ..   .. 
(x, y) 7→ xt Ay = ( x1 · · · xn )  .. .  . 
an1 · · · ann yn

es bilineal. En particular
R3 × R3 → R
(x, y) 7→ xt Iy = x1 y1 + x2 y2 + x3 y3

producto escalar euclidiano en R3 .


3.- El producto vectorial o cruz en R3 , definido por

R3 × R3 → R
     
x1 y1 x2 y3 − x3 y3
 x2  ,  y2  7→  x3 y1 − x1 y3 
x3 y3 x1 y2 − x2 y1

es bilineal.
4.- La aplicación
Mn,n (K) × Mn,n (K) × Mn,n (K) → Mn,n (K)
(A, B, C) 7→ ABC
es trilineal.
5.- La aplicación
End(V ) × End(V ) → End(V )
(f, g) 7→ f ◦ g − g ◦ f
es bilineal.
I.9 Formas Multilineales Alternadas 43

Definición I.9.2.- Sea F : V × V × · · · × V → W multilineal. Se dice que F es multilineal alternada, si

F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0;

es decir, del momento en que existan vi = vj con i 6= j. F es multilineal simétrica, si

F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j.

F es multilineal antisimétrica, si

F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j.

Ejemplo
6.- La aplicación multilineal del ejemplo 1) es simétrica si K es un cuerpo conmutativo.
Definición I.9.3.- Se dice que un cuerpo K es de caracterı́stica 6= 2 si 1 6= −1 en K.
Ejemplos
7.- Los cuerpos Q, R y C son de caracterı́stica 6= 2.
8.- El cuerpo F2 es de caracterı́stica = 2.
Proposición I.9.4.- Sea F : V × · · · × V → W multilineal.
i) F es alternada, entonces F es antisimétrica.
ii) Si la caracterı́stica de K 6= 2, entonces F antisimétrica es alternada.
Demostración.- i) Supongamos F alternada. Se tiene

0 = F (v1 , . . . , vi + vj , . . . , vi + vj , . . . vn ) =
F (v1 , . . . , vi , . . . , vj , . . . , vn ) + F (v1 , . . . , vj , . . . , vi , . . . , vn ),

por consiguiente F es antisimétrica.


ii) Supongamos F antisimétrica. Se tiene

F (v1 , . . . , vi , . . . , vi , . . . , vn ) = −F (v1 , . . . , vi , . . . , vi , . . . , vn )

Por lo tanto
(1 + 1)F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0,
F es alternada. 
Proposición I.9.5.- Sea F : V × · · · × V → W multilineal alternada. Entonces
i) F (vσ(1) , . . . , vσ(n) ) = sg(σ)F (v1 , . . . , vn ), donde vi ∈ V y σ ∈ Sn .
ii) F (v1 , . . . , vi + αvj , . . . , vn ) = F (v1 , . . . , vi , . . . , vn ).
iii) Si v1 , . . . , vn son linealmente dependientes, entonces F (v1 , . . . , vn ) = 0.
Demostración.- i) σ = τ1 · τp con τi transposicion. Como F es alternada, F es antisimétrica. De donde

F (vτ (1) , . . . , vτ (n) ) = −F (v1 , . . . , vn ).

Por consiguiente, por antisimetrı́a se obtiene i).


ii) Verificación inmediata.
iii) Si es necesario efectuar una transposición, se puede suponer que
n
X
v1 = αi vi ,
i=2
44 I Espacios Vectoriales y Aplicaciones Lineales

de donde
n
X n
X
F (v1 , . . . , vn ) = F ( αi vi , v2 , . . . , vn ) = αi F (vi , v2 , . . . , vn ) = 0. 
i=2 i=2

Se denota An = {σ ∈ Sm |sg = 1}, llamado grupo alternado de orden n.


Proposición I.9.6.- Se tiene [
Sm = Am Am τ, (unión disjunta)
·

donde τ es una transposición.


Demostración.- Sea σ ∈ Sm , si sg(σ) = 1, entonces σ ∈ Am .
Sino, sg(σ) = −1, se tiene (στ )τ = σ y στ ∈ Am .
Veamos que la unión es disjunta. En efecto, supongamos que existe un elemento σ ∈ Am ∩ Am τ , se tendrı́a
que sg(σ) = 1 y sg(σ) = −1, lo que es absurdo. 
Teorema I.9.7.- Sea F : V × V × · · · × V → W multilineal alternada, con dim V = m. Sea {e1 , e2 , . . . , em }
| {z }
m veces
una base de V . Sean v1 , . . . , vm elementos de V , que pueden escribirse como
m
X
vj = aij ei .
i=1

Entonces !
X
F (v1 , . . . , vm ) = sg(σ)aσ(1),1 aσ(2),2 · · · aσ(m),m F (e1 , e2 , . . . , em ). (I.9.1)
σ∈Sm

Reciprocamente la fórmula (I.9.1) define F como aplicación multilineal alternada.


Demostración.- Para facilitar la demostración, utilizemos la notación
m
X
vj = aij ,j eij .
ij =1

Por consiguiente, se tiene


X X X
F (v1 , v2 , . . . , vm ) = F ( ai1 ,1 ei1 , ai2 ,2 ei2 , . . . , aim ,m eim
m
X
= ai1 ,1 ai2 ,2 · · · aim ,m F (ei1 , ei2 , . . . , eim ) .
| {z }
i1 ,...,im =1
=0 si ik =ij con k6=j

Por lo tanto, en esta suma es suficiente considerar las familias {i1 , . . . , im } con ik 6 il . De esta manera
 
1 2 ··· m
i1 i2 · · · im

es una permutación σ de {1, 2, . . . , m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado.
| ×V ×
Sea F : V {z· · · × V} → W definida por (I.9.1)
m veces
a) F es multilineal; en efecto, sean
m
X m
X
vj′ a′i,j ei , vj′′ a′′i,j ei ,
i=1 i=1
I.9 Formas Multilineales Alternadas 45

se tiene m
X
α′ vj′ + α′′ vj′′ = (a′i,j + a′′i,j )ej .
i=1

Por lo tanto

F (v1 , . . . , α′ vj′ + α′′ vj′′ , . . . , vm )


!
X
= sg(σ)aσ(1),1 · · · (α′ a′σ(j),j + α′′ a′′σ(j),j ) · · · aσ(m),m F (e1 , . . . , em )
σ∈Sm
!
X

=α sg(σ)aσ(1),1 · · · a′σ(j),j · · · aσ(m),m F (e1 , . . . , em )
σ∈Sm
!
X
+α′′ sg(σ)aσ(1),1 · · · a′′σ(j),j · · · aσ(m),m F (e1 , . . . , em )
σ∈Sm

= α F (v1 , . . . , vj′ , . . . , vm ) + α′′ F (v1 , . . . , vj′′ , . . . , vm ).


m
X m
X
Mostremos que F es alternada. Sean vi = vj = ak,i ek = ak,j ek . Aplicando la fórmula (I.9.1), se tiene
k=1 k=1
!
X
F (v1 , . . . , vi , . . . , vj , . . . , vm ) = sg(σ)aσ(1),1 · · · aσ(m),m F (e1 , . . . , em ).
σ∈Sm

Utilizando la proposición I.9.6 con τ = (i, j), podemos escribir


! !
X X
F (v1 , . . . , vi , . . . , vj , . . . , vm ) = ♣ F (e1 , . . . , em ) + ( ♣ F (e1 , . . . , em )
σ∈Am σ∈Am τ
!
X
= aσ(1),1 · · · aσ(i),i · · · aσ(j),j · · · aσ(m),m F (e1 , . . . , em )
σ∈Am
!
X
− aστ (1),1 · · · aστ (i),i · · · aστ (j),j · · · aστ (m)m F (e1 , . . . , em ),
σ∈Am
= 0.


Proposición I.9.8.- Se escribe Altm (V, W ) el conjunto de las aplicaciones multilineales V × V × · · · × V →


| {z }
m veces
W . Entonces Altm (V, W ) es un K-espacio vectorial para

(F + G)(v1 , . . . , vm ) = F (v1 , . . . , vm ) + G(v1 , . . . , vm )


(αF )(v1 , . . . , vm ) = α(F (v1 , . . . , vm ))

con F, G ∈ Altm (V, W ) y α ∈ K.


Demostración.- Ejercicio.
Corolario I.9.9.- Si dim V = m, entonces dim(Altm (V, W )) = dim W .
Demostración.- Por el teorema precedente se tiene

Altm (V, W ) → W
F 7→ F (e1 , e2 , . . . , em )
46 I Espacios Vectoriales y Aplicaciones Lineales

es un isomorfismo de espacios vectoriales. 


Proposición I.9.10.- Sea {x1 , . . . , xm } una familia de elementos V , (dim V = m).
Entonces {x1 , . . . , xm } es una base de V ⇐⇒ F (x1 , . . . , xn ) 6= 0, ∀F 6= 0 ∈ Altm (V, W ).
Demostración.- ⇒ {x1 , . . . , xm } es una base de V y F 6= 0. Entonces existen v1 , . . . , vm ∈ V , tales que
F (v1 , . . . , vm ) 6= 0. Utilizando la fórmula (I.9.1) es necesario que F (x1 , . . . , xn ) 6= 0.
⇐ Se procede por contraposición, sea {x1 , . . . , xm } una familia de V que no es base, entonces {x1 , . . . , xm }
es linealmente dependiente y por la proposición I.9.5 punto iii), se tiene

F (x1 , . . . , xn ) = 0, ∀F ∈ Altm (V, W ). 


I.10 Determinantes 47

I.10 Determinantes

Sea f : V1 → V2 lineal. Entonces f induce una aplicación lineal definida por

f ∗ : Altm (V2 , W ) → Altm (V1 , W )


F 7→ ((v1 , . . . , vm ) 7→ F (f (v1 ), . . . , f (vm )).

Analisemos el caso particular en el que V1 = V2 = V , con dim V = m y W = K. Por consiguiente f ∈ End(V )


induce
f ∗ : Altm (V, K) → Altm (V, K).
Por el teorema del paragrafo precedente, se tiene que dim Altm (V, K) = 1. De esta forma f ∗ es una homotecia
de Altm (V, K). La razón de la homotecia se llama determinante de f ∈ End(V ). Es decir

f ∗ (D) = (det f )D para D ∈ Altm (V, K)


D(f (v1 ), . . . , f (vm )) = (det f )D(v1 , . . . , vm ).

Ejemplo
1.- Sea V = Km , recordamos
ρ(σ) : Km → Km
ei 7→ eσ(i)
Se tiene que det(ρ(σ)) = sg(σ). En efecto

D(ρ(σ)(e1 ), . . . , ρ(σ)(em )) = D(eσ(1) , . . . , eσ(m) ) = sgD(e1 , . . . , em ).

Proposición I.10.1.- Se tiene:


i) det(idV ) = 1.
ii) det(f ◦ g) = det(f ) det(g).
iii) f ∈ End(V ), entonces
f ∈ Gl(V ) ⇐⇒ det(f ) 6= 0.

Demostración.- i) Trivial
ii) Se tiene
(f ◦ g)∗ D(v1 , . . . , vm ) = D(f ◦ g(v1 ), . . . , f ◦ g(vm ))
= D(f (g(v1 )), . . . , f (g(vm )))
(det f )D(g(v1 ), . . . , g(vm ))
(det f )(det g)D(v1 , . . . , vm ).
iii) Si f es inversible, existe f −1 ∈ End(V ), tal que f ◦ f −1 = idV ; por los puntos ii) y i) se tiene

(det f )(det f −1 ) = 1.

⇐ Se supone que det f 6= 0. Se elige una base {e1 , . . . , em } de V . Sea D ∈ Altm (V, K), con D 6= 0; se tiene
D(e1 , . . . , em ) 6= 0. Por otro lado

D(f (e1 ), . . . , f (em )) = (f ∗ D)(e1 , . . . , em )


= (det f )D(e1 , . . . , em ) 6= 0,

de donde {f (e1 ), . . . , f (em )} es una base de V . Por consiguiente f es un isomorfismo.


48 I Espacios Vectoriales y Aplicaciones Lineales

Determinante de una Matriz


Se dispone de un isomorfismo canónico

End(Km ) ←→ Mmm (K)
f 7→ A(f ) matriz de f respecto a las bases canónicas,
ϕ
(Ax ← x) ←− A.

Se plantea
a11 · · · ∗ a1m
.. ..
det A = det(ϕ(A)) = . . .

am1 · · · ∗ amm

Proposición I.10.2.- Para A = (aij ) ∈ Mm,m , se tiene


X
det A = sg(σ)aσ(1),1 · · · aσ(m),m .
σ∈Sm

Demostración.- En efecto; Sean {e1 , . . . , em } la base canónica de Km , D ∈ Altm (Km , K) no nula. Se tiene

det(ϕ(A) D(e1 , . . . , em ) = ϕ(A)∗ D(e1 , . . . , em )


| {z }
det A
= D(ϕ(A)(e1 ), . . . , ϕ(A)em )
X X
= D( ai,1 ei , . . . , ai,m ei )
!
X
= sg(σ)aσ(1),1 · · · aσ(m),m D(e1 , . . . , em )
σ∈Sm

I.10 Determinantes 49

Ejemplos
2.- Para m = 1, se tiene det A = a11 .
3.- Para m = 2, utilizando la proposición precedente obtenemos

a11 a12

a21 a22 = a11 a22 − a21 a12 .

Proposición I.10.3.- Tenemos:


i) det I = 1
ii) det AB = det A det B, donde A, B ∈ Mm,m (K).
iii) A es inversible ⇐⇒ det A 6= 0.
iv) det(αA) = αm det A, si A ∈ Mm,m (K).
v) det A = det At .
Demostración.- Los puntos i), ii) y iii) son consecuencia de la proposición análoga para las aplicaciones
lineales.
iv) Consecuencia de la fórmula de la proposición I.10.2.
Mostremos el punto v). Se tiene

aσ(1),1 · · · aσ(m),m = aσ(1),σ−1 σ(1) · · · aσ(m),σ−1 σ(m)


= a1,σ−1 (1) · · · am,σ−1 (m)
porque el cuerpo K es conmutativo.
De esta manera X
det A = sg(σ)aσ(1),1 · · · aσ(m),m
σ∈Sm
X
= sg(σ)a1,σ−1 (1) · · · am,σ−1 (m)
σ∈Sm
X
= sg(τ )a1,τ (1) · · · am,τ (m)
τ ∈Sm
t
det A ,
t
por que (A )τ (i),i) = ai,τ (i) . 
Para facilitar la formulación de proposiciones y resultados concernientes los determinantes de matrices,
utilizemos la notación
A = ( A1 · · · Am ) ,
donde Ai denota la i-sima columna de la matriz A.
Proposición I.10.4.- Se tiene

i) det ( A1 · · · α′ A′i + α′′ A′′i · · · Am ) =


α′ det ( A1 · · · A′i · · · Am ) + α′′ det ( A1 · · · A′′i · · · Am ) ;

ii) det ( A1 · · · Ai + αAj · · · Aj · · · Am ) =


det ( A1 · · · Ai · · · Aj · · · Am ) ;

iii) det ( Aσ(1) · · · Aσ(m) ) = sg det ( A1 · · · Am ) .

Demostración.- Se considera
m veces
z }| {
K × · · · × Km → K
m

(A1 , . . . , Am ) 7→ det A.
50 I Espacios Vectoriales y Aplicaciones Lineales

Esta aplicación es multilineal, de donde i); la aplicación es alternada, de donde ii) y iii).

Remarca.- Se tiene un enunciado análogo para filas.
Ejemplos
4.- Se considera una matriz de 4 × 4, se calculará su determinante utilizando la fórmula de la proposición
I.10.2 y las propiedades de determinante de la proposición precedente

1 0 0 −1 1 0 0 0

2 3 4 7 2 3 4 9
= .
−3 4 5 9 −3 4 5 6

−4 −5 6 1 −4 −5 6 −3

Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la fórmula deducimos que

1 0 0 −1
3 4 9 3 4 3

2 3 4 7
= 4 5 6 = 3 4 5 2 .
−3 4 5 9
−5 6 −3 −5 6 −1
−4 −5 6 1

Se ha factorizado 3 de la última columna. Luego



3 4 3 3 4 0 3 4 0

3 4 5 2 = 3 4 5 −2 = 6 4 5 −1
−5 6 −1 −5 6 4 −5 6 2

3 4 0 3 4 0
3 4 1 1

= 6 4 5 −1 = −6 3 16 0 = 6
= 6 · 3 · 4 = 216.
3 16 0 4 5 −1 3 16 1 4

5.- Determinante de Vandermonde.



1 a1 a21 · · · am−1
1
Y
1 a2 a22 · · · am−1
3
. = (ai − aj )
.
. i>j

1 am a2m · · · am−1
m

Ejercicio Mostrar este resultado.


m
X
Proposición I.10.5.- Sean vj = aij ei j = 1, . . . , r; r ≤ m elementos de Km . Entonces, {v1 , . . . , vr } son
i=1
linealmente independientes ⇐⇒ existen 1 ≤ i1 < i2 < · · · < ir ≤ m tales que

ai1 ,1 · · · ai1 ,r

.. .. 6= 0.
. .

ai ,1 · · · ai ,r
r r

Demostración.- Caso r = m. La proposición afirma que {v1 , . . . , vm } es una base de Km ⇐⇒ si una


aplicación lineal envı́a una base sobre otra, es un isomorfismo ⇐⇒ la matriz (aij ) es inversible ⇐⇒
det(aij ) 6= 0.
Caso general. Se escribe
 
a11 · · · a1r
.
A =  .. .
am1 · · · amn
I.10 Determinantes 51

{v1 , . . . , vr } linealmente independiente ⇐⇒ rango columna de A es igual a r ⇐⇒ rango fila de A es igual


a r; es decir, el subespacio de Kr engendrado por las filas de A es Kr ⇐⇒ de las filas de A se puede extraer
una base de Kr ⇐⇒ existe una sucesión 1 ≤ i1 < i2 < · · · < ir ≤ m tal que las filas de ı́ndice i1 , . . . , ir
constituyen una base de Kr

ai1 ,1 · · · ai1 ,r

.. 6= 0.
⇐⇒ ... .

ai ,1 · · · ai ,r
r r

Corolario I.10.6.- Sea A ∈ Mn,m (K). Entonces


 

rang(A) = max s existe una submatriz B de A con s filas .
y s columnas tal que det B 6= 0.

Demostración.-Se plantea

r =rang(A),
( )

existe una submatriz B de A con s filas y s columnas
p = max s .

tal que det B 6= 0.

A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar las
columnas, se puede suponer que son las primeras r columnas. La proposición indica que r ≤ p.
Supongamos que existe una submatriz Bp×p de A con det B 6= 0. Si es necesario renumerar (permutar), se
supone  
B ∗
A=
∗ ∗
lo que implica por la proposición precedente que las primeras p columnas son linealmente independientes,
entonces p ≤ r.


52 I Espacios Vectoriales y Aplicaciones Lineales

I.11 Matriz Adjunta

En este paragrafo se formulará un método para calcular la inversa de una matriz inversible.
Sea  
a11 · · · amm
. .
A = (aij ) =  .. ..  ∈ Mm,m (K).
am1 · · · amm
Se plantea  
a11 ··· a1,j−1, a1,j+1 ··· a1m
 .. .. .. .. 
 . . . . 
 
 ai−1,1 ai−1,j−1 ai−1,j+1 ai−1,m 
Aij = 
 ai+1,1
 ∈ Mm−1,m−1 (K).
 ai+1,j−1 ai+1,j+1 ai+1,m 

 . .. .. .. 
 .. . . . 
am1 ··· am,j−1, am,j+1 ··· amm
Aij se obtiene de A suprimiendo la fila i-sima y la columna j-va.
Se define
 
a11 · · · a1,j−1, 0 a1,j+1 ··· a1m
 .. .. .. 
 . . . 
 
 ai−1,1 ai−1,j−1 0 ai−1,j+1 ai−1,m 
 
Sij (A) = 
 0 · · · 0 1 0 ··· 0   ∈ Mm,m (K).
 ai+1,1 a 0 ai+1,j+1 ai+1,m 
 i+1,j−1 
 . .. .. 
 .. . . 
am1 ··· am,j−1, 0 am,j+1 · · · amm

Definición I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por

(Adj (A))ij = (−1)i+j det(Aji ).

Ejemplo
1.- Veamos el caso de m = 2.    
a11 a12 a22 −a12
Adj = .
a21 a22 −a21 a11

Proposición I.11.2.- det Sij (A) = (−1)i+j Aij .


Demostración.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedades
de determinante, vistas en el paragrafo precedente.

α 0 β 0 1 0 1 0 0

det Sij (A) = 0 1 0 = sg(σ) α

0 β = (−1) i−1+j−1
0 α β .
γ | {z }
0 δ (−1)i−1 γ 0 δ 0 γ β


m
X 
0 si i 6= k,
Proposición I.11.3.- aji det(Sjk ) = δik det A donde δik =
1 si i = k.
j=1
I.11 Matriz Adjunta 53

Demostración.- Denotando por Aj la j-va columna de A. Substiyendo la i-sima columna a la k-sima


columna, es decir planteando A′k = Ai , se tiene

δik det A = det ( A1 · · · A′k · · · Ai · · · Am ) (I.11.1)

Por otro lado la i-sima columna, es decir A′k se puede desarrollar como
     
  1 0 0
a1i
 0   1   0
 ...  = a1i  .  + a21  .  + · · · + am1  .  .
 ..   ..   .. 
ami
0 0 1

De esta manera el determinante del lado derecho de (I.11.1), se escribe como



1 0

δik det Aa1i α 0 β +a2i α 1 β + · · · + ami α 0 β .

0 1
| {z } | {z } | {z }
det S1k (A) det S2k (A) det Smk (A)


Teorema I.11.4.- Laplace. Se tiene:


i) Desarrollo del determinante respecto a la i-sima columna.
m
X
det A = aji (−1)i+j det Aji .
j=1

ii) Desarrollo del determinante respecta a la j-sima fila.


m
X
det A = ajk (−1)j+k det Ajk .
k=1

Demostración.- i) Utilizamos la proposicion I.11.3 con i = k y la proposición I.11.2. De esta manera


m
X X
det A = aji det(Sji (A)) = j = 1m (−1)i+j det Aji .
j=1

ii) Se demuestra a partir de i) para At . 


Proposición I.11.5.- Se tiene

A Adj(A) = Adj(A)A = diag(det A, . . . , det A).

Demostración.- Por la proposición I.11.3, se tiene

(Adj(A))kj
m
X m z
X }| {
δik det A = aji det Sjk (A) = (−1)i+k det Ajk aji ,
j=1 j=1

de donde
Adj(A)A = diag(det A, . . . , det A).
54 I Espacios Vectoriales y Aplicaciones Lineales

Se tiene también
Adj(At )At = diag(det At , . . . , det At ),
transponiendo, se obtiene

AAdj(A) = diag(det A, . . . , det A).




Corolario I.11.6.- Si A es inversible, entonces

1
A−1 = Adj(A).
det A

Remarca.- Sea R un subanillo de K, por ejemplo Z ⊂ Q, entonces Mn,m (R) ⊂ Mn,m (K).
Corolario I.11.7.- A ∈ Mm,m (R). Entonces; A es inversible en Mm,m (R), es decir si existe B ∈ Mm,m (R)
con AB = BA = Im , si y solamente si det A es un elemento inversible de R.
En particular A ∈ Mm,m (Z) es inversible ⇐⇒ det A = ±1.
Demostración.- ⇒, Se tiene AB = I, por consiguiente det A det B = 1, lo que implica que det A es
inversible en R.
1
⇐ det A inversible en R, entonces tiene sentido la expresión en R.
det A


Fórmula de Cramer
Sea A ∈ Mm,m (K). El sistema
Ax = b,
tiene una única solución, si y solamente si det A 6= 0. Si este es el caso, se tiene

1
x = A−1 b = Adj(A)b.
det A
Por consiguiente, se obtiene
m
1 X
xi = (Adj(A))ij bj ,
det A j=1

por lo tanto
m
1 X
xi = (−1)i+j det Aji bj
det A j=1

Denotando Ak la k-sima columna de A y utilizando la fórmula de Laplace del cálculo de determinante en la


versión columna, se obtiene

1
xi = det ( A1 · · · Ai−1 b Ai+1 · · · Am ) .
det A
Capı́tulo II
Complemento

II.1 Espacios Vectoriales Cocientes

Sea E un conjunto, una relación x ∼ y entre elementos de E es una relación de equivalencia, si


a) x ∼ x, para todo x ∈ E (reflexividad);
b) x ∼ y ⇒ y ∼ x, (simetrı́a);
c) x ∼ y, y ∼ z ⇒ x ∼ z, (transitividad).
Un conjunto C ⊂ E es una clase de equivalencia si existe x ∈ E tal que

C = {y ∈ E|y ∼ x},

C es la clase de x y se denota x̄.


El conjunto de las clases se llama cociente de E respecto a la relación ∼ y se denota

E/ ∼ .

Por consiguiente, se dispone de una aplicación canónica

π
E −→ E/ ∼
x 7→ x̄

que es sobreyectiva.
Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relación ≡ mod(U ),
definida por
x ≡ y mod(U ) ⇐⇒ x − y ∈ U.

Proposición II.1.1.- ≡ mod(U ) es una relación de equivalencia sobre E.


Demostración.- i) Sea x ∈ V , x − x = 0 ∈ U , entoces x ∼ x.
ii) x ∼ y ⇒ x − y ∈ U , por consiguiente (−1)(x − y) ∈ U , de donde y − x ∈ U , por lo tanto y ∼ x.
iii) La transitividad la dejamos como ejercicio. 

Ejemplo
1.- Consideremos V = R2 y U un subespacio de dimensión 1. En la figura puede verse las clases de
56 II Complemento

equivalencia.


x+U =x

Proposición II.1.2.- Se tiene


x1 ≡ y1 mod(U ) x1 + x2 ≡ y1 + y2 mod(U )
⇒ .
x2 ≡ y2 mod(U ) αx1 ≡ αx1 mod(U )
La adición y la multiplicación por los escalares son compatibles con la relación ≡ mod(U )
Demostración.- Se tiene xi ≡ y1 mod(U ) ⇐⇒ xi − yi ∈ U i = 1, 2. Por lo tanto
(x1 − y1 ) + (x2 − y2 ) ∈ U ⇒ (x1 + x2 ) − (y1 + y2 ) ∈ U,
⇒ x1 + x2 ≡ y1 + y2 mod(U ).
La otra implicación ejercicio. 
Introducimos una adición en V /U = V / ∼, de la manera siguiente
x̄1 + x̄2 = x1 + x2 .
Esta definición tiene sentido, si x̄1 = ȳ1 y x̄2 = ȳ2 , por la proposición II.1.2, se obtiene
x1 + x2 = y1 + y2 .
Se introduce una multiplicación por los elementos de K.
αx̄ = αx.
La proposición indica que esta definición tiene un sentido.
Proposición II.1.3.- El conjunto V /U con estas dos operaciones es un espacio vectorial. Además
π : V → V /U
es lineal.
Demostración.- I. Adición. Se tiene
i) x̄1 + (x̄2 + x̄3 ) = x̄1 + x2 + x3
= x1 + (x2 + x3 )
= (x1 + x2 ) + x3
= x1 + x2 + x̄3
= (x̄1 + x̄2 ) + x̄3 ;
ii) x̄ + ȳ = x + y = y + x + ȳ + x̄;
II.1 Espacios Vectoriales Cocientes 57

iii) el cero de V /U es 0̄;


iv) el opuesto de x̄ es −x.
Se tiene
π(x + y) = x + y = x̄ + ȳ = π(x) + π(x).
II. Multiplicación. Lo mismo que para la adición, ejercicio.

Proposición II.1.4.- Sea f : V → W una aplicación lineal. Sea U un subespacio vectorial de V con
U ⊂ ker(f ). Entonces existe una y una sola aplicación lineal f¯ : V /U → W tal que el diagrama conmuta
f
V −→ W

πց րf¯

V /U

es decir f = f¯ ◦ π.
Demostración.- a) Existencia de f¯. Se plantea

f¯(x̄) = f (x).

Hay que verificar que si x̄ = ȳ, entonces f (x) = f (y). En efecto, x̄ = ȳ, se tiene x − y ∈ U ⊂ ker(f ), por
consiguiente f (x − y) = 0 y por lo tanto f (x) = f (y).
Por construcción f ◦ π = f .
f¯ es lineal, en efecto

f¯(x̄ + ȳ) = f¯(x + y) = f (x + y) = f (x) + f (y) = f¯(x̄) + f¯(ȳ).

De la misma manera se tiene f¯(αx̄) = αf¯(x̄).


b) Unicidad. Supongamos que existen f¯1 y f¯2 tales que

f¯1 ◦ π = f¯2 ◦ π = f,

por lo tanto

f¯1 (x̄) = f (x) = f¯2 (x̄), ∀x̄ ∈ V /U.




Proposición II.1.5.- Si V es de generación finita, entonces V /U lo es también. Además

dim V /U = dim V − dim U.

Demostración.- π : V → V /U es sobreyectiva. Si V es de generación finita, entonces π(V ) es de generación


finita. La fórmula de dimensión para aplicaciones lineales da

dim V = dim V /U + dim U.



II.2 Dual de un Espacio Vectorial 61

II.2 Dual de un Espacio Vectorial

Sea V un espacio vectorial. Una forma lineal sobre V es una aplicación lineal ε : V → K. El conjunto de
las formas lineales sobre V, Hom(V, K), se llama dual de V y se denota V ∗ .
Si V es de dimensión finita, V ∗ lo es también y

dim V = dim V ∗ .

Sea {x1 , . . . , xn } una base de V , esto induce un isomorfismo

ϕ : V ∗ → Kn
ε 7→ (ε(x1 ), . . . , ε(xn )).

Introduciendo las formas ξi ∈ V ∗ por

ξi : V → K
(
0 si i 6= j
xj 7→ δij =
1 si i = j.

Esto da ϕ(ξi ) = (0, . . . , 0, 1, 0, . . . , 0) = ei .


Se sigue que ϕ es un isomorfismo, que {ξ1 , . . . , ξn } es una base de V ∗ . La base {ξ1 , . . . , ξn } se llama la
base de V ∗ dual de {x1 , . . . , xn }.
Proposición II.2.1.- Sea V espacio vectorial de dimensión finita,
i) Sea ε ∈ V ∗ , ε 6= 0, entonces ker(ε) es de dimensión dim(V ) − 1.
ii) Sea U ⊂ V un subespacio de dimensión dim(V ) − 1, entonces existe ε ∈ V ∗ tal que ker(ε) = U . Este ε
no es único, pero si ε′ es otro con la misma propiedad, se tiene

ε′ = αε, α 6= 0.
\
iii) ker(ε) = {0}.
ε∈V ∗
Demostración.- i) Si ε 6= 0, ε : V → K es sobreyectiva y aplicamos la fórmula de dimensión.
ii) Sea {u1 , . . . , un−1 } una base de U , que se completa en {u1 , . . . , un−1 , un } base de V . Se considera la
forma
ε:V →K
ui 7→ 0 si i = 1, . . . , n − 1
un 7→ 1,
que es una forma lineal de núcleo U . La
\ segunda parte de este enunciado, ejercicio.
iii) Se tiene de manera trivial {0} ⊂ ker(ε). Sea v ∈ V , v 6= 0; vamos a mostrar que existe ε ∈ V ∗ tal
ε∈V ∗
que ε(v) 6= 0, es decir que v 6∈ ker ε.
Elegimos una base de la forma {v, v2 , . . . , vn } y se considera

ε:V →K
v 7→ 1
vi 7→ 0 para i = 2, . . . , m


Transpuesta de una Aplicación Lineal


62 II Complemento

Consideremos el diagrama
f
V −→ W
η◦fց ↓η
K
Se obtiene entonces
ft : W ∗ → V ∗
η 7→ η ◦ f
que es lineal y se llama la transpuesta de f . Ası́

f t (η)(v) = η ◦ f (v) para η ∈ W ∗ , v ∈ V.

Ejemplo
1.- Sea V = C ∞ ([0, 1], R) espacio vectorial real de las funciones indefinidamente derivables. Se denota

D : C ∞ ([0, 1], R) → C ∞ ([0, 1], R)


f 7→ f ′ , derivada de f.

Sea g ∈ C ∞ ([0, 1], R), se define

εg : C ∞ ([0, 1], R) → R
Z 1
f 7→ f (t)g(t)dt.
0

Por consiguiente Dt (εg ) = ε ◦ D : V → R. Se tiene


Z 1

t
D (εg )(f ) = varepsilon ◦ D(f ) = εg f = f ′ (t)g(t)dt
0
Z 1
= f (1)g(1) − f (0)g(0) − f (t)g ′ (t)dt
0
= g(1)δ1 (f ) − g(0)δ0 (f ) − εg′ (f ).

donde
δa : C ∞ ([0, 1], R) → R
f 7→ f (a).

Proposición II.2.2.- Sean V y W espacios vectoriales de dimensión finita. Entonces, la aplicación

Hom(V, W ) → Hom(W ∗ , V ∗ )
f 7→ f t

es un isomorfismo.
Demostración.- Veamos que la aplicación f 7→ f t es lineal. Sean f, g ∈ Hom(V, W ), se tiene

(f + g)t (η) = η ◦ (f + g) = η ◦ f + η ◦ g
= f t (η) + g t (η) = (f t + g t )(η).

Lo mismo para (αf )t = αf t .


Utilizando resultados sobre dimensiones, se observa que

dim Hom(V, W ) = dim Hom(W ∗ , V ∗ ).


II.2 Dual de un Espacio Vectorial 63

Por consiguiente, es suficiente mostrar que f 7→ f t es inyectiva. Supongamos que f t = 0, entonces

ft : W ∗ → V ∗
η 7→ 0.

Esto significa que f t (η) = η ◦ f = 0 ∀η ∈ W ∗ , entonces

Im(f ) ⊂ ker(eta) ∀η ∈ W ∗ .

Utilizando el inciso iii) de la proposición II.2.1, se tiene que Im(f ) = {0}, por consiguiente f = 0.

Proposición II.2.3.- Sean f : U → V y g : V → W lineales, entonces

(g ◦ f )t = f t ◦ g t .

En diagrama
f g
U −→ V −→ W
ft gt
U∗ ←− V∗ ←− W ∗ .

Demostración.- Sea η ∈ W ∗ , se tiene

(g ◦ f )t (η) = η ◦ (g ◦ f ) = (η ◦ g) ◦ f = g t (η) ◦ f
= f t (g t (η)) = f t ◦ g t (η).


Proposición II.2.4.- Si V y W son de dimensión finita. Entonces, se tiene

rang(f ) = rang(f t ),

donde f : V → W lineal.
Demostración.- Recordemos que rang(f ) = dim Im(f ). Elegimos una base {v1 , . . . , vm } de V y otra
{w1 , . . . , wn } de W de tal manera que la matriz de f respecto a {vi } y {wj } sea
 
Ir 0
, rang(f ) = r.
0 0

Por otro lado,


Im(f t ) = {ε ∈ V ∗ |∃η ∈ W ∗ con ε = η ◦ f }.
La matriz de η : W → K respecto a {wj } y {1} es de la forma

( η1 · · · ηn ) .

La matriz de η ◦ f : V → K respecto a {vi } y {1} es


 
Ir 0
( η1 · · · ηn ) = ( η1 · · · ηr 0 ··· 0),
0 0

de donde
Im(f t ) = {( η1 · · · ηr 0 · · · 0 )}
es de dimensión r.

64 II Complemento

Proposición II.2.5.- Sean {x1 , . . . , xm } una base de V y {y1 , . . . , yn } una base de W . {ξ1 , . . . , ξm } base
de V ∗ dual de {x1 , . . . , xm } y {η1 , . . . , ηn } base de W ∗ dual de {y1 , . . . , yn }.
Sea f : V → W lineal, se donota A la matriz de f respecto a las bases {xi } y {yj }.
f t : W ∗ → V ∗ , A∗ la matriz de f t respecto a las bases {ηj } y {ξi }, entonces

A∗ = At .

n
X m
X
Demostración.- Se tiene A = (aij ) con aij yi . A∗ = (a∗kl ) con f t (ηl ) = a∗kl ξk . Por consiguiente, de
i=1 k=1
un lado se obtiene !
m
X
f (ηl )(xj ) = a∗kl ξk (xj ) = a∗jl ;
k=1

del otro lado


n
! n
X X
f (ηl )(xj ) = ηl ◦ f (xj ) = ηl aij yi = ηl (yj ) = alj .
i=1 i=1


Corolario II.2.6.- Sea A ∈ Mm,n (K), entonces

rango fila de A = rango columna de A.


II.3 Formas Bilineales Simétricas 65

II.3 Formas Bilineales Simétricas

Sea V un espacio vectorial. Una forma bilineal simétrica sobre V es una aplicación

f :V ×V →K

tal que f es bilineal y además f es simétrica.


Se denota Sym2 (V, K) el conjunto de las formas bilineales simétricas sobre V . En el ejercicio 50 de la
practica se muestra que Sym2 (V, K) es un espacio vectorial para las operaciones

(f + g)(v1 , v2 ) = f (v1 , v2 ) + g(v1 , v2 )


(αf )(v1 , v2 ) = αf (v1 , v2 ).

Sea {e1 , . . . , em } una base de V . La matriz de f respecto a la base {e1 , . . . , em } es la matriz

A(f ) = (f (ei , ej ))i,j con i, j = 1, . . . , m;

A(f ) es una matriz simétrica; es decir A(f ) = At (f ).


Proposición II.3.1.- La aplicación
n o
ϕ : Sym2 (V, K) → Matrices simétricas m × m a coe-
ficientes en K.
f 7→ A(f )

es un isomorfismo de espacios vectoriales.


Demostración.- i) ϕ es lineal, ejercicio.
ii) ϕ es inyectiva, si A(f ) = 0, se tiene f (ei , ej ) = 0, de donde
X X X
f (x, y) = f ( xi ei , yj ej ) = xi yj f (ei , ej ) = 0,
ij

por lo tanto f = 0.
iii) ϕ es sobreyectiva. Sea A = (aij ) una matriz simétrica. Planteamos
X
f (x, y) = xi yj aij ,
i,j

se puede ver que f es bilineal y simétrica, de matriz A.



Corolario II.3.2.- Si dim V = m, se tiene

m(m + 1)
dim Sym2 (V, K) = .
2

Demostración.- Ejercicio
Proposición II.3.3.- Resultado Principal.- Sea f ∈ Sym2 (V, K), supongamos que la caracterı́stica de K es
diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.
66 II Complemento

Demostración.- Se elige una base {e1 , . . . , em } de V .


Caso 1.- Existe un ı́ndice i tal que f (ei , ei ) 6= 0. Si es necesario renumerar los elementos de esta base, se
puede suponer que i = 1; por consiguiente f (e1 , e1 ) 6= 0. Introducimos una nueva base definida por

e′1 = e1 ,
f (e1 , e2 )
e′2 = e2 − e1 ,
f (e1 , e1 )
..
.
f (e1 , em )
e′m = em − e1 .
f (e1 , e1 )
Se tiene por consiguiente
f (e1 , ej ) f (e1 , ej )
f (e′1 , e′j ) = f (e1 , ej − e1 ) = f (e1 , ej ) − f (e1 , e1 ) = 0.
f (e1 , e1 ) f (e1 , e1 )
De esta manera, respecto a la base {e′1 , . . . , e′m }, la matriz de f es de la forma
 
f (e1 , e1 ) 0
0 B′

con B ′ matriz de m − 1 × m − 1 simétrica.


Caso 2.- Para todo i, f (ei , ei ) = 0. Si f (ei , ej ) = 0 para todo i, j, se tiene que A(f ) = 0 y por lo tanto la
matriz es diagonal. En la otra situación, existen i, j tales que f (ei , ej ) 6= 0. Si es necesario renumerar los
elementos de la base, se puede suponer que f (e1 , e2 ) 6= 0. Introducimos la base

e′1 = e1 + e2 ,
e′2 = e2 ,
..
.
e′m = em .

Se tiene
f (e′1 , e′1 ) = f (e1 + e2 , e1 + e2 ) = f (e1 , e1 ) + 2f (e1 , e2 ) + f (e2 , e2 ) = 2f (e1 , e2 ) 6= 0,
si la caracterı́stica de K es diferente a 2.
Por lo tanto nos encontramos en el primer caso.
Iteramos la construcción de la base, con B ′ y las subsiguientes matrices que obtengamos.

Ejemplo
1.- Cuando V = R2 , se tiene que una forma bilineal simétrica es de la forma

f : R2 × R2 → R
   
x y1
( 1 , ) 7→ a11 x1 y1 + a12 (x1 y2 + x2 y1 ) + a22 x2 y2 .
x2 y2

Por consiguiente la matriz de f respecto a la base canónica es


 
a11 a12
A(f ) = .
a12 a22

Esta forma bilineal induce la forma cuadrática definida por

ϕ : R2 → R
x 7→ f (x, x) = a11 x21 + 2a12 x1 x2 + a22 x22 .
II.3 Formas Bilineales Simétricas 67

Esta forma cuadrática define una curva llamada cónica por

Cϕ = {x ∈ R2 |ϕ(x) = 1}.

La proposicion II.3.3 nos indica que existe un sistema de coordenadas (ξ, ζ), sobre R2 tal que la ecuación
de Cϕ es de la forma
αξ 2 + βζ 2 = 1.

y
ζ

Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz de
f ∈ Sym2 (V, C) es de la forma
diag(1, . . . , 1, 0, . . . , 0).
| {z } | {z }
p q

Además los enteros p y q están enteramente definidos por f .


Demostración.- De la proposición II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz
de f es
diag(a1 , . . . , am ), ai ∈ C.
Consideramos la base {e′1 , . . . , e′m } definida por

 ei si ai = 0,
e′i = ei
 √ si ai 6= 0.
ai

No debe olvidarse que los números complejos poseen raiz cuadrada.


Calculamos 
 0 ei
 si i 6= j,
e1
′ ′
f (ei , ej ) = f ( √ , √ ) = 1 si ai 6= 0,

 ai ai
f (ei , ei ) = 0 si ai = 0.
Para la segunda parte del corolario, consideramos las bases {e1 , . . . , em } y {e′1 , . . . , e′m } respecto a las cuales

A(f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p q

A′ (f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p′ q′

Mostraremos que p = p′ y q = q ′ .
Sea V0 = {x ∈ V |f (x, y) = 0, ∀y ∈ V }, se puede verificar facilmente que V0 es un subespacio vectorial
de V .
68 II Complemento

Se observa que ei ∈ V0 para i > p; en efecto, para i > p se tiene

f (ei , ek ) = 0 ∀k.
m
X
Sea x = xi ei ∈ V0 , por definición f (x, ek ) = 0, para todo k. Ahora bien
i=1

m
X 
xk para k ≤ p,
xi f (ei , ek ) =
0 para k > p.
i=1

Por lo tanto, x pertenece al subespacio generado por ep+1 , . . . , em . Por consiguiente

dim V0 = q = m − p.

De la misma manera se hace el mismo razonamiento con la base {e′1 , . . . , e′m } obteniendo dim V0 = q ′ . De
donde p = p′ y q = q ′ .

Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es

diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).


| {z } | {z } | {z }
r s t

Además los enteros r, s y t están únicamente determinados por f .


Demostración.- De la proposición II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz
de f es
diag(a1 , . . . , am ), ai ∈ R.
Se introduce la base 

 ei si ai = 0,

ei

√ si ai > 0,
e′i = ai



 ei
√ si ai < 0.
−ai
Como en la demostración del corolario precedente, se muestra

 0 si ai = 0,
f (e′i , e′i ) = 1 si ai > 0,

−1 si ai < 0,

y f (e′i , e′j ) = 0 si i 6= j.
Para la segunda parte del corolario consideramos las bases {ei } y {e′i } respecto a las cuales, la matriz
de f es
A(f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0),
| {z } | {z } | {z }
r s t
A′ (f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).
| {z } | {z } | {z }
r′ s′ t′

Introduciendo V0 = {x ∈ V |f (x, y) = 0 ∀y ∈ V }, mostramos al igual que en el corolario II.3.4 que t = t′ .


s′ +t
z }| {
Afirmamos que e1 , . . . , er , er′ +1 , . . . , e′m es una familia de elementos de V linealmente independiente. Si
esto es cierto, se tiene r + s′ + t ≤ m = r ′ + s′ + t′ , de donde r ≤ r ′ . Pro razonamiento simétrico, se tiene
r ′ ≤ r, por lo tanto r ′ = r y s′ = s.
II.3 Formas Bilineales Simétricas 69

Mostremos la afirmación, elegimos una combinación lineal tal que



r
X rX +s′ m
X
0= xi ei + yj e′j + zk e′k .
i=1 j=r ′ +1 k=r ′ +s′ +1

r
X
Plantemos v = xi ei , de donde por un lado
i=1

r r
! 2
X X X
f (v, v) = f xi ei , xi ei = x2i ,
i=1 i=1 i=1

y del otro
 ′

rX +s′ m
X

rX +s′ m
X
f (v, v) = f − yj e′j − zk e′k , − yj e′j − zk e′k  =
j=r ′ +1 k=r ′ +s′ +1 j=r ′ +1 k=r ′ +s′ +1

rX +s′
− yj2 .
j=r ′ +1

Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r ′ + 1, . . . , r′ + s′ . Puesto que {e′j }


es una base, se tiene que zk = 0 para k = r ′ + s′ + 1, . . . , m.

Proposición II.3.6.- Sea f ∈ Sym2 (V, K). Sean {e1 , . . . , em } y {e′1 , . . . , e′m } dos bases de V . Se denota
por A la matriz de f respecto a la base {e1 , . . . , em } y A′ la matriz de f respecto a la base {e′1 , . . . , e′m }.
Entonces
A = P t A′ P,
donde P es la matriz de pasaje de {e1 , . . . , em } a {e′1 , . . . , e′m }.
Demostración.- Se tiene por definición
(A)ij = f (ei , ej ),
(A′ )ij = f (e′i , e′j ),
Xm
ej = pij e′i .
i=1

Por consiguiente
m m
!
X X
f (ei , ej ) = f pkj e′k , plj e′l
k=1 l=1
m
X
= pki f (e′k , e′l )plj
k,l=1
Xm
= (P t )ik (A′ )kl (P )lj = (P t A′ P )ij .
k,l=1


Corolario II.3.7.- Supongamos K de caracterı́stica diferente a 2. Sea A′ una matriz simétrica de orden m,
entonces existe P ∈ Gl(m, K) tal que
P t AP
es una matriz diagonal.
Demostración.- Ejercicio.
70 II Complemento

II.4 Espacios Euclidianos

En este paragrafo el cuerpo de base es R.


Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal

E×E →R
(x, y) 7→ hx, yi

que es definida positiva; es decir


hx, xi ≥ 0 ∀x ∈ E,
hx, xi = 0 ⇐⇒ x = 0.
Definimos la norma de x, como p
kxk = hx, xi.
Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano.
Ejemplos
1.- E = Rn es un espacio euclidiano provisto de
n
X
hx, yi = xi yi
i=1

producto escalar estandar.


2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C ∞ ([a, b], R),
es un espacio euclidiano con el producto escalar
Z b
hf, gi = f (t)g(t)dt.
a

Noción de Isomorfismo de Espacios Vectoriales


Sean E1 , h , i1 y E2 , h , i2 dos espacios euclidianos.
Se dice que E1 y E2 son isomorfos, si existe ϕ : E → E lineal biyectiva, tal que

hϕ(x), ϕ(y)i2 = hx, yi1 , ∀x, y ∈ E.

El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimensión n. Entonces E


es isomorfo a Rn dotado del producto escalar estandar.
En lo que sigue E es de dimensión finita.
Se dice que x, y ∈ E son ortogonales si hx, yi = 0. Se dice que la familia {v1 , . . . , vm } es ortogonal
si hvi , vj i cuando i 6= j. Se dice que {v1 , . . . , vm } es ortonormal si {v1 , . . . , vm } es una familia ortogonal y
hvi , vi i = 1 para i = 1, . . . , m.
Proposición II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existen
bases respecto a las cuales, la matriz del producto escalar es I.
Demostración.- Una demostración de esta proposición, puede realizarse utilizando el corolario II.3.5, el
cual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma

diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).


| {z } | {z } | {z }
r s t
II.4 Espacios Euclidianos 71

Puesto que h , i es definido positivo, se tiene s = t = 0.


Esta demostración muestra la existencia de una tal base, pero no nos da la forma de encontrar esta
base.
Una segunda demostración está dada por el procedimiento de ortogonalización de Gramm-
Schmidt.
Sea {e1 , . . . , em } una base cualquiera de E. Se plantea f1 = e1 y buscamos f2 con hf1 , f2 i = 0 y
f2 = e2 + αf1 . Se tiene
hf1 , e2 + αf1 i = hf1 , e2 i + αhf1 , f1 i = 0,
de donde
hf1 , e2 i
α=− ;
hf1 , f1 i
α existe y es único.
Se busca f3 con
hf1 , f3 i = hf2 , f3 i = 0,
f3 = e3 + β1 f1 + β2 f2 .
Obtenemos,
hf1 , f3 = e3 + β1 f1 + β2 f2 i = hf1 , e3 i + β1 hf1 , f1 i = 0,
hf2 , f3 = e3 + β1 f1 + β2 f2 i = hf2 , e3 i + β2 hf2 , f2 i = 0.
β1 y β2 existen y son únicos
Se procede de la misma manera, se construye f1 , . . . , fm satisfaciendo

hfi , fj i, j < i;
i−1
X
fi = ei + pji ej
j=1

De donde {f1 , . . . , fm } es una base ortonormal y


 
f1 fm
,...,
kf1 k kfm k

es una base ortonormal.




Ejemplos
3.- Rn con el producto escalar estandar, la base canónica es ortonormal.
4.- Sea E el subespacio de C ∞ (R, R) engendrado por
{1, cos t, sin t, cos 2t, sin 2t, . . . cos nt, sin nt} polinomios trigonométricos de grado menor o igual a n con
el producto escalar Z 2π
hf, gi = f (t)g(t)dt.
0

La base
{1, cos t, sin t, . . . , cos nt, sin nt}
es una base ortogonal.  
1 cos t cos nt sin nt
√ , √ ,..., √ , √
2π π π π
es una base ortonormal
Proposición II.4.2.- Sea E un espacio euclidiano de dimensión n. Entonces E es isomorfo a Rn dotado
del producto escalar estandar.
72 II Complemento

Demostración.- Sea {f1 , . . . , fn } una base ortonormal de E. Definimos

ϕ : E → Rn
fi 7→ ei ,

donde los ei son los elementos de la base canónica de Rn .


ϕ es biyectiva, porque envia base sobre base. Todo x, y ∈ E se escriben de manera única, como
n
X n
X
x= xi ei , y= yi ei ,
i=1 i=1

de donde
* n n
+ n
X X X
hϕ(x), ϕ(y)i = xi ei , yi ei = xi yi .
i=1 i=1 i=1


El Grupo Ortogonal de un Espacio Euclidiano


Definición II.4.3.- Sea (G, ∗) un grupo, se dice que H es un subgrupo de G, si ∅ =
6 H⊂Gy

g1 , g2 ∈ H ⇒ g1 ∗ g2 ∈ H,
g ∈ H ⇒ g −1 ∈ H.

Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operación heredada de
G.
Definición II.4.4.- Un endomorfismo a : E → E, E espacio euclidiano, es una transformación ortogonal
o una isometrı́a si
ha(x), a(y)i = hx, yi, ∀x, y ∈ E.
Se denota O(E) el conjunto de las transformaciones de E.
Proposición II.4.5.- Se tiene:
i) a ∈ O(E), entonces a es un automorfismo de espacio euclidiano.
ii) O(E) es un subgrupo de Gl(E).
Demostración.- Ejercicio.
Proposición II.4.6.- Sea a ∈ Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces

a ∈ O(E) ⇐⇒ At A = I.

Demostración.- Se tiene, primero

a ∈ O(E) ⇐⇒ ha(x), a(y)i = hx, yi x, y ∈ E;


|⇐⇒
{z } ha(ei ), a(ej )i 1 ≤ i, j ≤ n.
ejercicio

segundo, por definicion A = (aij ) y


n
X
a(ej ) = aij ei .
i=1
II.4 Espacios Euclidianos 73

Por lo tanto
n
X
a ∈ O(E) ⇐⇒ aki akj = δij ⇐⇒ (At A)ij = Iij .
k=1


Definición II.4.7.- Una matriz A ∈ Mn,n (R) es ortogonal si At A = I.


Corolario II.4.8.- El conjunto O(n, R) de las matrices ortogonales es un subgrupo de Gl(n, R) isomorfo a
O(E).
Proposición II.4.9.- Descomposicion de Iwasawa de Gl(m, R).- Sea A ∈ Gl(m, R). Entonces A se escribe
de manera única bajo la forma A = QT donde Q ∈ O(m, R), T ∈ T+ (m, R) con
  
 t11 ∗ 

 

t22 ∗ 
T+ (m, R) =  ..  tii > 0 .


 . 

 
0 tnn

Demostración.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1 , . . . , em } la base


canónica de Rm .
Se tiene que {Ae1 , . . . , Aem } es una base de Rm . Sea {f1 , . . . , fm } la base ortonormal obtenida de
{Ae1 , . . . , Aem } por el procedimiento de Gramm-Schmidt.
La matriz de pasaje de {Ae1 , . . . , Aem } a {e1 , . . . , em } es A.
La matriz de pasaje de {f1 , . . . , fm } a {Ae1 , . . . , Aem } es T ∈ T+ (m, R), repasar la demostración donde
se utiliza el procedimiento de Gramm-Schmidt.
La matriz de pasaje de {f1 , . . . , fm } a {e1 , . . . , em } es Q ∈ O(m, R).
Por consiguiente, se tiene que
A = QR.
b) Unicidad. Se supone que A = Q1 T1 = Q2 T2 con Qi ∈ O(m, R) y Ti ∈ T+ (m, R) para i = 1, 2.
Ahora bien, como ejercicio mostrar que T+ (m, R) es un subgrupo de Gl(m, R). De donde

Q2 Q−1 −1
1 = T2 T1 ∈ O(m, R) ∩ T+ (m, R).

Afirmamos que O(m, R) ∩ T+ (m, R) = {I}. Si esto es cierto, se tiene que Q2 Q−1 −1
1 = T2 T1 = I, de donde
Q1 = Q2 y T1 = T2 .
Probemos la afirmación; sea T ∈ O(m, R) ∩ T+ (m, R), entonces
 
t11 ∗
 t22 ∗ 
T =
 .. 
 y T t T = I.
.
0 tnn

Una verificación dará que T = I.



Sea F ⊂ E un subespacio vectorial, se plantea

F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ F } .

Se prueba que F ⊥ es un subespacio vectorial y se llama el subespacio ortogonal de E.


Proposición II.4.10.- Se tiene
i) E = F ⊕ F ⊥ ;
74 II Complemento
⊥
ii) F ⊥ = F .
Demostración.- i) Se elige una base ortonormal {f1 , . . . , fm } de F . Se considera la aplicación

ϕ:E→F
m
X
x 7→ hx, fi ifi .
i=1

Esta aplicación es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F ⊥ = ker ϕ; en
efecto, x ∈ F ⊥ , se tiene ϕ(x) = 0; x ∈ ker ϕ, hx, fk i para k = 1, . . . , k, por lo tanto x ∈ F ⊥ .
La formula de dimensión da
dim E = dim F + dim F ⊥ ,
por consiguiente solo falta mostrar que F ∩ F ⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F ⊥ , implica que
hx, xi = 0 y por lo tanto x = 0.
ii) Ejercicio.

Proposición II.4.11.- La aplicación

ϕ : E → E ∗ = Hom(E, R)
y 7→ ϕ(y) : E → R
x 7→ hx, yi.

es un isomorfismo
Demostración.- Como dim E = dim E ∗ , es suficiente ver que ker ϕ = {0}.
Sea y ∈ ker ϕ, se tiene hx, yi = 0, para todo x ∈ E, en particular para x = y, por lo tanto hy, yi = 0
implica que y = 0.

Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo canónico entre E y
E ∗.
II.5 Formas Hermı́ticas, Espacios Unitarios 75

II.5 Formas Hermı́ticas, Espacios Unitarios

El cuerpo de base en este paragrafo es C. Recordemos, la conjugación de números complejos es la aplicación


definida por
C→C
z 7→ z̄
x + iy 7→ x − iy.
f
Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicación V × V −→ C, tal que

f (α1 x1 + α2 x2 , y) = α1 f (x1 , y) + α2 f (x2 , y),


f (x, β1 y1 + β2 y2 ) = β̄1 f (x, y1 ) + β2 f (x, y2 ).

Se dice que f sesquilineal es hermı́tica si

f (x, y) = f (y, x), ∀x, y ∈ V.

Proposición II.5.1.- Herm(V, C), el conjunto de los f hermı́ticas sobre V es un espacio vectorial sobre R.
Demostración.- Ejercicio.
Sea f ∈ Herm(V, C) y {e1 , . . . , em } una base de V , la matriz de f respecto a {e1 , . . . , em } es la matriz

(A(f ))ij = f (ei , ej ).

Si f es hermı́tica, se tiene f (ei , ej ) = f (ej , ei ), obteniendo


t
A(f ) = A(f ).

Se dice que la matriz B ∈ Mm,m (C) es hermı́tica si B̄ t = B y el conjunto de tales matrices, se denota
Herm(m, C) y es un espacio vectorial real.
Proposición II.5.2.- La aplicaciones

Herm(V, C) → Herm(m, C)
f 7→ A(f )
g←B

donde m
X
g(x, y) = xi bij ȳj .
i,j=1

son isomorfismos de espacios vectoriales reales y son inversas entre si. Además
Herm(m, C) es de dimensión m2 .
Demostración.- Ejercicio.
Ejemplo
1.- La aplicación dada por
Cm × Cm → C
m
X
(x, y) 7→ xi ȳi
i=1

es una forma hermı́tica.


76 II Complemento

Ejercicio.- Hallar una base de Herm(V, C).


Proposición II.5.3.- Sea f ∈ Herm(V, C). Existe una base de V respecto a la cual, la matriz de f es
diagonal con coeficientes iguales a 0, 1 o −1.
Demostración.- Ejercicio. Existe una proposición similar para las formas bilineales simétricas.
Corolario II.5.4.- Sea B ∈ Herm(m, C), entonces existe P ∈ Gl(m, C), tal que

P̄ t BP = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0).

Demostración.- Ejercicio. Existe una proposición similar para las matrices simétricas.
Si f es hermı́tica, se tiene f (x, x) = f (x, x) ∈ R.
Se dice que f hermı́tica es definida positiva, (producto escalar hermı́tico), si

f (x, x) ≥ 0, ∀x ∈ V ;
f (x, x) = 0 ⇐⇒ x = 0.

Una forma hermí tica definida positiva se la denota h , i al igual que el producto escalar euclidiano.
E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar hermı́tico.
Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios
euclidianos. Por lo tanto se tiene los siguientes resultados análogos:
i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona.
ii) E espacio unitario de dimensión n es isomorfo a Cn provisto del producto escalar hermı́tico estandar
n
X
hx, yi = xi ȳi .
i=1

iii) Se dice que a ∈ Gl(E) es unitaria si

ha(x), a(y)i = hx, yi, ∀x, y ∈ E.

El conjunto de las transformaciones unitarias de E forman un subgrupo de Gl(E), es el grupo unitario


notado U(E).
iv) Sea {e1 , . . . , em } una base ortonormal de E. Sea a ∈ Gl(E), se denota A la matriz de a respecto a
{e1 , . . . , em }. Entonces
a ∈ U(E) ⇐⇒ Āt A = I.
Una matriz A ∈ Mm,m (C) es unitaria si Āt A = I.
v) El conjunto U(m, C) de las matrices unitarias es un subgrupo de Gl(m, C) isomorfo a U(E).
Ejercicio.- Mostrar las afirmaciones de arriba.

Ejemplos
1.- diag(a1 , . . . , am ) ∈ U(m, C) ⇐⇒ ai āi = 1, ∀i = 1, . . . , m.
2.- La matriz de la forma  
a ib
ib a
con a, b ∈ R, a2 + b2 = 1 es una matriz unitaria.
Proposición II.5.5.- Descomposicion de Iwasawa para Gl(m, C). Sea A ∈ Gl(m, C). Entonces A se escribe
de manera única como A = U T , donde U ∈ U(m, C) y T ∈ T+ (m, C), con
  
 t11 ∗ 

 

t22 ∗ 
T+ (m, C) =   .  t ∈ R y t > 0 .
 ..  ii ii


 


0 tnn
80 II Complemento

Demostración.- Ejercicio.
Sea F ⊂ E un subespacio de E unitario. Se define el subespacio ortogonal de F como

F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ E}.

Proposición II.5.6.- La aplicación

ϕ : E → E ∗ = Hom(E, C)
y 7→ ϕ(y) : E → C
x 7→ hx, yi.

es biyectiva, pero ϕ es solamente semilineal, es decir

ϕ(βy) = β̄ϕ(y).

Demostración.- Ejercicio
Remarcas P
1.- Rn hx, yi = xi yi espacio euclidiano
P estandar. Serı́a natural de generalizar esta situación a los espacios
complejos, ası́: Cn hx, yi = xi yi . Pero sucede un fénomeno nuevo, existe x 6= 0 tal que hx, xi = 0.
Por ejemplo para n = 2 x = (1, i).
2.- E unitario, sea {e1 , . . . , en } una base ortonormal de E. Se introduce
X
ER = {x ∈ E|x = xi ei , xi ∈ R}.

ER es un espacio vectorial sobre R de misma dimensión que E. La restricción a ER del producto escalar
hermı́tico sobre E es un producto escalar euclidiano.
Capı́tulo III
Formas Normales

III.1 Vectores y Valores Propios

Sea V un espacio vectorial de dimensión n. Sea f ∈ End(V ) y {v1 , . . . , vn }, {v1′ , . . . , vn′ } dos bases de V .
Recordando el primer capı́tulo, se denota
A la matriz de f respecto a {vi },
A′ la matriz de f respecto a {vi′ },
M la matriz de pasaje de {vi } a {vi′ }.
Se tiene
A′ = M AM −1 .

Definición III.1.1.- Sean A, B ∈ Mn,n (K). Se dice que A y B son conjugadas o semejantes, si existe
M ∈ Gl(n, K) tal que B = M AM −1 .
Ejercicio.- Mostrar que la semejanza de matrices es una relación de equivalencia sobre Mn,n (K).
La interpretación geométrica que se puede dar: Si A es la matriz de f respecto a la base {vi }, la clase
de conjugación de A, es decir el conjunto de las matrices M AM −1 , coincide con el conjunto de las matrices
de f respecto a las bases de V .
Definición III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal que
g = h ◦ f ◦ h−1 .
Definición III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se dice
que λ ∈ K es un valor propio de f .
El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ.
dim ker(f − λid) se la llama la multiplicidad geométrica del valor propio λ.
Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ.
Por consiguiente, dicho de otra manera

λ ∈ K valor propio de f ⇐⇒ existe x ∈ V, x 6= 0 tal que f (x) = λx;


x ∈ V es vector propio de f ⇐⇒ x 6= 0 y existe λ ∈ K tal que f (x) = λx.

Sea A ∈ Mn,n (K), se denota por ρ(A) : Kn → Kn la aplicación lineal cuya matriz respecto a la base
canonica es A.
Definición III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A).
Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A).
Ejemplo
1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1.
Proposición III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces:
i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f .
82 III Formas Normales

ii) Si g = hf h−1 , se tiene


x es vector propio de f ⇐⇒ h(x) es vector propio de g.
Demostración. Se tiene que λ es valor propio de f , si y solamente si existe x 6= 0 ∈ V tal que f (x) = λx,
si y solamente si existe y = h(x) 6= 0 ∈ V tal que g(y) = hf (x) = λh(x) = λy.

Proposición III.1.6.- Sean λ1 , . . . , λp valores propios distintos de f . Se plantea Kj = ker(f − λj id).
Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes,
Xp
si xj ∈ Kj y xj = 0 ⇒ xj = 0 para j = 1, . . . , p).
j=1
Demostración.- Por inducción sobre p.
Para p = 1 evidente.
Se supone cierto la proposición para p − 1 con p > 1.
Mostremos que la proposición es cierta para p. Sea
p
X
xj = 0 con xj ∈ Kj ,
j=1

se tiene p p
X X
f( xj ) = 0 = λ j xj ,
i=1 i=1

ahora bien,
p
X p
X p
X
λ 1 xj − λ j xj = (λ1 − λj )xj = 0,
j=1 j=1 j=2

por hipótesis de inducción (λ1 − λj )xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por
consiguiente x1 = 0.

Corolario III.1.7.- Mismas hipótesis que la proposición precedente. Entonces la aplicación
ϕ
K1 × K2 × · · · Kp −→ V
(x1 , x2 , . . . , xp ) 7→ x1 + x2 + · · · + xp
p
M
es inyectiva. En este caso la imagen de ϕ es Kj .
j=1
Demostración.- Ejercicio.
Proposición III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dim V valores propios diferentes
λ1 , . . . , λm . Se elige vi un vector propio respecto a λi para i = 1, . . . , m. Entonces:
i) ker(f − λj id) es de dimensión igual a 1, para j = 1, . . . , m.
ii) {v1 , . . . , vm } es una base de V .
iii) La matriz de f respecto a {v1 , . . . , vm } es diag(λ1 , . . . , λm ).
Demostración.- Utilizando la notación de la proposición III.1.6, Kj = ker(f − λj id) 6= {0}, j = 1, . . . , m.
Por el corolario III.1.7, la aplicación
ϕ
K1 × K2 × · · · Km −→ V
(x1 , x2 , . . . , xm ) 7→ x1 + x2 + · · · + xm

es inyectiva. Por lo tanto se tiene


X
m≤ dim(Kj ) ≤ dim V = m;
| {z }
≥1
III.1 Vectores y Valores Propios 83
p
M
ϕ es por consiguiente un isomorfismo, V = Kj .
j=1
Sea vj ∈ Kj con vj 6= 0, entonces

{(v1 , 0, . . . , 0), . . . , (0, . . . , 0, vm )}

es una base de K1 × K2 × · · · Km , de donde via el isomorfismo {v1 , . . . , vm } es una base de V . La matriz de


f respecto a {v} es una matriz diagonal.


Polinomio Caracterı́stico de una Matriz


Sea A ∈ Mm,m (K), se plantea

x − a11 −a12 ··· −a1m

−a21 x − a22
PA (x) = det(xI − A) = .. .. ∈ K[x]

. .

−am1 ··· −am,m−1 x − amm

polinomio de grado n y coeficiente dominante igual a 1.


PA (x) es el polinomio caracterı́stico de A.
Proposición III.1.9.- Si A y B son semejantes, entonces PA (x) = PB (x).
Demostración.- Por hipótesis, existe M ∈ Gl(m, K) tal que A = M BM −1 , calculando los polinomios
caracterı́sticos se tiene

PA (x) = det(xI − A) = det(xM IM −1 − M BM −1 ) = det(M (xI − B)M −1 )


= det M det(xI − B) det M −1 = det(xI − B) = PB (x).


Sea f ∈ End(V ). Sea {v1 , . . . , vm } una base de V . Se nota A la matriz de f respecto a {vi }. Por la
proposición precedente, el polinomio PA no depende de la elección de la base, solamente de f .
Se plantea Pf (x) = PA (x) el polinomio caracterı́stico de f .
Definición III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x]
no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede
factorizar en polinomios de grado igual a 1.
Ejemplo
2.- C es un cuerpo algebraicamente cerrado.
Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracterı́stico de f son exactamente los valores
propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor
propio y un vector propio.
Demostración.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene

Pf (λ) = 0 ⇐⇒ PA (λI − A) = 0
⇐⇒ ker(λI − f ) 6= {0}
⇐⇒ λ es un valor propio de f.


Definición III.1.12.- Sea λ un valor propio de f , la multiplicidad algebraica de λ es la multiplicidad


de la raiz de Pf .
84 III Formas Normales

Ejemplos
3.- La sucesión de Fibonacci (Fn )n≥0 definida por

Fn+1 = Fn + Fn−1 ,
F0 = 0, F1 = 1.

Puede escribirse de manera matricial como


      
Fn 1 1 Fn Fn+1
A = = .
Fn−1 0 1 Fn−1 Fn

Se puede observar que    


Fn+1 1 n
=A .
Fn 0
Utilizando la proposición III.1.8, la matriz A es semejante a la matriz diag(λ1 , λ2 ), donde λ1 y λ2 son
valores propios de A. Calculando estos por medio del polinomio caracterı́stico de A, se obtiene
√ √
1+ 5 1− 5
λ1 = , λ2 = .
2 2
Después se obtiene
   −1
λ1 λ2 λ1 0 λ1 λ2
A= ,
1 1 0 λ2 1 1
de donde   n  −1
n λ1 λ2 λ1 0 λ1 λ2
A =
1 1 0 λ2 1 1
Efectuando los cálculos necesarios, se obtiene
   n+1 
Fn+1 1 λ1 − λn+12
=√ ,
Fn 5 λn1 − λn2

por lo tanto
√ !n √ !n !
1 1 1+ 5 1− 5
Fn = √ (λn1 − λn2 ) = √ − .
5 5 2 2

4.- Una matriz triangular superior


 
a11 an1
 a22 
A=
 .. 

.
0 ann
tiene como polinomio caracterı́stico
n
Y
PA (x) = (x − aii ).
i=1

5.- Ejercicio.- Mostrar que Pf (x) = Pf t (x) o bien PA (x) = PAt (x).
6.- Si A y B son conjugadas, se tiene PA (x) = PB (x); la recı́proca es falsa. En efecto, sean
   
0 0 0 1
A= , B= ;
0 0 0 0

se tiene
PA (x) = x2 , PB (x) = x2 .
III.1 Vectores y Valores Propios 85

6.- Sea f ∈ End(V ), sea W ⊂ V un subespacio invariante por f ; es decir, f (W ) ⊂ W . Se denota

f|W : W → W

el endomorfismo restringido a W . Se tiene

Pf|W (x) divide Pf (x).

En efecto, se elige una base {v1 , . . . , vp } de W que es completada en la base {v1 , . . . , vp , vp+1 , . . . , vm }
de V .
La matriz de f respecto a esta base es de la forma
 
A11 A12
A= ,
0 A22

donde A11 es la matriz de f|W respecto a {v1 , . . . , vp }. Se tiene



xI − A11 −A12
PA (x) = = det(xI − A11 ) det(xI − A22 ).
0 xI − A22

Proposición III.1.13.- Sea A ∈ Mm,m (K), entonces


i) El polinomio caracterı́stico puede escribirse bajo la forma

PA (x) = xm − C1 (A)X m−1 + C2 (A)X m−2 + · · · + (−1)m Cm (A).

Los Ci (A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1 (A) es lineal,
Cm (A) es de grado m.
ii) Ci (M AM −1 ) = Ci (A) para i = 1, . . . , m y M ∈ GL(m, K).
Xm
iii) C1 (A) = es la traza de A denotada por tr(A).
i=1
iv) Cm (A) = det(A).
v) f, g ∈ End(V ) ⇒ Pf ◦g (x) = Pg◦f (x).
vi) A, B ∈ Mm,m (K) ⇒ PAB (x) = PBA (x).
vii) A, B ∈ Mm,m (K) ⇒ Ci (AB) = Ci (BA) i = 1, . . . , m.
Demostración.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes.
Ejemplo
7.- Consideremos el caso m = 2,
 
a11 a12
A= ,
a21 a22
PA (x) = x2 − (a11 + a22 ) x + (a11 a22 − a12 a21 ) .
| {z } | {z }
C1 (A) C2 (A)
86 III Formas Normales

III.2 Triangularización y Diagonalización

Sea A = (aij ) ∈ Mm,m (K), se dice que A es triangular superior si aij = 0 para i > j.
 
a11 an1
 a22 
A=  .. 

.
0 ann
Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de
f es triangular superior.
Remarca.- Se A es la matriz respecto a {v1 , . . . , vm }, la matriz de f respecto a {vm , . . . , v1 } es
 
amm · · · am1
. .. 
A′ =  .. . .
a1m · · · a11
Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definición de triangu-
larizable puede remplazarse por inferior o superior.
Sea A ∈ Mm,m (K). Se dice que A estriangularizable si existe M ∈ Gl(m, K) tal que M AM −1 sea
triangular superior o inferior.
Proposición III.2.1.- Sea f ∈ End(V ), entonces
el polinomio caracterı́stico de f
f es triangularizable ⇐⇒ es producto de polinomios de grado
1.
Demostración.-⇒ B es triangularizable, existe M inversible tal que
 
a11 an1
 a22 
M BM −1 =   .. 

.
0 ann
m
Y
y por lo tanto PB (x) = PA (x) = (x − a11 ).
i=1
⇐ por inducción sobre m.
m = 1 nada que hacer.
Supongamos cierta la proposición para m − 1, con m > 1.
Sea λ1 valor propio de f y v1 un vector propio asociado a λ1 , se tiene f (v1 ) = λ1 v1 y v1 6= 0.
Se elige v2 , . . . , vm de manera que {v1 , . . . , vm } sea una base de V . La matriz de f respecto a {v1 , . . . , vm }
es de la forma  
λ1 ∗ ∗ ∗∗
A= ;
0 A′
se tiene PA (x) = (x − λ1 )PA′ (x).
Aplicando la hipótesis de inducción a A′ . Por consiguiente, existe M ′ ∈ Gl(m − 1, K) tal que M ′ AM ′−1 es
triangular. Se tiene
 
λ1 ∗ ∗
   
1 0 λ1 ∗ ∗ ∗∗ 1 0  λ2 
′ ′ ′−1 =  . .


0 M 0 A 0 M .
0 λn

III.2 Triangularización y Diagonalización 87

Proposición III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable.


Ejemplo
1.- Una rotación de R2 no es triangularizable.
Definición III.2.3.- f ∈ End(V ) es diagonalizable si existe una base {v1 , . . . , vm } de V respecto a la cual
la matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de V
formada de vectores propios de f .
A ∈ Mm,m (K) es diagonalizable, si existe M ∈ Gl(m, K) tal que M AM −1 es una matriz diagonal.
Ejemplo
 
0 1
2.- A = no es diagonalizable, sino existirı́a una base v1 y v2 de K2 respecto a la cual, la matriz de
0 0
ρ(A) es la matriz nula, pero esto es imposible.
Proposición III.2.4.- Sea f ∈ End(V ). Entonces
 Y


1) Pf = (x − λj )mj

 j=1,...,r
X
f es diagonalizable ⇐⇒ 6
 λ i = λ j para i 6= j y mj = m = dim V .



 1,...,r
2) dim ker(f − λj id) = mj para j = 1, . . . , r.

Demostración.- ⇒ Supongamos que existe una base {v1 , . . . , vm } con f (v1 ) = ai vi , por lo tanto
m
Y m
Y
Pf (x) = (x − ai ) = (x − λj )mj .
i=1 i=1

Si es necesario renumerar los vi , la matriz de f respecto a {vi } es

diag(λ1 , . . . , λ1 , . . . , λr , . . . , λr ).
| {z } | {z }
m1 mr

Por lo tanto ker(f − λ1 id) admite como base {v1 , . . . , vm1 y ası́ sucesivamente.
Se plantea Kj = ker(f − λj id). Por la proposición III.1.6, los Kj son linealmente independientes y por el
corolario III.1.7 ϕ
K1 × K2 × · · · Kr −→ V
(v1 , v2 , . . . , vr ) 7→ v1 + v2 + · · · + vr
L
es un isomorfismo, consiguientemente V = Kj . Sea Bj una base de KJ , de donde

B = ∪rj=1 es una base de V.

La matriz de f respecto a B es diagonal.



88 III Formas Normales

III.3 Endomorfismos Normales de un Espacio Unitario

Recordemos que E es un espacio unitario de dimensión m sobre el cuerpo C, si está provisto de un producto
escalar hermı́tico.
E×E →C
(x, y) 7→ hx, yi
sesquilineal y definido positivo.
Ası́ mismo se dispone de una biyección

ϕ : E → E ∗ = Hom(E, C)
y 7→ ϕ(y) : E → C
x 7→ hx, yi.

Esta aplicación es semilineal en el sentido que sigue

ϕ(y1 + y2 ) = ϕ(y1 ) + ϕ(y2 ),


ϕ(αy) = ᾱϕ(y).

Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una única aplicación ã : E → E que vuelve el
siguiente diagrama conmutativo
a
←−
E 99K E

ϕ↓ ↑ ϕ−1
−→
E∗ at E∗
es decir, ã = ϕ−1 at ϕ.
Proposición III.3.1.- ã es lineal y se llama la adjunta de a.
Remarca.- No confundir con la matriz adjunta, diferente contexto.
Demostración.- Por la adición no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para la
adición.
Para la multiplicación, tenemos

ã(x) = ϕ−1 (at ϕ(αx)) = ϕ−1 (ᾱat ϕ(x)) = ᾱ


¯ ϕ−1 (at ϕ(x)) = αã(x).


Proposición III.3.2.- Sea a ∈ End(E), para todo x, y ∈ E se tiene la siguiente fórmula

ha(x), yi = hx, ã(y)i.

Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen
de la adjunta de y.
Demostración.- Por definición de ã, se tiene

at ◦ ϕ = ϕ ◦ ã.

Por lo tanto:

ha(x), yi = ϕ(y)(a(x)) = at ◦ ϕ(y)(x)


= ϕ(ã(y))(x) = hx, ã(y)i.

III.3 Endomorfismos Normales de un Espacio Unitario 89

Proposición III.3.3.- Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E). Se denota A la matriz
de a respecto a {f1 , . . . , fm }. Sea à la matriz de ã respecto a i = 1, . . . , m. Entonces

à = Āt = At .

P P
Demostración.- Sean x = xi fi y y = yj fj . Se tiene
 
ȳ1
 
ha(x), yi = ( x1 · · · xm ) At  ...  .
ȳm

También  
ȳ1
hx, ã(y)i = ( x1 ¯  ..  .
· · · xm ) Ã  . 
ȳm
Deducimos por consiguiente

¯
At = Ã.


Proposición III.3.4.- Sean a, b ∈ End(E). Entonces:


g = b̃ã;
i) (ab)
˜
ii) ã = a;
^
iii) (a + b) = ã + b̃;
g = ᾱã.
iv) (αa)
Demostración.- Consecuencia directa de à = Āt .

Definición III.3.5.- Sea a ∈ End(E), se dice que a es autoadjunto si a = ã.
Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E) y A la matriz de a respecto a la base {fi }.
Si a es un endomorfismo autoadjunto se tiene

A = Ã = Āt

lo que implica que A es una matriz hermı́tica.


Proposición III.3.6.- Sea a ∈ End(E), {f1 , . . . , fm } una base ortonormal y A la matriz de a respecto a
{f1 , . . . , fm }; entonces
a es autoadjunto ⇐⇒ A ∈ Herm(m, C).

Si a es un endomorfismo autoadjunto, se tiene

ha(x), yi = hx, a(y)i,

por lo tanto
hx, a(x)i = ha(x), xi ∈ R.
Se dice que a es positivo ai a es autoadjunto y si

ha(x), xi ≥ 0, ∀x ∈ E.
90 III Formas Normales

Se dice que a es antiautoadjunto si −a = ã y en forma matricial si la matriz de a respecto a una base


ortonormal verifica
Āt = −A.
Se dice que a es unitario si aã = id o ã = a−1 . En forma matricial AĀt = I, A es unitaria.
Se dice que a es normal si aã = ãa y A es una matriz normal si AĀt = Āt A.
En este paragrafo el resultado principal es: a es un endomorfismo normal, si y solamente si existe una
base ortonormal de E formada de vectores propios de a.
Caso Particular
Consideremos el caso en que E es de dimensión igual a 1. En este caso E = C. Tenemos por lo tanto

hz, wi = z w̄.

Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es ā. Las
definiciones dadas más arriba tendrán las siguientes equivalencias:
a es autoadjunto ⇐⇒ a ∈ R.
es positivo ⇐⇒ a ∈ R y a > 0.
antiautoadjunto ⇐⇒ a ∈ iR.
unitario ⇐⇒ |a| = 1.
Todo endomorfismo a es normal, en efecto aā = āa.

Caso General
Volvamos al caso general donde E es un espacio unitario de dimensión finita.
Remarcas
1.- El conjunto H = {a ∈ End(E)|a = ã} es un subespacio real de End(E), es decir

a, b ∈ H ⇒ αa + βb ∈ H, ∀α, β ∈ R.

2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjunto
C de H es un cono convexo si

a, b ∈ C ⇒ αa + βb ∈ C, ∀α, β ≥ 0.

3.- {a ∈ End(E)| − a = ã} = iH = {ib|b ∈ H} es un subespacio real de End(E). Se tiene

End(E) = H ⊕ iH

suma directa de subespacios vectoriales reales.


4.- El conjunto de los endomorfirmos unitarioses un grupo para la composición de aplicaciones, se lo denota
U(E).
Proposición III.3.7.- Sean a, b ∈ H, entonces

ab ∈ H ⇐⇒ ab = ba.

Demostración.- ⇒ ab ∈ H, se tiene
e = b̃ã = ba.
ab = ab
⇐ Se supone ab = ba, entonces

e = b̃ã = ba = ab.
ab

III.3 Endomorfismos Normales de un Espacio Unitario 91

Proposición III.3.8.- Sea F un subespacio de E invariante por a. Entonces

F ⊥ = {x ∈ E|hx, yi = 0 ∀y ∈ F }

es invariante por ã.


Demostración.- Sea x ∈ F ⊥ e y ∈ F , se tiene

hã(x), yi = hx, ã(y)i = 0.




Proposición III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈
End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio común a ϕ y ψ.
Demostración.- Sea λ valor propio de ϕ. Esto significa que

W = ker(ϕ − λid) 6= {0}.

Se observa que W es invariante por ψ. En efecto, ψ(w) ∈ W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que

ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w).

Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existe
v ∈ W con ψ(v) = µv. Por otro lado, por definición de W , se tiene ϕ(v) = λv.

Proposición III.3.10.- Se tiene:
i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a.
ii) Sea {f1 , . . . , fm } una base ortonormal de E tal que a(fj ) = λj fj , λj ∈ C. Entonces

1) ã(fj ) = λ̄j fj ;
2) a es autoadjunto ⇐⇒ λj ∈ R;
3) a es positivo ⇐⇒ λj ∈ R y λj > 0;
a es antiautoadjunto ⇐⇒ λj ∈ iR; 4)
a es unitario ⇐⇒ |λj | = 1.5)

Demostración.- i) ⇐ Sea {f1 , . . . , fm } una base ortonormal formada de vectores propios para a. Se tiene

a(fj ) = λj fj .

La matriz A de a respecto a esta base es diag(λ1 , . . . , λm ).


La matriz à de ã respecto a esta base es diag(λ̄1 , . . . , λ̄m ).
Se tiene AÃ = ÃA, es decir aã = ãa, a es normal. Observar que ii) 1) ha sido demostrado.
⇒ Se demuestra por inducción sobre m = dim E que existe una base ortonormal de E formada de vectores
propios comunes a a y ã.
Para m = 1, trivial.
Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 ∈ E con hf1 , f1 i = 1 y f1 vector
propio de a y ã. Se denota F1 el espacio engendrado por f1 . Por la proposicion III.3.8, se tiene

a(F1 ) ⊂ F1 → ã(F1⊥ ) ⊂ F1⊥


ã(F1 ) ⊂ F1 → a(F1⊥ ) ⊂ F1⊥

lo que implica que F1⊥ es invariante por a y ã.


92 III Formas Normales

Por hipótesis de inducción, existe una base ortonormal {f2 , . . . , fm } de F1⊥ , de vectores propios de a y
ã. Entonces {f1 , f2 , . . . , fm } es una base ortonormal de E formada de vectores propios para a y ã.
ii) 2,3,4 ejercicio.

Corolario III.3.11.- Sea A ∈ Mm,m (C) una matriz normal, respectivamente unitaria, hermı́tica, anti-
hermı́tica, positiva. Entonces existe U ∈ U(m, C) tal que

U AU −1 = diag(λ1 , . . . , λm )

donde λj ∈ C, respectivamente |λj | = 1, λj ∈ R, λj ∈ iR, λj ≥ 0.


Demostración.- Se interpreta A como la matriz de un endomorfismo normal de Cm , la proposición III.3.10
indica que existe una base ortonormal {f1 , . . . , fm } de Cm formada de vectores propios de A. Se introduce
la matriz de pasaje U de {e1 , . . . , em } a {f1 , . . . , fm }, entonces U ∈ U(m, C) y

U AU −1 = diag(λ1 , . . . , λm )


Dos Aplicaciones a las Matrices a Coeficientes Reales


Proposición III.3.12.- Sea A ∈ Mm,m (R) una matriz simétrica. Los valores propios de A son reales.
Además existe Q ∈ O(m, R) tal que QAQt = diag(λ1 , . . . , λm ).
Demostración.- Se tiene Mm,m (R) ⊂ Mm,m (C), A es por consiguiente hermı́tica. Por el corolario prece-
dente, los valores propios de A son reales. Ası́ mismo A es diagonalizable en Mm,m (C).
M
Se tiene que C = ker(A − λI), suma sobre los diferentes subespacios propios. Afirmamos que para la
λ
estructura estandar de espacio unitario los subespacios Vλ son ortogonales dos a dos, donde Vλ = ker(A−λI).
En efecto, se tiene

λhvλ , vµ i = hλvλ , vµ i = hAvλ , vµ i = hvλ , Avµ i = µ̄hvλ , vµ i = µhvλ , vµ i.

de donde hvλ , vµ i = 0 si λ 6= µ.
Sea w = (w1 , . . . , wm ) ∈ Cm , se plantea w̄ = (w̄1 , . . . , w̄m ). Sea W ⊂ Cm un subespacio vectorial, se
plante W̄ = {w̄|w ∈ W }.
Ejercicio.- Si W = W̄ , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm .
Se tiene Vλ = V̄λ . En efecto

v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ Av̄ = λv̄ ⇐⇒ v̄ ∈ Vλ .

Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamos
Bλ . Planteamos B = ∪Bλ , B es una base ortonormal de Cm formada de elementos de Rm , por consiguiente
B también es una base ortonormal de Rm formada de vectores propios de A.
Se introduce Q la matriz de pasaje de la base canónica a B. Se tiene

QAQt = diag(λ1 , . . . , λm ).


Ejercicio.-Estudiar en R2 la ecuación

ax2 + 2bxy + cy 2 = 1.
III.3 Endomorfismos Normales de un Espacio Unitario 93

Sea E = Rm , el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de E
respecto a la cual la matriz de ϕ es de la forma
 
cos α − sin α
0 ··· 0
 sin α cos α 
 cos β − sin β 
 0 
 sin β cos β 
 
 .. 
 . 
Θ= 


 cos ω − sin ω 
 0 · · · 0 
 sin ω cos ω 
 ±1 
 .. 
 . 
±1
La versión matricial: Sea Φ ∈ O(m, R), entonces existe Q ∈ O(m, R) tal que QΦQt = Θ.
Demostración.- Consideremos el diagrama siguiente

E = Rm ֒→ Cm
 
 
 
ϕ  ϕC
y y

Rm ֒→ CM

Sea Φ la matriz de ϕ respecto a la base canónica. ϕC la aplicación lineal de Φ respecto a la base canónica.
Por consiguiente ϕC es una transformación unitaria de Cm . Dicho de otra manera Φ ∈ O(m, R) ⊂ U(m, C).
Por la proposición III.3.10 ϕC es diagonalizable y sus valores propios son módulo igual a 1. Por con-
siguiente M
Cm = Kλ Kλ = ker(ϕC − λid).
Se observa que los Kλ son ortogonales dos a dos; en efecto


λhvλ , vµ i = hϕC vλ , vµ i = hvλ , ϕ̃C vµ i = vλ , ϕ−1
C vµ = µ̄
−1
hvλ , vµ i = µhvλ , vµ i = 0.
lo que implica que vλ ⊥ vµ si λ 6= µ.
Se observa que K̄λ = Kλ̄ . Verificar como ejercicio.
Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto K̄λ = K̄λ̄ = Kλ , por lo tanto exist una
base Bλ de Kλ ortogonal y formada de elementos de Rm .
Si λ 6∈ R, se considera
Kλ ⊕ Kλ̄ = Kλ ⊕ Kλ̄ .
Sea {v1 , . . . , vmλ } una base ortonormal de Kλ , entonces {v̄1 , . . . , v̄mλ } es una base ortonormal de Kλ̄ . Mostrar
esta afirmación como ejercicio.
Se plantea:
1
b2j−1 = √ (vj + v̄j ) ∈ Rm , j = 1, . . . , mλ ;
2
1
b2j = √ i(vj − v̄j ) ∈ Rm m, j = 1, . . . , mλ .
2
Ahora bien {b1 , . . . , b2mλ } = Bλ es una base ortonormal de Kλ ⊕ Kλ̄ formada de vectores de Rm . La
verificación de esta afirmación la dejamos como ejercicio.
Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm , entonces base de
R . El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ.
m


94 III Formas Normales

III.4 Descomposición Canónica

Definición III.4.1.- Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0.
Proposición III.4.2.- Sea f ∈ End(V ). Entonces existe una única descomposición V = N ⊕ R tal que
a) f (N ) ⊂ N y f|N es nilpotente.
b) f (R) ⊂ R y f|R es inversible.
Demostración.- Para la existencia, se considera la sucesión

{0} ⊂ ker(f ) ⊂ ker(f 2 ) ⊂ · · · ⊂ ker(f n ) ⊂ ker(f n+1 ) ⊂ · · · .

Se observa que si ker(f n ) = ker(f n+1 ), entonces ker(f n ) = ker(f n+p ) para p > 0. En efecto, sea x ∈
ker(f n+p ), se tiene f n+p (x) = 0 y

f n+1 (f p−1 (x)) = 0 ⇒ f p−1 (x) ∈ ker(f n+1 ) = ker(f n ),

de donde
f n+p−1 (x) = 0 ⇒ x ∈ ker(f n+p−1 ),
iterando las veces que sea necesario obtenemos x ∈ ker(f n ).
También se puede observar que existe q > 0 tal que

{0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ).

Se plantea
N = ker(f q ),
R = Im(f q ).
Estos dos subespacios verifican las condiciones a) y b) y V = N ⊕ R.
Se tiene N ∩ R = {0}, sea x ∈ N ∩ R ,se tiene f q (x) = 0 y x = f q (y) para cierto y ∈ V . Ası́
f (x) = f 2q (y), se tiene
q

y ∈ ker(f 2q ) = ker(f q ).
Se tiene V = N + R, esto sigue de la fórmula de dimensión para aplicaciones lineales

dim V = dim ker(f q ) + dim Im(f q ).

La condición a) se verifica porque


f (ker(f q )) ⊂ ker(f q )
y
(f| ker(f q ) )q = 0.
f| ker(f q ) es nilpotente.
La condición b) se cumple, por que f (Im(f q )) ⊂ Im(f q ). Se tiene fIm(f q ) es inversible, es suficiente ver
que
ker(f ) ∩ R = {0},
en efecto se tiene
ker(f ) ∩ R ⊂ N ∩ R = {0}.
Unicidad. Se supone que V = ker(f q ) ⊕ Im(f q ) = N ′ ⊕ R′ con N ′ y R′ que verifican las condiciones a) y b).
q
Se tiene f|N ′ nilpotente, N ′ ⊂ ker(f|N q
′ ⊂ ker(f ) = N .
q
f|R′ inversible, entonces f|R′ inversible, entonces R′ ⊂ Im(f q ) = R.
Por que V = N ⊕ R = N ′ ⊕ R′ , se tiene necesariamente N ′ = N y R′ = R.
III.4 Descomposición Canónica 95


Ejercicio.- Mostrar que si g ∈ End(V ) es nilpotente, entonces Pg (x) = xdim V .
Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f ∈ End(V ).
p
Y
Pf (x) = (x − λj )mj
j=1

P
con λi 6= λj para i 6= j y mj = m. Se tiene entonces
p
M
V = ker((f − λj id)mj ) .
j=1
| {z }
Vj

Es la descomposicion canónica de V en subespacios invariantes de f . Ademas dim Vj = mj , (f − λj id)|Vj es


nilpotente y Pf|Vj (x) = (x − λj )mj .
Demostración.- Sea λ1 un valor propio de f , sea m1 la multiplicidad algebraica de este valor propio. Se
aplica la proposición III.4.2 al endomorfismo f1 = f − λ1 id, entonces se tiene V = N1 ⊕ R1 , con
a) f1 (N1 ) ⊂ N1 y f1 |N1 nilpotente,
b) f1 (R1 ) ⊂ R1 y f1 |R1 inversible.
Deducimos por consiguiente que f (N1 ) ⊂ N y f (R1 ) ⊂ R1 . Ahora bien, se tiene

Pf1 (x) = det(x id − f1 ) = det(x id − f + λ1 id) = det((x + λ1 )id − f ) = Pf (x + λ1 ).

De donde Y
Pf1 (x) = xm1 (x + λ1 − λj )mj ,
j≥2

aplicando el ejercicio anterior al teorema y denotando n1 = dim N1 , se tiene

Pf1 |N1 (x) = xn1 ,

por lo tanto n1 = m1 y Y
Pf|R1 (x) = (x − λj )mj .
j≥2

El siguiente paso es mostrar que N1 = ker(f1m1 ). Se tiene

{0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ) = N1 .

Observamos inmediatamente que q ≤ m1 , por consiguiente

V = ker(f − λ1 id)m1 ⊕R1 ,


| {z }
V1

con f (R1 ) ⊂ R1 , dim V1 = m1 , Pf|V1 (x) = (x − λ1 )m1 y f|V1 nilpotente.


Se recomienza el razonamiento con R1 .

Ejemplo
1.- Consideremos la situación en que dim V = 2. Se tiene dos casos:
i) Pf (x) = (x − λ1 )(x − λ2 ) con λ1 6= λ2 . Se tiene

V = ker(f − λ1 id) ⊕ ker(f − λ2 id)


96 III Formas Normales

y f es diagonalizable.
ii) Pf (x) = (x − λ)2 , se tiene
V = ker(f − λid)2 ,
lo que implica que
λid + (f − λid) .
f = |{z}
| {z }
homotecia
nilpotente

Conservando la notación y las hipótesis del teorema, se introduce

fd : ⊕Vj = V → V
X X
vj 7→ λj vj .
vj ∈Vj

Dicho de otra manera fd (Vj ) ⊂ Vj y fd |Vj es una homotecia de razon λj . Por construcción fd es diagonalizable
y además Y
Pfd (x) = (x − λj )mj = Pf (x).
Se puede observar que V = ⊕Vj es la descomposición de V en suma directa de subespacios propios para fd .
Se plantea
fn = f − dd .

Proposición III.4.4.- Mismas hipótesis y notación del teorema III.4.3. Entonces se tiene:
i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fn fd = fd fn . Además
Pf (x) = ffd (x).
ii) Si fd′ diagonalizable y fn′ nilpotente como en i), entonces fd′ = fd y fn′ = fn ¿
Demostración i) Se tiene f = fd + fn por definición. Sea vj ∈ Vj , entonces fd (vj ) = λj vj ∈ Vj . Ahora
bien,
fd (f (vj ) = λj f (vj ),
| {z }
∈Vj

f (fd (vj )) = f (λvj ) = λj f (vj ),


de donde f fd = fd f , lo que un cálculo simple dará fn fd = fd fn .
fd es diagonalizable por construcción. Veamos que fn es nilpotente, sea vj ∈ Vj , se tiene

fnmj (vj ) = (f − fd )mj (vj ) = (f − λj id)mj (vj ) = 0,

porque Vj = ker(f − λj id)mj . Sea M = max{mj }, entonces se tiene


X X
fnM ( vj ) = fnM (vj ) = 0

y fn es nilpotente.
Pf = Pfd por construcción.
ii) Sean fd′ diagonalizable y fn′ nilpotentes, tales que

f = fd′ + fn′ , fd′ fn′ = fn′ fd′ .

Por el teorema III.4.3 aplicado a fd′ , se tiene que


M Y
V = Vj′ , Pfd′ (x) = (x − λ′j )nj , Vj′ = ker(fd′ − λ′j id)nj y fd′ (Vj′ ) ⊂ Vj′ .

Deber observarse que Vj′ = ker(fd′ − λ′j id) por que fd′ es diagonalizable. Mostremos que fn′ (Vj ) ⊂ Vj ; en
efecto, se tiene vj′ ∈ Vj ⇐⇒ fd′ (vj ) = λ′j (vj′ ). Ahora bien

fn′ (fd′ − λ′j id)(vj′ ) = fn′ fd′ (vj ) − λ′j fn′ (vj′ ) = 0,
⇒ fd′ (fn′ ) = λ′j fn (vj′ ).
III.4 Descomposición Canónica 97

De la misma manera se muestra que f (Vj′ ) ⊂ Vj′ . Utilizando la proposición III.3.9 para f , fn′ y fd′ restringidos
en Vj′ , deducimos que λ′j = λk , para algún k, la verificación la dejamos como un simple ejercicio. En resumen
todo valor propio de fd′ es valor propio de f .
El siguiente paso es mostrar que fn′ (Vj ) ⊂ Vj , para todo j. Se tiene que

fn′ (vj ) = (fn + fd − fd′ )(vj ) = fn (vj ) + (λj − βj )vj ∈ Vj ,

por que vj ∈ Vk′ para algún k. Además

fd (fn′ (vj )) = λj fn′ (vj ) = fn′ (λj vj ) = fn′ (fd (vj )),

de donde fd fn′ = fn′ fd sobre Vj y por consiguiente sobre V . Por simples cálculos es facil ver también que
fn′ fn = fn fn′ .
Ejercicio.-Mostrar que fn − fn′ es nilpotente.
Por último mostremos que fd′ = fd , sea 0 6= v ∈ V ,

αv = fd (v) = fd′ (v) + (fn′ − fn )(v) = βv + (fn′ − fn )(v),

de donde v es vector propio de fn′ − fn y como este endomorfismo es nilpotente deducimos que fn′ (v) = fn (v)
y fd′ (v) = fd (v).

98 III Formas Normales

III.5 Teorema de Hamilton Cayley

Teorema III.5.1.- Hamilton-Cayley. Se tiene:


i) Sea f ∈ End(V ), entonces Pf (f ) = 0.
ii) Sea A ∈ Mm,m (K), entonces PA (A) = 0.
Demostración.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de-
mostración debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K̄ algebraicamente cerrado. Por
ejemplo R ⊂ C. La demostración se la realiza en dos etapas.
1.-K cuerpo de base arbitrario. Ejercicios de la Práctica.
2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente
Y M
Pf (x) = (x − λj )mj , V = Vj ,

donde Vj = ker(f − λj id)mj .


Se tiene Y
Pf (f ) = (f − λj id)mj ,
j

producto en cualquier orden.


Sea vk ∈ Vk , se tiene por consiguiente
Y Y
Pf (f )(vk ) = Pf (f ) = (f − λj id)mj (vk ) = (f − λj id)mj (f − λk id)mk (vk ) .
| {z }
j j6=k
=0

De donde Pf (f ) = 0.

Consideremos la aplicación
ϕf K[x] → End(V )
P 7→ P (f )
Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimensión de V es m, se
tiene dim End(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significa
que ker ϕf 6= {0}.
Como ϕf es un homomorfismo de anillos, se tiene que ker ϕf es un ideal, resultado que será visto en
otro curso.
El teorema de Hamilton Cayley afirma que Pf ∈ ker ϕf y se mostrará en otro curso de Algebra que

ker ϕf = Mf K[x] = {Mf P |P ∈ K[x]}.

Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f ∈ End(V ).


Por consiguiente se tiene que Mf divide Pf .
Ejemplos
1.- Sea  
a11 a12
A= ,
a21 a22
el polinomio caracterı́stico de A está dado por

PA (x) = x2 − (a11 + a22 )x + (a11 a22 − a12 a21 ),

de donde  
0 0
PA (A) = A2 − (a11 + a22 )A + (a11 a22 − a12 a21 )I = .
0 0
III.5 Teorema de Hamilton Cayley 99

2.- Sea A ∈ Mm,m (K). Se pide calcular A100 . Sea PA el polinomio caracterı́stico de A, este polinomio es
de grado m. Efectuando la división con resto, se tiene

x100 = PA (x)Q(x) + RA (x),

donde el grado de RA (x) es menor a m. Remplazando A en los polinomios, se obtiene

A100 = PA (A) Q(A) + R(A).


| {z }
=0

El cálculo de A100 se lleva al cálculo de RA (A).


Consideremos el caso en que PA (x) tiene raices simples, entonces A es diagonalizable, por lo tanto existe
M ∈ Gl(m, K) tal que
M AM −1 = diag(λ1 , . . . , λm ),
M A100 M −1 = diag(λ100 100
1 , . . . , λm ).

Entonces RA (λi ) = λ100


i . En efecto

(x100 − RA )(λi ) = 0, i = 1, . . . , m.

Por lo tanto x100 − RA es divisible por (x − λ1 ) · · · (x − λm ).


Veamos esto numéricamente, sea  
1 1
A=
1 0
la matriz de la serie de Fibonacci. Se tiene
√ √
2 1+ 5 1− 5
PA (x) = x − x − 1 = (x − λ1 )(x − λ2 ), con λ1 = , λ2 = ,
2 2
de donde
λ100
1 λ100
2
RA (x) = (x − λ2 ) + (λ1 − x),
λ1 − λ2 λ1 − λ2
por lo tanto   
  λ1 − 1 −1
1 1 − λ2 1
A100 = √ λ100
1 + λ100
2
 −1  .
5 1 −λ2
λ1
100 III Formas Normales

III.6 Endomorfismos Nilpotentes

Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0.


Resultado Principal.- Existe una base de V respecto a la cual la matriz de g nilpotente, tiene la forma
normal de Jordan siguiente
 
0 ν1
 0 ν2 
 .. .. 
 . .  con νi = 0 o νi = 1.
 
 0 νn−1 
0
Se dice que A ∈ Mm,m (K) es nilpotente si existe n > 0, tal que An = 0.
Resultado.- Existe M ∈ Gl(m, K) tal que M AM −1 es de la forma normal.
Definición III.6.1.- Sea g ∈ End(V ) nilpotente, el entero más pequeño q > 0 tal que g q = 0 se llama
ı́ndice de g.
Proposición III.6.2.- Sea g nilpotente de ı́ndice q. Sea v1 ∈ V tal que g q−1 (v1 ) 6= 0; entonces:
i) los vectores v1 , g(v1 ), . . . , g q−1 (v1 ) son linealmente independientes.
Se denota V1 el subespacio de V engendrado por {v1 , g(v1 ), . . . , g q−1 (v1 )}. Se tiene g(V1 ) ⊂ V1 .
ii) Existe un subespacio W de V tal que
a) V = V1 ⊕ W ,
b) g(W ) ⊂ W .
Si se toma como base de V {v1 , g(v1 ), . . . , g q−1 (v1 ), w1 , . . . , wp } la matriz de g respecto a esta base es
| {z } | {z }
base de V1 base de W

de la forma  

0 1
 .. .. 0 
. .
 .
 0

0 ∗

Demostración.- i) Por el absurdo, suponemos que {v1 , g(v1 ), . . . , g q−1 (v1 )} es una familia linealmente
dependiente, por consiguiente existen αi ∈ K no todos nulos tales que
q−1
X
αi g i (v1 ) = 0,
i=0

se denota p el ı́ndice más pequeño tal que αp 6= 0. Se tiene


 
X αi X αi
g p (vi ) = − g i (v1 ) = g p+1 − g i−p−1 (v1 ) = g p+1 (w).
i>p
αp i>p
αp
| {z }
w

Entonces
g q−1 (v1 ) = g q−p−1 (g p (v1 )) = g q−p−1 (g p+1 (w)) = 0.
Lo que contradice con la hipótesis que g q−1 (v1 ) = 0. Por consiguiente
{v1 , g(v1 ), . . . , g q−1 (v1 )} es linealmente independiente.P
Mostremos que g(V1 ) ⊂ V1 , sea w ∈ V1 , se tiene w = αi g i (v1 ) y
X
g(w) = αi g i+1 (vi ) ∈ V1 ⇒ g(V1 ) ⊂ V1 .
III.6 Endomorfismos Nilpotentes 101

ii) Se mostrará por inducción sobre el ı́ndice q de g la existencia de un suplementario W de V1 que es estable
por g.
Si q = 1, entonces g = 0 y no hay nada que hacer.
Se supone cierta la aserción para los endomorfismos nilpotentes de ı́ndice < q.
Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ı́ndice de g|R es
q − 1. La verificación de que el ı́ndice de g|R la dejamos como ejercicio.
Se puede aplicar la hipótesis de inducción a R, g|R , g(v1 ) y R1 , donde R1 es el subespacio de R
engendrado por {g(v1 ), . . . , g q−1 (v1 )}. Entonces existe un subespacio S de R tal que R = R1 ⊕ S y g(S) ⊂ S.
Via
V → R = Img
v 7→ g(v)
se introduce S ′ = {v ∈ V |g(v) ∈ S}.
Afirmamos que V = V1 + S ′ . En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que
g(x1 ) = r1 . Ahora bien
g(v − x1 ) = g(v) − g(s1 ) = s ∈ S,
por lo tanto v − x1 ∈ S ′ y más todavı́a v = x1 + s′ con x1 ∈ V1 y s′ ∈ S ′ .
Observamos que g(S ′ ) ⊂ S ′ , en efecto, sea s′ ∈ S ′

g(s′ ) ∈ S ′ ⇐⇒ g(g(s′ )) ∈ S,

esto es cierto por que g(S) ⊂ S por hipótesis de inducción.


V1 ∩ S ′ 6= {0}. En realidad V1 ∩ S ′ es de dimensión 1 engendrado por g p−1 (v1 ). En efecto,
0 6= g p−1 (v1 ) ∈ V1 por definición,
0 6= g p−1 (v1 ) ∈ S ′ por que g(g p−1 (v1 )) = 0 ∈ S.
Recı́procamente, sea v ∈ V1 ∩ S ′ , se tiene
)
g(v) ∈ V1 ∩ Im(g) = R1
⇒ g(v) ∈ S ∩ R1 = {0};
g(v) ∈ S

g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por g p−1 (v1 ).
V1 ∩ S = {0}; en efecto

V1 ∩ S = V1 ∩ (S ∩ R) = V1 ∩ R ∩ S = R1 ∩ S = {0}.

Se considera por consiguiente el subespacio de S ′ dado por

S ⊕ (S ′ ∩ V1 ),

se elige un suplementario
S ′ = S ⊕ (S ′ ∩ V1 ) ⊕ S ′′ ,
se plantea W = S ⊕ S ′′ .
El subespacio W satisface las condiciones de la proposición, es decir:
a) g(W ) ⊂ W ; en efecto, w ∈ W , se tiene g(w) ∈ S ⊂ W .
b) V1 ∩ W = {0}; en efecto,

V1 ∩ W = V1 ∩ (W ∩ S ′ ) = (V1 ∩ S ′ ) ∩ W = {0},

por construcción de W .
c) V1 + W = V ; en efecto,

V = V1 + S ′ = V1 + (W + V1 ∩ S ′ ) = V1 + W.

102 III Formas Normales

Sea g ∈ End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio cı́clico


respecto a g, si existe v1 ∈ V y n > 0 tal que

v1 , g(v1 ), . . . , g n−1 (v1 )

es una base de V1 y g n (v1 ) = 0.


En la proposición precedente se ha mostrado la existencia de subespacios cı́clicos.
Teorema III.6.3.- Sea g ∈ End(V ) nilpotente. Entonces existe una descomposición
k
M
V = Vj , (III.6.1)
j=1

donde cada uno de los Vj es cı́clico respecto a g. El entero k y los enteros qj = dim Vj dependen solamente
de g y no ası́ de la descomposición particular (III.6.1).
Demostración.- Se elige v1 ∈ V como en la proposición (III.6.2), después V1 el subespacio engendrado por
{v1 , g(v1 ), . . . , g q−1 (v1 )}. El subespacio V1 es cı́clico respecto a g.
Además existe una descomposición V = V1 ⊕ W donde g(W ) ⊂ W .
Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposición
(III.6.1).
Mostremos la unicidad de k y los qj . Para un entero n, se plantea

e(n) = #{j| dim Vj = n}.

e(n) depende solamente de g y no de la descomposición particular en subespacios cı́clicos. En efecto la


fórmula
e(n) = rang(g n−1 ) − 2rang(g n ) + rang(g n+1 )
depende solamente de g. Mostremos esta última fórmula. Consideremos Vj , la base es vj , g(vj ), . . . , g qj −1 (vj )
y g qj (vj ) = 0. Se tiene

rang(g|Vj ) = qj − 1 


2
rang(g|V ) = qj − 2 ⇒ rang(g n ) = max{0, q − n},
j
|Vj j


.. 
.
entonces
k
X
rang(g n ) = n
rang(g|Vj
).
j=1

Por lo tanto

rang(g n−1 ) = e(n) + 2e(n + 1) + 3e(n + 2) + · · · + (l + 1)e(n + l)


rang(g n ) = e(n + 1) + 2e(n + 2) + · · · + l e(n)
n+1
rang(g )= e(n + 2) + · · · + (l − 1)e(n + l)


Proposición III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de V
respecto a la cual la matriz es de la forma normal de Jordan
 
0 ν1
 0 ν2 
 .. .. 
 . .  con νi = 0 o νi = 1.
 
 0 ν 
n−1
0
III.6 Endomorfismos Nilpotentes 103

ii) Sea A ∈ Mm,m (K) nilpotente. Entonces existe M ∈ Gl(m, K) tal que M AM −1 sea de la forma de Jordan.
Demostración.- Se recuerda el teorema precedente. Existe
k
M
V = Vj
j=1

donde los Vj son cı́clicos respecto a g. Es decir existe vj ∈ Vj tal que


{vj , g(vj ), . . . , g qj −1 (vj )} es una base de Vj y g qj (vj ) = 0, con qj = dim Vj .
Se toma por base de Vj ,
Bj = {g qj −1 (vj ), . . . , g(vj ), vj },
la matriz de g|Vj respecto a Bj es
 
0 1
 .. .. 
 . . .
 0 1
0
Juntando los Bj se obtiene la base buscada.

k
M
La descomposición V = Vj respecto a g no es única, pero si son enteramente determinados por g los
j=1
enteros k y qj .
Se llama partición del entero m ≥ 1, una descomposición de m en

m = q1 + q2 + · · · + qk , con q1 ≥ q2 ≥ · · · ≥ qk > 0.

Ejemplo
1.- Las particiones del entero 4 son:
4 = 4,
4 = 3 + 1,
4 = 2 + 2,
4 = 2 + 1 + 1,
4 = 1 + 1 + 1 + 1;
en total 5 particiones de 4.
A g ∈ End(V ) nilpotente se le asocia la partición

k
X
m= qj .
j=1

Proposición III.6.5.- Sean g, g ′ ∈ End(V ) nilpotentes. Entonces



g y g ′ son conjugados ⇐⇒ las particiones asociadas a g y g son las
mismas.

Demostración.- ⇒ Por hipótesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g ′ = hgh−1 . Se toma
una descomposición en espacios cı́clicos respecto a g V = ⊕Vj .
Afirmamos que V = ⊕h(Vj ) es una descomposición en subespacios cı́clicos respecto a g ′ , con lo que la
primera implicación estarı́a demostrada. En efecto, por hipótesis existe vj ∈ Vj tal que

{vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj , g qj (vj ) = 0, qj = dim Vj .


104 III Formas Normales

Una simple verificación dará


qj −1 q
{h(vj ), g ′ (h(vj )), . . . , g ′ (h(vj ))} es base de h(Vj ), g ′ j (h(vj )) = 0, qj = dim h(Vj ).

⇐ Se supone que las particiones son las mismas; es decir:


Mk
V = Vj descomposicón en subespacios cı́clicos respecto a g,
j=1
k
M
V = Vj′ descomposicón en subespacios cı́clicos respecto a g ′ ,
j=1
con la condición dim Vj = dim Vj′ . Consideremos.
(
{vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj ,
vj ∈ Vj tal que
g qj (vj ) = 0;
( qj −1
{vj′ , g ′ (vj′ ), . . . , g ′ (vj′ )} es base de Vj′ ,
vj′ ∈ Vj′ tal que q
g ′ j (vj′ ) = 0.

Se plantea h : V → V la aplicación lineal definida por


l
g l vj 7→ g ′ (vj′ ), 0 ≤ l ≤ qj − 1, j = 1, . . . , k.

Esta aplicación es un isomorfismo por que envı́a base sobre base.


Afirmamos que hgh−1 = g ′ , con lo que la proposición estarı́a demostrada. En efecto, para verificar que
2 aplicaciones lineales coinciden, es suficiente verificar que coinciden sobre los elementos de una base;
l l+1 l
hgh−1 (g ′ (vj′ )) = hgg l (vj ) = hg l+1 (vj ) = g ′ = g ′ (g ′ (vj′ )).


Corolario III.6.6.- Existe un número finito de clases de conjugación de endomorfismos (de matrices)
nilpotentes. Este númro es igual al número de particiones del entero m = dim V .
Demostración.- Consecuencia de la proposición III.6.5, se ha obtenido una aplicación inyectiva
 
clases de conjugación de matrices (en- → {particiones de m} .
domorfismos) nilpotentes m × m

Esta aplicación también es sobreyectiva. En efecto, sea m = q1 + q2 + · · · + qk una partición de m. Se plantea


 q1 
z }| {
0 1 
 .. .. 
 . . 
 
 
 0 
 q2 
 z }| { 
 
 0 1 
 .. .. 
A=
 . .  ∈ Mm,m (K);

 
 0

 .. 
 . 
 qk 
 z }| {
 
 0 1 
 .. .. 
 . .
0
III.6 Endomorfismos Nilpotentes 105

sea {e1 , . . . , em } la base canónica de Km . Se tiene

Km = V1 ⊕···⊕ Vk
|{z} |{z}
dim V1 =q1 dim Vk =qk

con {e1 , . . . , eq1 } base de V1 , {eq1 +1 , . . . , eq1 +q2 } base de V2 , etc. Esta es una descomposición en subespacios
cı́clicos respecto a A. En efecto A(eq1 ) = eq1 −1 , A2 (eq1 ) = eq1 −2 , etc.

Ejemplo
2.- Las matrices nilpotentes de 4 × 4 son conjugadas a una de las siguientes matrices de Jordan
   
0 1 0 0 0 1 0 0
0 0 1 0 0 0 1 0
 ,  ,
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
   
0 1 0 0 0 1 0 0
0 0 0 0 0 0 0 0
 ,  ,
0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0
106 III Formas Normales

III.7 Descomposición de Jordan

Se plantea  
a sc1
 a 1 
 .. .. 
J(m, a) = 
 . .  ∈ Mm,m (K).

 a 1

a

Una matriz de la forma normal de Jordan es


 J(m , a ) 0 
1 1
 0 J(m2 , a2 ) 
 .. 
 . 
J(mk , ak )

no es necesario que ai 6= aj si i 6= j.
Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces:
i) Sea f ∈ End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal
de Jordan.
ii) Sea A ∈ Mm,m (K), entonces existe M ∈ Gl(m, K) tal que M AM −1 es de la forma de Jordan.
Yr
Demostración.- Se escribe Pf (x) = (x − λj )mj . Se plantea Vj = ker(f − λj id)mj . Se tiene
j=1

r
M
V = Vj ,
j=1

descomposición canónica en espacios invariantes respecto a f .


Se introduce f = fd + fn , la descomposición de Jordan de f , donde fd es diagonalizable, fd (Vj ) ⊂ Vj y
fd |Vj = λj id; fn es nilpotente, fn (Vj ) ⊂ Vj y por lo tanto fn |Vj es nilpotente.
Resultado del paragrafo precedente, existe una base Bj de Vj respecto a la cual la matriz de fn |Vj es de
la forma  
0 ν1 

 0 ν2 

 .. .. 
 
 . .  mj = dim Vj con νi = 0 o νi = 1.
 
0 νmj −1  

0
La matriz de f|Vj = (fd + fn )|Vj respecto a Bj es
 
λj ν1
 0 ν2 
 .. .. 
 . . 
 
 λj νmj −1 
λj

de tipo Jordan.
Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida.

III.7 Descomposición de Jordan 107

Proposición III.7.2.- Sean


 J(m , a ) 0 
1 1
 0 J(m2 , a2 ) 
J =
 .. ,

.
J(mp , ap )
 J(m′ , a′ ) 0 
1 1
 0 J(m′2 , a′2 ) 
J′ = 
 .. .

.
J(m′q , a′q )
Entonces J y J ′ son conjugadas, si y solamente si p = q y existe una permutación σ de {1, . . . , p} tal que

mσ(i) = m′i , aσ(i) = a′i .

Ejemplos
1.- Si A = M JM −1 , entonces An = M J n M −1 . Teóricamente para calcular An es suficiente saber calcular
la potencia de una matriz de Jordan. Se tiene

J(m, a) = aI + N,

y
n  
X n
(J(m, a))n = ap−1 N i ,
i
i=1
0
con la convención que N = I. Puede observarse que N p = 0 si p ≥ m. Por otro lado a cada potencia
de N la subdiagonal de 1’s se desplaza a la derecha de una subdiagonal.
2.- Colocar A bajo la forma de Jordan, donde
 
0 1 0
A =  0 0 1.
−1 1 1
Se tiene
PA (x) = (x − 1)2 (x + 1),
por consiguiente
C3 = ker(A + I) ⊕ ker(A − I)2 .
| {z } | {z }
V1 V2

Realizando cálculos elementales, se tiene que

V1 =< {(1, 1, 1)} >, V2 =< {(2, 1, 0), (−1, 0, 1)} > .

Elegimos v2 = (2, 1, 0), entonces (A − I)v2 = (−1, −1, −1).


Por consiguiente, la matriz de Jordan conjugada a A es
 
−1 0 0
J =  0 1 1
0 0 1

y si J = M −1 AM , se tiene  
1 −1 2
M =  1 −1 1  .
1 0 −1

You might also like