You are on page 1of 493

Curso de Algebra Lineal (s´eptima versi´ on, 2012).

Luc´ıa Contreras Caballero.
Depto. Matem´ aticas. Fac. Ciencias.
Universidad Aut´ onoma de Madrid.
1
2
PR
´
OLOGO.
He escrito este curso tratando de expresar de la forma m´as sencilla posible los conceptos de ´ algebra
lineal, requiriendo solamente los conceptos previos de Bachillerato. Corresponde a los programas de
los dos semestres de primer curso de ´ algebra lineal de C.C. F´ısicas en la Universidad Aut´onoma de
Madrid. Despu´es ha sido ampliado para cubrir tambi´en los programas de los semestres de Algebra
Lineal y Algebra Lineal y Geometr´ıa de CC. Matem´ aticas.
Aqu´ı se encontraban en la tercera versi´on, algunos trabajos originales de la autora: Una intro-
ducci´ on geom´etrica a los determinantes, una demostraci´on sencilla de la regla de Cramer, demostra-
ciones elementales del teorema de Jordan en dimensi´ on 2, 3 y 4, la obtenci´on de la base de Jordan
en dimensi´ on 2 y 3 y una aplicaci´ on del espacio dual a la obtenci´on de condiciones necesarias y
suficientes para la diagonalizaci´on simult´ anea de formas cuadr´ aticas.
Tambi´en se encontraba una aplicaci´on del concepto de dimensi´on al c´alculo del rango de una
matriz y aplicaciones de la diagonalizaci´ on de formas cuadr´ aticas, y entre los ejercicios, aplicaciones de
la diagonalizaci´ on de matrices y de su forma de Jordan a problemas de poblaciones. Y se explicitaban
el m´etodo de Gauss, el teorema de Rouch´e-Frobenius y el criterio de Sylvester. Otra aplicaci´on
interesante es la de la t´ecnica de las proyecciones al m´etodo de m´ınimos cuadrados.
En la cuarta versi´ on he a˜ nadido otros trabajos tambi´en originales: condiciones necesarias y sufi-
cientes para detectar el car´ acter de las formas cuadr´ aticas degeneradas, una demostraci´ on elemental
del teorema de Jordan general para endomorfismos, un m´etodo f´acil para hallar la forma de Jordan y
una demostraci´on de que el sentido f´ısico de la regla del sacacorchos del producto vectorial coincide
con el sentido matem´ atico de dicho producto vectorial.
En la quinta versi´on he a˜ nadido la din´ amica de poblaciones. En la sexta versi´ on he a˜ nadido un
cap´ıtulo de c´onicas y otro de cu´adricas. En la s´eptima version he a˜ nadido una ap´endice sobre el
espacio cociente.
El curso es autocontenido, con todas las demostraciones de los resultados y teoremas expuestos
de forma l´ ogica y rigurosa.
Intentando que los alumnos estudien los conceptos, se introducen motivaciones de los mismos y
se intercalan muchos grupos de ejercicios con dificultad progresiva. Algunos ejercicios se plantean de
forma que se puedan resolver de distintas maneras, lo cual permite al alumno la comprobaci´on de
sus resultados.
Tambi´en he intercalado dibujos que facilitan la comprensi´ on de los conceptos y de los razonamien-
tos y ejemplos resueltos en los ´ ultimos cap´ıtulos.
Luc´ıa Contreras Caballero.
3
´
INDICE.
N
´
UMEROS COMPLEJOS.
Introducci´ on. 9
Regla de Ruffini para soluciones fraccionarias. 12
N´ umeros Complejos. 14
Inverso de un n´ umero complejo. 15
Propiedades de las soluciones de las ecuaciones. 19
Forma trigonom´etrica y forma polar de un n´ umero complejo. 22
Radicaci´ on. 26
MATRICES. SUS OPERACIONES.
Introducci´ on. 31
Operaciones en las matrices. 32
Tipos de matrices. 38
M
´
ETODO DE GAUSS Y REDUCCI
´
ON DE GAUSS-JORDAN.
Introducci´ on. 47
M´etodo de Gauss. 50
Operaciones elementales en una matriz. 57
Reducci´ on de Gauss-Jordan. 63
Matrices Invertibles. 68
Caracterizaci´ on de las matrices invertibles. 69
M´etodo de Gauss para obtener la inversa de una matriz invertible. 77
DETERMINANTES y SISTEMAS de ECUACIONES.
Introducci´ on. 81
Propiedades de los determinantes y operaciones elementales. 85
Definici´ on de los determinantes. 90
Comprobaci´ on de las propiedades. 91
Regla de Cramer sin utilizar la matriz inversa. 98
Caracterizaci´ on de las matrices invertibles por su determinante. 100
Determinante del producto. 101
Desarrollo del determinante por una fila cualquiera y por una columna cualquiera. 104
F´ ormula para la inversa. 106
Regla de Cramer. 110
Teorema de Rouch´e-Frobenius. 111
Producto Vectorial. 116
ESPACIOS VECTORIALES.
Introducci´ on. 125
4
Cuerpo. Propiedades. 127
Espacio Vectorial. 129
Subespacios Vectoriales. 131
Bases. 141
Teorema de la Base. 147
Cambio de base. 153
Aplicaciones del concepto de dimensi´ on a procesos concretos. 155
Independencia del n´ umero de escalones obtenidos escalonando una matriz. 155
Extracci´ on de la base a partir de un sistema generador. 156
Aplicaci´ on del rango a la obtenci´ on de las ecuaciones cartesianas de un subespacio dado por sus
generadores. 158
C´ alculo del rango de la matriz A y b´ usqueda del menor distinto de cero de orden igual al rango.
160
Aplicaci´ on al m´etodo de Gauss. 163
Suma e intersecci´on de subespacios vectoriales. 164
APLICACIONES LINEALES.
Introducci´ on. 171
Expresi´ on matricial de una aplicaci´on lineal. 174
Cambio de base en la expresi´on matricial de una aplicaci´ on lineal. 177
N´ ucleo de una aplicaci´on lineal. 183
Imagen de una aplicaci´ on lineal. 186
F´ ormula de las dimensiones para una aplicaci´ on lineal. 190
Isomorfismos. 192
Espacio dual. 195
ESPACIO EUCL
´
IDEO.
Introducci´ on. 201
Ortogonalidad. 202
Bases Ortogonales. 205
Ortogonalidad entre subespacios. 207
Complemento Ortogonal. 207
Teorema de Tellegen. 209
Proyecciones en general. 211
Proyecciones Ortogonales. 212
Proyecci´on ortogonal de un vector sobre un subespacio. 213
Teorema de la aproximaci´ on ´ optima. 215
M´etodo de Aproximaci´ on de M´ınimos Cuadrados. 216
Aplicaci´ on del m´etodo de m´ınimos cuadrados a la regresi´ on lineal. 218
5
Aplicaci´ on del m´etodo de m´ınimos cuadrados a la obtenci´on de la matriz de la aplicaci´ on proyecci´ on
ortogonal sobre un subespacio. 221
ESPACIO EUCL
´
IDEO GENERAL.
Una generalizaci´ on m´ as del Producto Escalar. 222
Expresi´ on polinomial de una forma bilineal en un espacio vectorial de dimensi´on finita. 226
Expresi´ on matricial de una forma bilineal en un espacio vectorial de dimensi´on finita. 226
Complementario Ortogonal en el espacio eucl´ıdeo general. 229
Proyecciones ortogonales en un espacio eucl´ıdeo general. 230
M´etodo para encontrar una base ortonormal en un espacio vectorial de dimensi´on finita. 232
M´etodo de ortogonalizaci´ on de Gram-Schmidt. 233
Ortogonalidad en un espacio eucl´ıdeo general. 238
Desigualdad de Schwarz. 239
Cambio de base. 241
Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto Escalar.
(Criterio de Sylvester). 243
DIAGONALIZACI
´
ON DE ENDOMORFISMOS. Aplicaciones autoadjuntas en espacios eucl´ıdeos
y herm´ıticos, y aplicaciones unitarias en espacios herm´ıticos.
Introducci´ on. 249
Vectores propios y valores propios. 250
Primera condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable. 251
Segunda condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable. 257
Din´ amica de poblaciones. 259
Multiplicidad de los valores propios. 260
Tercera condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable. 262
Aplicaciones autoadjuntas en un espacio eucl´ıdeo. 264
Diagonalizaci´ on de las Aplicaciones Autoadjuntas, (de las matrices sim´etricas). 268
Espacios Herm´ıticos. 275
FORMAS CUADR
´
ATICAS.
Introducci´ on. 281
Expresi´ on matricial de una forma cuadr´ atica. 281
Cambio de base en formas cuadr´aticas. 285
Diagonalizaci´ on de formas cuadr´ aticas. 287
Diagonalizaci´ on de una forma cuadr´atica en una base ortonormal. 287
Estudio de C´ onicas. 291
M´ aximos y m´ınimos de funciones. 292
M´ aximos y m´ınimos en la esfera unidad. 293
Energ´ıa de rotaci´ on de un s´olido. 294
Diagonalizaci´ on de formas cuadr´ aticas completando cuadrados. 295
6
Ley de inercia de Sylvester. 302
Criterio de Sylvester para formas cuadr´ aticas definidas positivas. 306
Criterios para formas cuadr´ aticas degeneradas. 311
Diagonalizaci´ on simult´anea de formas cuadr´aticas. 319
Condiciones necesarias y suficientes para la diagonalizaci´on simult´ anea de formas cuadr´aticas.325
FORMAS DE JORDAN EN DIMENSI
´
ON 2, 3 y 4.
Introducci´ on. 333
Consideraciones previas. 334
Forma de Jordan de Matrices 2 2 de n´ umeros reales. 335
Forma de Jordan de Matrices 3 3 de n´ umeros reales. 339
Resumen de la forma de Jordan en R
3
. 354
Forma de Jordan compleja de Matrices 4 4 de n´ umeros complejos. 355
Resumen de la forma de Jordan en R
4
. 360
DEMOSTRACI
´
ON DEL TEOREMA DE JORDAN PARA ENDOMORFISMOS.
Teorema de Jordan. 363
Ejemplos para un m´etodo f´ acil para hallar la base de Jordan. 367
M´etodo general. 378
APLICACIONES ORTOGONALES. ESPACIO AF
´
IN Y MOVIMIENTOS.
Introducci´ on. 383
Definici´ on y propiedades. 383
Estudio de las transformaciones ortogonales de R
2
. 389
Estudio de las transformaciones ortogonales de R
3
. 395
Espacio Af´ın. 405
Aplicaciones afines con puntos fijos. 414
Movimentos en el plano. 420
Movimentos en el espacio tridimensional. 425
Sentido del producto vectorial. 438
C
´
ONICAS.
Introducci´ on. 441
Ecuaciones de las c´ onicas en posici´ on can´ onica. 443
Ecuaciones de algunas c´ onicas en posici´ on no can´ onica. 446
Algunos ejemplos de reducci´ on de curvas de segundo grado a su ecuaci´on can´ onica. 449
Reducci´ on de la ecuaci´ on general de la expresi´ on de una curva de segundo grado a su expresi´ on
can´ onica. 453
Invariantes de las c´onicas. 455
Clasificaci´ on de las c´onicas. 457
Ejes de simetr´ıa y centro de las c´onicas no degeneradas. 458
C´ alculos en la elipse del ejemplo 5. 460
7
C´ alculos en la hip´erbola del ejemplo 6. 461
C´ alculos en la par´abola del ejemplo 7. 462
Unificaci´ on de las c´onicas en una definici´on de lugar geom´etrico. 465
CU
´
ADRICAS.
Introducci´ on. 469
Estudio general de la superficie de segundo grado. 472
Invariantes de las cu´ adricas. 476
Clasificaci´ on de las cu´adricas. 478
Resumen de la clasificaci´ on de las cu´adricas. 479
Ejes de simetr´ıa y centro de las cu´adricas no degeneradas. 479
Otros invariantes de las cu´adricas degeneradas. 482
Ley de los signos de Descartes. 484
AP
´
ENDICE: ESPACIO VECTORIAL COCIENTE. 487
8
N
´
UMEROS COMPLEJOS.
Introducci´ on.
Los distintos tipos de n´ umeros han ido apareciendo en la historia del hombre progresivamente,
seg´ un las necesidades de las actividades que realizaba y son estudiados hoy tambi´en progresivamente
desde la escuela primaria a la Universidad.
Debido a la necesidad de contar las cabezas de ganado surgieron los n´ umeros naturales, (que
son todos positivos) con los que se puede sumar; los n´ umeros enteros, (que pueden ser positivos o
negativos e incluyen al cero) sirven para indicar los intercambios de mercanc´ıas y dinero; con ellos se
puede sumar y restar. La multiplicaci´ on es una forma m´as r´ apida de hacer una suma de sumandos
iguales y entonces se plantea el problema de hacer la operaci´on inversa a la multiplicaci´on que es la
divisi´ on, pero esta operaci´on no siempre tiene soluci´ on con n´ umeros enteros, por lo que se crearon
otros n´ umeros llamados fraccionarios o racionales.
Los n´ umeros enteros se caracterizan por el hecho de que cualquier ecuaci´on de la forma x+a = b
tiene soluci´on cuando los n´ umeros que aparecen en ella son enteros.
Los n´ umeros fraccionarios se caracterizan por el hecho de que cualquier ecuaci´ on de la forma
a
1
x +a = b tiene soluci´on cuando los n´ umeros que aparecen en ella son fraccionarios y a
1
,= 0.
Hay otro conjunto de n´ umeros en los que tambi´en la ecuaci´ on a
1
x+a = b tiene soluci´ on si a
1
,= 0,
son los n´ umeros reales que se construyen como l´ımites de sucesiones de n´ umeros fraccionarios. Los
n´ umeros reales incluyen a los fraccionarios. La ecuaci´on anterior es una ecuaci´ on de primer grado con
una inc´ ognita, que tambi´en se puede escribir a
1
x +a
0
= 0. Nos podemos plantear el problema sobre
si una ecuaci´on m´ as general: a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
= 0 tiene siempre soluci´ on cuando los
n´ umeros que aparecen en ella son reales. La respuesta es que no y para obtener respuesta positiva
tenemos que construir otro conjunto de n´ umeros que se llama n´ umeros complejos y se designa por c.
Hay ejemplos de ecuaciones de segundo grado que no tienen soluci´ on real. La ecuaci´ on m´as
simple que no tiene soluci´ on real es x
2
+ 1 = 0. La ecuaci´ on general de segundo grado, de la forma
ax
2
+bx+c = 0 tiene la soluci´on x =
−b±

b
2
−4ac
2a
pero si b
2
−4ac < 0 no encontramos ning´ un n´ umero
real para x.
Lo asombroso es que escribiendo por i un n´ umero imaginario que satisfaga i
2
+1 = 0, encontramos
n´ umeros, llamados complejos, que son soluciones de todas las ecuaciones de segundo grado planteadas.
Ya que si b
2
−4ac < 0, tenemos

b
2
−4ac = i

4ac −b
2
que tiene un sentido imaginario. Entonces, el
conjunto de los n´ umeros soluciones de todas las ecuaciones de segundo grado que se pueden plantear
es el conjunto de los binomios de la forma
−b
2a
±

b
2
−4ac
2a
donde el segundo sumando puede ser real
o imaginario.
´
Este es el conjunto de los n´ umeros complejos en el que i
2
= −1 por ser i soluci´ on
de la ecuaci´on x
2
+ 1 = 0. Los representaremos, en general, como a + bi, donde a y b son ahora
n´ umeros reales cualesquiera. El conocimiento de las propiedades de las operaciones de los n´ umeros
complejos ampl´ıa la cantidad de ecuaciones que podemos resolver. Es muy importante y sorprendente
9
el teorema fundamental del ´algebra que afirma que cualquier ecuaci´on de grado n con coeficientes
complejos tiene siempre al menos un n´ umero complejo como soluci´ on.
Haciendo ingeniosas combinaciones con los coeficientes de la ecuaci´ on de tercer grado, del Ferro
y Tartaglia encontraron la forma general de sus soluciones, que ha pasado a la historia como f´ ormula
de Cardano. La resoluci´ on de la ecuaci´on de cuarto grado fu´e reducida a la soluci´on de la ecuaci´ on de
tercer grado por Ferrari. Pero el problema es mucho m´ as dif´ıcil si el grado de la ecuaci´ on es mayor,
no estando claro ni siquiera que la ecuaci´ on tenga soluci´on. En este sentido, la importancia de los
n´ umeros complejos, de los que hemos hablado en la introduci´ on, y del Teorema Fundamental del
Algebra demostrado por Gauss estriba en que afirma que cualquier ecuaci´on de grado n con
coeficientes complejos tiene siempre al menos un n´ umero complejo como soluci´ on. Este
teorema afirma la existencia de la soluci´ on pero sigue quedando el problema de c´ omo encontrarla
efectivamente. Durante mucho tiempo, los matem´ aticos estuvieron buscando una f´ ormula general
para todas las ecuaciones de un cierto grado expresada por raices de expresiones racionales de sus
coeficientes, hasta que un matem´ atico llamado Abel demostr´ o que esta forma general expresada por
radicales com´ un para todas las ecuaciones de un cierto grado no exist´ıa a partir de grado 5. M´ as
tarde, otro matem´ atico llamado Galois encontr´o las condiciones necesarias y suficientes que han de
verificar los coeficientes de la ecuaci´on para que sus soluciones se puedan expresar por radicales. A´ un
hoy no todas las ecuaciones est´ an resueltas y en eso trabajan los algebristas.
Sin embargo, se puede demostrar y lo demostraremos m´as adelante que, debido a las propiedades
de los n´ umeros complejos, si los coeficientes de la ecuaci´ on son reales las soluciones complejas aparecen
por parejas conjugadas de la misma multiplicidad. Y de aqu´ı, que toda ecuaci´ on de grado impar con
coeficientes reales tiene al menos una soluci´ on real.
El Algebra es el estudio de la resolubilidad de las ecuaciones; en cuanto que las ecuaciones se
resuelven haciendo operaciones con los coeficientes que aparecen en ellas, el ´ algebra es tambi´en el
estudio de las propiedades de las operaciones que podemos hacer con esos n´ umeros.
En este cap´ıtulo repasaremos algunos resultados de bachillerato, los generalizaremos y adem´ as
estudiaremos ciertas propiedades de los n´ umeros complejos que nos servir´an para ampliar la cantidad
de ecuaciones que sabemos resolver.
10
Recordemos conocimientos de Bachillerato sobre las ecuaciones de grado n.
Las soluciones enteras de una ecuaci´ on de grado n con coeficientes enteros deben ser divisores del
t´ermino independiente.
Veamos por qu´e: Sea a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
= 0 una ecuaci´ on de grado n donde todos
los a
i
son enteros y sea a una soluci´on entera de la ecuaci´ on. Entonces,
a
n
a
n
+a
n−1
a
n−1
+ +a
1
a +a
0
= 0 =⇒a
n
a
n
+a
n−1
a
n−1
+ +a
1
a = −a
0
,
de donde
(a
n
a
n−1
+a
n−1
a
n−2
+ +a
1
)a = −a
0
;
como todos los n´ umeros del par´entesis son enteros, la ´ ultima expresi´ on indica que la soluci´ on a divide
a a
0
.
Esta regla nos permite muchas veces encontrar las soluciones enteras de una ecuaci´on de grado
n por tanteo, ya que el n´ umero de divisores de un n´ umero fijado es finito. Y se puede utilizar para
ecuaciones con coeficientes fraccionarios, una vez que hemos quitado los denominadores.
En Bachillerato se estudia tambi´en la regla de Ruffini, que es un algoritmo para hallar P
n
(a) y
los coeficientes del polinomio cociente Q
n−1
(x).
Este algoritmo es un m´etodo para obtener el resto P
n
(a) = a
n
a
n
+ a
n−1
a
n−1
+ + a
1
a + a
0
resultante de dividir P
n
(x) por x −a, consistente en lo siguiente:
Se colocan en una fila los coeficientes a
n
, a
n−1
, a
n−2
, a
1
, a
0
y debajo de ´esta, a la izquierda
el n´ umero a y se hace una l´ınea horizontal:
a
n
a
n−1
a
n−2
a
1
a
0
a) 0 a
n
a a
n
a
2
+a
n−1
a a
n
a
n
+ +a
1
a
−− −− −−−−− −−−−− −−− −−−−− −−−−−−−
a
n
a
n
a +a
n−1
a
n
a
2
+a
n−1
a +a
n−2
a
n
a
n−1
+ +a
1
a
n
a
n
+ +a
1
a +a
0
Se suma 0 a a
n
y se pone debajo de la l´ınea horizontal a la altura de a
n
; se multiplica por a,
se pone a
n
a debajo de a
n−1
al que se suma, obteni´endose debajo de la l´ınea horizontal a
n
a + a
n−1
;
de nuevo, se multiplica este n´ umero por a, se coloca debajo de a
n−2
y se suman los dos n´ umeros,
obteni´endose a
n
a
2
+a
n−1
a+a
n−2
debajo de la l´ınea horizontal; se va repitiendo el mismo proceso con
las sumas que se van obteniendo debajo de la l´ınea horizontal, teni´endose a la altura de a
1
la suma
a
n
a
n−1
+ a
n−1
a
n−2
+ + a
2
a + a
1
, que multiplicada por a y sumada a a
0
da: a
n
a
n
+ a
n−1
a
n−1
+
+ a
2
a
2
+ a
1
a + a
0
= P
n
(a). Seg´ un lo demostrado anteriormente, este n´ umero es cero si y s´olo si
el polinomio considerado es divisible por x −a.
11
Adem´ as, los n´ umeros obtenidos debajo de la l´ınea horizontal son los coeficientes de los t´erminos
de mayor grado de los restos sucesivos obtenidos al hacer la divisi´ on del polinomio P
n
(x) por x −a;
por ello son los coeficientes de las potencias de x en el polinomio cociente Q
n−1
(x).
Por ejemplo, la ecuaci´ on x
4
− 10x
3
+ 35x
2
− 50x + 24 = 0 puede admitir como soluciones los
divisores de 24, entre ellos est´a el 3; para ver si el 3 es efectivamente una soluci´ on aplicamos la regla
de Ruffini para hallar el resto de la divisi´ on del polinomio dado por x −3:
1 −10 35 −50 24
3) 0 3 −21 42 −24
−− −− −− −− −− −−
1 −7 14 −8 0
Habiendo salido cero el ´ ultimo n´ umero de abajo a la derecha, el resto de dividir el polinomio por
x −3 es cero y el cociente es x
3
−7x
2
+ 14x −8. Efectivamente, una soluci´ on de la ecuaci´on es 3.
Recordemos estos conocimientos en los Ejercicios:
1.1.1. Resolver utilizando la regla de Ruffini las ecuaciones:
x
4
−2x
3
−13x
2
+ 14x + 24 = 0.
¸
¸
¸
¸
¸
¸
1 −λ 1 3
1 2 −λ −2
0 1 3 −λ
¸
¸
¸
¸
¸
¸
= 0.
1.1.2. Resolver las ecuaciones siguientes:
x
4
−13x
2
+ 36 = 0. x
6
−14x
4
+ 49x
2
−36 = 0.
La regla de Ruffini se puede generalizar a soluciones fraccionarias:
Regla de Ruffini para soluciones fraccionarias.
Se puede generalizar a las soluciones fraccionarias el resultado 1) demostrado para las soluciones
enteras de una ecuaci´on de grado n con coeficientes enteros, encontr´ andose que 3) si un n´ umero
racional M/N irreducible es soluci´ on de la ecuaci´ on de grado n con coeficientes enteros,
M debe ser divisor del t´ermino independiente y N debe ser divisor del coeficiente del
t´ermino de mayor grado.
Demostraci´on: Sustituyendo la soluci´on M/N en la ecuaci´ on dada tenemos:
a
n
(
M
N
)
n
+a
n−1
(
M
N
)
n−1
+ +a
1
M
N
+a
0
= 0 =⇒a
n
M
n
N
n
+a
n−1
M
n−1
N
n−1
+ +a
1
M
N
+a
0
= 0
12
de donde quitando denominadores y sacando factor com´ un tenemos
a
n
M
n
+a
n−1
M
n−1
N+ +a
1
MN
n−1
= −a
0
N
n
≡ M(a
n
M
n−1
+a
n−1
M
n−2
N+ +a
1
N
n−1
) = −a
0
N
n
donde, debido a que todos los n´ umeros son enteros y a que M no tiene factor com´ un con N, se tiene
que M divide a a
0
.
Tambi´en tenemos:
−a
n
M
n
= a
n−1
M
n−1
N+ +a
1
MN
n−1
+a
0
N
n
≡ −a
n
M
n
= N(a
n−1
M
n−1
+ +a
1
MN
n−2
+a
0
N
n−1
)
donde, debido a que todos los n´ umeros son enteros y a que N no tiene ning´ un factor c´ om´ un con M,
se tiene que N divide a a
n
.
La regla de Ruffini tambi´en se puede aplicar con las raices fraccionarias.
Conviene practicar esta generalizaci´on en los Ejercicios:
1.2.1. Resolver las ecuaciones:
a) 6x
2
−5x + 1 = 0.
b) 12x
3
−40x
2
+ 27x −5 = 0.
c) 24x
3
−26x
2
+ 9x −1 = 0.
d) 12x
3
−32x
2
+ 25x −6 = 0.
e) 6x
4
+ 7x
3
−3x
2
−3x + 1 = 0.
13
N´ umeros Complejos.
Veremos ahora los N´ umeros Complejos, cuyo conocimiento nos permitir´ a la resoluci´ on de m´as
ecuaciones:
Se llama expresi´ on bin´ omica de un n´ umero complejo a la forma a +ib, donde a y b son n´ umeros
reales, en la cual a es la parte real y b es la parte imaginaria. El conjugado de un n´ umero complejo
z = a +ib es z = a −ib.
Los n´ umeros complejos se pueden sumar como binomios:
(a +ib) + (c +id) = (a +c) +i(b +d)
y pueden comprobarse f´ acilmente, utilizando las propiedades de los n´ umeros reales, (lo cual se re-
comienda como ejercicio), las propiedades de la suma:
a) Asociativa.
b) Tiene elemento neutro: 0+i0 (un elemento que sumado a cualquier otro lo deja igual).
c) Todo n´ umero complejo tiene elemento opuesto respecto a la suma: (el elemento opuesto de
uno dado es el elemento que sumado con ´el da el elemento neutro).
d) Conmutativa.
La existencia de la suma con las propiedades antes enumeradas se resume en una frase: Los
n´ umeros complejos son un grupo aditivo conmutativo.
Los n´ umeros complejos tambi´en se pueden multiplicar como binomios donde i
2
= −1.
(a +ib)(c +id) = (ac −bd) +i(ad +bc)
y puede comprobarse, tambi´en utilizando las propiedades de los n´ umeros reales, que el producto es:
a) Asociativo.
b) Tiene elemento neutro (1).
c) Todo elemento distinto del cero tiene elemento inverso.
d) Es conmutativo.
La existencia del producto con las propiedades antes enumeradas se resume en la frase: Los
n´ umeros complejos distintos de cero son un grupo multiplicativo conmutativo.
De las propiedades anteriores, s´ olo voy a comprobar aqu´ı que todo n´ umero complejo distinto de
cero tiene inverso.
14
Inverso de un n´ umero complejo.
Si buscamos el inverso x +iy de un n´ umero complejo a +ib, buscamos un n´ umero tal que
(a +ib)(x +iy) = 1 es decir, un n´ umero tal que (ax −by) +i(ay +bx) = 1.
Si el n´ umero fuera real: z = a, de a
−1
a = 1 tenemos que z
−1
= a
−1
. Si el n´ umero fuera imaginario
puro: z = ib, de −ib
−1
ib = 1 tenemos que z
−1
= −ib
−1
.
Podemos suponer en lo que sigue que el n´ umero no es real ni imaginario puro, es decir, que
a ,= 0 ,= b.
Como dos n´ umeros complejos son iguales cuando tienen la misma parte real y la misma parte
imaginaria, ha de ser:
ax −by = 1
bx +ay = 0
_
≡ (si a ,= 0, b ,= 0)
a
2
x −aby = a
b
2
x +aby = 0
_
de donde (a
2
+b
2
)x = a. Aqu´ı podemos despejar x por ser a
2
+b
2
,= 0, ya que estamos suponiendo
a ,= 0, b ,= 0. Entonces x = a/(a
2
+b
2
).
Tambi´en, ha de ser:
abx −b
2
y = b
abx +a
2
y = 0
_
de donde (a
2
+b
2
)y = −b, donde tambi´en podemos despejar y = −b/(a
2
+b
2
).
Hemos obtenido que el inverso de a+ib, es
1
(a
2
+b
2
)
(a−ib), siempre que a+bi sea distinto de cero.
Compru´ebese que esta f´ ormula es v´alida para los casos particulares hallados al principio, en los que
el n´ umero era real o era imaginario puro.
Para dividir z
1
por z
2
(si z
2
,= 0) multiplicamos z
1
por el inverso de z
2
.
Por un procedimiento similar de igualar partes real e imaginaria podemos hallar, dado un n´ umero complejo c +di
otro n´ umero complejo a+bi que elevado al cuadrado d´e c +di. As´ı podemos resolver todas las ecuaciones bicuadradas
en el conjunto de los n´ umeros complejos.
e) Adem´as el producto es distributivo respecto a la suma (debe comprobarse).
La existencia de la suma y del producto con las propiedades antes enumeradas se expresa en otra
frase: Los n´ umeros complejos son un cuerpo conmutativo.
Otros cuerpos ya conocidos son los conjuntos de los n´ umeros racionales y de los n´ umeros reales.
Ahora se puede comprobar como Ejercicios:
15
1.3.1. Comprobar que, en el cuerpo de los n´ umeros complejos, tienen tantas soluciones como su
grado, las ecuaciones siguientes:
x
2
−x + 1 = 0.
x
2


3x + 1 = 0.
2x
3
+ 4x
2
−3x + 9 = 0.
x
4
−x
3
−3x
2
+ 4x −4 = 0.
¸
¸
¸
¸
¸
¸
2 λ 1
1 2 −λ
2λ 1 1
¸
¸
¸
¸
¸
¸
= 0.
x
6
+ 4x
4
+ 5x
2
+ 2 = 0.
x
4
−x
3
−x
2
−x −2 = 0.
x
4
+x
3
−x −1 = 0.
6x
4
+x
3
+ 2x
2
−4x + 1 = 0.
6x
5
+ 5x
4
+ 4x
3
+ 4x
2
−2x −1 = 0.
x
5
+x
4
−x −1 = 0.
6x
4
+x
3
+ 11x
2
+ 2x −2 = 0
12x
4
+x
3
+ 11x
2
+x −1 = 0
6x
4
−11x
3
+ 10x
2
−11x + 4 = 0
4x
4
+ 4x
3
−11x
2
+ 4x −15 = 0
4x
4
+ 16x
3
+ 31x
2
+ 64x + 60 = 0
1.3.2. Factorizar los polinomios igualados a cero en las ecuaciones anteriores y en las siguientes:
x
5
−2x
4
+ 2x
3
−4x
2
+x −2 = 0.
6x
4
+ 7x
3
−3x
2
−3x + 1 = 0.
16
x
5
+x
4
+ 2x
3
+ 2x
2
+x + 1 = 0.
x
7
+x
6
+ 6x
5
+ 6x
4
+ 9x
3
+ 9x
2
+ 4x + 4 = 0.
Observar que algunas no son totalmente factorizables en binomios de grado 1 con coeficientes
reales. Cuando se admiten los coeficientes complejos, o bien hay tantos factores como el grado de la
ecuaci´ on, o bien llamando al n´ umero de veces que se repite un factor, multiplicidad de ese factor, la
suma de las multiplicidades de los factores de primer grado es igual al grado de la ecuaci´ on.
1.3.3. Demostrar que en un cuerpo, se tiene b 0 = 0, cualquiera que sea b.
1.3.4. Demostrar que en un cuerpo, si a ,= 0, ax = 0 ⇒x = 0.
1.3.5. Probar que en un conjunto de n´ umeros que sea un cuerpo, la ecuaci´on a
1
x + a = 0 tiene
soluci´ on ´ unica si a
1
,= 0. No tiene soluci´ on si a
1
= 0 y a ,= 0. Tiene infinitas soluciones si a
1
= 0 = a.
Recordemos que se llama conjugado del n´ umero complejo z = a + ib al n´ umero a − ib que se
representa por z = a − ib. Utilizando la notaci´on de conjugado de un n´ umero complejo, hemos
obtenido anteriormente respecto a su inverso que: z
−1
=
1
(a
2
+b
2
)
z.
Se puede representar el n´ umero complejo a + ib como el punto del plano que tiene coordenadas
cartesiamas (a, b). Entonces, el punto correspondiente al conjugado de un n´ umero complejo es el
punto sim´etrico respecto al eje OX.
a
b
a+ib
a-ib
´
´
´
´
´
´´
`
`
`
`
`

17
Por el teorema de Pit´ agoras, el n´ umero a
2
+b
2
es el cuadrado de la longitud del vector con origen
en el origen de coordenadas y extremo en el punto. Esta longitud se llama m´ odulo del n´ umero
complejo y se representa por [z[. Entonces, podemos escribir: z
−1
=
1
|z|
2
z. De donde se deduce
tambi´en [z[
2
= zz.
Para hacer operaciones con los n´ umeros complejos se proponen los Ejercicios:
1.4.1. Hallar los siguientes n´ umeros complejos en forma bin´omica:
(1 + 2i)(1 −2i),
1 + 2i
1 −2i
, (
1 + 2i
1 −2i
)
2
,
(1 + 2i)
3
(2 −i)
3
,
(1 + 2i)
3
(2 −2i)
3
.
1.4.2. Hallar un n´ umero complejo en forma bin´ omica: a +bi tal que (a +bi)
2
= 1 +i.
1.4.3. Resolver la ecuaci´on x
4
−2x
2
+ 10 = 0 en el cuerpo de los n´ umeros complejos.
1.4.4. Resolver la ecuaci´on z
2
−(1 +i)z +i = 0 en el cuerpo de los n´ umeros complejos.
1.4.5. Demostrar
a) z
1
+z
2
= z
1
+z
2
b) z
1
z
2
= z
1
z
2
1.4.6. Demostrar:
a) [z[ = [z[
b) [z
1
z
2
[ = [z
1
[[z
2
[
c) [z
1
+z
2
[ ≤ [z
1
[ +[z
2
[
18
Propiedades de las soluciones de las ecuaciones.
A)
Utilizando el ejercicio 1.4.5. anterior se obtiene que las soluciones complejas de una ecuaci´ on
con coeficientes reales aparecen por parejas conjugadas:
Sea a
n
x
n
+a
n−1
x
n−1
+ +a
1
x +a
0
= 0 una ecuaci´on de grado n donde todos los a
i
son reales
y sea z una soluci´on compleja de la ecuaci´ on. Entonces,
a
n
z
n
+a
n−1
z
n−1
+ +a
1
z +a
0
= 0 =⇒a
n
z
n
+a
n−1
z
n−1
+ +a
1
z +a
0
= 0 =⇒
a
n
z
n
+a
n−1
z
n−1
+ +a
1
z +a
0
= 0 =⇒a
n
z
n
+a
n−1
z
n−1
+ +a
1
z +a
0
= 0
donde se ve que tambi´en z es soluci´on de la ecuaci´ on.
B)
El n´ umero a es soluci´on de la ecuaci´ on: a
n
x
n
+ a
n−1
x
n−1
+ + a
1
x + a
0
= 0, si y s´olo si el
binomio x − a divide al polinomio a
n
x
n
+ a
n−1
x
n−1
+ + a
1
x + a
0
. En efecto, llamando P
n
(x) a
este polinomio y divid´endolo por x −a obtendr´ıamos:
P
n
(x) = Q
n−1
(x)(x −a) +R(x)
pero R(x) = R es un n´ umero por ser el grado del resto menor que el grado del divisor. Sustituyendo
ahora el valor a en la expresi´ on de la divisi´ on, tenemos:
P
n
(a) = Q
n−1
(a)(a −a) +R = R
lo que nos dice que el resto de esta divisi´on es cero si y s´ olo si a es soluci´on de la ecuaci´on dada,
teni´endose as´ı que el polimomio P
n
(x) es divisible por x −a si y s´ olo si a es soluci´on de la ecuaci´on
P
n
(x) = 0. Con lo que conocida una soluci´ on de una ecuaci´on, esta queda reducida a otra de grado
menor, presumiblemente m´ as f´ acil (Q
n−1
(x) = 0).
No podemos demostrar ahora con los conocimientos que tenemos el teorema fundamental del
´ algebra, pero s´ı podemos ver consecuencias suyas:
C)
Todo polinomio con coeficientes complejos puede factorizarse en binomios de primer grado con
coeficientes complejos.
En efecto, dado un polinomio P
n
(x), con coeficientes complejos, al tener la ecuaci´on P
n
(x) = 0
siempre soluci´ on en los n´ umeros complejos por el teorema fundamental del ´ algebra, existe z
1
, tal
19
que P
n
(x) = (x − z
1
)Q
n−1
(x), donde el grado del cociente Q
n−1
(x) es n − 1. Este nuevo polinomio
cociente puede factorizarse igualmente por el teorema fundamental del ´algebra, obteni´endose P
n
(x) =
(x − z
1
)(x − z
2
)Q
n−2
(x). El grado del polinomio cociente puede seguir siendo rebajado hasta 1, en
cuyo momento, habremos factorizado el polinomio dado en n binomios de primer grado, algunos de
los cuales se pueden repetir.
Observando que los binomios de primer grado que factorizan un polinomio se pueden repetir y
llamando multiplicidad de cada raiz z
i
al exponente de x − z
i
en la factorizaci´ on de P
n
(x), ahora
vemos que
la suma de las multiplicidades de las soluciones reales y complejas de una ecuaci´ on de grado n con
coeficientes complejos es igual al grado de la ecuaci´on.
Tambi´en se define la multiplicidad de una raiz z
i
de un polinomio P
n
(x) como el n´ umero n
i
tal
que P
n
(x) = (x −z
i
)
n
i
Q
i
(x) donde Q
i
(z
i
) ,= 0.
D)
Si la ecuaci´ on es de grado impar con coeficientes reales, alguna de sus soluciones ha de ser real.
Veamos primero que las raices complejas no reales de un polinomio con coeficientes reales, apare-
cen con la misma multiplicidad que sus conjugadas:
Si P
n
(x) = 0 es una ecuaci´on con coeficientes reales y z
1
y z
1
son dos soluciones conjugadas,
siendo z
1
= a +ib; al ser P
n
(x) = (x −z
1
)Q
n−1
(x) se tiene:
0 = P
n
(z
1
) = (z
1
−z
1
)Q
n−1
(z
1
) = −2biQ
n−1
(z
1
)
donde b ,= 0, por lo que Q
n−1
(z
1
) = 0, siendo Q
n−1
(x) divisible por x −z
1
; entonces,
P
n
(x) = (x −z
1
)(x −z
1
)Q
n−2
(x) = (x −(a +bi))(x −(a −bi))Q
n−2
(x) = [(x −a)
2
+b
2
]Q
n−2
(x)
El polinomio Q
n−2
(x) debe tener todos sus coeficientes reales, porque P
n
(x) y (x − a)
2
+ b
2
los
tienen reales, por ello, si Q
n−2
(x) tiene una raiz compleja no real tambi´en tiene a su conjugada. Lo
mismo ocurrre con los sucesivos cocientes de Q
n−2k
(x)por (x−z
1
)(x−z
1
), de ser divisibles por x−z
1
,
por ello la raiz z
1
aparece tantas veces como la raiz z
1
.
Entonces, si todas las raices del polinomio, de grado impar, fueran complejas no reales, la suma
de sus multiplicidades ser´ıa par, no coincidiendo con su grado, por tanto, tiene que haber al menos
una soluci´on real.
E)
Si un polinomio de grado n se anula para m´ as de n valores distintos de la variable x, el polinomio
es el polinomio nulo, (todos los a
i
son nulos). (De donde si el polinomio no es nulo y es de grado n,
no se puede anular para m´as de n valores de la variable).
20
En efecto, cogiendo n valores distintos ¦x
i
¦
i∈{1...n}
que anulen al polinomio, por ser P
n
(x
1
) = 0,
P
n
(x) es divisible por x − x
1
, es decir, P
n
(x) = Q
n−1
(x)(x − x
1
). Si x
2
,= x
1
anula al polinomio,
P
n
(x
2
) = 0 implica que Q
n−1
(x
2
)(x
2
−x
1
) = 0, lo cual a su vez implica que Q
n−1
(x
2
) = 0, por lo que
Q
n−1
(x) = Q
n−2
(x)(x−x
2
), y P
n
(x) = Q
n−2
(x)(x−x
2
)(x−x
1
). Repitiendo el mismo procedimiento
con n raices distintas, llegamos a que podemos expresar:
P
n
(x) = Q
0
(x −x
n
)(x −x
n−1
) (x −x
2
)(x −x
1
)
donde Q
0
es un n´ umero, que debe ser igual a a
n
. Cogiendo un valor m´as: (x
n+1
), que anule al
polinomio, suponiendo que existe, tenemos:
0 = P
n
(x
n+1
) = a
n
(x
n+1
−x
n
)(x
n+1
−x
n−1
) (x
n+1
−x
1
)
donde por estar en un cuerpo y ser todos los par´entesis distintos de cero, ha de ser a
n
= 0. Por la
misma raz´ on, a
n−1
= 0 y as´ı sucesivamente hasta el a
0
. (Un polinomio igual a una constante se anula
para alg´ un valor de x s´ olo si esta constante es cero).
F)
Con un razonamiento an´alogo se puede demostrar que encontradas k raices de un polinomio, cuya
suma de multiplicidades es igual al grado del polinomio, no puede haber otra raiz m´as.
En efecto, una vez escrito:
P
n
(x) = (x −z
1
)
n
1
(x −z
2
)
n
2
(x −z
k
)
n
k
a
n
donde Σn
i
= n, y a
n
,= 0
si hubiera otra soluci´ on m´as: z
n+1
, se tendr´ıa:
0 = P
n
(z
n+1
) = (z
n+1
−z
1
)
n
1
(z
n+1
−z
2
)
n
2
(z
n+1
−z
k
)
n
k
a
n
Por ser los n´ umeros complejos un cuerpo, el producto de una serie de factores es cero si y s´ olo si
alguno de los factores es cero, por lo que z
n+1
debe coincidir con alguno de los z
i
anteriores.
21
Forma trigonom´etrica y forma polar de un n´ umero complejo.
La forma bin´omica de los n´ umeros complejos es adecuada para la suma, pero para la multiplicaci´ on
hay otra forma m´ as adecuada que es la forma polar.
Adem´ as, para expresar de formas an´alogas entre s´ı las soluciones de la ecuaci´ on x
n
− 1 = 0 ≡
x
n
= 1 vamos a utilizar la forma trigonom´etrica y la forma polar de un n´ umero complejo.
Ya hemos dicho que los n´ umeros complejos se pueden poner en correspondencia con los puntos del
plano. Para ello, trazamos en el plano dos rectas perpendiculares, una horizontal y la otra vertical,
llamamos O (origen) al punto intersecci´ on de las dos rectas e introducimos una unidad de medida.
Entonces al n´ umero complejo a + ib puede asociarse el punto P que est´ a a distancia ”a” unidades
de medida del eje vertical y ”b” unidades de medida del eje horizontal. Al mismo tiempo podemos
dibujar un vector con origen O y extremo P. Por el teorema de Pit´agoras la longitud de este vector
coincide con el m´ odulo del n´ umero complejo. El vector est´a perfectamente determinado tambi´en por
su longitud y por el ´angulo que hace con la direcci´on positiva de uno de los ejes; vamos a escoger el eje
horizontal y al ´ angulo que forma el vector con este eje le llamamos argumento del m´ odulo complejo.
Hemos llegado a otra determinaci´on de un n´ umero complejo por su m´odulo y su argumento que da
lugar a la forma trigonom´etrica y a la forma polar.
a
b
a+ib
r
φ
6
´
´
´
´
´
´´
La forma polar del n´ umero complejo a + ib es el s´ımbolo re

donde r es el m´odulo y φ es el
argumento del n´ umero complejo. (El m´odulo r es siempre positivo).
Es de observar que cuando r = 0, cualquiera que sea φ, el n´ umero es el cero. Y que re

= re
i(φ+2π)
,
es decir, todos los n´ umeros complejos con el mismo r y argumentos diferenci´ andose en un m´ ultiplo
de 2π coinciden.
22
Dado que a = rcosφ y b = rsenφ, el n´ umero complejo es tambi´en a+ib = r(cosφ+isenφ), siendo
´esta la forma trigonom´etrica del n´ umero complejo. Se ve que tanφ = b/a. La forma trigonom´etrica
y la forma polar dan la relaci´ on e

= (cosφ +isenφ).
Otros ejercicios para la familiarizaci´on con estas formas son:
1.5.1. De los n´ umeros complejos enunciados a continuaci´on calcular su m´ odulo y su argumento y
escribirlos en forma trigonom´etrica y en forma polar.
1 +i, 1 −i, −1 −i,
1
2
+i

3
2
,

3
2
+i
1
2
1.5.2. Comprobar que cualquier n´ umero complejo tiene el mismo m´odulo que su conjugado y que
su opuesto. ¿C´ ual es la relaci´ on entre los argumentos de un n´ umero complejo, su conjugado y su
opuesto?
1.5.3. Suponiendo conocidos el m´odulo y el argumento de un n´ umero complejo, hallar el m´ odulo
y el argumento de su inverso.
Las formas trigonom´etrica y polar nos pasan de la naturaleza puramente algebraica de los
n´ umeros complejos a su representaci´ on geom´etrica, lo cual va a revertir en el descubrimiento de
m´ as propiedades de dichos n´ umeros.
Por ejemplo, la expresi´ on de la multiplicaci´ on de n´ umeros complejos se simplifica:
Sean z
1
= r
1
e

1
= r
1
(cosφ
1
+ isenφ
1
) y z
2
= r
2
e

2
= r
2
(cosφ
2
+ isenφ
2
) y multipliqu´emoslos
seg´ un la regla que tenemos para multiplicarlos en forma bin´ omica:
r
1
e

1
r
2
e

2
= z
1
z
2
= r
1
(cosφ
1
+isenφ
1
) r
2
(cosφ
2
+isenφ
2
) =
(r
1
cosφ
1
r
2
cosφ
2
−r
1
senφ
1
r
2
senφ
2
) +i(r
1
cosφ
1
r
2
senφ
2
+r
1
senφ
1
r
2
cosφ
2
) =
r
1
r
2
(cosφ
1
cosφ
2
−senφ
1
senφ
2
) +ir
1
r
2
(cosφ
1
senφ
2
+senφ
1
cosφ
2
) =
= r
1
r
2
(cos(φ
1

2
) +isen(φ
1

2
) = r
1
r
2
e
i(φ
1

2
)
Donde vemos que la multiplicaci´ on de n´ umeros complejos dados en forma polar o trigonom´etrica
se hace multiplicando sus m´ odulos y sumando sus argumentos. Debido a ello, la asociatividad del
producto se demuestra mucho m´ as f´acilmente utilizando la forma polar.
Otros ejercicios son:
1.6.1. Demostrar utilizando la forma bin´ omica y la forma polar de los n´ umeros complejos que:
a) El producto de un n´ umero por su conjugado es un n´ umero real.
23
b) El cociente de un n´ umero por su conjugado es de m´ odulo 1.
Observar que la demostraci´on usando la forma polar es m´ as corta.
c) Comprobar los resultados anteriores en los c´ alculos siguientes:
(1 + 2i)(1 −2i),
3 + 4i
3 −4i
,
d) Utilizar los resultados anteriores para calcular:
(

2
2
+i

2
2
)(

2
2
−i

2
2
),

2
2
+i

2
2

2
2
−i

2
2
1.6.2. Probar la asociatividad de la multiplicaci´on de n´ umeros complejos usando su expresi´on en
forma polar y comparar la simplicidad del c´ alculo respecto del que hay que hacer para demostrarla
en forma bin´ omica.
24
La potenciaci´ on sale tambi´en beneficiada de esta forma simple de multiplicar en forma polar.
Seg´ un lo visto:
z
n
= (re

)
n
= r
n
e
inφ
= r
n
(cos(nφ) +isen(nφ))
de donde se obtiene la f´ ormula de Moivre:
cos(nφ) +isen(nφ) = (cosφ +isenφ)
n
en la que desarrollando el ssegundo miembro por el binomio de Newton y separando partes reales e
imaginarias tenemos expresiones para cos(nφ) y sen(nφ) en funci´ on de cosφ y senφ.
Otra repercusi´ on geom´etrica de la forma polar de un n´ umero complejo se pone de manifiesto si
observamos lo que ocurre al multiplicar n´ umero de m´odulo 1 por otro n´ umero complejo dado:
e

re

= re
i(φ+α)
Vemos que el resultado es un n´ umero complejo del mismo m´ odulo resultante de girar el n´ umero
complejo dado un ´ angulo φ.
Por tanto, la operaci´ on geom´etrica giro se expresa algebraicamente como una multiplicaci´ on.
2+i
i(2+i)
`
` >
>
.
.
.
.
.
.
.
.
.

`
`
`
`
`
`
`
`
`

25
Radicaci´ on.
La extracci´ on de raices tambi´en se hace mucho m´ as f´acilmente cuando los n´ umeros vienen
dados en forma polar.
Extraer las raices n-´esimas de un n´ umero complejo z es hallar los n´ umeros x tales que x
n
= z,
es decir, resolver la ecuaci´on x
n
− z = 0. Si z es real, esta ecuaci´ on, por ser de coeficientes reales,
tiene las raices complejas por parejas conjugadas, es decir, las raices complejas de un n´ umero real
aparecen por parejas conjugadas.
Las soluciones de la ecuaci´ on x
n
− z = 0 (si z ,= 0) tienen multiplicidad 1: vamos a ver que no
pueden tener multilicidad mayor o igual que 2:
Si una soluci´ on z
1
la tuviera, se podr´ıa escribir x
n
− z = (x − z
1
)
2
Q
n−2
(x), entonces, derivando
en los dos miembros tendr´ıamos nx
n−1
= 2(x−z
1
)Q
n−2
(x) +(x−z
1
)
2
Q

n−2
(x), que al sustituir x por
z
1
, da nz
n−1
1
= 0, imposible si z
n
1
,= 0.
Al ser cada raiz de multiplicidad 1, debe haber n raices distintas.
Veamos c´ omo se obtienen:
Dado z = [z[e

, un n´ umero complejo x es raiz n-´esima de z si x
n
= z, es decir, escribiendo
x = re

en forma polar, si r
n
e
inφ
= [z[e

, pero tambi´en si r
n
e
inφ
= [z[e
i(α+2π)
´ o r
n
e
inφ
= [z[e
i(α+k2π)
,
cualquiera que sea k, para lo cu´ al es suficiente que r
n
= [z[ y nφ = α +k2π, cualquiera que sea k.
La condici´ on r
n
= [z[ siempre tiene soluci´on porque [z[ es positivo pero puede tener dos soluciones
reales para r si n es par, de las cuales s´ olo cogemos la positiva porque el m´ odulo es siempre positivo.
Pero lo m´ as importante es que debido a la no unicidad de la expresi´on polar de un n´ umero complejo,
cuando k var´ıa, tenemos distintas posibilidades para φ de la condici´ on nφ = α +k2π. Lo que nos da
para φ las soluciones:
_
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
_
φ
0
=
α
n
φ
1
=
α
n
+

n
φ
2
=
α
n
+ 2

n
φ
3
=
α
n
+ 3

n

φ
n−1
=
α
n
+ (n −1)

n
φ
n
=
α
n
+n

n

α
n
Para el valor de r = +
n
_
[z[ hay n posibles argumentos, (ya que φ
n
es equivalente a φ
0
), por lo
que hay n raices complejas de cada n´ umero complejo dado.
26
Las raices n-´esimas del n´ umero complejo 1 tienen m´ odulo 1 y argumentos k2π/n, donde k var´ıa
de cero a n − 1. El conjunto de estos n n´ umeros con la operaci´ on multiplicaci´on es un ejemplo de
grupo multiplicativo finito. Sus puntos correspondientes determinan un pol´ıgono regular de n lados
con un v´ertice en el punto (1,0). Cada raiz determina tambi´en un giro del plano de ´angulo k2π/n
Estos giros del plano dejan invariante cualquier pol´ıgono regular de n lados con centro en el origen.
Dos de estos giros se pueden realizar sucesivamente, lo cual da un giro que se llama composici´ on
de los dos giros. La operaci´ on composici´ on de giros corresponde a la multiplicaci´ on de los n´ umeros
complejos que los representan. Por ello, el conjunto de los giros que dejan invariante un pol´ıgono
regular con centro en el origen es un grupo multiplicativo finito.
Se proponen los siguientes Ejercicios: donde se pide hacer los c´ alculos en forma polar.
1.7.1. Calcular en forma polar y en forma bin´omica los siguientes n´ umeros complejos:

−4,

i,

−i, .
Comprobar que los resultados son los mismos.
1.7.2. Calcular en forma bin´ omica y en forma trigonom´etrica los siguientes n´ umeros complejos:

1 +i,

−2 + 2i
Comparando las expresiones determinar el valor de cos(π/8) y cos(3π/8). Comprobar que cos
2
(π/8)+
cos
2
(3π/8) = 1. ¿Por qu´e?
1.7.3. Expresar las siguientes raices en forma bin´omica utilizando la forma trigonom´etrica corres-
pondiente y el ejercicio anterior.
4

−16,
3

−8,
3

−27i,
4

16i.
1.7.4. Hallar las raices cuartas de −i y representarlas gr´aficamente.
1.7.5. Hallar las raices quintas de la unidad. Se˜ nalar cu´ales son las raices que son conjugadas
entre s´ı.
1.7.6. Hallar las siguientes raices:
3
¸

3
2
+i
1
2
,
6
¸
1
2
+i

3
2
¿C´ omo est´ an relacionadas entre s´ı?
1.7.7. Resolver en el cuerpo de los n´ umeros complejos las ecuaciones:
x
6
+ 1 = 0,
27
x
6
+ 2x
3
+ 1 = 0,
x
6
+x
3
+ 1 = 0,
x
6
+ 2x
4
+ 2x
2
+ 1 = 0,
3x
7
+x
6
+ 6x
4
+ 2x
3
+ 6x + 2 = 0.
2x
7
−x
6
+ 4x
4
+ 2x
3
+ 2x −1 = 0
2x
7
+x
6
+ 4x
4
+ 2x
3
+ 2x + 1 = 0
4x
8
−x
6
−8x
5
+ 2x
3
+ 4x
2
−1 = 0
2x
5
+x
4
−2x
3
−x
2
+ 2x + 1 = 0
Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)
de cada ecuaci´on es igual a su grado.
1.7.8. Habiendo comprobado que (x
n−1
+x
n−2
+x
n−3
+ +x + 1)(x −1) = x
n
−1, demostrar
que
a) La ecuaci´ on x
4
+x
3
+x
2
+x + 1 = 0 no tiene ninguna soluci´ on real.
b) La ecuaci´ on x
n
+ x
n−1
+ x
n−2
+ + x + 1 = 0 no tiene ninguna soluci´ on real si n es par y
tiene exactamente una soluci´ on real si n es impar. ¿Cu´al es la soluci´ on real si n es impar?
c) Las raices (n +1) −´ esimas de la unidad que no coinciden con 1, son soluciones de la ecuaci´on
x
n
+x
n−1
+x
n−2
+ +x + 1 = 0.
1.7.9. Resolver en el cuerpo de los n´ umeros complejos las ecuaciones:
x
6
+x
5
−x −1 = 0,
x
7
+x
6
−x −1 = 0,
2x
5
+x
4
+x
3
+x
2
+x −1 = 0,
6x
6
+ 5x
5
+ 4x
4
+ 4x
3
+ 4x
2
−2x −1 = 0.
Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales)
de cada ecuaci´ on es igual a su grado.
1.7.10. Deducir de la f´ omula de Moivre
a) Las f´ ormulas del coseno del ´angulo triple y del seno del ´angulo triple.
b) Las f´ ormulas an´alogas para el ´ angulo qu´ıntuple.
1.7.11. Hallar cos(π/12) calculando la raiz de e
iπ/6
utilizando las formas bin´ omica, trigonom´etrica
y polar de los n´ umeros complejos y comparando los resultados.
28
1.7.12. Comprobar que las raices de orden n de la unidad y por ello los giros que dejan invariante
un pol´ıgono regular de n lados con centro en el origen y un v´ertice en 1, son un grupo multiplicativo
conmutativo.
Otros ejemplos y problemas se pueden encontrar en el cap´ıtulo 1 del libro [A], en el cap´ıtulo 4 de
[B], en el ap´endice A2 de [G] en el cap´ıtulo 20 de [S] y en el cap´ıtulo 4 del libro [H] de la bibliograf´ıa.
Soluciones de 1.2.1: a) 1/2,1/3, b) 1/2,1/3,5/2, c) 1/2,1/3,1/4, d) 1/2, 2/3,3/2. e) 1/2,1/3,−1(doble).
Soluciones de las cinco ´ ultimas ecuaciones de 1.3.1: −1/2, 1/3, i

2, −i

2; −1/3, 1/4, i, −i; 1/2, 4/3, i, −i;
3/2, −5/2, i, −i; −3/2, −5/2, 2i, −2i.
29
Bibliograf´ıa.
[A1]. Algebra Lineal y aplicaciones. Jorge Arves´ u Carballo, Renato Alvarez Nodarse, Francisco
Marcell´ an Espa˜ nol. Ed. S´ıntesis 1999.
[A2] La Matem´atica: su contenido, m´etodos y significado. A. D. Alexandrov, A. N. Kolmogorov,
M. A. Laurentief y otros. Ed. Alianza Universidad. 1981.
[B] N´ umeros y Convergencia. B. Rubio. Ed. B. Rubio. 2006.
[D]. El Universo de las Matem´aticas. Willian Dunham. Ed. Pir´amide. 1994.
[G1] Matem´aticas 1 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e
Ruiz Jim´enez. Ed. Editex. 2008.
[G]. Algebra Lineal con aplicaciones. Stanley I. Grossman. Ed. McGraw-Hill. 1992.
[H]. Algebra y Geometr´ıa. E. Hern´ andez. Ed. Addison-Wesley-U.A.M. 1994.
[S]. Algebra Superior. M. R. Spiegel. Ed. Mc Graw Hill 2000.
30
MATRICES. SUS OPERACIONES.
Introducci´ on.
Definici´ on: Una matriz es una disposici´on rectangular y entre par´entesis de n´ umeros; Es por
tanto, una tabla de n´ umeros entre par´entesis y tiene un determinado n´ umero de filas, que llamamos
m y un determinado n´ umero de columnas que llamamos n. Entonces se dice que la matriz es mn.
Puede ser de n´ umeros positivos, de n´ umeros enteros, de n´ umeros racionales, de n´ umeros reales o
de n´ umeros complejos.
Las tablas aparecen bastante en la vida cotidiana. P. ej. la tabla de valores de compra y venta de distintas
monedas con una fija (sea ´esta el euro), es una tabla de tantas filas como monedas consignemos y de dos columnas.
Otro ejemplo es la tabla de porcentaje de composici´on de unos alimentos determinados seg´ un los hidratos de carbono,
grasas y prote´ınas; ´esta es una tabla de tantas filas como alimentos hayamos listado y tres columnas. Las presiones
y temperaturas de un conjunto de n gases forman una tabla de dos filas y n columnas. Las tablas se transforman en
matrices cuando sus datos son utilizados para c´alculos.
Una matriz de una fila y una columna es un n´ umero entre par´entesis.
La derivada de una funci´on real de variable real es un n´ umero, y se generaliza a la derivada de una funci´on real
de varias variables por una matriz de una fila y varias columnas, cada una de las cuales es una derivada parcial. De
especial inter´es en f´ısica son las derivadas de una funci´on real de tres variables, que se llaman gradientes y son tres
n´ umeros entre par´entesis.
Un punto de R
3
se representa por tres coordenadas entre par´entesis, lo cual es una matriz 1 3.
Algunas veces, para comodidad de c´ alculo, un vector de R
3
se representa por los n´ umeros en columna;
entonces es una matriz 3 1.
En ´algebra lineal aparecen las matrices mn al expresar de forma global los sistemas de ecuaciones
lineales de m ecuaciones con n inc´ ognitas. Para ello se define el producto de matrices.
Tambi´en se utilizan para expresar las aplicaciones llamadas lineales y los productos escalares. Y
para relacionar distintos sistemas de coordenadas en el mismo espacio vectorial.
Ciertas operaciones del conjunto de n´ umeros que aparecen en la matriz se trasfieren a operaciones
con las matrices pero no siempre con las mismas propiedades que las operaciones de los n´ umeros de
los que est´ an formadas. Nuestro objetivo en este cap´ıtulo es definir y estudiar dichas operaciones.
31
Operaciones en las matrices.
Si representamos por / un conjunto de n´ umeros, se representa por /
m×n
(/) el conjunto de las
matrices de m filas y n columnas que tienen n´ umeros de ese conjunto. Cada sitio de la matriz se
llama entrada. Introducimos la notaci´on general de una matriz: se escribe
A = (a
ij
)
i∈{1,2,...m},j∈{1,2,...n}
donde a
ij
es el n´ umero que ocupa el lugar de la fila i y la columna j. Cuando est´an claras en el
contexto, las variaciones de i y de j, no se especifican por sencillez de escritura.
Si / tiene un producto, cualquier matriz puede multiplicarse por un n´ umero del conjunto del que
est´ a formada. Si A = (a
ij
) ∈ /
m×n
(/) y s ∈ /, se define s A = (sa
ij
).
Este producto verifica:
Si / tiene unidad (1): 1 A = A
Es distributivo si el producto de / es distributivo respecto a una suma: (s +t) A = s A+t A
Hay asociatividad mixta si / es asociativo: (st) A = s (t A)
Si en el conjunto / hay una suma, tambi´en ciertas matrices se pueden sumar, pero para eso
tienen que tener el mismo n´ umero de filas y de columnas. La suma no es una operaci´ on en el
conjunto de todas las matrices sino en /
m×n
(/) cuando se han fijado m y n.
Entonces, se define: si A = (a
ij
)
i∈{1...m}j∈{1...n}
∈ /
m×n
(/) y B = (b
ij
)
i∈{1...m}j∈{1...n}
∈ /
m×n
(/),
A +B = (a
ij
+b
ij
)
i∈{1...m}j∈{1...n}
∈ /
m×n
(/), Se propone comprobar como ejercicios que
2.1.1. La suma es asociativa si la suma en / lo es.
2.1.2. La matriz cero (que tiene cero en todos los sitios), es elemento neutro para la suma si cero
es el elemento neutro de / respecto a su suma.
2.1.3. Si cada elemento de / tiene elemento opuesto respecto a la suma, cada matriz tiene
elemento opuesto.
Recordando la definici´ on de grupo, los ejercicios 2.1.1., 2.1.2., y 2.1.3. se expresan conjuntamente
afirmando que si / es un grupo aditivo, /
m×n
(/) lo es.
Se puede comprobar tambi´en como ejercicio que si / es un grupo aditivo conmutativo, /
m×n
(/)
tambi´en lo es.
Adem´ as la suma es distributiva respecto al producto por los elementos de / si lo es en /.
Compru´ebese como ejercicio que s (A +B) = s A +s B.
Estas operaciones con todas las propiedades enumeradas se dan p. ej. en /
1×3
(1) que coincide
con el espacio de los vectores y por analog´ıa, la estructura de /
m×n
(/) con estas dos operaciones
con las propiedades enumeradas se llama espacio vectorial.
32
Para pasar a otra operaci´ on entre matrices llamada producto, observemos que una matriz fila
1 n y una matriz columna n 1 se pueden multiplicar n´ umero a n´ umero:
(a
1j
)
j∈{1...n}
(b
i1
)
i∈{1...n}
=
n

k=1
a
1k
b
k1
dando otro n´ umero.
Esto es lo que se hace para calcular el producto escalar de dos vectores de R
3
: se coloca uno de
los vectores en fila y el otro en columna y se multiplican n´ umero a n´ umero.
Es tambi´en lo que se hace para calcular lo que tenemos que pagar en una compra multiplicando la matriz fila de
los precios de los art´ıculos que hemos comprado por la matriz columna de las cantidades que hemos comprado de cada
uno de ellos.
Observemos tambi´en que una matriz A ∈ /
m×n
(/) puede escribirse como superposici´ on de filas:
A =
_
_
_
_
_
F
1
F
2
.
.
.
F
m
_
_
_
_
_
o como yuxtaposici´ on de columnas:
B = (C
1
, C
2
, , C
n
)
Si las filas de A tienen el mismo n´ umero de elementos que las columnas de B, A y B se pueden
multiplicar multiplicando las filas de A por las columnas de B, siendo
(AB)
ij
= F
i
C
j
=
n

k=1
a
ik
b
kj
que escribiremos
n

k=1
A
ik
B
kj
Este producto es una operaci´ on que va de /
m×n
(/) /
n×u
(/) en /
m×u
(/). Para que sea
operaci´ on en /
m×n
(/), ha de ser m = n.
Podemos decir, por tanto, que las matrices cuadradas tienen otra operaci´ on, el producto, con las
siguientes propiedades:
a) El producto es asociativo si el producto en / lo es: A(BC) = (AB)C.
En efecto, vamos a ver que el n´ umero de la entrada (i,j) de A(BC) es el mismo que el n´ umero de
la entrada (i,j) de (AB)C:
Suponiendo que A ∈ /
m×n
(/), B ∈ /
n×u
(/), C ∈ /
u×s
(/).
33
(A(BC))
i,j
=
n

k=1
A
ik
(BC)
kj
=
n

k=1
A
ik
(
u

l=1
B
kl
C
lj
) =
n

k=1
u

l=1
A
ik
(B
kl
C
lj
)
((AB)C)
i,j
=
u

l=1
(AB)
il
C
lj
=
u

l=1
(
n

k=1
A
ik
B
kl
)C
lj
=
u

l=1
n

k=1
(A
ik
B
kl
)C
lj
Comparando las dos expresiones finales se puede ver que contienen los mismos sumandos debido a
la propiedad asociativa del producto en /. La diferencia est´ a solamente en la forma de agruparlos:
En el primer sumatorio agrupamos primero los del mismo k, sumamos los A
ik
(B
kl
C
lj
), para todos
los valores posibles de ‘l

y luego volvemos a sumar estas sumas para todos los valores posibles de ‘k

En el segundo sumatorio agrupamos primero los del mismo l, sumamos los (A
ik
B
kl
)C
lj
, para todos
los valores posibles de ‘k

y luego volvemos a sumar estas sumas para todos los valores posibles de
‘l

;
Pero la forma de agruparlos para la suma no importa debido a su propiedad conmutativa.
Representaremos las matrices cuadradas n n con elementos de / por /
n
(/).
Se indica como ejercicios la demostraci´on de
2.2.1. b) El producto es distributivo respecto a la suma de matrices si el producto de / lo es
respecto a la suma.
Como todav´ıa no hemos comprobado que el producto sea conmutativo y de hecho no lo es, la
distributividad tiene dos facetas, a la derecha y a la izquierda:
A(B +C) = AB +AC, (A +B)C = AC +BC
2.2.2. c) El producto es asociativo respecto al producto por los elementos de / si el producto en
/ lo es.
s(AB) = (sA)B, (AB)s = A(Bs)
Pero existen matrices distintas de cero que no tienen inverso respecto a la multiplicaci´ on. Para
ello v´ease como ejercicio:
2.2.3. Dada la matriz
A =
_
1 0
1 0
_
Comprobar que no existe una matriz B tal que AB = I = BA.
34
El conjunto de las matrices cuadradas de orden n con elementos de un cuerpo es un grupo aditivo
conmutativo respecto a su suma. Respecto al producto no constituyen un grupo multiplicativo ni
a´ un prescindiendo de la matriz cero, porque existen matrices no nulas que no poseen inversa seg´ un el
ejercicio 2.2.3; por esto no son un cuerpo; la estructura de grupo aditivo con un producto asociativo y
distributivo se denomina anillo. Adem´ as, el elemento unidad del cuerpo permite construir el elemento
unidad del conjunto de las matrices cuadradas de orden n respecto a la multiplicaci´ on que es la matriz
que tiene 1 en todos los elementos de la diagonal y ceros en el resto. Por eso, se dice que /
n
(/) es
un anillo unitario.
Nos podemos dar cuenta de que el producto en general no es conmutativo viendo que una matriz
fila y una matriz columna del mismo n´ umero de elementos son multiplicables en los dos sentidos
distintos pero en un sentido el producto es un n´ umero y en otro sentido el producto es una matriz
cuadrada de orden igual al n´ umero de elementos de las matrices dadas.
Se puede comprobar como ejercicios la no conmutatividad de matrices cuadradas y otras propiedades
peculiares:
2.2.4. Siendo A y B las matrices dadas a continuaci´ on calcular los productos AB y BA cuando
sea posible y comparar los resultados.
a) A =
_
1 1
−1 1
_
B =
_
3 4
5 6
_
b) A =
_
2 3
0 1
_
B =
_
1 3
0 0
_
c) A =
_
_
2 4 0
5 0 3
0 1 0
_
_
B =
_
_
5 50
1 60
1 86
_
_
d) A =
_
2 3 4
4 3 2
_
B =
_
_
1 2
1 0
4 4
_
_
¿Ser´ a cierta para las matrices cuadradas la relaci´on (A +B)
2
= A
2
+ 2AB +B
2
?
2.2.5. Comprobar que el producto de dos matrices puede ser nulo sin que lo sean ninguno de los
factores, hallando los productos AB siendo A y B las matrices dadas a continuaci´ on:
a) A =
_
1 1
1 1
_
B =
_
1
−1
_
b) A =
_
3 6
1 2
_
B =
_
−2
1
_
c) A =
_
5 6
_
B =
_
−6
5
_
d) A =
_
1 0
1 0
_
B =
_
0 0
1 1
_
¿Es cierto que AB = 0 ⇒BA = 0? Comprobarlo.
35
2.2.6. Hallar la forma general de las matrices 3 3 de n´ umeros reales o complejos que conmutan
con
_
_
1 1 0
0 1 1
0 0 1
_
_
.
2.2.7. Hallar matrices 2 2 de n´ umeros reales, tales que su cuadrado es −I.
2.2.8. Hallar matrices A ∈ /
2×2
de n´ umeros reales, tales que A ,= I y A
2
= A.
2.2.9. Siendo
A =
_
_
1 1
0 1
1 1
_
_
= (C
1
, C
2
), B =
_
2 −4
4 5
_
=
_
F
1
F
2
_
Comprobar que AB = C
1
F
1
+C
2
F
2
Generalizar este resultado para matrices de dimensiones multiplicables.
2.2.10. ¿Qu´e transformaci´on tiene lugar en la matriz C dada a continuaci´on cuando la multipli-
camos a la derecha o a la izquierda por la matriz D diagonal dada tambi´en a continuaci´ on:
C =
_
_
6 −2 0
2 0 1
1 1 0
_
_
D =
_
_
2 0 0
0 4 0
0 0 6
_
_
¿C´ uales son las matrices diagonales que conmutan con todas las dem´as?
2.2.11. Demostrar que si una matriz no es diagonal, no conmuta con todas las dem´as. Deducir
de este ejercicio y del anterior la forma de las matrices que conmutan con todas las dem´ as.
2.2.12. Multiplicando las dos matrices A y B dadas a continuaci´on,
A =
_
_
2 4 0
5 0 3
0 1 0
_
_
B =
_
_
6 −2 0
2 0 1
1 1 0
_
_
Comprobar que:
a) La primera fila del producto AB es la suma de las filas de B multiplicadas por los n´ umeros de
la primera fila de A considerados como coeficientes.
b) La primera columna de AB es la suma de las columnas de A multiplicados por los n´ umeros de
la primera columna de B considerados como coeficientes.
¿Qu´e ocurre an´alogamente con las dem´ as filas y las dem´ as columnas del producto?
36
2.2.13. Se llaman matrices elementales las obtenidas de la matriz identidad, haciendo una de las
siguientes transformaciones:
a) Permutaci´ on de filas.
b) Suma a una fila de otra fila multiplicada por un n´ umero.
c) Multiplicaci´on de una fila por un n´ umero distinto de cero.
Escribir todas las matrices elementales de tama˜ no 3 3.
Escoger una matriz cualquiera de n´ umeros y comprobar que al multiplicar esta matriz por otra
elemental colocando a la izquierda la matriz elemental, se realiza en la matriz escogida, la trans-
formaci´ on que hab´ıa tenido lugar en la identidad para obtener la matriz elemental. Generalizar el
resultado.
37
La trasposici´on es otra aplicaci´ on definida en el conjunto de las matrices con imagen en este
mismo conjunto que hace corresponder a una matriz A = (a
ij
)
i∈{1,2,...m},j∈{1,2,...n}
, la matriz represen-
tada por
t
A:
t
A = (b
ij
)
i∈{1,2,...n},j∈{1,2,...m}
donde b
ij
= a
ji
. Lo que hacemos es modificar la disposici´ on
de los n´ umeros cambiando filas por columnas.
La trasposici´ on no es siempre una operaci´ on en /
m×n
(R), ya que asocia a elementos de /
m×n
(R),
elementos de /
n×m
(R). Para que una aplicaci´ on sea operaci´ on en un conjunto, tiene que quedarse
en ese conjunto, para lo cual ha de ser /
m×n
(R) = /
n×m
(R), es decir, m = n.
La traspuesta de la matriz suma de otras dos matrices es la suma de las traspuestas de las matrices
dadas.
En cuanto a la relaci´ on del producto con la trasposici´on tenemos la siguiente igualdad:
t
(AB) =
t
B
t
A
ya que
(
t
(AB))
ji
= (AB)
ij
=

k
A
ik
B
kj
=

k
B
kj
A
ik
=

k
(
t
B)
jk
(
t
A)
ki
= (
t
B
t
A)
ji
Tipos de matrices.
Entre las matrices cuadradas de n´ umeros reales se definen Las matrices sim´etricas son las que
coinciden con su traspuesta, para lo cual han de ser cuadradas (m=n): la matriz A = (a
ij
) es
sim´etrica si y s´olo si a
ij
= a
ji
∀i, j; tambi´en se escribe si y s´olo si A =
t
A.
Las matrices antisim´etricas son las que coinciden con la opuesta de su traspuesta, para lo cual
tambi´en han de ser cuadradas: la matriz A = (a
ij
) es antisim´etrica si y s´ olo si a
ij
= −a
ji
, ∀i, j;
tambi´en se escribe A = −
t
A.
Compru´ebese como ejercicios que
2.3.1. Una matriz antisim´etrica tiene nulos todos los elementos de su diagonal principal.
2.3.2. Una matriz a la vez sim´etrica y antisim´etrica es una matriz nula (que tiene 0 en todos los
sitios).
2.3.3. Comprobar que:
a) Dada una matriz cuadrada A, la matriz
1
2
(A +
t
A) es una matriz sim´etrica.
b) Dada una matriz cuadrada A, la matriz
1
2
(A −
t
A) es una matriz antisim´etrica.
c) Toda matriz cuadrada se puede escribir como suma de una matriz sim´etrica y otra antisim´etrica.
38
Entre las matrices cuadradas de n´ umeros complejos se definen las matrices herm´ıticas como las
matrices que verifican a
ij
= a
ji
, ∀i, j (A =
t
A) Y las matrices antiherm´ıticas como las matrices que
verifican a
ij
= −a
ji
∀i, j (A = −
t
A)
Compru´ebese como ejercicios que
2.4.1. Una matriz herm´ıtica tiene todos los elementos de su diagonal principal reales.
2.4.2. En una matriz antiherm´ıtica son imaginarios puros todos los elementos de la diagonal
principal.
2.4.3. Una matriz a la vez herm´ıtica y antiherm´ıtica es una matriz nula.
2.4.4. Toda matriz cuadrada compleja se puede escribir como suma de una matriz herm´ıtica y
otra antiherm´ıtica.
2.4.5. Comprobar que el producto de matrices sim´etricas no siempre es una matriz sim´etrica
realizando el producto AB en el caso a):
a) A =
_
_
1 0 1
0 1 0
1 0 1
_
_
, B =
_
_
1 0 0
0 2 0
0 0 3
_
_
Sin embargo, s´ı es sim´etrico en el caso:
b) A =
_
_
1 4 1
4 3 4
1 4 1
_
_
, B =
_
_
0 0 1
0 1 0
1 0 0
_
_
Comprobar que en el caso a) BA =
t
(AB) y en el caso b) BA = AB.
2.4.6. Demostrar que dadas A y B, dos matrices sim´etricas, A y B conmutan si y s´ olo si su
producto es una matriz sim´etrica. Encontrar matrices sim´etricas que conmuten y matrices sim´etricas
que no conmuten distintas de las del ejercicio anterior.
2.4.7. Si A es una matriz sim´etrica y B es una matriz antisim´etrica, A y B conmutan si y s´ olo si
su producto es una matriz antisim´etrica.
2.4.8. Demostrar que toda matriz sim´etrica 22 de n´ umeros reales o complejos que conmute con
_
1 1
0 1
_
es un m´ ultiplo de la identidad.
2.4.9. Demostrar que toda matriz sim´etrica 33 de n´ umeros reales o complejos que conmute con
39
_
_
1 1 0
0 1 1
0 0 1
_
_
es un m´ ultiplo de la identidad.
40
Otros subconjuntos importantes de las matrices cuadradas son:
Las matrices diagonales: Son aquellas en las que a
ij
= 0 siempre que i ,= j. Son en ellas nulos
todos los elementos situados fuera de la diagonal del cuadrado que va del ´angulo superior izquierdo
al ´angulo inferior derecho (que se llama diagonal principal).
De las matrices diagonales la m´ as importante es la identidad que tiene 1 en todos los elementos
de la diagonal.
Tambi´en son importantes entre las matrices cuadradas las matrices triangulares superiores: Son
en ellas nulos todos los elementos que se encuentran debajo de la diagonal principal. Por tanto,
aquellas en las que a
ij
= 0 siempre que i > j.
An´ alogas a ´estas son las matrices triangulares inferiores: Son en ellas nulos todos los elementos
que se encuentran encima de la diagonal principal. Por tanto, aquellas en las que a
ij
= 0 siempre
que i < j.
Obs´ervese que una matriz a la vez triangular superior y triangular inferior es una matriz diagonal.
2.5.1. Comprobar que la traspuesta de una matriz triangular superior es triangular inferior y
rec´ıprocamente.
2.5.2. Demostrar que:
a) El producto de matrices diagonales es diagonal.
b) El producto de matrices triangulares superiores es triangular superior.
c) El producto de matrices triangulares inferiores es triangular inferior.
Debido al ejercicio 2.4.5, las matrices sim´etricas de orden n no son un subanillo de las matrices cuadradas de orden
n, (porque el producto de dos matrices sim´etricas puede no ser sim´etrica). Sin embargo, debido al ejercicio 2.5.2 las
matrices diagonales de orden n forman un subanilo unitario del anillo unitario de las matrices cuadradas de orden n y
lo mismo ocurre con las matrices triangulares superiores de orden n y con las matrices triangulares inferiores de orden
n.
41
Las matrices que tienen distinto n´ umero de filas que de columnas se llaman matrices rectangulares.
En ellas m ,= n.
Pasando ahora a las matrices rectangulares mn, otro subconjunto importante de ellas son las
matrices escalonadas: Se llaman as´ı porque en ellas se puede trazar una escalera por debajo de la cual
todos los elementos son nulos, siendo no nulos los elementos de sus esquinas y recorriendo esta escalera
filas y columnas de manera que no baja m´ as de una fila en cada escal´on; de manera m´ as precisa, a
la izquierda y debajo del primer n´ umero distinto de cero de cada fila, los n´ umeros son todos ceros.
Matem´ aticamente se puede expresar as´ı: (a
ij
) es escalonada si para cada fila i existe una columna k
i
tal que los n´ umeros de esa fila anteriores a la columna k
i
son nulos: a
ij
= 0 si j < k
i
y los t´erminos
de las filas posteriores situados en dichas k
i
columnas son tambi´en nulos: a
lj
= 0 si l > i, j ≤ k
i
.
§
¦
¤
¥
0 1 2 3 4 5 6
0 0 2 3 4 5 6
0 0 0 0 4 5 6
0 0 0 0 0 5 6
0 0 0 0 0 0 0
matriz escalonada
§
¦
¤
¥
0 1 2 3 4 5 6
0 0 2 3 4 5 6
0 0 0 0 4 5 6
0 0 0 0 2 5 6
0 0 0 0 0 0 0
matriz no escalonada
Las matrices escalonadas m n, donde m y n son fijos, no forman un grupo aditivo respecto a
la suma de matrices.
Se puede comprobar que toda matriz cuadrada y escalonada es triangular superior. Para ello
obs´ervese c´omo es una matriz escalonada con n´ umero m´ınimo de ceros (v´ease la matriz a conti-
nuaci´ on). Si tuviera m´ as ceros seguir´ıa siendo triangular superior.
§
¦
¤
¥
1 2 3 4 5 6
0 2 3 4 5 6
0 0 7 4 5 6
0 0 0 9 5 6
0 0 0 0 1 8
0 0 0 0 0 8
matriz escalonada y
triangular superior
42
Se puede ver tambi´en que en una matriz cuadrada escalonada la ´ ultima fila tiene un elemento
distinto de cero, si y s´olo si el primer escal´ on est´ a en la primera columna y cada escal´ on tiene longitud
de una columna. Ya que en otro caso, al ir recorriendo los escalones, agotamos antes las columnas que
las filas, quedando la ´ ultima fila completa debajo de la escalera. (V´ease la matriz a continuaci´ on).
§
¦
¤
¥
1 2 3 4 5 6
0 2 3 4 5 6
0 0 0 4 5 6
0 0 0 0 5 6
0 0 0 0 0 6
0 0 0 0 0 0
matriz escalonada con
escal´ on de dos columnas
43
(Ejercicios tomados del libro [L]),
1. Demostrar: a) Si Y es una matriz columna de n´ umeros reales y Y
t
es la matriz fila traspuesta
de la matriz anterior,
Y
t
Y = 0 ⇔Y = 0
b) Dada una matriz A de n´ umeros reales y una matriz columna Z tambi´en de n´ umeros reales,
multiplicable a la izquierda por A:
t
A AZ = 0 ⇔AZ = 0
c) Si X es una matriz de n´ umeros reales multiplicable a la izquierda por otra matriz cuadrada A:
t
A AX = 0 ⇔AX = 0 y A
t
AX = 0 ⇔
t
AX = 0
d)
A
t
A AX = 0 ⇔
t
A AX = 0 ⇔AX = 0.
e)
(
t
A A)
k
X = 0 ⇔AX = 0
f) Usar los resultados anteriores cuando X=I, para probar que son equivalentes las relaciones
siguientes:
A = 0,
t
A A = 0, A
t
A A = 0, (
t
A A)
k
= 0 A(
t
A A)
k
= 0
2. Una matriz sim´etrica y no nula de n´ umeros reales, no puede tener ninguna potencia nula.
Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de [A], en la secci´ on 1.3. de [F], en el
cap´ıtulo 2 de [V], en la secci´on 1.4 de [H]
44
Bibliograf´ıa.
[A] Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol.
Ed. S´ıntesis Madrid. 1999.
[F] J.B: Fraleigh R. A. Beauregard. Algebra Lineal. Addison-Wesley Iberoamericana 1989.
[G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e
Ruiz Jim´enez. Ed. Editex. 2009.
[L] E. M. Landesman, M. R. Hestenes. Linear Algebra for Mathematics, Science, and Engineering.
Prentice-Hall International, Inc. 1992.
45
46
M
´
ETODO DE GAUSS Y REDUCCI
´
ON DE GAUSS-JORDAN.
Introducci´ on.
Los sistemas de ecuaciones lineales aparecen frecuentemente en problemas elementales de otras
ciencias y de la vida corriente. Como ejemplo se enuncian aqu´ı varios problemas de esos:
1. Averiguar si los planos de ecuaciones:
π
1
≡ −y +z = 2, π
2
≡ 3x + 6y +z = −5, π
3
≡ 2x + 4y −2z = −3
tienen un punto com´ un.
Sol: pto com´ un: 1/8(21, −17, −1)
2. Determinar si en R
3
las rectas siguientes se cortan:
r
1

2x +3y +z = 5
x −3y = 4
_
r
2

x +y = 2
y −z = −1
_
Sol: no se cortan.
3. Ajustar la reacci´ on:
xIO
3
Na +ySO
3
HNa →zSO
4
Na
2
+uSO
4
HNa +vH
2
0 +wI
2
Sol: x = 2w, y = 5w, z = 2w, u = 3w, v = w.
5. En la red de tr´ afico del dibujo de la p´agina siguiente, se conocen las cantidades de coches que
circulan en dos entradas y en algunos tramos. Se desea conocer las cantidades de coches que circulan
en todos los tramos. Se podr´ıa colocar un contador en cada tramo desconocido, entonces har´ıan falta
nueve contadores, sin embargo, se puede demostrar que dos contadores son suficientes, porque los
tr´ aficos en los distintos tramos est´ an relacionados. Demu´estrese.
47
· · ·
¸ ¸

»

»

·
·
· ·
¸ ¡
· · ·
30
x
1 30
x
2
x
3
10 10
10 5 20
x
5
x
4
x
6
10 5
x
7
x
8
x
9
0)
1(
0)
1(
0)
1(
0)
1(
0)
1(
0)
1(
0)
1(
4. Hallar las intensidades de las corrientes que circulan por los tramos horizontales del circuito
el´ectrico siguiente, conocidas las resistencias: R
1
= 8Ω, R
2
= 6Ω, R
3
= 12Ω, y las diferencias de
potencial: V
1
= 5v, V
2
= 18v, sabiendo que se cumplen las leyes de Kirchoff y la ley de Ohm.
Las leyes de Kirchoff son:
1. En cada nodo la suma de las intensidades de las corrientes que entran es igual a la suma de
las corrientes que salen.
2. En cada lazo cerrado la diferencia de potencial total es igual a la suma de las diferencias de
potencial correspondientes a cada tramo del circuito.
La ley de Ohm dice que la diferencia de potencial correspondiente a un tramo con una resistencia
R por el que corre una corriente de intensidad I es igual al producto RI.
Sol: I
1
= −3/36, I
2
= 34/36, I
3
= 37/36.
48
¡
¸
¡
I
3
I
2
I
1
V
2
V
1
R
3
R
2
R
1

Resolver un sistema de ecuaciones lineales es hallar, cuando es posible, todos los valores de las
inc´ ognitas que satisfacen todas las ecuaciones del sistema. Supondremos que los coeficientes de las
inc´ ognitas en las ecuaciones son reales o complejos. La teor´ıa que vamos a desarrollar vale siempre
que los coeficientes est´en en un cuerpo.
Si no es posible encontrar esos valores, el sistema se llama incompatible. Si es posible encontrar-
los, distinguimos el caso en que estos valores est´an determinados un´ıvocamente, llamando al sistema
compatible determinado, del caso en que hay infinitos valores, llam´ andolo entonces compatible inde-
terminado.
En Bachillerato se han visto los m´etodos de eliminaci´ on, reducci´on y sustituci´on para resolver
sistemas de ecuaciones lineales. Cada sistema concreto puede resolverse o verse si es incompatible
usando uno de estos m´etodos. El M´etodo de Gauss es una combinaci´on sistem´atica de los m´etodos
de eliminaci´ on y sustituci´on v´ alida para todos los sistemas. Habiendo garant´ıa de poder decidir si un
sistema dado cualquiera es incompatible o compatible y resolverlo en este caso, por dicho m´etodo.
Algunas veces s´ olo interesa saber si el sistema es incompatible, compatible determinado o com-
patible indeterminado, sin llegar a resolver efectivamente el sistema. Veremos que esto tambi´en se
puede hacer, estudiando la evoluci´ on de los sistemas en la primera parte (eliminaci´ on) del m´etodo
de Gauss.
49
M´etodo de Gauss.
Si el sistema est´a formado por una s´ola ecuaci´ on con una inc´ ognita que es de la forma ax = b,
sabemos que tiene soluci´ on ´ unica si a tiene inverso (lo cual es equivalente, cuando a est´ a en un
cuerpo, a que a sea distinto de cero); tiene infinitas soluciones cuando a = b = 0; es incompatible
cuando a = 0 y b ,= 0.
Si el sistema es de una ecuaci´ on con m´as de una inc´ ognita, es de la forma a
11
x
1
+ +a
1n
x
n
= b
1
;
´este es indeterminado o incompatible, siendo ´este ´ ultimo el caso cuando todos los coeficientes de las
inc´ ognitas son nulos sin serlo el t´ermino independiente.
La idea es, entonces, ir reduciendo la complejidad de un sistema con varias ecuaciones y varias
inc´ ognitas a la simplicidad de un sistema con una ecuaci´ on.
Lo cual se puede hacer pasando a primera ecuaci´on una que tenga coeficiente a
11
de x
1
distinto
de cero, dividiendo por a
11
dicha ecuaci´ on (que se puede hacer porque a
11
,= 0) y restando a las
siguientes ecuaciones la primera multiplicada por el coeficiente de x
1
en cada ecuaci´on. As´ı hemos
eliminado la inc´ ognita x
1
en las ecuaciones posteriores a la primera y ´estas dan un sistema de una
ecuaci´ on menos con una inc´ognita menos. Repitiendo el procedimiento, llegamos hasta un sistema
de una ecuaci´on, que sabemos resolver o ver si es incompatible.
Veamos un ejemplo: resolvamos por el m´etodo de Gauss el siguiente sistema:
x
1
+2x
2
+x
3
+2x
4
= 16
2x
1
−x
2
−x
3
−x
4
= −7
−2x
1
+x
2
+2x
3
−x
4
= 2
2x
2
+3x
3
+x
4
= 17
_
¸
¸
_
¸
¸
_
Empezamos eliminando la inc´ ognita x
1
de las ecuaciones segunda y tercera sumando a estas
ecuaciones la primera multiplicada adecuadamente por los n´ umeros −2, 2. Podemos hacerlo porque
el coeficiente de x
1
en la primera ecuaci´ on es distinto de cero. Entonces pasamos a
x
1
+2x
2
+x
3
+2x
4
= 16
−5x
2
−3x
3
−5x
4
= −39
5x
2
+4x
3
+3x
4
= 34
2x
2
+3x
3
+x
4
= 17
_
¸
¸
_
¸
¸
_
As´ı encontramos dentro del sistema dado un subsistema de tres ecuaciones con tres inc´ognitas,
formado por las tres ´ ultimas ecuaciones, m´ as simple que el dado y que una vez resuelto nos dar´ıa la
soluci´ on del sistema dado considerando tambi´en la primera ecuaci´ on.
En este subsistema de tres ecuaciones podemos pasar a otro subsistema de dos ecuaciones con
dos inc´ ognitas, eliminando la inc´ ognita x
2
de las dos ´ ultimas ecuaciones sumando a ´estas la primera
50
multiplicada adecuadamente, ya que el coeficiente de x
2
en la primera ecuaci´on del subsistema es
distinto de cero.
Pero como tendr´ıamos que multiplicar la primera ecuaci´ on por −1/5 para conseguir que el co-
eficiente de x
2
sea 1 y luego multiplicar adecuadamente para eliminar los coeficientes de dicha x
2
en las restantes ecuaciones y de este modo surgir´ıan fracciones, vamos a utilizar otro camino que
tambi´en consiste en multiplicar una ecuaci´on por un n´ umero y sumar otra ecuaci´ on multiplicada por
un n´ umero: vamos a multiplicar la primera ecuaci´ on del subsistema por −1 y le vamos a sumar la
´ ultima multiplicada por −2, pasando a:
x
2
−3x
3
+3x
4
= 5
5x
2
+4x
3
+3x
4
= 34
2x
2
+3x
3
+x
4
= 17
_
_
_
Hemos conseguido que el coeficiente de la inc´ ognita x
2
sea 1 en la primera ecuaci´ on. Ahora
multiplicando esta ecuaci´ on por −5 y sumand´ osela a la segunda ecuaci´on y luego multiplicando la
primera ecuaci´ on por −2 y sum´ andosela a la tercera ecuaci´on tenemos:
x
2
−3x
3
+3x
4
= 5
19x
3
−12x
4
= 9
9x
3
−5x
4
= 7
_
_
_
donde podemos percibir un subsistema de las dos ´ ultimas ecuaciones con las dos ´ ultimas inc´ ognitas.
De este subsistema, restando a la pen´ ultima ecuaci´ on la ´ ultima multiplicada por 2, obtenemos:
x
3
−2x
4
= −5
9x
3
−5x
4
= 7
_
y as´ı eliminamos f´acilmente la inc´ ognita x
3
de la ´ ultima ecuaci´on pasando a
x
3
−2x
4
= −5
13x
4
= 52
_
donde aparece al final una ecuaci´ on con una inc´ ognita. Resuelta esta ecuaci´ on podemos ir resolviendo
los subsistemas de dos y tres ecuaciones que se han ido hallando resolviendo progresivamente una
ecuaci´ on m´ as y llegar a la soluci´ on del sistema dado. En efecto, la ´ ultima ecuaci´on da x
4
= 4, que
sustituida en x
3
− 2x
4
= −5 da x
3
= 3, lo cual sustituido en x
2
− 3x
3
+ 3x
4
= 5 da x
2
= 2 y todo
esto sustituido en x
1
+2x
2
+x
3
+2x
4
= 16 da x
1
= 1, teniendo el sistema resuelto por el m´etodo de
Gauss.
51
Si el sistema hubiera sido:
2x
2
+3x
3
+x
4
= 17
2x
1
−x
2
−x
3
−x
4
= −7
−2x
1
+x
2
+2x
3
−x
4
= 2
x
1
+2x
2
+x
3
+2x
4
= 16
_
¸
¸
_
¸
¸
_
donde el coeficiente de la primera ecuaci´ on en la primera inc´ ognita es cero, pasamos a un sistema
donde este coeficiente es distinto de cero, intercambiando ecuaciones.
Veamos otros ejemplos donde se va viendo los subsistemas formados eliminando sucesivamente
las inc´ognitas hasta llegar a una ecuaci´on.
2)
6x
2
+12x
3
= 18
8x
1
+ 6x
2
= 5
x
1
− x
2
+x
3
= 0
_
_
_
x
1
−x
2
+x
3
= 0
8x
1
+6x
2
= 5
6x
2
+12x
3
= 18
_
_
_
x
1
−x
2
+x
3
= 0
14x
2
−8x
3
= 5
6x
2
+12x
3
= 18
_
_
_
x
1
−x
2
+x
3
= 0
14x
2
−8x
3
= 5
x
2
+2x
3
= 3
_
_
_
x
1
−x
2
+x
3
= 0
x
2
+2x
3
= 3
14x
2
−8x
3
= 5
_
_
_
x
1
−x
2
+x
3
= 0
x
2
+2x
3
= 3
−36x
3
= −37
_
_
_
Como la ´ ultima ecuaci´ on es compatible, el sistema es compatible y como tambi´en es determinada,
podemos despejar x
3
en la ´ ultima ecuaci´ on y sustituyendo en la segunda ecuaci´ on despejar x
2
, tambi´en
determinada. Obtenemos x
1
de la primera ecuaci´ on al sustituir los valores de las otras inc´ ognitas; el
sistema resulta compatible determinado.
Se obtiene x
3
= 37/36, x
2
= 17/18, x
1
= −1/12.
3)
x
1
+3x
2
−x
3
+x
4
= 1
−2x
1
+x
2
+3x
3
= 7
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
7x
2
+x
3
+2x
4
= 9
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
7x
2
+x
3
+2x
4
= 9
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
x
3
+9x
4
= 9
_
_
_
52
Este sistema tambi´en es compatible por serlo la ´ ultima ecuaci´on. Pero como ´esta es indeterminada,
el sistema es indeterminado. Despejamos x
3
en funci´on de x
4
en la ´ ultima ecuaci´ on, x
2
en funci´on
de x
4
en la pen´ ultima ecuaci´ on y luego sustituimos x
2
y x
3
en la primera ecuaci´on y obtenemos:
x
3
= 9 −9x
4
, x
2
= x
4
, x
1
= 10 −13x
4
, x
4
puede ser cualquiera.
Pero, aunque la ´ ultima ecuaci´ on sea compatible determinada, el sitema puede ser incompatible
indeterminado, como ocurre en los ejemplos 4) y 5) siguientes:
4)
x
1
+3x
2
−x
3
+x
4
= 1
−2x
1
+x
2
+9x
3
= 7
x
2
+x
3
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
7x
2
+7x
3
+2x
4
= 9
x
2
+x
3
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
+x
3
−x
4
= 0
7x
2
+7x
3
+2x
4
= 9
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
+x
3
−x
4
= 0
9x
4
= 9
_
_
_
Por ser la ´ ultima ecuaci´ on compatible, el sistema es compatible. En este caso, x
4
est´ a determinado
en la ´ ultima ecuaci´ on, pero al sustituir el valor de x
4
en las ecuaciones anteriores, la pen´ ultima
ecuaci´ on queda indeterminada por lo que el sistema es indeterminado. Despejando x
2
en funci´ on de
x
3
y sustituyendo en la primera ecuaci´ on tenemos las soluciones: x
4
= 1, x
2
= 1−x
3
, x
1
= −3+4x
3
,
x
3
puede ser cualquiera.
5)
x
1
+3x
2
−x
3
+x
4
= 1
−2x
1
+x
2
+2x
3
= 7
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
7x
2
+2x
4
= 9
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
7x
2
+2x
4
= 9
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
9x
4
= 9
_
_
_
De nuevo el sistema es compatible por serlo la ´ ultima ecuaci´on. Tanto ´esta, como la pen´ ultima
ecuaci´ on salen determinadas, pero al sustitir x
4
y x
2
en la primera ecuaci´ on, obtenemos una ecuaci´ on
con dos inc´ ognitas que es indeterminada (tiene infinitas soluciones) por lo que el sistema es compatible
indeterminado.
Sus soluciones son:
x
4
= 1, x
2
= 1, x
1
= x
3
−3, x
3
puede ser cualquiera.
Por ´ ultimo, veamos un sistema incompatible.
53
6)
x
1
+3x
2
−x
3
+x
4
= 1
−2x
1
+x
2
+2x
3
−9x
4
= 7
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
7x
2
−7x
4
= 9
x
2
−x
4
= 0
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
7x
2
−7x
4
= 9
_
_
_
x
1
+3x
2
−x
3
+x
4
= 1
x
2
−x
4
= 0
0x
2
+0x
4
= 9
_
_
_
Aqu´ı la ´ ultima ecuaci´on es incompatible, esto es suficiente para que el sistema sea incompatible.
Debido a que cuando encontramos una primera ecuaci´ on de un subsistema con coeficiente cero
en la primera inc´ ognita la intercambiamos con otra que tiene coeficiente distinto de cero en esa
inc´ ognita, la incompatibilidad es relegada a la ´ ultima ecuaci´ on.
Se puede conseguir que el coeficiente de la primera inc´ ognita sea 1 utilizando coeficientes de dicha
inc´ ognita en otras ecuaciones primos entre s´ı.
Recapitulando, el m´etodo de Gauss es una combinaci´ on ordenada de los m´etodos de eliminaci´ on y
sustituci´ on y garantiza nuestra capacidad de decisi´on sobre el car´acter de un sistema porque consiste
en la reali-zaci´ on de sucesivas etapas con las ecuaciones del sistema de manera que se van formando
subsistemas de una ecuaci´ on menos y una inc´ognita menos (como m´ınimo) hasta llegar a un sistema
de una s´ ola ecuaci´on, cuyo car´ acter hemos visto que sabemos decidir. (El car´acter sistem´ atico del
m´etodo de Gauss lo hace preferible a la hora de ejecutarlo por ordenador).
Entonces, si la ´ ultima ecuaci´on es incompatible, el sistema es incompatible.
Si la ´ ultima ecuaci´ on es compatible, se ve f´ acilmente si ´esta es determinada o indeterminada. Si es
indeterminada, el sistema es indeterminado. Si es compatible determinada, despejando la inc´ ognita
en la ´ ultima ecuaci´ on conseguida y sustituyendo regresivamente en las anteriores, obtenemos otro
sistema equivalente con una inc´ognita menos y al menos una ecuaci´ on menos, en el cual el car´ acter de
la ´ ultima ecuaci´on nos dir´ıa que el sistema es indeterminado si esta ecuaci´on fuera indeterminada; pero
si dicha ecuaci´on es determinada, para ver el car´acter del sistema tenemos que repetir el procedimiento
de sustituci´on regresiva y seguir as´ı hasta que quede alguna ecuaci´ on indeterminada en cuyo caso el
sistema ser´ a indeterminado o que todas las ecuaciones hayan resultado determinadas en cuyo caso
el sistema es determinado y hemos ido obteniendo sus soluciones. Si el sistema es indeterminado,
podemos despejar en las ecuaciones indeterminadas la primera inc´ ognita que aparezca en ellas con
coeficiente distinto de cero, en funci´ on de las siguientes y sustituyendo regresivamente obtener un
subconjunto de inc´ognitas despejado en funci´ on de otro subconjunto de inc´ ognitas que pueden variar
libremente.
54
La formaci´on de subsistemas de al menos una inc´ognita menos y al menos una ecuaci´ on menos
puede hacerse con las siguientes etapas:
1) Pasar a primer lugar una ecuaci´ on que tenga coeficiente distinto de cero de la primera inc´ognita.
2) Sumar a las restantes ecuaciones la primera multiplicada adecuadamente para que el coeficiente
de la primera inc´ ognita en ellas salga cero.
3) Considerar las ecuaciones excepto la primera como un subsistema que no tiene la primera
inc´ ognita y repetir las etapas 1) y 2) anteriores para la siguiente inc´ ognita que no tiene coeficiente
nulo en todas las ecuaciones. Si todas las ecuaciones tuvieran coeficientes nulos de las inc´ognitas
pero quedara alguna con t´ermino independiente distinto de cero (el sistema ser´ıa incompatible) se
reducen todas las ecuaciones incompatibles a una sola por etapas an´ alogas a la 2) anterior para los
t´erminos independientes.
4) Para resolver el sistema (en el caso en que sea compatible) se despeja la inc´ ognita que aparezca
con coeficiente distinto de cero en primer lugar en la ´ ultima ecuaci´ on, (si esta ´ ultima ecuaci´ on tiene
varias inc´ognitas, en funci´ on de las restantes) y se sustituye en las dem´as ecuaciones con lo que se
reduce en uno el n´ umero de ecuaciones del sistema obtenido y se repite el proceso hasta agotar las
ecuaciones. Al final, tendremos los valores de las inc´ognitas si el sistema es compatible determinado
o un subconjunto de inc´ognitas despejado en funci´ on de las otras, que ser´an independientes y podr´an
tomar cualquier valor si el sistema es compatible indeterminado.
Desmenuzando el tipo de operaciones que hacemos, las etapas 1), 2) y 3) del m´etodo de Gauss
se hacen realizando en las ecuaciones de un sistema lo que llamamos
Operaciones Elementales en un sistema:
1) Intercambio de las ecuaciones.
2) Suma de una ecuaci´on multiplicada por un n´ umero a otra ecuaci´ on distinta.
3) Multiplicaci´on de una ecuaci´on por una constante distinta de cero. (Para despejar las inc´ ognitas).
Estas operaciones son suficientes para su resoluci´on. Cualquier operaci´ on elemental en un sistema
lo transforma en otro equivalente.
55
Ejercicios:
3.1.1. Utilizar el m´etodo de Gauss para determinar el car´ acter de cada uno de los sistemas
enunciados a continuaci´ on y resolver los que sean compatibles:
a)
x
1
+x
2
+x
3
= 6
x
1
+2x
2
+3x
3
= 14
2x
1
−x
2
−x
3
= −3
_
_
_
b)
x
1
−x
2
+x
3
−2 = 0
2x
1
+x
2
−x
3
−1 = 0
−x
1
+2x
2
+3x
3
+3 = 0
_
_
_
c)
x
1
+x
2
+x
3
+x
4
= 0
x
1
+2x
2
+x
3
+2x
4
= 0
−x
1
−2x
2
+x
3
+2x
4
= 0
3x
1
+x
2
+2x
3
−x
4
= 0
_
¸
¸
_
¸
¸
_
d)
x
1
+x
2
+x
3
+x
4
= −1
x
1
+2x
2
+x
3
+2x
4
= −1
−x
1
−2x
2
−x
3
−2x
4
= 1
_
_
_
e)
x
1
+x
2
−x
3
= 1
−x
1
+x
2
+x
3
= 1
2x
1
−x
2
+x
3
= 2
5x
1
+2x
2
−x
3
= 5
_
¸
¸
_
¸
¸
_
f)
x
1
+x
2
+x
3
+x
4
= 0
x
1
−x
2
+2x
3
−2x
4
= 1
−x
1
−x
2
−x
3
+2x
4
= −6
2x
1
+x
2
+2x
3
+x
4
= 0
−2x
1
−3x
2
+3x
3
−x
4
= −9
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
3.1.2. Hallar los valores de los par´ ametros α, β y γ para que se verifique A A
t
= I siendo A la
matriz:
A = 1/9
_
_
7 −4 α
−4 β −8
−γ −8 1
_
_
3.1.3. Hallar e y f en la matriz
_
1 e 4
−1 f 8
_
para que exista una matriz A de tama˜ no 2 2 que multiplicada a la izquierda por
_
3 2 0
−2 1 4
_
de
_
1 e 4
−1 f 8
_
Sol 3.1.1: a) x
1
= 1, x
2
= 2, x
3
= 3; b) x
1
= 1, x
2
= −1, x
3
= 0; c) x
1
= 2x
4
= 2k, x
2
= −x
4
=
−k, x
3
= −2x
4
= −2k, x
4
= k; d) x
1
= −1 − x
3
= −1 − α, x
2
= −x
4
= −β, x
3
= α, x
4
= β; e)
incompatible ; f) x
1
= 1, x
2
= 2, x
3
= −1, x
4
= −2;
Sol. 3.1.2: α = −4, β = 1, γ = 4.
Sol. 3.1.3: e = 3, f = 4.
56
Operaciones elementales en una matriz.
Lo que importa al resolver un sistema son los coeficientes de las inc´ognitas y los t´erminos inde-
pendientes. Ellos foman la matriz de los coeficientes y la matriz ampliada del sistema. Un sistema se
puede escribir en forma matricial: AX=b donde A es la matriz de los coeficientes de las inc´ ognitas,
X es la columna de las inc´ ognitas y b es la columna formada por los t´erminos independientes.
Los ejemplos 2), 3), 4), 5) dados anteriormente ser´ıan:
_
_
0 6 12
8 6 0
1 −1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
18
5
0
_
_
_
_
1 3 −1 1
−2 1 3 0
0 1 0 −1
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
1
7
0
_
_
_
_
1 3 −1 1
−2 1 9 0
0 1 1 −1
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
1
7
0
_
_
_
_
1 3 −1 1
−2 1 2 0
0 1 0 −1
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
1
7
0
_
_
Llamamos matriz ampliada del sistema a la matriz A[b. Las matrices A y A[b van evolucionando,
al irse realizando las operaciones elementales en el sistema, cuando se usa el m´etodo de Gauss.
Las transformaciones que tienen lugar en la matriz de un sistema cuando se realizan operaciones
elementales en ´el, se llaman operaciones elementales en la matriz. Se obtienen as´ı tres tipos de
operaciones elementales en matrices que corresponden a los tres tipos de operaciones elementales en
el sistema.
Llamamos Operaciones Elementales en una matriz a:
1) Intercambio de las filas de la matriz.
2) Suma de una fila de la matriz multiplicada por un n´ umero a otra fila de la matriz.
3) Multiplicaci´on de una fila por una constante distinta de cero.
La evoluci´ on de las matrices en los ejemplos 2), 3), 4), 5) y 6) ha sido:
57
2)
_
_
0 6 12
8 6 0
1 −1 1
¸
¸
¸
¸
¸
¸
18
5
0
_
_

_
_
1 −1 1
8 6 0
0 6 12
¸
¸
¸
¸
¸
¸
0
5
18
_
_

_
_
1 −1 1
0 14 −8
0 6 12
¸
¸
¸
¸
¸
¸
0
5
18
_
_

_
_
1 −1 1
0 14 −8
0 1 2
¸
¸
¸
¸
¸
¸
0
5
3
_
_

_
_
1 −1 1
0 1 2
0 14 −8
¸
¸
¸
¸
¸
¸
0
3
5
_
_

_
_
1 −1 1
0 1 2
0 0 −36
¸
¸
¸
¸
¸
¸
0
3
−37
_
_
.
3)
_
_
1 3 −1 1
−2 1 3 0
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
7
0
_
_

_
_
1 3 −1 1
0 7 1 2
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
9
0
_
_

_
_
1 3 −1 1
0 1 0 −1
0 7 1 2
¸
¸
¸
¸
¸
¸
1
0
9
_
_

_
_
1 3 −1 1
0 1 0 −1
0 0 1 9
¸
¸
¸
¸
¸
¸
1
0
9
_
_
4)
_
_
1 3 −1 1
−2 1 9 0
0 1 1 −1
¸
¸
¸
¸
¸
¸
1
7
0
_
_

_
_
1 3 −1 1
0 7 7 2
0 1 1 −1
¸
¸
¸
¸
¸
¸
1
9
0
_
_

_
_
1 3 −1 1
0 1 1 −1
0 7 7 2
¸
¸
¸
¸
¸
¸
1
0
9
_
_

_
_
1 3 −1 1
0 1 1 −1
0 0 0 9
¸
¸
¸
¸
¸
¸
1
0
9
_
_
5)
_
_
1 3 −1 1
−2 1 2 0
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
7
0
_
_

_
_
1 3 −1 1
0 7 0 2
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
9
0
_
_

_
_
1 3 −1 1
0 1 0 −1
0 7 0 2
¸
¸
¸
¸
¸
¸
1
0
9
_
_

_
_
1 3 −1 1
0 1 0 −1
0 0 0 9
¸
¸
¸
¸
¸
¸
1
0
9
_
_
58
6)
_
_
1 3 −1 1
−2 1 2 −9
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
7
0
_
_

_
_
1 3 −1 1
0 7 0 −7
0 1 0 −1
¸
¸
¸
¸
¸
¸
1
9
0
_
_

_
_
1 3 −1 1
0 1 0 −1
0 7 0 −7
¸
¸
¸
¸
¸
¸
1
0
9
_
_

_
_
1 3 −1 1
0 1 0 −1
0 0 0 0
¸
¸
¸
¸
¸
¸
1
0
9
_
_
La observaci´ on de las matrices de un sistema en las distintas etapas de su resoluci´ on nos indica
que vamos escalonando la matriz de coeficientes del sistema dado, fila a fila, por medio de las
operaciones elementales y cuando tanto la matriz de coeficientes del sistema como la matriz ampliada
son escalonadas, podemos decidir si el sistema es incompatible o compatible.
En ese momento, el sistema es incompatible si y s´ olo si la ´ ultima ecuaci´on es incompatible,
lo cual se traduce en que la matriz escalonada del sistema tiene un escal´ on menos que la matriz
escalonada ampliada del sistema (v´ease el ´ ultimo ejemplo). Si la ´ ultima ecuaci´ on es compatible,
en cuyo caso las dos matrices escalonadas mencionadas tienen el mismo n´ umero de escalones, el
sistema es compatible indeterminado cuando queda indeterminada alguna de las ecuaciones al ir
sustituyendo, regresivamente en las ecuaciones anteriores, los valores de las inc´ ognitas determinadas.
Se observa que queda alguna ecuaci´ on indeterminada si y s´ olo si alguno de los escalones de la matriz
del sistema tiene longitud superior a una columna (v´eanse los ejemplos 3, 4 y 5); habiendo entonces
alguna ecuaci´on indeterminada con m´ as de una inc´ ognita donde se pueden pasar al segundo miembro
las inc´ognitas correspondientes a las columnas que no dan escal´ on y despejar las otras en funci´on
de ellas, lo que da la indeterminaci´on. El sistema es determinado si todas las ecuaciones quedan
determinadas, lo cual s´ olo ocurre cuando todos los escalones son de una columna (v´eanse el ejemplo
2).
Vemos que en el proceso de resoluci´ on de sistemas, podemos decidir el car´acter del sistema inicial
sin resolverlo totalmente y por ello enunciamos la versi´ on del Teorema de Rouch´e-Frobenius
para matrices escalonadas: un sistema es incompatible cuando la matriz escalonada a la que
hemos reducido la matriz ampliada del sistema tiene un escal´ on m´as que la matriz escalonada a la
que ha quedado reducida la matriz de los coeficientes del sistema; en otro caso es compatible, siendo
compatible determinado si todos los escalones de la matriz escalonada del sistema tienen longitud
una columna y compatible indeterminado si hay alg´ un escal´on de longitud superior a una columna.
Cuando la columna b es nula el sistema se llama homog´eneo. Entonces, esta columna no a˜ nade
ning´ un escal´on, a pesar de las operaciones elementales, por lo que en estos sistemas las matrices
59
escalonadas provenientes de la matriz de los coeficientes y de la matriz ampliada tienen siempre el
mismo n´ umero de escalones. Concluimos que los sistemas homog´eneos son siempre compatibles.
Ejercicios:
3.2.1. Haciendo operaciones elementales en la matriz ampliada del sistema y aplicando el Teorema
de Rouch´e-Frobenius, decidir el car´ acter de los siguientes sistemas de ecuaciones lineales:
x
1
+2x
2
−x
3
= 1
x
2
+x
3
= 2
x
1
+3x
2
= 3
_
_
_
x
1
+2x
2
−x
3
= 1
x
2
+x
3
= 2
x
1
+3x
2
= 4
_
_
_
2x
1
+x
2
= 5
x
1
−x
2
= 1
x
1
+2x
2
= 4
_
_
_
x
1
−3x
2
+x
3
+x
4
= 2
3x
1
−8x
2
+2x
3
+x
4
= 2
2x
1
−5x
2
+x
3
= 3
_
_
_
3.2.2. Hallar todas las matrices cuadradas de orden 2 que conmutan con la matriz
_
1 2
3 4
_
3.2.3. Considerar los sistemas:
a)
x
1
+2x
2
−x
3
= c
x
1
+x
2
+2x
3
= 2
−2x
1
+3x
2
+bx
3
= −4
_
_
_
b)
x
1
+x
2
−x
3
= 1
2x
1
+cx
2
+x
3
= d
5x
1
+5x
2
−x
3
= e
_
_
_
i). Encontrar los valores de b para los que el sistema a) tiene soluci´on, cualquiera que sea c.
ii). Existe un valor de b para el que el sistema a) no tiene siempre soluci´ on, sino s´olo para un
valor de c. ¿C´ uales son estos valores de b y de c?
iii). Encontrar las condiciones que han de cumplir c, d y e para que el sistema b) tenga soluci´ on.
3.2.4.
a) Hallar y para que exista una matriz X
2×2
tal que
X
_
1 2
3 4
_

_
1 2
3 4
_
X =
_
0 y
−3 0
_
.
b) Hallar la forma general de todas las matrices X que verifican la igualdad anterior con el valor
hallado de y.
60
3.2.5. Dado el sistema
_
_
1 a 1
a 0 1 −a
1 1 −a 1
_
_
_
_
x
y
z
_
_
=
_
_
b
0
0
_
_
,
Encontrar los valores de a y b para los que el sistema es:
a) compatible determinado.
b) incompatible.
c) compatible indeterminado.
3.2.6. Considerar el sistema de ecuaciones siguiente:
x +y +z = 1
x +y +az = 2
x +y +bz = 3
_
_
_
a) ¿Existen valores de a, b para los que el sistema es compatible determinado?
b) ¿Para qu´e valores de a, b, el sistema es incompatible?
3.2.7. Consideremos el sistema de ecuaciones lineales:
x −y +2z = 2
x +y −z = 1
2x +az = c
3x +y +bz = 4
_
¸
¸
_
¸
¸
_
a) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema sea
compatible indeterminado.
b) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema sea
compatible determinado.
3.2.8. Dado el sistema de ecuaciones lineales:
x +2y −2z +2t = 4
−3y +z +t = 1
x +5y −3z +t = m
−x +y +z +mt = 1
_
¸
¸
_
¸
¸
_
a) Mostrar que si el sistema tiene soluci´on, ´esta no es ´ unica.
b) Encontrar los valores de m para que exista soluci´ on.
61
3.2.9. Consideremos el sistema de ecuaciones lineales:
x +y +(1 +m)z = 4 −m
(1 −m)x −y +2z = −2
2x +my +3z = 2 −m
_
_
_
dependiente de m.
Hallar razonadamente:
a) Para qu´e valores de m el sistema es compatible determinado.
b) Para qu´e valores de m el sistema es compatible.
c) Para qu´e valores de m el sistema es incompatible.
Sol. 3.2.3ii).: b = −19, c = 2.
Sol. 3.2.4 a).: y = 2.
62
Reducci´ on de Gauss-Jordan.
Una vez decidido el car´ acter del sistema, hemos visto que si es compatible, la sustituci´on re-
gresiva de las inc´ ognitas que son determinadas o se pueden despejar en funci´ on de otras, da las
soluciones del sistema. Mirando de nuevo las matrices de los sistemas que van quedando al sustituir,
vemos que van evolucionando de manera que se van haciendo 1 los elementos de las esquinas de los
escalones (llamados pivotes), y se hacen cero los elementos sobre estos pivotes. Lo podemos hacer
todo matricialmente hasta el final y entonces se dice que se resuelve el sistema por la Reducci´on
de Gauss-Jordan
Ve´amoslo en el ejemplo 4) (p´ags. 53 y 58): Una vez conseguido el sistema en la forma escalonada,
despejar x
4
es pasar del ´ ultimo sistema
x
1
+3x
2
−x
3
+x
4
= 1
x
2
+x
3
−x
4
= 0
9x
4
= 9
_
_
_
de matriz
_
_
1 3 −1 1
0 1 1 −1
0 0 0 9
¸
¸
¸
¸
¸
¸
1
0
9
_
_
al sistema
x
1
+3x
2
−x
3
+x
4
= 1
x
2
+x
3
−x
4
= 0
x
4
= 1
_
_
_
de matriz
_
_
1 3 −1 1
0 1 1 −1
0 0 0 1
¸
¸
¸
¸
¸
¸
1
0
1
_
_
obtenidos dividiendo la ´ ultima fila por 9.
Sustituir x
4
en las ecuaciones anteriores es pasar al sistema:
x
1
+3x
2
−x
3
= 0
x
2
+x
3
= 1
x
4
= 1
_
_
_
de matriz
_
_
1 3 −1 0
0 1 1 0
0 0 0 1
¸
¸
¸
¸
¸
¸
0
1
1
_
_
obtenida de
_
_
1 3 −1 1
0 1 1 −1
0 0 0 1
¸
¸
¸
¸
¸
¸
1
0
1
_
_
restando la tercera fila a la primera y sumando la tercera fila a la segunda.
Como sustituir en las ecuaciones anteriores es pasar a un sistema donde no aparece la inc´ognita
x
4
, es decir, donde los coeficientes de x
4
son nulos en todas las ecuaciones excepto en la ´ ultima, en la
matriz escalonada ampliada, del ´ ultimo sistema, los n´ umeros de la columna de x
4
, excepto el ´ ultimo,
son ceros.
63
Despejar x
2
y sustituirla en la primera ecuaci´on es pasar a otro sistema donde s´olo aparece x
2
en la segunda ecuaci´on. Este sistema tiene una matriz escalonada ampliada que tiene ceros en la
columna de x
2
encima del 1 correspondiente a x
2
en la segunda ecuaci´ on:
Ahora hemos pasado al sistema:
x
1
−4x
3
= −3
x
2
+x
3
= 1
x
4
= 1
_
_
_
de matriz
_
_
1 0 −4 0
0 1 1 0
0 0 0 1
¸
¸
¸
¸
¸
¸
−3
1
1
_
_
obtenida de
_
_
1 3 −1 0
0 1 1 0
0 0 0 1
¸
¸
¸
¸
¸
¸
0
1
1
_
_
restando la segunda fila multiplicada por 3 de la primera fila.
Como la columna de x
3
no da escal´ on, se puede pasar al segundo miembro, y es indeterminada
porque puede tomar cualquier valor; si x
3
= k, se tienen las soluciones:
x
1
= 4k −3
x
2
= −k +1
x
3
= k
x
4
= 1
_
¸
¸
_
¸
¸
_

_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
= k
_
_
_
_
4
−1
1
0
_
_
_
_
+
_
_
_
_
−3
1
0
1
_
_
_
_
.
El procedimiento descrito, realizado en las matrices, desde el principio al final, en las matrices A y
A[b es la Reducci´on de Gauss-Jordan para resolver el sistema AX=b: consiste en escribir la
matriz ampliada del sistema, y reducirla a forma escalonada mediante operaciones elementales. En el
caso en que sea compatible, hacer 1 todos los pivotes y anular los elementos por encima de los pivotes
con m´ as operaciones elementales. Luego rellenamos las inc´ ognitas en las columnas correspondientes
y tenemos en el caso compatible determinado, los valores de las inc´ognitas; en el caso compatible
indeterminado pasamos al segundo miembro las inc´ ognitas cuyas columnas no dan escal´ on y las
sustituimos por par´ ametros variables.
Veamos ahora un ejemplo resuelto con la reducci´on de Gauss-Jordan desde el principio.
7)
x
1
+2x
2
+x
3
+2x
4
+x
5
+3x
6
= 0
2x
1
+5x
2
+x
3
+2x
4
+4x
5
+7x
6
= 2
−2x
1
−3x
2
−3x
3
−x
4
+20x
5
+14x
6
= 21
x
1
+x
2
+2x
3
+6x
4
+7x
5
+10x
6
= 8
_
¸
¸
_
¸
¸
_
64
equivalente a
_
_
_
_
1 2 1 2 1 3
2 5 1 2 4 7
−2 −3 −3 −1 20 14
1 1 2 6 7 10
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
x
6
_
_
_
_
_
_
_
_
=
_
_
_
_
0
2
21
8
_
_
_
_
La reducci´on de Gauss-Jordan de las matrices del sistema y ampliada da:
_
_
_
_
1 2 1 2 1 3
2 5 1 2 4 7
−2 −3 −3 −1 20 14
1 1 2 6 7 10
¸
¸
¸
¸
¸
¸
¸
¸
0
2
21
8
_
_
_
_

_
_
_
_
1 2 1 2 1 3
0 1 −1 −2 2 1
0 1 −1 3 22 20
0 −1 1 4 6 7
¸
¸
¸
¸
¸
¸
¸
¸
0
2
21
8
_
_
_
_

_
_
_
_
1 2 1 2 1 3
0 1 −1 −2 2 1
0 0 0 5 20 19
0 0 0 2 8 8
¸
¸
¸
¸
¸
¸
¸
¸
0
2
19
10
_
_
_
_

_
_
_
_
1 2 1 2 1 3
0 1 −1 −2 2 1
0 0 0 1 4 3
0 0 0 2 8 8
¸
¸
¸
¸
¸
¸
¸
¸
0
2
−1
10
_
_
_
_

_
_
_
_
1 2 1 2 1 3
0 1 −1 −2 2 1
0 0 0 1 4 3
0 0 0 0 0 2
¸
¸
¸
¸
¸
¸
¸
¸
0
2
−1
12
_
_
_
_

_
_
_
_
1 2 1 2 1 3
0 1 −1 −2 2 1
0 0 0 1 4 3
0 0 0 0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
0
2
−1
6
_
_
_
_

_
_
_
_
1 2 1 2 1 0
0 1 −1 −2 2 0
0 0 0 1 4 0
0 0 0 0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
−18
−4
−19
6
_
_
_
_

_
_
_
_
1 2 1 0 −7 0
0 1 −1 0 10 0
0 0 0 1 4 0
0 0 0 0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
20
−42
−19
6
_
_
_
_

_
_
_
_
1 0 3 0 −27 0
0 1 −1 0 10 0
0 0 0 1 4 0
0 0 0 0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
104
−42
−19
6
_
_
_
_
Rellenando ahora las inc´ ognitas:
x
1
+3x
3
−27x
5
= 104
x
2
−x
3
+10x
5
= −42
x
4
+4x
5
= −19
x
6
= 6
_
¸
¸
_
¸
¸
_

x
1
= 104 −3x
3
+27x
5
x
2
= −42 +x
3
−10x
5
x
4
= −19 −4x
5
x
6
= 6
_
¸
¸
_
¸
¸
_
65
donde hemos pasado al segundo miembro las inc´ ognitas que no dan escal´on.
Las soluciones del sistema est´an constituidas por los (x
1
, x
2
, x
3
, x
4
, x
5
, x
6
), tales que:
x
1
= 104 −3x
3
+27x
5
x
2
= −42 +x
3
−10x
5
x
3
= x
3
x
4
= −19 −4x
5
x
5
= x
5
x
6
= 6

_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
x
6
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
104
−42
0
−19
0
6
_
_
_
_
_
_
_
_
+x
3
_
_
_
_
_
_
_
_
−3
1
1
0
0
0
_
_
_
_
_
_
_
_
+x
5
_
_
_
_
_
_
_
_
27
−10
0
−4
1
0
_
_
_
_
_
_
_
_

_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
x
6
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
104
−42
0
−19
0
6
_
_
_
_
_
_
_
_

1
_
_
_
_
_
_
_
_
−3
1
1
0
0
0
_
_
_
_
_
_
_
_

2
_
_
_
_
_
_
_
_
27
−10
0
−4
1
0
_
_
_
_
_
_
_
_
donde λ
1
y λ
2
varian arbitraria e independientemente.
Ejercicios:
3.3.1. Resolver utilizando la reducci´ on de Gauss-Jordan los siguientes sistemas de ecuaciones
lineales.
a)
x +2y −z = −3
3x +7y +2z = 1
4x −2y +z = −2
_
_
_
b)
2y −z +t = 6
x −4y +z −2t = −9
2x −7y −2z +t = 10
3y −4t = −16
_
¸
¸
_
¸
¸
_
c)
x −y +z −t = 0
2x −2y −z +t = 3
−x +y +2z −2t = −3
−2x +2y +3z −t = 8
_
¸
¸
_
¸
¸
_
Si tenemos varios sistemas con la misma matriz de coeficientes, podemos resolverlos
todos a la vez, ampliando la matriz del sistema con las columnas de los t´erminos indepen-
dientes de los sistemas dados y haciendo en esta matriz m´as ampliada, las operaciones
elementales que escalonen la matriz de los coeficientes.
66
3.3.2. Resolver de manera simult´anea por el m´etodo de Gauss-Jordan los siguientes sistemas de
ecuaciones:
z −2t = 0
3x −6y +2z = −3
x −2y +z −t = −1
2x −3y +3t = −1
_
¸
¸
_
¸
¸
_
z −2t = −1
3x −6y +2z = 2
x −2y +z −t = 0
2x −3y +3t = 3
_
¸
¸
_
¸
¸
_
z −2t = −2
3x −6y +2z = −6
x −2y +z −t = −3
2x −3y +3t = 0
_
¸
¸
_
¸
¸
_
Sol. 3.3.1: a) x = −1, y = 0, z = 2 b) x = 1, y = 0, z = −2, t = 4 c) (x, y, z, t) =
(1, 0, 11/2, 13/2) +λ(1, 1, 0, 0)
Sol. 3.3.2: x
1
= 1, y
1
= 1, z
1
= 0, t
1
= 0; x
2
= 0, y
2
= 0, z
2
= 1, t
2
= 1; x
3
= 0, y
3
= 1, z
3
=
0, t
3
= 1.
La reducci´ on de Gauss-Jordan vale tambi´en para una ecuaci´ on matricial AX = B donde X es una
matriz de n filas y m columnas y B es una matriz de m columnas y el mismo n´ umero de filas de A.
Llamando X
i
a la columna i-´esima de X y B
i
a la columna i-´esima en B, la ecuaci´on matricial dada
es equivalente al conjunto de sistemas AX
i
= B
i
, i ∈ ¦1, ..., m¦. Los sistemas matriciales pueden
ser incompatibles o compatibles y en este caso, determinados o indeterminados. Se puede ver si son
compatibles escalonando la matriz ampliada A[B, y si son compatibles, resolverlos simult´aneamente
haciendo la reducci´on de Gauss-Jordan en dicha matriz ampliada A[B.
Cuando B=I, la soluci´on de la ecuaci´on AX=I se llama inversa a la derecha de A. Puede no existir
y si A no es cuadrada puede no ser ´ unica .
Si A es una matriz cuadrada, la igualdad AX = I ”s´ı” implica XA = I. Cuando se estudie la
teor´ıa que viene a continuaci´ on, usada para demostrar el teorema de caracterizaci´on de las matrices
invertibles, se puede demostrar esa implicaci´on utilizando la proposici´on 3’, la expresi´ on final de A
en la proposici´ on 4 y la unicidad de la inversa. Se propone construir todo el razonamiento en el
ejercicio 3.5.4.
Ejercicio:
3.3.3. Demostrar que
1) Si una matriz A tiene inversa a la izquierda, la inversa a la derecha, de existir, es ´ unica.
2) Si una matriz A tiene inversa a la derecha, la inversa a la izquierda, de existir, es ´ unica.
3) Si una matriz A tiene inversa a la derecha e inversa a la izquierda, ambas coinciden.
67
Matrices Invertibles.
Nos interesa caracterizar las matrices A tales que los sistemas que se plantean con ellas tienen
soluci´ on y ´esta es ´ unica, es decir que todos los sistemas que se plantean como Ax = b son compatibles
determinados. Estas matrices A son aquellas para las que existe otra matriz B tal que AB = I = BA.
Ve´amoslo:
Si existe B tal que BA=I, dado un sistema de la forma AX = b, multiplic´andolo a la izquierda
por B, obtenemos que la soluci´on, de existir, ha de ser X = Bb; para que efectivamente, ´esta sea la
soluci´ on hay que comprobar que ABb = b, lo cual se cumple si la matriz B verifica AB=I, es decir,
si B es tambi´en inversa a la derecha de A. siendo esto cierto cualquiera que sea b.
En un ejercicio anterior se prob´o que si A tiene inversa a la izquierda y inversa a la derecha,
ambas coinciden y son ´ unicas. Esta unicidad es necesaria para que todos los sistemas AX=b tengan
soluci´ on, porque con matrices A que tuvieran dos inversas a la izquierda distintas, B

y B

podr´ıa
existir alg´ un b para el que las condiciones necesarias x = B

b y x = B

b, fueran incompatibles entre
s´ı. Por otra parte, para que la condici´ on necesaria x = Bb sea suficiente cualquiera que sea b, ha de
ser ABb = b para todo b, para lo cual es necesario que AB = I.
Se llaman invertibles las matrices A tales que existe una matriz B tal que BA = I = AB.
Entonces, se llama a B, inversa de A.
Una matriz A invertible no puede tener ninguna columna ni ninguna fila de ceros, porque en estos
casos, se tendr´ıa, cualquiera que fuera la matriz X, en XA una columna de ceros o en AX una fila
de ceros, no obteni´endose nunca la identidad. Queremos ver que adem´as ha de ser cuadrada.
Observemos que una inversa a la derecha X de una matriz A, es una soluci´ on de la ecuaci´on
AX = I y que una matriz A con la primera columna no nula y con m´ as columnas que filas, al
escalonarla da el primer escal´ on en la primera columna y por ello, alg´ un escal´ on con m´ as de una
columna, por lo que el sistema AX = I, de tener soluci´ on, no tiene soluci´ on ´ unica. Si no tiene
soluci´ on, la matriz no es invertible y si existen varias soluciones, como estas soluciones ser´ıan distintas
inversas a la derecha de A, seg´ un el problema 3.3.3 no existe inversa a la izquierda. Concluimos que
una matriz con m´ as columnas que filas no es invertible.
Tambi´en se puede concluir que una matriz con m´ as filas que columnas no es invertible, porque
si lo fuera, su traspuesta, que tiene m´as columnas que filas ser´ıa invertible, en contra de lo anterior.
(Si AB = I = BA,
t
B
t
A =
t
(AB) = I y
t
A
t
B = (BA)
t
= I).
Entonces, una matriz invertible, adem´as de no tener ninguna fila ni ninguna columna nula, ha de
ser cuadrada.
En los ejercicios 3.5.6-3.5.10 de la secci´on siguiente, se establece otro camino distinto del visto
ahora para demostrar que las matrices invertibles han de ser cuadradas.
68
Caracterizaci´ on de las matrices invertibles.
Observando lo que pasa en las matrices cuando aplicamos el m´etodo de Gauss a un sistema,
podemos deducir propiedades de las matrices que nos dan tambi´en el m´etodo de Gauss para hallar
la inversa de una matriz. Y al mismo tiempo, podemos demostrar un teorema que caracteriza a las
matrices invertibles como producto de ciertas matrices llamadas elementales.
Las operaciones elementales en una matriz (p´ag. 57) se pueden expresar en forma matem´ atica
como el resultado de multiplicar por la izquierda por las matrices llamadas
Matrices Elementales: Son las matrices obtenidas de las matrices identidad por operaciones ele-
mentales. (Diremos que son de tres tipos seg´ un el tipo de operaci´ on elemental realizado).
Se puede comprobar f´acilmente, caso por caso, que al multiplicar a la izquierda una matriz
elemental por otra matriz se produce en esta ´ ultima la operaci´ on elemental realizada en la matriz I
para obtener la matriz elemental considerada.
Tambi´en, hagamos las siguientes consideraciones:
a) Si hacemos sucesivamente dos intercambios de las mismas filas de la matriz identidad, la matriz
queda invariante. Esto quiere decir que el producto de una matriz elemental del primer tipo por ella
misma es la identidad. Por tanto, las matrices elementales correspondientes (del primer tipo) son
invertibles y coinciden con su inversa.
b) Si sumamos a una fila de la identidad otra fila multiplicada por un n´ umero y luego le sumamos
la misma fila multiplicada por el n´ umero opuesto obtenemos la identidad. Esto quiere decir tambi´en
que las dos matrices elementales correspondientes (del segundo tipo) son inversas una de otra, siendo
sus inversas del mismo tipo.
c) Si primero multiplicamos una fila de la matriz identidad por un n´ umero distinto de cero y
luego la multiplicamos por el inverso de dicho n´ umero, queda igual. Esto quiere decir que el producto
de las dos matrices elementales correspondientes es la identidad. Por tanto, tambi´en las matrices
elementales del tercer tipo son invertibles y sus inversas son del mismo tipo.
Se deduce de estas consideraciones que las matrices elementales son invertibles y que sus inversas
son tambi´en matrices elementales.
Nuestro teorema sobre matrices invertibles es:
69
TEOREMA 1: Una matriz cuadrada es invertible si y s´olo si es producto de matrices
elementales.
Ya que las matrices elementales son invertibles, la demostraci´ on de que toda matriz producto de
matrices elementales es invertible es una f´ acil consecuencia de la siguiente proposici´ on:
Proposici´on 1: El producto de matrices invertibles es invertible.
Sean A
1
, A
2
, ..., A
m
, matrices cuyas inversas respectivas son B
1
, B
2
, ..., B
m
, se puede comprobar
que la matriz producto A = A
1
A
2
... A
m
tiene como inversa B = B
m
... B
2
B
1
.
En efecto, por la propiedad asociativa, en el producto
AB = A
1
A
2
... A
m
B
m
... B
2
B
1
empezando por i=m podemos ir simplificando las A
i
con las B
i
correspondientes y llegar a la iden-
tidad.
Lo mismo podemos hacer, empezando por i=1, en el producto
BA = B
m
... B
2
B
1
A
1
A
2
... A
m
.
Para demostrar el teorema tenemos que demostrar tambi´en que toda matriz invertible es producto
de matrices elementales.
Para ello vamos a usar las proposiciones 2, 3 y 4 siguientes:
Proposici´on 2: Toda matriz puede reducirse a una matriz escalonada multiplic´ andola adecuada-
mente a la izquierda por matrices elementales.
Su demostraci´ on se deduce de la observaci´on de la evoluci´on de la matriz del sistema en el
procedimiento seguido en el m´etodo de Gauss. Se ve en ese procedimiento que toda matriz se
puede reducir a una matriz escalonada haciendo operaciones elementales en sus filas, o
lo que es lo mismo, que dada una matriz, multiplicando a la izquierda, sucesivamente, por matrices
elementales se puede llegar a una matriz escalonada.
Por tanto, dada la matriz A, existen matrices elementales: E
1
, E
2
, ..., E
k
, tales que
E
k
E
k−1
...E
1
A = E
donde E es una matriz escalonada.
Conviene comprobarlo en el siguiente Ejercicio:
70
3.4.1. Encontrar una sucesi´ on de matrices elementales E
1
, , E
k
tal que E
k
E
1
A = E donde
A es una de las matrices dadas a continuaci´ on y E es una matriz escalonada:
a)
_
_
1 3
−1 0
2 1
_
_
b)
_
2 3 4
3 1 2
_
c)
_
_
0 2 4
1 1 3
3 3 7
_
_
d)
_
_
0 −1 1
1 0 −1
2 −1 −1
_
_
e)
_
_
−2 1 1
3 −2 1
1 −1 1
_
_
f)
_
_
0 −1 −1
1 0 −1
2 −1 −3
_
_
g)
_
_
0 −1 −1
1 1 0
2 −1 −3
_
_
h)
_
_
0 −1 −1
1 1 1
2 −1 −1
_
_
i)
_
_
0 −1 −1
1 0 −1
2 −1 −1
_
_
j)
_
_
0 2 4
1 0 −1
1 −2 −3
_
_
Para la mejor comprensi´ on de las demostraciones de las proposiciones siguientes se proponen los
ejercicios:
3.4.2. Comprobar que una vez obtenida la matriz escalonada en los casos c), e), i) y j) anteriores
podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´ as operaciones elemen-
tales, por el mismo procedimiento usado para despejar las inc´ ognitas en la reducci´ on de Gauss-Jordan.
3.4.3. Comprobar que una vez obtenida la matriz escalonada en los casos d), f), g) y h) anteri-
ores no podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´ as operaciones
elementales, por el mismo procedimiento usado para despejar las inc´ ognitas en la reducci´ on de Gauss-
Jordan.
Antes de pasar a la demostraci´ on completa del teorema, vamos a ver un ejemplo en el que se llega
desde una matriz a la identidad por transformaciones elementales, lo cual equivale a multiplicar la
matriz por matrices elementales y esto pone de manifiesto que la matriz dada es producto de matrices
elementales y por tanto invertible:
La matriz
_
_
0 2 4
1 1 3
3 4 7
_
_
pasa, multiplic´ andola a la izquierda por las matrices elementales:
_
_
0 1 0
1 0 0
0 0 1
_
_
,
_
_
1 0 0
0 1 0
−3 0 1
_
_
,
_
_
1 0 0
0
1
2
0
0 0 1
_
_
,
_
_
1 0 0
0 1 0
0 −1 1
_
_
sucesivamente, a las matrices
_
_
1 1 3
0 2 4
3 4 7
_
_
,
_
_
1 1 3
0 2 4
0 1 −2
_
_
,
_
_
1 1 3
0 1 2
0 1 −2
_
_
,
_
_
1 1 3
0 1 2
0 0 −4
_
_
.
71
Como esta ´ ultima tiene todos los escalones de longitud una columna, siendo por tanto, los elementos
de la diagonal principal distintos de cero, podemos conseguir que estos elementos sean unos, divi-
diendo adecuadamente las filas, lo que aqu´ı se reduce a dividir la ´ ultima fila por −4, es decir, a
multiplicar ahora a la izquierda por la matriz
_
_
1 0 0
0 1 0
0 0 −
1
4
_
_
habiendo llegado a
_
_
1 1 3
0 1 2
0 0 1
_
_
.
En esta matriz con 1 en todos los elementos de la diagonal y ceros en todos los sitios debajo de la
diagonal, podemos seguir haciendo operaciones elementales que anulen tambi´en los n´ umeros en los
sitios por encima de la diagonal, llegando as´ı a la identidad.
Efectivamente, multiplicando sucesivamente a la izquierda, por las matrices elementales:
_
_
1 0 0
0 1 −2
0 0 1
_
_
,
_
_
1 0 −3
0 1 0
0 0 1
_
_
,
_
_
1 −1 0
0 1 0
0 0 1
_
_
obtenemos la identidad (compru´ebese).
Hemos multiplicado, en total, por ocho matrices elementales, que designamos por E
1
, E
2
, E
3
, E
4
, E
5
,
E
6
, E
7
, E
8
, por orden de utilizaci´on.
Entonces: E
8
E
7
E
6
E
5
E
4
E
3
E
2
E
1
A = I.
Como las matrices elementales tienen inversas, multiplicando a la izquierda por sus inversas de
manera que se vayan simplificando dichas matrices, tenemos:
A = E
−1
1
E
−1
2
E
−1
3
E
−1
4
E
−1
5
E
−1
6
E
−1
7
E
−1
8
. Lo cual puede comprobarse teniendo en cuenta
que
E
−1
1
=
_
_
0 1 0
1 0 0
0 0 1
_
_
, E
−1
2
=
_
_
1 0 0
0 1 0
3 0 1
_
_
, E
−1
3
=
_
_
1 0 0
0 2 0
0 0 1
_
_
, E
−1
4
=
_
_
1 0 0
0 1 0
0 1 1
_
_
E
−1
5
=
_
_
1 0 0
0 1 0
0 0 4
_
_
E
−1
6
=
_
_
1 0 0
0 1 2
0 0 1
_
_
, E
−1
7
=
_
_
1 0 3
0 1 0
0 0 1
_
_
, E
−1
8
=
_
_
1 1 0
0 1 0
0 0 1
_
_
72
Como tambi´en las inversas de matrices elementales son elementales, hemos visto que del hecho
de tener la matriz escalonada obtenida de A todos los escalones de longitud una columna (y por
ello, todos los elementos de la diagonal distintos de cero), hemos llegado a la expresi´ on de A como
producto de matrices elementales. Como estas matrices son invertibles, de la proposici´on 1 se deduce
que A es invertible.
Seguimos ahora con las siguientes etapas para la demostraci´ on del teorema:
Proposici´on 3: Si una matriz A es invertible, la matriz escalonada E a la que se reduce, tiene
todos los escalones de longitud una columna, estando el primer escal´ on en la primera fila y primera
columna.
Demostraci´ on:
Si A es invertible, A tiene que ser cuadrada y la existencia de una matriz B tal que BA=I implica
que la primera columna de A no es toda de ceros, porque entonces la primera columna del producto
BA ser´ıa toda de ceros y no coincidir´ıa con la primera columna de I; por lo que se puede conseguir
(si es necesario por un cambio de orden de las filas) que el elemento de la primera fila y primera
columna sea distinto de cero, empezando por tanto los escalones en este lugar. Veamos que al seguir
escalonando la matriz, la matriz escalonada E a la que se reduce A tiene todos los escalones de
longitud una columna razonando por reducci´on al absurdo: Si tuviera alg´ un escal´ on con m´ as de
una columna, al ir recorriendo los pivotes y llegar al primero de tales escalones, nos desplazamos a
la derecha por lo menos el espacio de dos columnas, sali´endonos de la diagonal y por ello al seguir
recorriendo pivotes agotamos antes las columnas que las filas, quedando por tanto la ´ ultima fila entera
por debajo de la l´ınea de pivotes y estando por ello formada por ceros. Entonces, multiplicando por
las matrices elementales correspondientes tendr´ıamos:
E = E
k
E
k−1
, ...E
1
A
donde E es una matriz escalonada con la ´ ultima fila toda de ceros.
Ahora bien, si A es invertible, existe B tal que AB=I. Entonces,
EB = E
k
E
k−1
...E
1
AB = E
k
E
k−1
...E
1
I = E
k
E
k−1
...E
1
y por tanto, como las matrices elementales tienen inversa,
EBE
−1
1
...E
−1
k
= E
k
E
k−1
...E
1
E
−1
1
...E
−1
k
= I
Si la matriz E tuviera la ´ ultima fila de ceros, la matriz EBE
−1
1
.....E
−1
m
tendr´ıa tambi´en la ´ ultima fila
de ceros por tenerla E y esto es una contradicci´ on ya que I tiene un 1 en su ´ ultima fila. Quedando
as´ı demostrada la proposici´on 3.
73
Esta proposici´on es tambi´en cierta si se debilita la hip´ otesis:
Proposici´on 3’: Si una matriz A cuadrada tiene inversa a la derecha, la matriz escalonada E a
la que se reduce, tiene todos los escalones de longitud una columna, estando el primer escal´ on en la
primera fila y primera columna.
La demostraci´ on se sigue de que de no ser as´ı la matriz escalonada E tendr´ıa la ´ ultima fila de
ceros, pero esto no puede ocurrir si la matriz A tiene inversa a la derecha como se ha visto en la
demostraci´ on de la proposici´on 3.
Proposici´on 4: Si al escalonar una matriz cuadrada A, todos los escalones son de una columna,
estando el escal´ on de la primera fila en la primera columna, A es producto de matrices elementales.
Demostraci´ on: Sea E la matriz escalonada a la que se reduce A. Como estamos suponiendo que
A es cuadrada y el tama˜ no de la matriz queda invariante por las operaciones elementales, E tambi´en
ha de ser cuadrada. Tenemos un pivote en el sitio de la primera columna de la primera fila. Si
los escalones de E son todos de una columna, al ir recorriendo los pivotes, vamos desplaz´ andonos a
la derecha el espacio de una columna al mismo tiempo que nos desplazamos hacia abajo el espacio
de cada fila, recorriendo as´ı, la diagonal principal de E, que por tanto est´a formada por n´ umeros
distintos de cero. Dividiendo cada fila por el n´ umero que est´a en la diagonal de esa fila, (lo cual es
hacer operaciones elementales) podemos hacer todos los elementos de la diagonal iguales a 1. Y con
estos 1, podemos seguir haciendo operaciones elementales para anular todos los elementos encima de
ellos, (seg´ un la reducci´on de Gauss-Jordan), llegando entonces a la matriz identidad.
Entonces, podemos afirmar que, en la hip´otesis de la proposici´ on 4, adem´ as de las matrices
elementales: E
1
, E
2
, ..., E
k
, tales que
E
k
E
k−1
...E
1
A = E
donde E es una matriz escalonada, existen matrices elementales E
k+1
, E
k+2
...E
m
tales que
E
m
E
m−1
...E
k+1
E
k
...E
1
A = I
Como las matrices elementales tienen inversa, multiplicando a la izquierda la igualdad anterior
por las inversas de las matrices elementales, obtenemos
A = E
−1
1
...E
−1
k
...E
−1
m
Y como las inversas de matrices elementales son matrices elementales, hemos llegado a una
expresi´ on de A como producto de matrices elementales.
74
Para terminar la demostraci´on del Teorema 1, es decir, para demostrar que toda matriz inver-
tible es producto de matrices elementales, tenemos en cuenta, primero, que por la proposici´on 2,
una matriz A siempre se puede escalonar, luego, que cuando A es invertible, seg´ un la proposici´ on 3,
la matriz escalonada E, que se obtiene de A, tiene todos los escalones de una columna, estando el
primer escal´ on de la primera fila en la primera columna. Entonces, la proposici´ on 4 establece que la
matriz A invertible es producto de matrices elementales.
Por otra parte, enlazando la proposici´ on 4 y la proposici´ on 1, tenemos que si al escalonar una
matriz cuadrada A, todos los escalones son de una columna, estando el escal´ on de la primera fila en
la primera columna, A es invertible.
Adem´ as, la proposici´on 3 implica que si al escalonar una matriz cuadrada A, alg´ un escal´ on es de
m´ as de una columna, A no es invertible, por lo que tambi´en es cierto el
Teorema 2: Una matriz cuadrada A es invertible si y s´ olo si al escalonar A, se obtiene una matriz
escalonada con todos los escalones de longitud una columna, estando el primer escal´ on en la primera
columna.
Ejercicios:
3.5.1. Decidir cu´ ales de las matrices del ejercicio 3.4.1 son invertibles mirando la matriz escalonada
a la que han sido reducidas.
3.5.2. Expresar las inversas de las matrices del ejercicio 3.4.1. que sean invertibles como producto
de matrices elementales.
3.5.3. Expresar las matrices del ejercicio 3.4.1 que sean invertibles como producto de matrices
elementales.
3.5.4. Demostrar que toda matriz cuadrada con inversa a la derecha tiene inversa a la izquierda.
3.5.5. Demostrar que toda matriz cuadrada con inversa a la izquierda tiene inversa a la derecha.
3.5.6. Demostrar que si una matriz A con m´as filas que columnas se puede reducir por operaciones
elementales a la matriz:
_
_
_
_
_
I
n
0
.
.
.
0
_
_
_
_
_
donde n es el n´ umero de columnas de A, puede tener muchas inversas a la izquierda.
3.5.7. Demostrar que dada una matriz con m´as filas que columnas, si tiene inversa a la izquierda,
esta no es ´ unica.
75
3.5.8. Demostrar que si una matriz tiene m´as de una inversa a la izquierda, no puede tener inversa
a la derecha.
3.5.9. Demostrar que una matriz con m´as filas que columnas no puede ser invertible.
3.5.10. Demostrar que una matriz con m´as columnas que filas no puede ser invertible.
Deducir de los ejercicios anteriores que s´ olo las matrices cuadradas pueden ser invertibles.
76
M´etodo de Gauss para obtener la inversa de una matriz invertible:
Al repasar la demostraci´on de la proposici´on 4 nos podemos dar cuenta de que la matriz producto:
E
m
...E
k+1
E
k
E
k−1
...E
1
es inversa a la izquierda de A y dada la expresi´ on de A obtenida al final de
la demostraci´ on de dicha proposici´ on,(A = E
−1
1
E
−1
m
) podemos comprobar que ese producto es
tambi´en inversa a la derecha de A. Es decir,
A
−1
= E
m
...E
k+1
E
k
E
k−1
...E
1
Como E
m
...E
k+1
E
k
E
k−1
...E
1
= E
m
...E
k+1
E
k
E
k−1
...E
1
I, la matriz A
−1
se puede obtener haciendo
en I las operaciones elementales correspondientes a las matrices elementales escritas, y estas opera-
ciones son las mismas que hemos hecho en A para llegar a I. Por eso, para obtener la matriz inversa
de A colocamos la matriz I al lado de la matriz A en la forma (A[ I) y hacemos en la matriz I las
mismas operaciones elementales que en la A. Cuando a la izquierda de la barra hayamos llegado a
la matriz I, es que hemos multiplicado A por E
m
E
1
y lo mismo I, por lo que a la derecha de la
barra habremos llegado a la matriz inversa de A.
Ve´amoslo con la matriz
A =
_
_
0 1 1
1 0 1
1 1 0
_
_
Escribimos:
_
_
0 1 1
1 0 1
1 1 0
¸
¸
¸
¸
¸
¸
1 0 0
0 1 0
0 0 1
_
_
y ahora hacemos en la uni´on de las dos matrices, las transformaciones elementales que llevan la
matriz A a la identidad.
_
_
0 1 1
1 0 1
1 1 0
¸
¸
¸
¸
¸
¸
1 0 0
0 1 0
0 0 1
_
_

_
_
1 0 1
0 1 1
1 1 0
¸
¸
¸
¸
¸
¸
0 1 0
1 0 0
0 0 1
_
_

_
_
1 0 1
0 1 1
0 1 −1
¸
¸
¸
¸
¸
¸
0 1 0
1 0 0
0 −1 1
_
_

_
_
1 0 1
0 1 1
0 0 −2
¸
¸
¸
¸
¸
¸
0 1 0
1 0 0
−1 −1 1
_
_

_
_
1 0 1
0 1 1
0 0 1
¸
¸
¸
¸
¸
¸
0 1 0
1 0 0
1/2 1/2 −1/2
_
_

_
_
1 0 1
0 1 0
0 0 1
¸
¸
¸
¸
¸
¸
0 1 0
1/2 −1/2 1/2
1/2 1/2 −1/2
_
_

_
_
1 0 0
0 1 0
0 0 1
¸
¸
¸
¸
¸
¸
−1/2 1/2 1/2
1/2 −1/2 1/2
1/2 1/2 −1/2
_
_
77
Entonces:
_
_
0 1 1
1 0 1
1 1 0
_
_
−1
=
_
_
−1/2 1/2 1/2
1/2 −1/2 1/2
1/2 1/2 −1/2
_
_
Obs´ervese que la matriz obtenida para A
−1
es tambi´en la matriz que habr´ıamos obtenido como
soluci´ on de la ecuaci´on matricial AX = I por el m´etodo de Gauss-Jordan. Esta soluci´ on X es una
inversa a la derecha, y adem´as, al haber expresado esta X como producto de matrices elementales,
estamos seguros de que es inversa a la derecha y a la izquierda; y la unicidad de la inversa nos
asegura la unicidad del resultado, cualquiera que sea el camino seguido, o sea, cualesquiera que sean
las operaciones elementales realizadas.
Ejercicios:
3.6.1. Utilizar el m´etodo de Gauss para hallar las inversas de las matrices del ejercicio 3.4.1 que
sean invertibles y comprobar los resultados del ejercicio 3.5.2.
3.6.2. Los sistemas de ecuaciones lineales:
2y +4z = −3
x +y +3z = 1
3x +3y +7z = −2
_
_
_
−2x +y +z = −3
3x −2y +z = 1
x −y +z = −2
_
_
_
se pueden expresar matricialmente de la forma AX = b donde A es una matriz invertible. Su inversa
ha sido calculada en los ejercicios anteriores; usarla para hallar las soluciones de los sistemas.
3.6.3. Demostrar que la traspuesta de la inversa de una matriz es la inversa de la traspuesta de
dicha matriz.
3.6.4. Explicar por qu´e una matriz triangular superior es invertible si y s´ olo si todos los elementos
de su diagonal son distintos de cero.
3.6.5. Explicar por qu´e la inversa de una matriz triangular superior invertible es tambi´en trian-
gular superior.
3.6.6. Demostrar que una matriz triangular inferior es invertible si y s´olo si todos los elementos
de su diagonal son distintos de cero.
3.6.7. Demostrar que la inversa de una matriz triangular inferior invertible es tambi´en triangular
inferior.
78
La expresi´on de la inversa como producto de matrices elementales nos permite tambi´en enten-
der la Reducci´on de Gauss-Jordan para resolver el sistema AX=b cuando A es matriz
invertible:
Multiplicando a la izquierda por A
−1
con la expresi´ on obtenida: A
−1
= E
r
...E
m+1
E
m
E
m−1
...E
1
,
tenemos
X = A
−1
b = E
r
...E
m+1
E
m
E
m−1
...E
1
b
Luego X es el resultado de hacer en b las operaciones elementales que llevan A a I. Escribiendo
la matriz A[b y haciendo en ´esta dichas operaciones, cuando a la izquierda de la barra vertical
obtengamos la matriz I, a la derecha habremos obtenido la matriz soluci´ on de las X. Ver el ejemplo
3 de la p´ agina 42 del libro de Fraleigh-Beauregard.
Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de (A),en el cap´ıtulo 2 de (Vi), en las
secciones 1.2 y 1.4 de (H) y en el cap´ıtulo 5 de (Vi).
79
BIBLIOGRAFIA
(A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´ an Espa˜ nol.
Ed. S´ıntesis Madrid. 1999.
(FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,
1989.
(H) Algebra y Geometr´ıa. Eugenio Hern´ andez. Ed. Addison- Wesley / UAM, 1994.
[M] Matem´aticas 2 Bachillerato. M
a
Felicidad Monteagudo Mart´ınez. Jes´ us Paz Fern´ andez Ed.
Luis Vives. 2003.
(Vi) Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994.
80
DETERMINANTES y SISTEMAS de ECUACIONES.
Introducci´ on.
Los determinantes son n´ umeros asociados a las matrices.
Hemos visto matrices asociadas a los sistemas de ecuaciones. Veremos que cuando calculamos
determinantes de esas matrices o de submatrices suyas obtenemos informaci´on sobre la compatibilidad
y determinaci´ on de dichos sistemas.
Los determinantes tambi´en tienen interpretaci´on geom´etrica. Vamos a empezar motivando su
definici´ on por su significado geom´etrico.
Escribiendo en filas las coordenadas de un vector de la recta, de dos vectores del plano o de tres
vectores del espacio tenemos, respectivamente, una matriz 11, una matriz 22 o una matriz 33.
_
a
11
_
_
a
11
a
12
a
21
a
22
_
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
Al mismo tiempo, dado un vector, podemos considerar su longitud, que es un n´ umero; dados
dos vectores, podemos construir un paralelogramo cuyos lados son los vectores dados y considerar su
´ area; Dados tres vectores, podemos construir un paralelep´ıpedo cuyas aristas son los tres vectores y
considerar su volumen.
>
>
>
>
>
>
>
>
>
>
>
>

º
>
>
>
>
>
>
>
>
>
>
>
>

>
>
>
>
>
>
>
>
>
>
>
>

º
>
>
>
>
>
>
>
>
>
>
>
>

¯

>
>
>
>
>
>
>
>
>
>
>
>

>
>
>
>
>
>
>
>
>
>
>
>
81
Las longitudes, las ´ areas y los vol´ umenes son ”n´ umeros” asociados a vectores, a parejas de vectores
o a ternas de vectores y por tanto a las matrices formadas con ellos. Entonces, es l´ ogico estudiar qu´e
propiedades han de cumplir, para ver c´omo se pueden calcular.
Si quisi´eramos que la longitud, el ´ area o el volumen fueran n´ umeros asociados a estas matrices
y los design´ aramos por las matrices entre barras, los ”n´ umeros” asociados a esas matrices tendr´ıan
que cumplir:
a) Si multiplicamos uno de los vectores por una constante positiva o nula, el n´ umero asociado
queda multiplicado por esa constante:
[ra
11
[ = r[a
11
[,
¸
¸
¸
¸
ra
11
ra
12
a
21
a
22
¸
¸
¸
¸
= r
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
ra
11
ra
12
ra
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
= r
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
Lo an´alogo ocurre con las otras filas.
b) Si en un vector, una pareja o una terna de vectores, sustituimos un vector por la suma de
otros dos, el n´ umero asociado (longitud, ´area o volumen) a la matriz correspondiente es la suma de
los n´ umeros asociados a las dos matrices de vectores correspondientes a los vectores sumandos:
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

>
>
>
>
>
>
>
>
>
>
>
>

º

º

º
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

>
>
>
>
>
>
>
>
>
>
>
>

a
1
a

1
a
1
+a

1
a
2
82
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

º
>
>
>
>
>
>
>
>
>
>
>
>

>
>
>
>
>
>
>
>
>
>
>
>

¯

¯

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

>
>
>
>
>
>
>
>
>
>
>
>

>
>
>
>
>
>
>
>
>
>
>
>
[a
11
+a

11
[ = [a
11
[ +[a

11
[
¸
¸
¸
¸
a
11
+a

11
a
12
+a

12
a
21
a
22
¸
¸
¸
¸
=
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
+
¸
¸
¸
¸
a

11
a

12
a
21
a
22
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
+a

11
a
12
+a

12
a
13
+a

13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
a

11
a

12
a

13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
Tambi´en ocurrir´ıa con las otras filas.
Del apartado b) se deduce que el apartado a) es cierto tambi´en cuando una fila se multiplica por
una constante negativa ya que si r = −1
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−a
11
−a
12
−a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
0 0 0
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
= 0
c) Si uno de los vectores es proporcional a alguno de los otros, el ´ area o el volumen es cero. (Esta
propiedad s´olo tiene sentido cuando la matriz es de orden mayor que 1).
Vamos a deducir que si las ´ areas y los vol´ umenes fueran n´ umeros asociados a las matrices cuyas
filas son los vectores dados, con las propiedades b) c) y a) estos ”n´ umeros” cambiar´ıan de signo al
cambiar el orden de las filas de las matrices por una permutaci´on de dos filas:
83
En vol´ umenes se verificar´ıa Proposici´on 1:
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
¸
¸
a
21
a
22
a
23
a
11
a
12
a
13
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
.
En efecto,
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
) +
1
2
(a
11
−a
21
)
1
2
(a
12
+a
22
) +
1
2
(a
12
−a
22
)
1
2
(a
13
+a
23
) +
1
2
(a
13
−a
23
)
1
2
(a
11
+a
21
) −
1
2
(a
11
−a
21
)
1
2
(a
12
+a
22
) −
1
2
(a
12
−a
22
)
1
2
(a
13
+a
23
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
por b)
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
1
2
(a
11
+a
21
) −
1
2
(a
11
−a
21
)
1
2
(a
12
+a
22
) −
1
2
(a
12
−a
22
)
1
2
(a
13
+a
23
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
+
¸
¸
¸
¸
¸
¸
1
2
(a
11
−a
21
)
1
2
(a
12
−a
22
)
1
2
(a
13
−a
23
)
1
2
(a
11
+a
21
) −
1
2
(a
11
−a
21
)
1
2
(a
12
+a
22
) −
1
2
(a
12
−a
22
)
1
2
(a
13
+a
23
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
por b)
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)

1
2
(a
11
−a
21
) −
1
2
(a
12
−a
22
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
+
¸
¸
¸
¸
¸
¸
1
2
(a
11
−a
21
)
1
2
(a
12
−a
22
)
1
2
(a
13
−a
23
)
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
1
2
(a
11
−a
21
)
1
2
(a
12
−a
22
)
1
2
(a
13
−a
23
)

1
2
(a
11
−a
21
) −
1
2
(a
21
−a
22
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
(porque los vol´ umenes asociados a vectores proporcionales son cero, por c))
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)

1
2
(a
11
−a
21
) −
1
2
(a
12
−a
22
) −
1
2
(a
13
−a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
1
2
(a
11
−a
21
)
1
2
(a
12
−a
22
)
1
2
(a
13
−a
23
)
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
84
Por otra parte, an´ alogamente, se tiene:
¸
¸
¸
¸
¸
¸
a
21
a
22
a
23
a
11
a
12
a
13
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
) +
1
2
(a
21
−a
11
)
1
2
(a
12
+a
22
) +
1
2
(a
22
−a
12
)
1
2
(a
13
+a
23
) +
1
2
(a
23
−a
13
)
1
2
(a
11
+a
21
) −
1
2
(a
21
−a
11
)
1
2
(a
12
+a
22
) −
1
2
(a
22
−a
12
)
1
2
(a
13
+a
23
) −
1
2
(a
23
−a
13
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
=
¸
¸
¸
¸
¸
¸
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)

1
2
(a
21
−a
11
) −
1
2
(a
22
−a
12
) −
1
2
(a
23
−a
13
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
1
2
(a
21
−a
11
)
1
2
(a
22
−a
12
)
1
2
(a
23
−a
13
)
1
2
(a
11
+a
21
)
1
2
(a
12
+a
22
)
1
2
(a
13
+a
23
)
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
expresi´ on opuesta a la anterior, teniendo en cuenta la propiedad a) para r = −1.
El cambio de signo se comprobar´ıa de la misma manera si permut´aramos la segunda y la tercera
filas o la primera y la tercera filas.
La comprobaci´on del cambio de signo en las ´ areas es exactamente igual al cambio hecho entre
primera y segunda filas. (H´ agase como ejercicio).
Propiedades de los determinantes y operaciones elementales.
Podemos relacionar ahora las tres propiedades a), b) y c) que tendr´ıan que cumplir los ”n´ umeros”
asociados a las matrices con las operaciones elementales en las matrices:
De la propiedades b), c) y a) hemos deducido primero la propiedad siguiente: que al hacer en la
matriz una operaci´ on elemental de permutaci´ on de filas cambia de signo el ”n´ umero” asociado; la
vamos a llamar propiedad 1).
De la propiedad a) tenemos: al hacer en una matriz la operaci´ on elemental de multiplicar una fila
por una constante, el ”n´ umero” asociado queda multiplicado por esa constante. La vamos a llamar
propiedad 2).
De la propiedad c) junto con la propiedad b) podemos deducir la propiedad siguiente: al hacer
en una matriz la operaci´ on elemental de sumar a una fila de la matriz otra fila multiplicada por
una constante, el ”n´ umero” asociado queda invariante. (Compru´ebese como ejercicio). La vamos a
llamar propiedad 3).
85
Las tres propiedades 1), 2) y 3) enunciadas de estos ”n´ umeros” asociados a las matrices nos dicen
c´omo est´an relacionados entre s´ı los ”n´ umeros” asociados a matrices relacionadas por operaciones
elementales. Si las propiedades de estos ”n´ umeros” est´ an relacionadas con las operaciones elemen-
tales, que son las que realizamos en las matrices para resolver los sistemas de ecuaciones, podemos
pensar que esos n´ umeros nos dan informaci´on sobre la resolubilidad de dichos sistemas.
Asociando a las matrices identidad el n´ umero 1, lo cual es coherente con el valor de la longi-
tud, el ´ area y el volumen asociados a las matrices formadas por los vectores coordenados, quedan
determinados los ”n´ umeros” asociados a las matrices elementales por las propiedades 1), 2) y 3):
i) Las matrices elementales obtenidas al intercambiar dos filas de la matriz identidad, tendr´ıan
como ”n´ umero” asociado el opuesto del asociado a la matriz identidad, es decir, −1.
ii) Las matrices elementales obtenidas al multiplicar una fila de la identidad por una constante c
distinta de cero, seg´ un la propiedad a) (o propiedad 2) tienen como ”n´ umero” asociado el producto
de esta constante por el n´ umero asociado a la matriz identidad, es decir, c.
iii) Las matrices elementales obtenidas al sumar a una fila de la matriz identidad otra fila mul-
tiplicada por una constante tienen el mismo ”n´ umero” asociado que la matriz identidad, es decir,
1.
Matem´ aticamente, las operaciones elementales se realizan en una matriz multiplic´ andola a la
izquierda por matrices elementales. Las propiedades 1), 2) y 3) respecto a una matriz general A
quedan resumidas en t´erminos de matrices elementales en la
Proposici´on 2: Si E
i
es una matriz elemental, [E
i
A[ = [E
i
[[A[.
La demostraci´on de esta proposici´on consiste en su comprobaci´ on en cada uno de los tres tipos
de matrices elementales teniendo en cuenta las propiedades 1), 2) y 3) y se deja para el lector.
Ejercicios:
4.1.1. Utilizando la proposici´on 2 y sin necesidad de calcularlos, demostrar que los siguientes
determinantes son nulos.
a)
¸
¸
¸
¸
¸
¸
7 1 3
3 2 1
10 3 4
¸
¸
¸
¸
¸
¸
b)
¸
¸
¸
¸
¸
¸
a b c
−a −b −c
d e f
¸
¸
¸
¸
¸
¸
c)
¸
¸
¸
¸
¸
¸
1 2 3
2 3 4
3 4 5
¸
¸
¸
¸
¸
¸
d)
¸
¸
¸
¸
¸
¸
¸
¸
1
2
2
2
3
2
4
2
2
2
3
2
4
2
5
2
3
2
4
2
5
2
6
2
4
2
5
2
6
2
7
2
¸
¸
¸
¸
¸
¸
¸
¸
4.1.2. Usando las matrices elementales que llevan las matrices siguientes a la identidad y la
proposici´ on 2, calcular los determinantes de las siguientes matrices:
86
a)
_
_
1 1 3
0 1 1
0 0 4
_
_
b)
_
a
11
a
12
0 a
22
_
c)
_
_
a
11
a
12
a
13
0 a
22
a
23
0 0 a
33
_
_
cuando los elementos de la diagonal de las dos ´ ultimas matrices son distintos de cero.
4.1.3.
a) Demostrar que el determinante de una matriz triangular superior que tiene alg´ un elemento de
la diagonal igual a cero es nulo, usando las propiedades de los determinantes.
b) Demostrar que si escalonando la matriz A se obtiene una matriz triangular superior que tiene
alg´ un elemento de la diagonal igual a cero, el determinante de A ha de ser nulo.
4.1.4. Usando las matrices elementales que llevan las matrices siguientes a una triangular superior
y los resultados anteriores, calcular los determinantes de las siguientes matrices:
a)
_
2 4
1 3
_
b)
_
_
1 0 0
0 2 4
0 1 3
_
_
c)
_
_
0 2 4
1 0 0
0 1 3
_
_
d)
_
_
0 2 4
0 1 3
1 0 0
_
_
e)
_
_
0 2 4
1 1 3
3 3 7
_
_
f)
_
_
0 −1 1
1 0 −1
2 −1 −1
_
_
g)
_
_
−2 1 1
3 −2 1
1 −1 1
_
_
h)
_
_
_
_
0 −1 −1 1
1 0 −1 1
2 −1 −3 −1
0 1 −1 0
_
_
_
_
Sol: a) 2, b) 2 c)4 d) 2) e) 4, f) 0, g) −1, h) −8.
4.1.5. Establecer las igualdades siguientes:
¸
¸
¸
¸
¸
¸
1 0 0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
a
22
a
23
a
32
a
33
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
0 a
12
a
13
1 0 0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
a
12
a
13
a
32
a
33
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
1 0 0
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
a
12
a
13
a
22
a
23
¸
¸
¸
¸
.
Tambi´en podemos establecer utilizando la proposici´on 2 el siguiente
Teorema 1: [
t
A[ = [A[.
En efecto, podemos comprobar que el teorema es cierto para matrices elementales: recorriendo los
tres tipos de matrices elementales que hay, y considerando las traspuestas de cada tipo, vemos que
la traspuesta de cada matriz elemental es elemental del mismo tipo y que le corresponde el mismo
”n´ umero” que a la matriz elemental considerada. (Compru´ebese en las matrices elementales 3 3).
En cuanto al caso general, distinguimos dos casos:
87
a) A es invertible.
Si A es invertible, es producto de matrices elementales.
Sea A = E
m
E
1
, entonces
t
A =
t
E
1

t
E
m
y como las matrices traspuestas de matrices
elementales son, a su vez, matrices elementales, por la proposici´on 2:
[
t
A[ = [
t
E
1

t
E
2

t
E
m
[ = [
t
E
1
[[
t
E
2

t
E
m
[ = [
t
E
1
[[
t
E
2
[ [
t
E
m
[ =
por ser el teorema cierto para matrices elementales,
= [E
1
[[E
2
[ [E
m
[ = [E
m
[ [E
2
[[E
1
[ = [E
m
E
2
E
1
[ = [A[
b) A no es invertible.
Entonces
t
A tampoco es invertible, porque si lo fuera,
t
A ser´ıa producto de matrices elementales,
en cuyo caso A ser´ıa el producto (en orden inverso) de las traspuestas de esas matrices elementales,
siendo por tanto invertible.
Si la matriz A no es invertible, por operaciones elementales se puede reducir a una matriz escalo-
nada E con la ´ ultima fila de ceros, teni´endose E
k
E
1
A = E, de donde A = E
−1
k
E
−1
1
E, que
podemos escribir de manera gen´erica como A = E

k
E

1
E, donde E

i
son matrices elementales.
Si en una matriz E hay una fila de ceros, su n´ umero asociado es cero, ya que multiplicando la
fila de ceros por un n´ umero distinto de cero, queda la misma matriz; por lo que se verificar´ıa debido
a la propiedad 2), que c[E[ = [E[, cualqiera que sea c, lo cual implica [E[ = 0, cuando c ,= 1.
Ahora, en virtud de la proposici´on 2, si A = E

k
E

1
E, se tiene [A[ = [E

k
[[E

k−1
E

1
E[ =
[E

k
[[E

k−1
[ [E

1
[[E[ = 0
El mismo razonamiento para
t
A, puesto que no es invertible, nos da [
t
A[ = 0, siendo, por tanto,
tambi´en, [
t
A[ = [A[.
Hagamos ahora dos observaciones:
Primera: hemos obtenido, si A es invertible, [E
m
[ [E
1
[ = [A[ cuando A = E
m
E
1
, es decir,
el ”n´ umero asociado” a A est´ a determinado por las matrices elementales que llevan A a la identidad
y es distinto de cero.
Segunda: como al trasponer una matriz, las columnas pasan a filas, las propiedades a) b) c)
enunciadas respecto a las filas de una matriz y sus consecuencias son, an´ alogamente ciertas respecto
a las columnas en los ”n´ umeros” que buscamos. En particular es cierta la
Proposici´on 3. Si una matriz tiene una columna de ceros su ”n´ umero asociado” es cero.
Para la demostraci´on de la proposici´ on 3, tengamos en cuenta que se puede ver que si una matriz
tiene una fila de ceros su ”n´ umero asociado” es cero de manera similar a c´ omo hemos demostrado
88
que el ”n´ umero asociado” a una matriz escalonada con la ´ ultima fila de ceros es cero. Entonces,
teniendo en cuenta el teorema 1 que pasa filas a columnas, queda establecida la proposici´ on 3.
En virtud de estas propiedades, se puede hacer el desarrollo del n´ umero asociado a una matriz
2 2.
En efecto, por la propiedad b) respecto a columnas en matrices 2 2, para una matriz 2 2, el
determinante ha de ser:
¸
¸
¸
¸
a b
c d
¸
¸
¸
¸
=
¸
¸
¸
¸
a b
0 d
¸
¸
¸
¸
+
¸
¸
¸
¸
0 b
c d
¸
¸
¸
¸
=
¸
¸
¸
¸
a 0
0 d
¸
¸
¸
¸
+
¸
¸
¸
¸
a b
0 0
¸
¸
¸
¸
+
¸
¸
¸
¸
0 b
c 0
¸
¸
¸
¸
+
¸
¸
¸
¸
0 0
c d
¸
¸
¸
¸
=
debido a que el n´ umero es cero cuando hay una fila de ceros,
¸
¸
¸
¸
a 0
0 d
¸
¸
¸
¸
+
¸
¸
¸
¸
0 b
c 0
¸
¸
¸
¸
= ad
¸
¸
¸
¸
1 0
0 1
¸
¸
¸
¸
+bc
¸
¸
¸
¸
0 1
1 0
¸
¸
¸
¸
= ad
¸
¸
¸
¸
1 0
0 1
¸
¸
¸
¸
−bc
¸
¸
¸
¸
1 0
0 1
¸
¸
¸
¸
= ad −cb
En cuanto a una matriz 3 3, tendr´ıamos (descomponiendo la 1
a
columna en suma de tres
columnas):
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
a
21
a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
=
(descomponiendo las filas en sumas de tres filas):
=
¸
¸
¸
¸
¸
¸
a
11
0 0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 0 a
13
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
a
21
0 0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 0 a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
a
31
0 0
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
0 a
32
0
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
0 0 a
33
¸
¸
¸
¸
¸
¸
=
(por la proposici´ on 3),
=
¸
¸
¸
¸
¸
¸
a
11
0 0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
a
21
0 0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
a
31
0 0
¸
¸
¸
¸
¸
¸
=
89
= a
11
¸
¸
¸
¸
¸
¸
1 0 0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+a
21
¸
¸
¸
¸
¸
¸
0 a
12
a
13
1 0 0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
+a
31
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
1 0 0
¸
¸
¸
¸
¸
¸
Observando ahora que
=
¸
¸
¸
¸
¸
¸
1 0 0
0 a
22
a
23
0 a
32
a
33
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
a
22
a
23
a
32
a
33
¸
¸
¸
¸
ya que estas dos matrices se escalonan o se transforman en la identidad con matrices elementales
an´ alogas de igual ”n´ umero asociado”; que
¸
¸
¸
¸
¸
¸
0 a
12
a
13
1 0 0
0 a
32
a
33
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
¸
¸
1 0 0
0 a
12
a
13
0 a
32
a
33
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
a
12
a
13
a
32
a
33
¸
¸
¸
¸
por la misma raz´on anterior, y que
¸
¸
¸
¸
¸
¸
0 a
12
a
13
0 a
22
a
23
1 0 0
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
¸
¸
0 a
12
a
13
1 0 0
0 a
22
a
23
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
1 0 0
0 a
12
a
13
0 a
22
a
23
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
a
12
a
13
a
22
a
23
¸
¸
¸
¸
por la misma raz´on, podemos concluir que
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
= a
11
¸
¸
¸
¸
a
22
a
23
a
32
a
33
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
a
12
a
13
a
32
a
33
¸
¸
¸
¸
+a
31
¸
¸
¸
¸
a
12
a
13
a
22
a
23
¸
¸
¸
¸
Este proceso se puede hacer en cualquier dimensi´ on y justifica nuestra definici´ on por inducci´ on
de los ”n´ umeros asociados” que vamos a llamar determinantes
Definici´ on de los determinantes.
Dada una matriz cuadrada A, se representa por [A
ij
[ el determinante asociado a la submatriz de
A, obtenida suprimiendo la fila i y la columna j de A.
Con un proceso an´ alogo al anterior, se llega a que , si cumple las propiedades a), b) y c) anteriores,
desglosando la primera columna en suma de n columnas y luego cada fila en suma de n filas, en virtud
de la observaci´on segunda posterior al teorema 1, el determinante de una matriz n n ha de ser:
[A[ = a
11
[A
11
[ −a
21
[A
21
[ + + (−1)
i+1
a
i1
[A
i1
[ + + (−1)
n+1
a
n1
[A
n1
[
90
que se llama desarollo del determinante por la primera columna.
Tambi´en, desglosando la primera fila en suma de n filas y luego cada columna en suma de n
columnas, en virtud de la observaci´ on segunda posterior al teorema 1, ha de ser:
[A[ = [
t
A[ = a
11
[A
11
[ −a
12
[A
12
[ + + (−1)
j+1
a
1j
[A
1j
[ + + (−1)
n+1
a
1n
[A
1n
[
que se llama desarollo del determinante por la primera fila.
Lo cual, puede obtenerse tambi´en del desarrollo del de determinante por la primera fila y el
teorema 1: [A[ = [
t
A[.
Para dar completa validez a la definici´on, comprobaremos que con ella se verifican las propiedades
1), a) y b) enunciadas anteriormente. Una vez comprobadas dichas propiedades para nuestra
definici´ on, como la propiedad 1), junto con la propiedad a), implica la propiedad c), se tienen
para dicha definici´on, las propiedades a), b) y c), que implican 1), 2) y 3), obteniendo as´ı que la
proposici´ on 2) es cierta para nuestra definici´ on: [E
i
A[ = [E
i
[[A[ donde E
i
es una matriz elemental
y A es una matriz cualquiera; de donde, tambi´en es cierto para nuestra definici´on el teorema 1:
[
t
A[ = [A[, ya que se puede repetir el proceso de su demostraci´on.
Tambi´en el teorema 1. implica las propiedades a), b) y c) respecto a columnas.
Comprobaci´ on de las propiedades.
Comprobemos ahora que con la definici´on dada se cumplen las propiedades requeridas al principio.
Recordemos las propiedades:
1) Si intercambiamos dos filas en una matriz su determinante cambia de signo.
a) Si multiplicamos una fila de una matriz por una constante, el determinante de la matriz queda
multiplicado por esa constante.
b) Si descomponemos una fila de una matriz en suma de otras dos filas el determinante de la
matriz dada es la suma de los determinantes de las dos matrices obtenidas sustituyendo en la matriz
dada la fila considerada por cada una de las filas sumandos.
c) El determinante de una matriz con filas proporcionales es cero.
En lugar de la propiedad c) podemos considerar la propiedad 1), ya que ambas son equivalentes
cuando a) y b) son ciertas. (Compru´ebese como ejercicio).
La demostraci´ on de las propiedades b´asicas puede hacerse por inducci´on ya que as´ı se ha hecho
la definici´on.
91
Para un determinante de una matriz de orden 1, s´ olo tienen sentido las propiedades a) y b), que
son trivialmente ciertas.
Por eso comprobamos las tres propiedades 1), a), b) para determinantes de matrices de orden 2
y luego demostramos que supuestas ciertas estas propiedades para determinantes de orden n −1, lo
son para determinantes de orden n.
Comprobamos en primer lugar la propiedad 1, porque permite transmitir lo que probemos para
la primera fila a las dem´ as filas.
Probemos 1) en matrices 2 2:
Se reduce a comprobar que
¸
¸
¸
¸
a b
c d
¸
¸
¸
¸
= −
¸
¸
¸
¸
c d
a b
¸
¸
¸
¸
De la definici´ on se tiene:
¸
¸
¸
¸
a b
c d
¸
¸
¸
¸
= ad −cb y
¸
¸
¸
¸
c d
a b
¸
¸
¸
¸
= cb −ad = −(ad −cb)
estando por tanto comprobado.
Para comprobar la propiedad a), es suficiente comprobarla con la primera fila, ya que por la
propiedad 1), se trasmite a la segunda fila.
En efecto,
¸
¸
¸
¸
ra rb
c d
¸
¸
¸
¸
= rad −crb = r(ad −cb) = r
¸
¸
¸
¸
a b
c d
¸
¸
¸
¸
Vemos la propiedad b) en matrices 2 2, respecto a la primera fila,
¸
¸
¸
¸
a +a

b +b

c d
¸
¸
¸
¸
= (a +a

)d −c(b +b

) = ad −cb +a

d −cb

=
¸
¸
¸
¸
a b
c d
¸
¸
¸
¸
+
¸
¸
¸
¸
a

b

c d
¸
¸
¸
¸
La propiedad comprobada se trasmite a la segunda fila, usando la propiedad 1).
Ahora, suponiendo que la propiedad 1) se verifica en determinantes de matrices (n−1) (n−1),
vamos a comprobarla en determinates de matrices de orden n.
Primero, lo demostramos cuando el intercambio de filas se hace entre dos filas sucesivas (la i y la
i −1):
Por definici´ on,
92
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
= a
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+
(−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
(−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ +(−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
Por la hip´otesis de inducci´on, estos sumandos son:
= a
11
_
_
_
_
_
_
_
_

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n,2
a
n,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
−a
21
_
_
_
_
_
_
_
_

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+ +
(−1)
i+1
a
i−1,1
_
_
_
_
_
_
_
_

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+ (−1)
i
a
i1
_
_
_
_
_
_
_
_

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+ +
+(−1)
n+1
a
n1
_
_
_
_
_
_
_
_

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
= −
_
_
_
_
_
_
_
_
a
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n,2
a
n,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+
93

_
_
_
_
_
_
_
_
(−1)
i
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ (−1)
i+1
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+
−(−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i2
a
in
a
i−1,2
a
i−1,n

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
= −
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
1n
a
21
a
22
a
2n

a
i1
a
i2
a
in
a
i−1,1
a
i−1,2
a
i−1,n

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
Si las filas intercambiadas no son sucesivas, tenemos que darnos cuenta de que el intercambio
puede hacerse en dos etapas compuestas de intercambios de filas sucesivas: intercambiar la fila ”i”
y la fila ”j”, suponiendo que j > i, es bajar la fila ”i” al sitio ”j”, para lo cual tenemos que saltar
sucesivamente sobre j−i filas y luego subir la fila ”j” (que ya ha quedado en el sitio ”j−1” al sitio ”i”,
para lo cual tenemos que saltar sucesivamente otras j −1−i filas. En total, hemos hecho 2(i −j) −1
cambios de filas sucesivas, lo cual se traduce en un cambio total de signo: (−1)
2(i−j)−1
= −1.
Pasamos a demostrar la propiedad a) en determinantes de orden n, suponiendo que es cierta para
determinantes de orden n −1:
Por definici´ on,
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ra
11
ra
12
ra
1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
= ra
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ra
12
ra
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ +
94
(−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ra
12
ra
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
(−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ra
12
ra
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ (−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
ra
12
ra
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Por la hip´otesis de inducci´on, estos sumandos son:
ra
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
r
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
i
a
i−1,1
r
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+
+(−1)
i+1
a
i1
r
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
n+1
a
n1
r
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
r
_
_
_
_
_
_
_
_
a
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
+
+r
_
_
_
_
_
_
_
_
(−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
_
_
_
_
_
_
_
=
95
r
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
Esta propiedad se trasmite a las dem´ as filas usando la propiedad 1).
Para acabar, demostramos la propiedad b) en determinantes nn, suponi´endola cierta en deter-
minantes (n −1) (n −1):
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
+a

11
a
12
+a

12
a
1n
+a

1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
= (a
11
+a

11
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
+a

12
a
1n
+a

1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
+a

12
a
1n
+a

1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+
(−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
+a

12
a
1n
+a

1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ + (−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
+a

12
a
1n
+a

1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
96
Por la hip´otesis de inducci´on, estos sumandos son:
a
11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+a

11
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
22
a
2n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
−a
21
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a

12
a

1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+
+ + (−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ (−1)
i
a
i−1,1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a

12
a

1n

a
i−2,2
a
i−2,n
a
i2
a
in

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ +
+ + (−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ (−1)
i+1
a
i1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a

12
a

1n

a
i−1,2
a
i−1,n
a
i+1,2
a
i+1,n

a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ +
+ (−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
12
a
1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+ (−1)
n+1
a
n1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a

12
a

1n

a
i−1,2
a
i−1,n
a
i2
a
in

a
n−1,2
a
n−1,n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
cogiendo los sumandos uno s´ı, otro no:
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a

11
a

12
a

1n
a
21
a
22
a
2n

a
i−1,1
a
i−1,2
a
i−1,n
a
i1
a
i2
a
in

a
n1
a
n2
a
nn
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
Esta propiedad demostrada en la primera fila se trasmite a las dem´as filas por la propiedad 1).
97
Como se ha dicho antes, ahora podr´ıamos demostrar el Teorema 1 para la definici´on dada por
inducci´ on.
Debido al Teorema 1 las propiedades comprobadas para las filas se traducen en propiedades
an´ alogas para las columnas.
Veamos ahora c´omo dichas propiedades dan una relaci´ on de los n´ umeros buscados con la resolu-
bilidad de sistemas de ecuaciones en la Regla de Cramer:
a
11
x +a
12
y = b
1
a
21
x +a
22
y = b
2
_
Dado que la propiedad 1) implica que los determinantes de matrices con filas iguales son nulos,
se tiene:
¸
¸
¸
¸
¸
¸
a
11
a
12
b
1
a
11
a
12
b
1
a
21
a
22
b
2
¸
¸
¸
¸
¸
¸
= 0 =
¸
¸
¸
¸
¸
¸
a
21
a
22
b
2
a
11
a
12
b
1
a
21
a
22
b
2
¸
¸
¸
¸
¸
¸
Por tanto, desarrollando por la primera fila, se tiene:
a
11
¸
¸
¸
¸
a
12
b
1
a
22
b
2
¸
¸
¸
¸
−a
12
¸
¸
¸
¸
a
11
b
1
a
22
b
2
¸
¸
¸
¸
+b
1
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
= 0
y
a
21
¸
¸
¸
¸
a
12
b
1
a
22
b
2
¸
¸
¸
¸
−a
22
¸
¸
¸
¸
a
11
b
1
a
22
b
2
¸
¸
¸
¸
+b
2
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
= 0
o equivalentemente, cambiando columnas en los primeros determinantes, y cambiando los signos,
a
11
¸
¸
¸
¸
b
1
a
12
b
2
a
22
¸
¸
¸
¸
+a
12
¸
¸
¸
¸
a
11
b
1
a
22
b
2
¸
¸
¸
¸
= b
1
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
y
a
21
¸
¸
¸
¸
b
1
a
12
b
2
a
22
¸
¸
¸
¸
+a
22
¸
¸
¸
¸
a
11
b
1
a
22
b
2
¸
¸
¸
¸
= b
2
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
habi´endose encontrado que
cuando
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
,= 0 los valores : x =
¸
¸
¸
¸
b
1
a
12
b
2
a
22
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
y =
¸
¸
¸
¸
a
11
b
1
a
22
b
2
¸
¸
¸
¸
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
satisfacen el sistema dado.
98
Lo an´alogo ocurre con los sistemas de n ecuaciones con n inc´ ognitas.
Podemos demostrar que la soluci´ on considerada del sistema de ecuaciones lineales es ´ unica cuando
el determinante de la matriz de los coeficientes es distinto de cero. Llamando ∆ a este determinante,
como
1

_
a
22
−a
12
−a
21
a
11
__
a
11
a
12
a
21
a
22
_
=
_
1 0
0 1
_
Si
a
11
x +a
12
y = b
1
a
21
x +a
22
y = b
2
_

_
a
11
a
12
a
21
a
22
__
x
y
_
=
_
0
0
_
y
a
11
x

+a
12
y

= b
1
a
21
x

+a
22
y

= b
2
_

_
a
11
a
12
a
21
a
22
__
x

y

_
=
_
0
0
_
se tiene:
_
a
11
a
12
a
21
a
22
__
x −x

y −y

_
=
_
0
0
_
,
de donde
_
x −x

y −y

_
=
1

_
a
22
−a
12
−a
21
a
11
__
a
11
a
12
a
21
a
22
__
x −x

y −y

_
=
1

_
a
22
−a
12
−a
21
a
11
__
0
0
_
=
_
0
0
_
Ejercicios:
4.2.1. Calcular usando la definici´ on los determinantes de las matrices num´ericas de los ejerciios
4.1.∗ y comprobar que son los mismos que hallados anteriormente.
4.2.2. Calcular los determinantes de las matrices dadas a continuaci´ on:
a)
¸
¸
¸
¸
¸
¸
1/7
_
_
3 2 −6
6 −3 2
2 6 3
_
_
¸
¸
¸
¸
¸
¸
b)
¸
¸
¸
¸
¸
¸
1/9
_
_
−8 −1 −4
−4 4 7
1 8 −4
_
_
¸
¸
¸
¸
¸
¸
99
4.2.3.
a) Comprobar que la ecuaci´ on de un plano que pasa por tres puntos no alineados: (a
1
, a
2
, a
3
),
(b
1
, b
2
, b
3
), (c
1
, c
2
, c
3
) del espacio es
¸
¸
¸
¸
¸
¸
¸
¸
1 x
1
x
2
x
3
1 a
1
a
2
a
3
1 b
1
b
2
b
3
1 c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
¸
¸
= 0
y hallar la ecuaci´ on cartesiana del plano que pasa por los puntos (1, 2, 1), (−1, 3, 0), (2, 1, 3).
b) Escribir la ecuaci´on de una recta del plano que pasa por los puntos (a, b), (c, d) del plano y
hallar la ecuaci´on cartesiana de la recta del plano que pasa por los puntos (−1, −2), (2, 2).
Caracterizaci´ on de las matrices invertibles por su determinante.
Teorema 2. Una matriz es invertible si y s´ olo si su determinante es distinto de cero.
Dedujimos en la segunda parte de la demostraci´on del teorema 1 que el determinante de las
matrices no invertibles es cero; (utilizando el teorema 2 del cap´ıtulo anterior).
Para ver que el determinante de las matrices invertibles es distinto de cero, empecemos por
las matrices elementales, que son invertibles, recorriendo sus distintos tipos. Se puede ver que sus
determinantes son distintos de cero. (Se hizo en la sexta p´agina de este cap´ıtulo)
Para verlo en el caso general, debido al teorema que estableci´ o que una matriz es invertible
si y s´ olo si es producto de matrices elementales, y a la proposici´on 2 de este cap´ıtulo, hacemos
el siguiente razonamiento: Sea A = E
m
E
m−1
E
1
= E
m
E
m−1
E
1
I, entonces es necesario,
seg´ un la proposici´on 2, que [A[ = [E
m
[[E
m−1
E
1
[[I[ = [E
m
[[E
m−1
[ [E
1
[ ,= 0 porque todos los
determinantes de matrices elementales son distintos de cero.
Pod´ıamos haber dado la definici´ on de determinante de una matriz invertible utilizando las ma-
trices elementales en las que se descompone como producto, pero se hubiera planteado el problema
sobre si el n´ umero asociado era independiente del camino por el que la matriz llega a la identidad
por transformaciones elementales. Este problema est´ a resuelto en la definici´on dada, ya que s´olo
intervienen los n´ umeros de las entradas de la matriz. Seg´ un la definici´ on que hemos dado, el de-
terminante de la matriz s´olo depende de los n´ umeros que forman la matriz y no de la sucesi´ on de
matrices elementales que la transforman en la identidad; es independiente de esta sucesi´ on.
100
Determinante del producto.
Teorema 3: [AB[ = [A[[B[ : El determinante del producto de dos matrices es el producto
de los determinantes de las matrices. De donde se deduce que [A
−1
[ = 1/[A[.
Demostraci´on del Teorema 3:
Tambi´en ahora distinguimos dos casos:
a) [A[ , = 0. Entonces, A es invertible y ten´ıamos en la proposici´ on 4 del cap´ıtulo anterior:
A = E
−1
1
E
−1
2
E
−1
k
E
−1
m
donde E
i
y E
−1
i
son matrices elementales, (Estas E
1
, , E
m
son las inversas de las del teorema
2.) de donde
[A[ = [E
−1
1
[[E
−1
2
[[ [E
−1
k
[ [E
−1
m
[
Por otra parte,
AB = E
−1
1
E
−1
2
E
−1
k
E
−1
m
B
y
[AB[ = [E
−1
1
[[E
−1
2
E
−1
k
E
−1
m
B[ = [E
−1
1
[[E
−1
2
[ [E
−1
k
[ [E
−1
m
[[B[ = [A[[B[.
b) [A[ = 0. Entonces, A no es invertible; al reducir A a una matriz escalonada E, esta matriz
escalonada tiene su ´ ultima fila formada por ceros, entonces,
A = E
−1
1
E
−1
2
E
−1
m
E
y
AB = E
−1
1
E
−1
2
E
−1
m
EB
donde la matriz EB tiene la ´ ultima fila de ceros, por tanto su determinante es nulo y
[AB[ = [E
−1
1
[[E
−1
2
E
−1
m
EB[ = [E
−1
1
[[E
−1
2
[ [E
−1
m
[ [EB[ = 0 = [A[[B[.
Hagamos aqu´ı la observaci´ on de que la ´ unica forma de definir el determinante de la matriz
identidad coherente con este teorema era darle el valor 1, ya que si hubiera sido cero, no hubiera
distinguido matrices invertibles de matrices no invertibles y de no ser cero, [I[ = [II[ = [I[[I[ implica
[I[ = 1.
101
Ejercicios.
4.3.1.
a) Demostrar que una matriz triangular superior es invertible si y s´ olo si todos los elementos de
su diagonal son distintos de cero.
b) Demostrar el resultado an´ alogo para matrices triangulares inferiores.
4.3.2.
a) Demostrar que una matriz antisim´etrica de orden impar no puede ser invertible.
b) Encontrar matrices antisim´etricas de orden par que sean invertibles.
4.3.3. Calcular los determinantes:
¸
¸
¸
¸
¸
¸
1 1 1
x
1
x
2
x
3
x
2
1
x
2
2
x
2
3
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1 1 1
x
1
x
2
x
3
x
4
x
2
1
x
2
2
x
2
3
x
2
4
x
3
1
x
3
2
x
3
3
x
3
4
¸
¸
¸
¸
¸
¸
¸
¸
102
Como un inciso, vamos a ver ahora como se hace en general el determinante n n:

n
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1 1 1
x
1
x
2
x
3
x
n
x
2
1
x
2
2
x
2
3
x
2
n
x
3
1
x
3
2
x
3
3
x
3
n

x
n−1
1
x
n−1
2
x
n−1
3
x
n−1
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
que se llama determinante de Vandermonde.
Si dos de los x
i
son iguales, la matriz tiene dos columnas iguales y por tanto su determinante es
cero.
Suponemos ahora que todos los x
i
son distintos entre s´ı.
Se reduce su tama˜ no en uno restando a cada fila la anterior multiplicada por x
1
si x
1
,= 0. Si
x
1
= 0 se reduce el tama˜ no en uno, desarrollando por la primera columna y sacando x
j
de cada
columna j. Entonces:

n
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1 1 1
x
1
x
2
x
3
x
n
x
2
1
x
2
2
x
2
3
x
2
n
x
3
1
x
3
2
x
3
3
x
3
n

x
n−2
1
x
n−2
2
x
n−2
3
x
n−2
n
x
n−1
1
x
n−1
2
x
n−1
3
x
n−1
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1 1 1
0 x
2
−x
1
x
3
−x
1
x
n
−x
1
0 x
2
(x
2
−x
1
) x
3
(x
3
−x
1
) x
n
(x
n
−x
1
)
0 x
2
2
(x
2
−x
1
) x
2
3
(x
3
−x
1
) x
2
n
(x
n
−x
1
)

0 x
n−1
2
(x
2
−x
1
) x
n−1
3
(x
3
−x
1
) x
n−1
n
(x
n
−x
1
)
0 x
n−2
2
(x
2
−x
1
) x
n−2
3
(x
3
−x
1
) x
n−2
n
(x
n
−x
1
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Aqu´ı, podemos prescindir de la primera columna y sacar en las columnas restantes los factores:
x
2
−x
1
, x
3
−x
1
, , x
n
−x
1
, quedando nuestro determinante igual a

n
= (x
2
−x
1
)(x
3
−x
1
) (x
n
−x
1
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1 1
x
2
x
3
x
n
x
2
2
x
2
3
x
2
n
x
3
2
x
3
3
x
3
n

x
n−2
2
x
n−2
3
x
n−2
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
que es del mismo tipo, donde repitiendo las operaciones con las filas, tenemos que es igual a
103
(x
2
−x
1
)(x
3
−x
1
) (x
n
−x
1
)(x
3
−x
2
) (x
n
−x
2
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1 1
x
3
x
n
x
2
3
x
2
n
x
3
3
x
3
n

x
n−3
3
x
n−3
n
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
n−1

j=1
n

i>j
(x
i
−x
j
).
Ejercicios:
4.4.1.
a) Siendo a
0
+ a
1
x + a
2
x
2
+ a
3
x
3
= P(x) un polinomio de grado 3, hallar sus coeficientes para
que P(0) = 2, P(1) = 1, P(2) = −1, P(3) = 0
b) Demostrar que siempre se puede encontrar un polinomio de grado 3 que cumpla las condiciones
¦P(x
i
) = y
i
¦
i∈{1,2,3,4}
, cuando todos los ¦x
i
¦ son distintos, cualesquiera que sean los ¦y
i
¦.
c) Generalizar el resultado b): dado un polinomio de grado n, y n + 1 parejas de puntos
¦(x
i
, y
i

i∈{1,2,··· ,n+1}
, siempre se pueden encontrar los coeficientes del polinomio de manera que
P(x
i
) = y
i
si todos los ¦x
i
¦ son distintos.
Obs´ervese que la parte c) nos indica c´ omo hallar una funci´ on cuya gr´ afica pase por n +1 puntos
del plano siempre que no haya dos puntos en la misma vertical.
Desarrollo del determinante por una fila cualquiera y por una columna cualquiera:
La definici´on de determinante se ha hecho por inducci´ on utilizando la primera columna. Como
el determinante de la matriz es igual al de la traspuesta por el teorema 1, obtenemos otra expresi´on
trasponiendo la matriz A y aplicando la definici´on de determinante:
[A[ = a
11
[A
11
[ −a
12
[A
12
[ + + (−1)
j+1
a
1j
[A
1j
[ + + (−1)
n+1
a
1n
[A
1n
[
donde hemos cambiado el sub´ındice i por j ya que j es el sub´ındice utilizado usualmente para columnas.
Este es el desarrollo del determinante por la primera fila.
Por otra parte, considerando que la fila i-´esima puede ser colocada en la primera fila pas´andola
por encima de las i-1 anteriores, lo cual da en el determinante de la matriz i-1 cambios de signo y
por la f´ ormula anterior, tenemos:
[A[ = (−1)
i−1
(a
i1
[A
i1
[ −a
i2
[A
i2
[ + + (−1)
j+1
a
ij
[A
ij
[ + + (−1)
n+1
a
in
[A
in
[)
= (−1)
i+1
a
i1
[A
i1
[ + (−1)
i+2
a
i2
[A
i2
[ + + (−1)
i+j
a
ij
[A
ij
[ + + (−1)
i+n
a
in
[A
in
[
Este es el desarrollo del determinante por cualquier fila.
104
Si queremos desarrollar ahora el determinante por cualquier columna, utilizando el teorema 1,
s´ olo tenemos que trasponer la matriz y desarrollar el determinante de la traspuesta por la fila corres-
pondiente obteniendo:
[A[ = (−1)
j+1
a
1j
[A
1j
[ + (−1)
j+2
a
2j
[A
2j
[ + + (−1)
i+j
a
ij
[A
ij
[ + + (−1)
j+n
a
nj
[A
nj
[
Ejercicios:
4.5.1. a) Obtener, en funci´ on de los determinantes de los menores diagonales de la matriz A,
[A −λI[ =
¸
¸
¸
¸
¸
¸
a
11
−λ a
12
a
13
a
21
a
22
−λ a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
(Indicaci´ on: descomponer las filas en sumandos sin λ y con λ).
b) Aplicar la f´ ormula a la obtenci´ on de los siguientes determinantes:
¸
¸
¸
¸
¸
¸
1 −λ 2 1
0 3 −λ 1
3 1 2 −λ
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
1/3
_
_
2 1 −2
−1 −2 −2
−2 2 −1
_
_
−λI
¸
¸
¸
¸
¸
¸
4.5.2. Encontrar los valores de a para que las siguientes matrices sean invertibles.
a)
_
_
a 1 1
1 a 1
0 1 a
_
_
b)
_
_
−1 −1 1
1 4 −a
−1 a 0
_
_
c)
_
_
−1 a a
a −1 a
a a −1
_
_
4.5.3. Dadas A, B y C, matrices cuadradas de orden n y
D =
_
A C
0 B
_
a) Demostrar que [D[ = [A[[B[ utilizando la descomposici´ on:
_
A C
0 B
_
=
_
I
n
0
0 B
__
A C
0 I
n
_
b) Demostrar, utilizando una descomposici´ on similar, la misma igualdad, [D[ = [A[[B[, en el
caso:
D =
_
A 0
C B
_
105
F´ ormula para la inversa:
Del desarrollo del determinante por una fila cualquiera ten´ıamos
[A[ = (−1)
i+1
a
i1
[A
i1
[ + (−1)
i+2
a
i2
[A
i2
[ + + (−1)
i+j
a
ij
[A
ij
[ + + (−1)
i+n
a
in
[A
in
[
que se puede expresar matricialmente as´ı:
= (a
i1
, a
i2
, , a
ij
, , a
in
)
_
_
_
_
_
_
_
_
_
(−1)
i+1
[A
i1
[
(−1)
i+2
[A
i2
[
.
.
.
(−1)
i+j
[A
ij
[
.
.
.
(−1)
i+n
[A
in
[
_
_
_
_
_
_
_
_
_
= [A[
Ahora vamos a hacer la siguiente observaci´ on:
Si k ,= i, la suma
Σ = (−1)
i+1
a
k1
[A
i1
[+(−1)
i+2
a
k2
[A
i2
[+ +(−1)
i+j
a
kj
[A
ij
[+ +(−1)
i+n
a
kn
[A
in
[ corresponde al
desarrollo del determinante de la matriz obtenida cambianndo la fila i-´esima de A por la fila k-´esima
y dejando esta ´ ultima igual, es por tanto, el desarrollo del determinante de una matriz que tiene las
filas i-´esima y k-´esima iguales, que es cero. Lo cual matricialmente se puede escribir as´ı:
(a
k1
, a
k2
, , a
kj
, , a
kn
)
_
_
_
_
_
_
_
_
_
(−1)
i+1
[A
i1|
(−1)
i+2
[A
i2
[
.
.
.
(−1)
i+j
[A
ij
[
.
.
.
(−1)
i+n
[A
in
[
_
_
_
_
_
_
_
_
_
= 0
Por tanto tenemos en una sola expresi´on:
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
1i
a
1k
a
1n
.
.
.
.
.
.
a
i1
a
ii
a
ik
a
in
.
.
.
.
.
.
a
k1
a
ki
a
kk
a
kn
.
.
.
.
.
.
a
n1
a
ni
a
nk
a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
(−1)
i+1
[A
i1
[
.
.
.
(−1)
i+j
[A
ii
[
.
.
.
(−1)
i+j
[A
ik
[
.
.
.
(−1)
i+n
[A
in
[
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
0
0
[A[
0
.
.
.
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
Ahora, haciendo variar en la columna anterior el sub´ındice i, tenemos:
106
_
_
_
_
_
_
_
_
_
_
_
_
a
11
.. a
1i
.. a
1k
.. a
1n
.
.
. .. .. .. .. ..
.
.
.
a
i1
.. a
ii
.. a
ik
.. a
in
.
.
. .. .. .. .. ..
.
.
.
a
k1
.. a
ki
.. a
kk
.. a
kn
.
.
. .. .. .. .. ..
.
.
.
a
n1
.. a
ni
.. a
nj
.. a
nn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
[A
11
[
.
.
. (−1)
i+1
[A
i1
[
.
.
. (−1)
k+1
[A
k1
[
.
.
. [A
n1
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
i+1
[A
1i
[
.
.
. [A
ii
[
.
.
. (−1)
k+1
[A
ki
[
.
.
. (−1)
n+i
[A
ni
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
k+1
[A
1k
[
.
.
. (−1)
i+k
[A
ik
[
.
.
. [A
kk
[
.
.
. (−1)
n+k
[A
nk
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
n+1
[A
1n
[
.
.
. [A
in
[
.
.
. (−1)
k+1
[A
kn
[
.
.
. [A
nn
[
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
[A[ 0 0 0
0
.
.
. 0
0 [A[ 0 0 0
.
.
.
.
.
.
.
.
.
0 0 [A[ 0
0
.
.
.
.
.
. 0
0 0 0 [A[
_
_
_
_
_
_
_
_
_
_
_
_
= [A[I.
Adem´ as, del desarrollo del determinante por una columna, ten´ıamos:
[A[ = (−1)
j+1
a
1j
[A
1j
[ + (−1)
j+2
a
2j
[A
2j
[ + + (−1)
i+j
a
ij
[A
ij
[ + + (−1)
j+n
a
nj
[A
nj
[
que matricialmente se escribe as´ı:
((−1)
j+1
[A
1j
[, (−1)
j+2
[A
2j
[ (−1)
i+j
a
ij
[A
ij
[ (−1)
n+j
[A
nj
[)
_
_
_
_
_
_
_
_
_
a
1j
a
2j
.
.
.
a
ij
.
.
.
a
nj
_
_
_
_
_
_
_
_
_
= [A[
Tambi´en ocurre que si k ,= j,
0 = (−1)
j+1
a
1k
[A
1j
[ + (−1)
j+2
a
2k
[A
2j
[ + + (−1)
i+j
a
ik
[A
ij
[ + + (−1)
j+n
a
nk
[A
nj
[ ya que es
el determinante de la matiz obtenida de A sustituyendo la columna j-´esima por la coluna k-´esima,
107
(tiene dos columnas iguales), que matricialmente se escribe as´ı:
((−1)
j+1
[A
1j
[, (−1)
j+2
[A
2j
[ (−1)
i+j
[A
ij
[ (−1)
n+j
[A
nj
[)
_
_
_
_
_
_
_
_
_
a
1k
a
2k
.
.
.
a
ik
.
.
.
a
nk
_
_
_
_
_
_
_
_
_
= 0
y globalmente para todas las columnas se expresa:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
[A
11
[
.
.
. (−1)
j+1
[A
j1
[
.
.
. (−1)
k+1
[A
k1
[
.
.
. [A
n1
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
j+1
[A
1j
[
.
.
. [A
jj
[
.
.
. (−1)
k+j
[A
kj
[
.
.
. (−1)
n+j
[A
nj
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
k+1
[A
1k
[
.
.
. (−1)
j+k
[A
jk
[
.
.
. [A
kk
[
.
.
. (−1)
n+k
[A
nk
[
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(−1)
n+1
[A
1n
[
.
.
. [A
jn
[
.
.
. (−1)
k+1
[A
kn
[
.
.
. [A
nn
[
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
.. a
1j
.. a
1k
.. a
1n
.
.
. .. .. .. .. ..
.
.
.
a
j1
.. a
jj
.. a
jk
.. a
jn
.
.
. .. .. .. .. ..
.
.
.
a
k1
.. a
kj
.. a
kk
.. a
kn
.
.
. .. .. .. .. ..
.
.
.
a
n1
.. a
nj
.. a
nk
.. a
nn
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
[A[ 0 0 0
0
.
.
. 0
0 [A[ 0 0 0
.
.
.
.
.
.
.
.
.
0 0 [A[ 0
0
.
.
.
.
.
. 0
0 0 0 [A[
_
_
_
_
_
_
_
_
_
_
_
_
= [A[I.
Entonces, de estas igualdades, tenemos que llamando matriz cofactor de A a cof(A) = (cof(a
ij
)) =
((−1)
i+j
[A
ij
[) se verifica:
A
t
cof(A) = [A[I,
t
cof(A) A = [A[I
lo que nos indica la f´ ormula de la inversa de una matriz con determinante distinto de cero:
A
−1
=
1
[A[
(
t
cof(A))
108
que ser´a inversa a la derecha y a la izquierda, y por tanto ´ unica.
Ejercicios:
4.6.1. Utilizando las matrices de cofactores, hallar las inversas de las matrices de los ejercicios
3.4.1. que sean invertibles. Comprobar los resultados obtenidos utilizando el m´etodo de Gauss para
calcular la inversa.
4.6.2. Mostrar, usando la f´ ormula de la inversa, que cuando una matriz es invertible, la traspuesta
de la inversa coincide con la inversa de la traspuesta.
4.6.3. Mostrar, usando la f´ ormula de la inversa, que la matriz inversa de una matriz triangular
superior invertible es tambi´en triangular superior. Y que lo an´ alogo ocurre para matrices triangulares
inferiores.
109
Regla de Cramer.
Sea AX = b un sistema de ecuaciones, escrito de manera resumida, donde A es la matriz de
los coeficientes de las inc´ ognitas, X es la columna de las inc´ognitas, y b es la columna de t´erminos
independientes; si A es una matriz invertible, multiplicando por la inversa de A a la izquierda,
tenemos X = A
−1
b, donde utilizando la f´ormula anterior para la inversa, tenemos:
X =
1
[A[
(
t
cof(A))b
que desarrollada inc´ ognita a inc´ ognita da la regla de Cramer. Para cada inc´ ognita x
i
, que es una fila
de la matriz X, tenemos:
x
i
=
1
[A[
((−1)
i+1
A
1i
b
1
+ (−1)
i+2
A
2i
b
2
+ + (−1)
i+n
A
ni
b
n
)
donde la expresi´ on del par´entesis es el desarrollo por la columna i-´esima del determinante de la matriz
obtenida de A (la matriz de los coeficientes) cambiando su columna i-´esima por la columna de los
t´erminos independientes.
Ejercicios:
4.7.1. Utilizar la regla de Cramer para resolver los siguientes sistemas de ecuaciones:
a)
x +2y −z = 7
2x +y +z = 6
x −y +3z = −1
_
_
_
b)
2x +3y −5z −2 = 0
3x −y +2z + 1 = 0
5x +4y −6z −3 = 0
_
_
_
c)
2x +y +4z +8t = −1
x +3y −6z +2t = 3
3x −2y +2z −2t = 8
2x −y +2z = 4
_
¸
¸
_
¸
¸
_
Se pueden comprobar los resultados obtenidos sustituyendo o aplicando el m´etodo de Gauss.
Sol: a) (5/3,8/3,0) b) (−1/5, 14/5, 6/5), c)(2, −3, −3/2, 1/2).
110
Volviendo a los sistemas de ecuaciones, para los que hemos encontrado la regla de Cramer cuando
A es invertible, podemos demostrar que X = A
−1
b, es soluci´ on ´ unica, ya que si hubiera dos soluciones
X y X’ para las inc´ ognitas, de las igualdades AX = b = AX

se tiene A(X − X

) = 0 de donde
multiplicando por la izquierda por A
−1
tenemos X −X

= A
−1
0 = 0, es decir, X = X

.
La unicidad de la soluci´on de los sistemas AX=b se puede reducir a la unicidad de soluci´on del sistema AX=0, ya
que ´este es un caso particular de los anteriores y si hay dos soluciones distintas de AX=b para alg´ un b, la diferencia
(distinta de cero), es soluci´on no nula de AX=0.
(Un sistema de la forma AX=0 se llama sistema homog´eneo y dado un sistema de la forma AX=b, al sistema
AX=0 se le llama sistema homog´eneo asociado al sistema dado.)
Se nos plantea la pregunta sobre qu´e podemos decir de los sistemas AX = b cuando A es una
matriz no invertible e incluso cuando A no es una matriz cuadrada.
Teorema de Rouch´e-Frobenius.
Cuando A no es invertible (p. ej. si no es cuadrada) en el cap´ıtulo primero hemos enunciado el
Teorema de Rouch´e-Frobenius relativo a los escalones de las matrices escalonadas a las que quedan
reducidas A y A[b.
Ahora vamos a expresar num´ericamente el teorema de Rouch´e-Frobenius con la definici´on de
rango de una matriz, por medio de determinantes de submatrices suyas.
Para expresar num´ericamente este teorema definiremos el rango de una matriz no necesaria-
mente cuadrada como el m´ aximo de los ´ ordenes de las submatrices cuadradas de A con determinante
distinto de cero.
Recordemos que, denotando por E(A[b) la matriz escalonada que se puede obtener de la matriz
ampliada del sistema y por E(A) la matriz escalonada a la que queda reducida A, el teorema de
Rouch´e-Frobenius enunciado relativo a los escalones de las matrices escalonadas a que se pueden
reducir la matriz de los coeficientes del sistema y la matriz ampliada era:
El sistema es incompatible si el n´ umero de escalones de E(A[b) (o n´ umero de filas no nulas de
E(A[b)) es distinto del n´ umero de escalones de E(A) (o n´ umero de filas no nulas de E(A)).
El sistema es compatible si los dos n´ umeros anteriores son iguales, siendo compatible determinado
si todos los escalones de E(A) son de longitud una columna y siendo compatible indeterminado si hay
alg´ un escal´on en E(A) de m´ as de una columna. En el primer caso el n´ umero de escalones de las dos
matrices escalonadas o n´ umero de filas no nulas coincide con el n´ umero de columnas, es decir, con el
n´ umero de inc´ ognitas; En el segundo caso el n´ umero de filas no nulas de las dos matrices escalonadas
anteriores es menor que el n´ umero de columnas o inc´ ognitas.
111
Veamos cu´al es el rango de una matriz escalonada. En una matriz escalonada, cada fila distinta
de cero determina un escal´on. Al n´ umero distinto de cero del ´ angulo del escal´on se le llama pivote.
Cada fila distinta de cero determina un pivote y rec´ıprocamente cada pivote pertenece a una fila
distinta de cero. Tambi´en cada pivote determina una columna con ese pivote; entonces, si en la
submatriz formada por las columnas que tienen pivote, suprimimos las filas nulas, obtenemos una
submatriz cuadrada, ya que tiene tantas filas y tantas columnas como pivotes. Adem´ as es una matriz
triangular superior (de orden igual al n´ umero de filas no nulas de la matriz escalonada o n´ umero
de escalones), cuyos elementos en la diagonal son los pivotes, todos distintos de cero; por tanto su
determinante es no nulo. De ello se deduce que el rango de una matriz escalonada es mayor o igual
que su n´ umero de filas no nulas, pero una submatriz de mayor orden tendr´ıa que incluir filas nulas,
y su determinante ser´ıa nulo, por lo que el rango de una matriz escalonada coincide con el n´ umero
de sus filas no nulas o n´ umero de escalones.
As´ı, podemos dar un primer paso y enunciar el teorema de Rouch´e-Frobenius diciendo que el
sistema es incompatible cuando los rangos de las matrices escalonadas a las que se reducen
la matriz de los coeficientes del sistema y la matriz ampliada son distintos. Y que es
compatible determinado cuando adem´as de ser los dos rangos iguales, lo son al n´ umero
de inc´ ognitas, siendo en otro caso indeterminado.
Si ahora comprobamos que el rango de una matriz es invariante por operaciones elementales,
podemos suprimir en el enunciado anterior la frase: ”las matrices escalonadas a las que se reducen”;
quedando el teorema de Rouch´e-Frobenius antes escrito en letra negrita en su enunciado cl´ asico.
Invariancia del rango por transformaciones elementales.
En efecto, vamos a ver que se conserva el orden de las submatrices con determinante distinto de
cero, y por tanto su m´ aximo, al realizar cada uno de los tipos de operaciones elementales. Para ello
vemos que si hay un menor de un determinado orden distinto de cero en la matriz que resulta de
una dada por una transformaci´ on elemental hay otro menor del mismo orden, distinto de cero (que
puede coincidir con el primero) en la matriz dada.
1.) Hagamos en una matriz un intercambio de filas.
Si en la matriz resultante hay un menor distinto de cero, es decir, una submatriz de determinante
no nulo, puede ocurrir que no interseque las filas intercambiadas, en cuyo caso aparece tal cual en la
primera matriz y su determinante es el mismo.
O que contenga a las dos filas intercambiadas, en cuyo caso haciendo el cambio de filas inverso
en la submatriz obtenemos otra submatriz de la matriz dada con determinante cambiado de signo
112
respecto a la primera submatriz considerada, pero tambi´en distinto de cero.
O que contenga s´olo una fila de las intercambiadas y en este caso permutando esta fila con las
otras para intercalarla en el lugar en que aparec´ıa en la matriz dada obtenemos una submatriz de
la primera matriz en la que aparece el trozo correspondiente de la fila de la que proven´ıa siendo
su determinante igual o cambiado de signo respecto al menor considerado, pero siempre distinto de
cero. Luego el orden de los menores distintos de cero se conserva en el primer tipo de operaciones
elementales.
2.) Multipliquemos una fila por un n´ umero distinto de cero.
Dado un menor distinto de cero en la matriz modificada, es decir, una submatriz con determinante
distinto de cero, si esta submatriz no interseca la fila multiplicada, aparece tal cual en la matriz dada
y si aparece la fila multiplicada su determinante es un m´ ultiplo distinto de cero del determinante
de la submatriz de las mismas filas y las mismas columnas en la matriz dada, que por tanto ha de
ser tambi´en distinto de cero. Entonces, el orden de los menores distintos de cero se conserva por el
segundo tipo de operaciones elementales.
3.) Sumemos a una fila otra fila multiplicada por un n´ umero.
Un menor distinto de cero de la matriz resultante puede ser el determinante de una submatriz
que no contenga la fila modificada y entonces aparece tal cual en la primera matriz, siendo ya antes
distinto de cero.
Si la submatriz contiene la fila modificada y la fila sumada, su determinante es igual al de la
submatriz de las mismas columnas y an´ alogas filas en la matriz dada, que por tanto era distinto de
cero.
Si la submatriz contiene la fila modificada pero no la sumada, descomponemos su determinante en
la suma de los dos determinantes de las dos submatrices formadas, primero, por las mismas columnas
y las filas an´alogas de la primera matriz y segundo por la submatriz obtenida de ´esta sustituyendo
la fila modificada por la sumada multiplicada por el n´ umero.
Si la submatriz primer sumando tiene determinante no nulo, se ha conservado el orden de los
menores no nulos; si este ´ ultimo determinante es nulo, el otro determinante sumando ha de ser no
nulo, pero el otro es m´ ultiplo de un menor del mismo orden en la matriz dada (aunque con filas
permutadas), que ha de ser de valor no nulo, por lo que tambi´en queda igual el orden de los menores
distintos de cero.
De aqu´ı se deduce que el rango de la matriz modificada por operaciones elementales es menor o
igual que el rango de la matriz dada. Como la matriz dada tambi´en se obtiene de la matriz modificada
por las operaciones elementales inversas, tenemos que los dos rangos son iguales.
Con esto queda establecido el teorema de Rouch´e-Frobenius en la versi´on de rangos.
113
Apliquemos ahora el teorema de Rouch´e-Frobenius al sistema AX=b cuando A es una matriz cuadrada invertible
de orden n. Como [A[ ,= 0 tenemos el rango de A igual a n y como A es una submatriz de A[b, el rango de A[b es
mayor o igual que el de A, pero tambi´en es siempre menor o igual al n´ umero de sus filas, que es n, por tanto coinciden
el rango de A y el de A[b. Entonces, el sistema es compatible. Tambi´en tenemos que estos rangos son iguales a n, que
es el n´ umero de inc´ ognitas, por tanto la soluci´on es ´ unica, cualquiera que sea b (los t´erminos independientes).
Si la soluci´on del sistema es ´ unica para todo b, tambi´en lo es cuando b = 0. Entonces A es invertible porque si A
no fuera invertible, ser´ıa [A[ = 0 por lo que al ser A cuadrada, tendr´ıamos que el mayor orden de los menores distintos
de cero es menor que n por lo que el rango de A ser´ıa menor que n, pero al ser igual al rango de A[0, porque una
columna de ceros no aumenta el orden de los menores distintos de cero, seg´ un el Teorema de Rouch´e-Frobenius, el
sistema ser´ıa compatible indeterminado, por tanto, la soluci´on no ser´ıa ´ unicamente la trivial seg´ un hab´ıamos supuesto.
Con los mismos razonamientos tambi´en se puede demostrar el
Teorema 4: Dada una matriz cuadrada A, A es invertible si y s´ olo si el sistema AX=0
tiene ´ unicamente la soluci´on trivial.
Este teorema se sigue de la equivalencia entre la unicidad de la soluci´ on del sistema AX=0 y la
del sistema AX=b, cualquiera que sea b.
Ejercicios:
4.8.1. Estudiar la compatibilidad y determinaci´ on de los sistemas siguientes aplicando el teorema
de Rouch´e-Frobenius seg´ un el c´alculo del rango de las matrices correspondientes a los sistemas
siguientes:
x
1
+2x
2
−x
3
= 1
x
2
+x
3
= 2
x
1
+3x
2
= 3
_
_
_
2x
1
+x
2
= 5
x
1
−x
2
= 1
x
1
+2x
2
= 0
_
_
_
x
1
−3x
2
+x
3
= 2
3x
1
−8x
2
+2x
3
= 2
2x
1
−5x
2
+x
3
= 3
_
_
_
4.8.2. Hallar los valores de a para que los sistemas
ax +y +z = 1
x +ay +z = 1
x +y +az = 1
_
_
_
(a + 1)x +y +2z = −2
2x +y +(a + 1)z = 3
x +(a + 1)y +2z = −2
_
_
_
−x +ay +az = 0
ax −y +az = 0
ax +ay −z = 0
_
_
_
sean compatibles indeterminados.
4.8.3. Estudiar los valores de a y b que hacen compatibles los sistemas:
114
bx −ay −az = a
−bx −az = a
−bx −by = a
−bx −by −bz = b
_
¸
¸
_
¸
¸
_
bx −ay −az −at = a
−bx −az −at = a
−bx −by −at = a
−bx −by −bz = a
−bx −by −bz −bt = b
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
115
Producto Vectorial.
El producto vectorial de dos vectores a = (a
1
, a
2
, a
3
), b = (b
1
, b
2
, b
3
) se escribe simb´ olicamente
as´ı:
a b =
¸
¸
¸
¸
¸
¸
i j k
a
1
a
2
a
3
b
1
b
2
b
3
¸
¸
¸
¸
¸
¸
lo cual representa el vector de coordenadas:

¸
¸
¸
a
2
a
3
b
2
b
3
¸
¸
¸
¸
, −
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
,
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
_
= i
¸
¸
¸
¸
a
2
a
3
b
2
b
3
¸
¸
¸
¸
−j
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
+k
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
donde i, j y k son los vectores unitarios en la direcci´ on de los ejes coordenados.
Este vector tiene las siguientes caracter´ısticas:
1) Es perpendicular a cada uno de los vectores (a
1
, a
2
, a
3
) y (b
1
, b
2
, b
3
) de los que es producto.
2) Su m´ odulo es igual al ´area del paralelogramo que tiene por lados los vectores factores.
3) Su sentido es el de avance de un sacacorchos que gira desde la recta engendrada por el vector
primer factor hacia la recta engendrada por el vector segundo factor.
Demostraci´ on de la propiedad 1): Veamos que |a||b|cosα = a
1
b
1
+ a
2
b
2
+ a
3
b
3
, donde α es el
´ angulo que forman los dos vectores a y b.
En efecto, seg´ un el dibujo,

/
/
/
/
/
/
/
/
/
/
/
/
/
/
/

`
`
`
`
`
`
`
`
`
`
`
6
α
a
b-a
b
|b|senα
116
|b −a|
2
= (|b|senα)
2
+ (|b|cosα −|a|)
2
= |b|
2
sen
2
α +|b|
2
cos
2
α +|a|
2
−2|a||b|cosα =
|b|
2
+|a|
2
−2|a||b|cosα.
Desarrollando ahora los t´erminos iniciales y finales de la desigualdad anterior,
(b
1
−a
1
)
2
+ (b
2
−a
2
)
2
+ (a
3
−b
3
)
2
= b
2
1
+b
2
2
+b
2
3
+a
2
1
+a
2
2
+a
2
3
−2|a||b|cosα
donde desarrollando de nuevo, los cuadrados del primer miembro y simplificando, llegamos a la
igualdad deseada en 1. (Compru´ebese como ejercicio.)
De aqu´ı se deduce que dos vectores son perpendiculares si y s´ olo si la suma de los productos de
las coordenadas del mismo ´ındice es cero. Esta suma de productos de coordenadas para los vectores
a y a b es el determinante de una matriz que tiene dos filas formadas por las coordenadas de a y
otra fila formada por las coordenadas de b, siendo por tanto cero. Lo an´alogo ocurre para los vectores
b y a b. Por lo que los vectores a y b son perpendiculares al vector a b.
Las aplicaciones del producto vectorial en matem´ aticas son numerosas: (adem´as de ser usado en
f´ısica.):
a) Dada una recta como intersecci´on de dos planos:
Ax +By +Cz = D
A

x +B

y +C

z = D

_
ya que sabemos que dos vectores perpendiculares a dichos planos son correspondientemente: (A, B, C)
y (A

, B

, C

), y que por tanto, son perpendiculares a la recta, el producto vectorial de estos vectores
es un vector en la direcci´on de la recta.
b) Dada una curva como intersecci´ on de superficies, el vector tangente a la curva en un punto es
la intersecci´ on de los planos tangentes a las superficies en ese punto y puede hallarse utilizando el
resultado anterior.
Ejercicios:
4.9.1. Hallar el vector de direcci´ on de la recta de R
3
dada por las ecuaciones:
2x +y + 2z = 0
x + 2y +z = 0
_
4.9.2. Hallar la recta perpendicular com´ un a las dos rectas determinadas por las dos parejas de
puntos: ¦(3, 1, 0), (1, 1, 3)¦ y ¦(0, 1, 0), (−1, 0, 0)¦.
117
Demostraci´ on de la propiedad 2): Para probar que el m´ odulo del producto vectorial ab es igual
al ´area del paralelogramo de lados a y b tenemos en cuenta que
(Ar(a, b))
2
= |a|
2
|b|
2
sen
2
α = |a|
2
|b|
2
(1 −cos
2
α) = |a|
2
|b|
2
−|a|
2
|b|
2
cos
2
α =
(a
2
1
+a
2
2
+a
2
3
)(b
2
1
+b
2
2
+b
2
3
) −(|a||b|cosα)
2
=
(a
2
1
+a
2
2
+a
2
3
)(b
2
1
+b
2
2
+b
2
3
) −(a
1
b
1
+a
2
b
2
+a
3
b
3
)
2
=
¸
¸
¸
¸
a
2
a
3
b
2
b
3
¸
¸
¸
¸
2
+
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
2
+
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
2
f´ ormula muy ´ util en R
3
, donde es laborioso el c´ alculo directo de la altura de un paralelogramo o de
un tri´angulo.
Consecuencia de ello es que si el producto vectorial de dos vectores es cero, uno de los dos es
m´ ultiplo del otro. (O sea que est´an en la misma recta). Al ser nula el ´area del paralelogramo
subtendido por ellos.
Ejercicios:
4.10.1. Comprobar que el ´area del cuadrado que tiene tres v´ertices en los puntos ¦(1, 1), (2, 1), (1, 2)¦
del plano, hallada haciendo el producto de base por altura es la misma que el ´ area hallada usando el
producto vectorial.
4.10.2. Hallar el ´ area de un paralelogramo que tiene tres v´ertices en los puntos:
a) (1, 1), (2, 3), (3, 4)¦.
b) ¦(0, 1, 0), (1, 2, 1), (1, 1, 1)¦.
4.10.3. Hallar el ´ area del cuadril´ atero de v´ertices: ¦(−2, 0), (−1, −2), (2, 1), (0, 3)¦.
118
La propiedad 3) se demuestra al final del cap´ıtulo de movimientos utilizando m´ as conocimientos
del curso.
Otras propiedades interesantes son:
Propiedad 4). Tambi´en se puede expresar el volumen de un paralelep´ıpedo cuyos lados son tres
vectores como un determinante cuyas filas son las coordenadas de los vectores y que se llama producto
mixto de los tres vectores.
Su demostraci´ on se hace utilizando el producto vectorial. Ve´amoslo: Si a, b y c son tres vectores no
coplanarios, considerando que a y b determinan la base del paralelep´ıpedo, el volumen es el producto
del ´area de la base por la altura.

a
b

c
`
p(c)
a b

El ´ area de la base es el m´odulo del producto vectorial |a b|. La altura es el m´ odulo de la
proyecci´on p(c) del vector c sobre la perpendicular al plano engendrado por a y b (a b):
p(c) = |c|cosang(c, a b) = |c|
c (a b)
|c||a b|
=
c (a b)
|a b|
resultando
V ol(paralpedo)(a, b, c) = |ab|(c(ab)/|ab|) = c(ab) = c
1
¸
¸
¸
¸
a
2
a
3
b
2
b
3
¸
¸
¸
¸
−c
2
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
+c
3
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
=
=
¸
¸
¸
¸
¸
¸
c
1
c
2
c
3
a
1
a
2
a
3
b
1
b
2
b
3
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
¸
¸
¸
¸
¸
¸
119
Del volumen del paralelep´ıpedo se deduce el volumen de un prisma triangular como la mitad del
volumen del paralelep´ıpedo y el volumen de una pir´amide como el tercio del volumen del prisma.
Ve´anse los dibujos siguientes:

.
.
.
.
.
.
.
.
.
.
.
.
.

/
/
//
/
/
//
/
/
//
/
/
//

/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/

.
.
.
.
.
.
.
.
.
.
.
.
.

/
/
//
/
/
//
/
/
//
/
/
//

.
.
.
.
.
.
.
.
.
.
.
.
.

120
Ejercicios:
4.11.1. Hallar el volumen de un paralelep´ıpedo que
a) Tiene como aristas los vectores: ¦(1, 2, −1), (0, 1, 2), (1, 2, −3)¦.
b) Tiene un v´ertice en uno de los puntos: ¦(1, 0, 1), (1, 1, 2), (1, 1, 1), (2, 0, 2)¦ y los otros tres
puntos adyacentes al v´ertice escogido.
4.11.2. Hallar el volumen de un prisma triangular con una base determinada por los puntos:
¦(1, 0, 1), (0, 1, 1)(1, 1, 0)¦ y con un v´ertice de la base opuesta en (1, 1, 1)).
4.11.3. Los cuatro puntos ¦(0, 0, 0), (1, 0, 0), (0, 1, 0)(0, 0, 1)¦ determinan un tetraedro. Hallar:
a) Su volumen.
b) El ´ area A de la cara que no est´ a contenida en ning´ un plano coordenado.
c) Su altura h referida a esta cara.
d) Comprobar que el volumen obtenido utilizando determinantes es igual al volumen obtenido
por la f´ ormula: V = 1/3(A h).
4.9.4. Los cuatro puntos ¦(3, 1, 0), (2, 0, 0), (0, 1, 0)(1, 1, 3)¦ determinan un tetraedro.
Hallar la altura del v´ertice (3,1,0) respecto al ´ area de la cara de v´ertices ¦(2, 0, 0), (0, 1, 0)(1, 1, 3)¦
utilizando el producto vectorial y los determinantes.
121
Propiedad 5). El producto vectorial se usa para calcular el vector normal (perpendicular) a una
superficie en un punto y por ello, para calcular las integrales en superficies, entre ellas, las ´areas de
las superficies curvadas.
Para ello es necesario saber cual es la relaci´ on entre las ´areas de distintos paralelogramos de lados
conocidos, contenidos en el mismo plano, cuando sabemos la relaci´on entre los lados. Esta relaci´on
se usa al hacer cambios de coordenadas en las integrales.
Es suficiente ver dicha relaci´ on para vectores del plano coordenado z = 0, lo cual no restringe la
generalidad: dadas dos parejas de vectores ¦a, b¦ y ¦u, v¦ del plano donde u = c
1
a+c
2
b, v = d
1
a+d
2
b
se cumple:
Ar(u, v) =
¸
¸
¸
¸
¸
¸
¸
¸
c
1
d
1
c
2
d
2
¸
¸
¸
¸
¸
¸
¸
¸
Ar(a, b)
Demostraci´ on: observemos que si a = (a
1
, a
2
, 0) y b = (b
1
, b
2
, 0), la f´ ormula del ´ area como el
m´ odulo del producto vectorial da
Ar(a, b) =
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
¸
¸
¸
¸
y Ar(u, v) =
¸
¸
¸
¸
¸
¸
¸
¸
u
1
u
2
v
1
v
2
¸
¸
¸
¸
¸
¸
¸
¸
Ya que es u = (u
1
, u
2
) = (c
1
a
1
+c
2
b
1
, c
1
a
2
+c
2
b
2
) y v = (v
1
, v
2
) = (d
1
a
1
+d
2
b
1
, d
1
a
2
+d
2
b
2
),
Ar(u, v) =
¸
¸
¸
¸
¸
¸
¸
¸
c
1
a
1
+c
2
b
1
c
1
a
2
+c
2
b
2
d
1
a
1
+d
2
b
1
d
1
a
2
+d
2
b
2
¸
¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
¸
_
c
1
c
2
d
1
d
2
__
a
1
a
2
b
1
b
2

¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
¸
c
1
c
2
d
1
d
2
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
¸
¸
c
1
d
1
c
2
d
2
¸
¸
¸
¸
¸
¸
¸
¸
Ar(a, b)
Esta relaci´ on se usa al hacer cambios de coordenadas en las integrales. Cuando se vea el cambio
de base entre espacios vectoriales se podr´a observar que el determinante que relaciona las dos ´ areas
es el determinante de cambio de base entre la base ¦a, b¦ y la base ¦c, d¦.
122
BIBLIOGRAFIA
(A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´ an Espa˜ nol.
Ed. S´ıntesis Madrid. 1999.
(FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana,
1989.
[G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e
Ruiz Jim´ nez. Ed. Editex. 2009.
(H) Algebra y Geometr´ıa. Eugenio Hern´ andez. Ed. Addison- Wesley / UAM, 1994.
[L] Linear Algebra for Mathematics, Science, and Engineering. E. M. Landesman, M. R. Hestenes.
Prentice-Hall International, Inc. 1992.
[S] Introduction to Linear Algebra. G. Strang. Wellesley-Cambridge Press 1993.
123
124
ESPACIOS VECTORIALES.
Introducci´ on.
Consideremos el plano. Fijado un origen O y dado un punto P, uniendo el origen con ese punto
por el camino m´ as corto obtenemos un segmento orientado que se llama vector.
Los vectores que empiezan en el mismo origen se pueden sumar dando otro vector con el mismo
origen y se pueden multiplicar por un n´ umero real dando otro vector con el mismo origen: dos
vectores dados se suman por la regla del paralelogramo: trazando por el extremo del primer vector
otro vector paralelo al vector que queremos sumar y considerando el extremo de este ´ ultimo como
el extremo de la suma. Respecto a la suma son un grupo conmutativo y la otra operaci´ on, que se
llama operaci´ on externa, es distributiva respecto a la suma de vectores y a la suma de n´ umeros, es
asociativa respecto al producto de n´ umeros y el producto de 1 por cualquier vector v deja invariante
a este v. Toda esta estructura recibe el nombre de espacio vectorial real.
Por otra parte, en el plano podemos trazar dos rectas perpendiculares pasando por el origen,
(normalmente, una horizontal y otra vertical), llamarlas ejes y llamar origen al punto en que se
encuentran. Tambi´en podemos fijar un segmento como unidad de medida. A este conjunto de
elementos lo llamamos sistema de referencia.
Trazando dos rectas paralelas a los ejes por el extremo de un vector que empiece en el origen
obtenemos sobre los ejes, segmentos que medidos con la unidad fijada dan dos n´ umeros llamados
coordenadas del vector o del punto extremo del vector. As´ı hemos establecido otra correspondencia
biyectiva entre los puntos del plano y las parejas de n´ umeros reales, es decir, entre los puntos del
plano y R R = R
2
.
(3,2)
.
.
.
.
.
.
.
.
.
.
.

Es de observar que las coordenadas del vector suma de dos vectores dados, son la suma de las
coordenadas de los vectores sumandos.
125
>
>
>
>
>
>
>
>
>
>
>
>

(x
1
, x
2
)
(y
1
, y
2
)
(x
1
+y
1
, x
2
+y
2
)
.
.
.
.
.
.
.
.
.
.
.

/
/
/
/
/
/
/
/
/
/
/

Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z

Tambi´en al multiplicar un vector del plano por un n´ umero real obtenemos un vector de su misma
direcci´ on y de longitud la que ten´ıa el vector multiplicada por el n´ umero, (si el n´ umero es negativo
cambia de sentido), quedando las coordenadas del vector multiplicadas por el n´ umero.
Como las operaciones de los vectores se trasmiten a las operaciones de RR al coger coordenadas
de los vectores, la estructura de R R debida a la suma y a la operaci´ on de multiplicaci´ on por un
n´ umero real, se llama espacio vectorial real.
Podemos hacer lo an´alogo en el espacio trazando tres rectas perpendiculares dos a dos que se
cortan en un punto del espacio llamado origen: asociar a cada punto un vector que empiece en el
origen y fijada una unidad de medida, asociar a cada punto tres coordenadas.
En el espacio podemos sumar por la regla del paralelogramo y multiplicar un vector por un
n´ umero, lo cual est´a en correspondencia con las dos operaciones en las ternas de n´ umeros reales
(R
3
= R R R): suma y multiplicaci´ on por un n´ umero real. La suma es una operaci´ on interna.
La multiplicaci´ on por un n´ umero real es una operaci´on externa. Estas dos operaciones tienen las
mismas propiedades que las operaciones an´ alogas de R
2
, por eso R
3
tambi´en tiene estructura de
espacio vectorial real.
La estructura de estos conjuntos con estas operaciones puede encontrarse tambi´en en otros con-
juntos utilizados en Geometr´ıa y en An´alisis y por ello se estudia de manera abstracta para poder
aplicar sus resultados a todos los conjuntos con la misma estructura.
Adem´ as, la introducci´on del concepto de dimensi´on en los espacios vectoriales permite comparar
los conjuntos de soluciones de distintos sistemas de ecuaciones y determinar cu´ ando son coincidentes.
126
Tambi´en se puede simplificar el c´ alculo del rango de una matriz sin tener que calcular todos sus
menores utilizando el concepto de dimensi´on.
Pasamos ahora a una descripci´ on precisa.
Cuerpo. Propiedades.
En un espacio vectorial gen´erico, la operaci´on externa est´ a definida por los elementos de un
cuerpo. Por eso, antes de definir un espacio vectorial necesitamos la definici´on de cuerpo:
Definici´on 1: Cuerpo es un conjunto con dos operaci´ones internas que llamamos suma y producto
con las siguientes propiedades:
1) La suma es:
a) Asociativa.
b) Tiene elemento neutro (cero).
c) Todo elemento tiene elemento opuesto.
d) Conmutativa.
2) El producto es:
α) Asociativo.
β) Tiene elemento neutro (unidad).
γ) Todo elemento distinto del elemento neutro de la suma tiene elemento inverso (opuesto respecto
a la multiplicaci´on).
δ) El producto es distributivo respecto a la suma (a los dos lados).
Si el producto es conmutativo, el cuerpo se llama cuerpo conmutativo. Los cuerpos utilizados
para los espacios vectoriales son cuerpos conmutativos. Por eso en nuestros cuerpos tambi´en se da
la propiedad:
γ) Conmutativo.
La existencia de la suma con las propiedades a), b), c) configura al conjunto K en grupo aditivo.
La propiedad d) lo hace adem´as grupo aditivo conmutativo.
La otra operaci´ on llamada multiplicaci´ on o producto estructura a K − ¦0¦, en un grupo multi-
plicativo.
El conjunto de los n´ umeros reales es un cuerpo, que denotamos por R. Tambi´en el conjunto de
los n´ umeros complejos, que denotamos por C es un cuerpo y el conjunto de los n´ umeros racionales,
que denotamos por Q.
127
Estamos tan acostumbrados a que el producto del cero por cualquier otro elemento sea cero que
podemos pensar que este resultado es evidente, pero no lo es a partir de los axiomas establecidos en
la definici´on de cuerpo.
Denotando por e al elemento neutro de la suma para que deje de parecer tan trivial, vamos a
establecer:
e x = e ∀x ∈ K
En efecto:
e x = (e +e) x = e x +e x
Sumando ahora a los dos miembros de esta igualdad el elemento x

opuesto de ex, tenemos:
e = x

+e x = x

+e x +e x = e +e x = e x es decir, e = e x.
Otras propiedades interesantes son:
El elemento neutro de un grupo es ´ unico: Suponiendo la existencia de dos elementos neutros
e y e

, llegamos a su igualdad: tendr´ıamos e = e +e

= e

.
De aqu´ı tenemos la unicidad no s´ olo del elemento neutro de la suma sino tambi´en la unicidad
del elemento neutro de la multiplicaci´ on sin m´as que cambiar el signo + por el signo . Usualmente,
representaremos por 1 el elemento neutro de la multiplicaci´ on.
El elemento opuesto de uno dado x de un grupo es ´ unico: suponiendo la existencia de dos
elementos opuestos x

y x

de x, tenemos: x

= x

+e = x

+(x +x

) = (x

+x) +x

= e +x

= x

.
Propiedad importante es que λ
1
λ
2
= e implica λ
1
= e ´ o λ
2
= e.
En efecto: si λ
2
,= e, λ
2
tiene un inverso respecto a la multiplicaci´on. Sea λ
−1
2
este inverso,
entonces, seg´ un la primera propiedad anterior,
e = eλ
−1
2
= (λ
1
λ
2

−1
2
= λ
1

2
λ
−1
2
) = λ
1
.
128
Espacio Vectorial.
Definici´on 2: Un conjunto V es un Espacio Vectorial sobre un cuerpo K si
1) Est´ a dotado de una operaci´on interna llamada suma respecto de la cual es grupo conmutativo.
2) Tiene una multiplicaci´on externa por los elementos de un cuerpo K, es decir, existe una
aplicaci´ on del conjunto K V → V que asocia a cada par (λ, v) el elemento denotado por λv con
las siguientes propiedades:
a) λ(v
1
+v
2
) = λv
1
+λv
2
. (Distributividad respecto a la suma de V).
b) (λ
1

2
)v = λ
1
v +λ
2
v. (Distributividad respecto a la suma en K).
c) (λ
1
λ
2
)v = λ
1

2
v). (Asociatividad mixta).
d) 1v = v donde 1 es el elemento neutro del cuerpo para la multiplicaci´on y v es cualquier vector
de v.
El espacio vectorial se representa por V
K
.
En los espacios vectoriales se verifica, si e es el elemento neutro del cuerpo, que e v = 0 para
cada vector v del espacio. Propiedad an´aloga a la de los cuerpos, cuya demostraci´on es tambi´en
exactamente an´ aloga.
Tambi´en, si λ ∈ K y 0 es el elemento neutro de la suma de V, se verifica λ 0 = 0. En efecto,
llamando v

al elemento opuesto de λ 0, tenemos
0 = v

+λ 0 = v

+λ (0 + 0) = v

+ (λ 0 +λ 0) = (v

+λ 0) +λ 0 = 0 +λ 0 = λ 0
Otra propiedad interesante: si 1 es la unidad del cuerpo y −1 es el opuesto de 1 en K, el producto
(−1)v es el opuesto de v en V. Se deduce de la igualdad:
v + (−1)v = 1 v + (−1) v = (1 + (−1))v = e v = 0
y de la unicidad del elemento opuesto.
Adem´ as, si un vector v es distinto de cero, la igualdad λv = 0 implica λ = 0, ya que si λ ,= 0,
existir´ıa el inverso de λ : (λ
1
) y tendr´ıamos 0 = λ
−1
(λv) = (λ
−1
λ)v = 1 v = v, en contra de lo
supuesto.
Se puede comprobar f´ acilmente que el conjunto de matrices 2 2 de n´ umeros racionales es un
espacio vectorial sobre Q.
129
Es interesante observar que R tiene estructura de espacio vectorial sobre R y que cada cuerpo K
tiene estructura de espacio vectorial sobre K.
Tambi´en se verifica que C tiene estructura de espacio vectorial sobre R y R tiene estructura de
espacio vectorial sobre Q.
Es f´ acil comprobar que el conjunto de polinomios de grado ≤ n con coeficientes reales es un
espacio vectorial sobre R y que el conjunto de polinomios de grado ≤ n con coeficientes complejos
es un espacio vectorial sobre C. A los espacios vectoriales sobre R, se les llama espacios vectoriales
reales. A los espacios vectoriales sobre C se les llama espacios vectoriales complejos.
Son espacios vectoriales reales el conjunto de matrices con entradas reales de m filas y n columnas,
/
m×n
(R), el conjunto de funciones reales de variable real, el conjunto de las sucesiones de n´ umeros
reales...
Son espacios vectoriales complejos el conjunto de matrices con entradas complejas de m filas y n
columnas, /
m×n
(C), el conjunto de sucesiones de n´ umeros complejos...
El conjunto de las aplicaciones definidas en un conjunto con imagen en un cuerpo es un espacio
vectorial sobre ese cuerpo, sea este R, C o Q.
Ejercicios
5.1.1. Indicar por qu´e el conjunto de todas las matrices de n´ umeros reales de todas las dimensiones
con n´ umeros reales no es un espacio vectorial real.
5.1.2. Comprobar que el conjunto de funciones reales continuas de variable real son un subespacio
vectorial real.
130
Un ejemplo en el que se ve la importancia del cuerpo en la estructura de espacio vectorial es el conjunto C de
los n´ umeros complejos. C tiene estructura de espacio vectorial sobre R y estructura de espacio vectorial sobre C.
Pero son dos estructuras distintas; Como espacio vectorial complejo, fijado un elemento no cero, todo elemento de
C se puede obtener multiplicando el elemento fijo por otro del cuerpo. Pero como espacio vectorial real, fijado un
elemento distinto de cero s´olo los elementos de la recta geom´etrica con direcci´on el elemento fijado se pueden obtener
multiplic´andolo por elementos del cuerpo.
La estructura de espacio vectorial es importante porque permite el concepto de dimensi´on que
clasifica a estos espacios y establece diferencias entre los subconjutos de los espacios vectoriales
llamados subespacios vectoriales. Se ver´ a como ejercicio que la dimensi´ on de C no es la misma
cuando se considera espacio vectorial complejo que cuando se considera espacio vectorial real.
Subespacios Vectoriales.
Definici´on 3: Un Subespacio vectorial de un espacio vectorial V sobre un cuerpo K es un
subconjunto S no vac´ıo de V que es un espacio vectorial sobre el mismo cuerpo con las leyes de
composici´ on inducidas por las leyes de V (con el mismo cuerpo).
El espacio vectorial R contenido en el espacio vectorial C es un subespacio suyo si se considera en C la operaci´on
externa por los elementos de R, pero no es un subespacio vectorial, si se considera en C la operaci´on externa por los
elementos del mismo C.
El cuerpo sobre el que se considera el espacio vectorial es importante a la hora de considerar
subespacios: fijado un origen, hemos visto que los puntos del plano dan lugar a un espacio vectorial
real formado por los vectores que tienen el mismo origen 0 y que este espacio vectorial se puede hacer
coincidir con el espacio vectorial real R R introduciendo un sistema de referencia. El conjunto de
los vectores horizontales, con origen en el punto prefijado, son un subespacio vectorial real del primer
espacio vectorial y correspondientemente, el conjunto de las parejas ¦(a, 0)[a ∈ R¦, es un subespacio
vectorial de R R.
Pero tambi´en, se pueden poner los puntos del plano en correspondencia con los n´ umeros complejos
y trasmitirles la estructura de espacio vectorial complejo de C. En este caso, como el subconjunto de
los n´ umeros reales no es subespacio vectorial del espacio de los n´ umeros complejos cuando el cuerpo
que se considera es C, la recta horizontal, que es la que corresponde a R no es un subespacio del
espacio de los puntos del plano con la estructura vectorial compleja.
Para que un subconjunto S no vac´ıo de un espacio vectorial sea subespacio vectorial se tendr´ a que
verificar que la suma del espacio vectorial sea una operaci´on del subconjunto, asociativa, con elemento
neutro, tal que todo elemento del subconjunto tenga su elemento opuesto en el conjunto, conmutativa
131
y adem´as que la multiplicaci´ on externa por los elementos del mismo cuerpo sea otra operaci´on del
subconjunto con las propiedades distributivas y asociativa mixta y tal que 1 v = v ∀v ∈ S.
Pero hay algunas de estas propiedades, como la asociatividad, la distributividad y la conmutativi-
dad, que por verificarse en V, se verifican en cualquier subconjunto S, y por ello, para comprobar que
un subconjunto S es subespacio vectorial, s´ olo hay que comprobar que las operaciones se mantienen
dentro del subconjunto, (se dice que sean cerradas en el subconjunto), y que el subconjunto contiene
el elemento neutro de la suma.
Podemos ahorrarnos comprobaciones estableciendo:
Proposici´on 1: El subconjunto S es un subespacio vectorial de un espacio vectorial V si:
i) S es cerrado respecto a la suma de V. (∀v
1
, v
2
∈ S, v
1
+v
2
∈ S).
ii) S contiene el elemento neutro de la suma de V.
iii) S es cerrado respecto a la operaci´ on externa. (∀v ∈ S, ∀λ ∈ K, λv ∈ S)
En efecto, si S es cerrado respecto a la suma, S est´ a dotado de esta operaci´ on. Como S tambi´en
tiene el elemento neutro por ii), y la operaci´on es asociativa en S (por serlo en V) lo ´ unico que le
falta a S para ser grupo es que para cada v el elemento opuesto: −v pertenezca a S; Por ser cerrado
respecto a la operaci´ on externa, −v = (−1)v pertenece a S. Por lo que tenemos que S es un grupo
aditivo.
La conmutatividad de la suma en S viene heredada de la conmutatividad de la suma en V.
Luego 1) S es un grupo aditivo conmutativo.
Adem´ as, si S es cerrado respecto a la operaci´on externa de V, existe la aplicaci´ on K S → S
que asocia a cada par (λ, v) el elemento λv de S con las propiedades: a), b), c), d), de la definici´ on
2. heredadas de las de V. Es decir,
2) S est´a dotado de la operaci´ on externa por ser cerrado respecto a ella. Y las restantes
propiedades de las operaciones de un espacio vectorial quedan heredadas.
Hay que a˜ nadir la condici´ on ii) porque el conjunto vac´ıo verifica i) y iii) pero no es subespacio
vectorial.
Sin embargo, podemos simplificar a´ un m´ as las condiciones a cumplir por un subespacio vectorial
y establecer la
Proposici´on 2: El subconjunto S es un subespacio vectorial de un espacio vectorial V si:
i) S contiene el elemento neutro del espacio vectorial respecto a la suma.
ii) Dados λ
1
, λ
2
cualesquiera de K y dados v
1
, v
2
cualesquiera en S, λ
1
v
1

2
v
2
est´ a en S.
132
Demostraci´on:
Veamos primero que si se cumplen las condiciones de la proposici´ on 2, se cumplen las condiciones
de la proposici´ on 1.
La condici´on i) de la proposici´ on 2 es la condici´ on ii) de la proposici´ on 1.
Si se verifica ii) de la proposici´on 2, cogiendo λ
1
= λ
2
= 1, dados dos vectores v
1
y v
2
de S, el
vector 1 v
1
+ 1 v
2
= v
1
+v
2
pertenece a S, luego S es cerrado respecto a la suma en V.
Adem´ as, cogiendo λ
1
= λ, λ
2
= e, v
1
= v = v
2
, tenemos que λ
1
v +e v = λv est´ a en S, cualquiera
que sea λ ∈ K y v ∈ S, luego S es cerrado respecto a la ley de composici´ on externa.
Rec´ıprocamente, veamos que si se cumplen las condiciones de la proposici´on 1, se cumplen las
condiciones de la proposici´ on 2:
ii) Dados λ
1
, λ
2
de K cualesquiera, y dados v
1
, v
2
en S los vectores λ
1
v
1
y λ
2
v
2
pertenecen a S,
por ser S cerrado respecto a la operaci´ on externa y su suma pertenece a S por ser S cerrado respecto
a la suma.
La condici´on i) de esta proposici´on no es superflua, porque en el caso de ser S vac´ıo se cumplir´ıa
la condici´on ii) pero no ser´ıa S un grupo aditivo al no contener el elemento neutro.
En realidad, podemos establecer la
Proposici´on 3: El subconjunto S es un subespacio vectorial de un espacio vectorial V si:
i) S es no vac´ıo.
ii) Dados λ
1
λ
2
cualesquiera de K y dados v
1
, v
2
cualesquiera en S, λ
1
v
1

2
v
2
est´ a en S.
Ya que al ser S no vac´ıo, existiendo v ∈ S, el vector cero 0 = e v pertenece a S por ii), cogiendo
λ
1
= λ
2
= 0 y v
1
= v
2
= v.
Ejercicios:
5.2.1. Comprobar que el conjunto de vectores con origen en O cuyos extremos est´ an en una recta
que pasa por el punto O es un subespacio vectorial del espacio vectorial real formado por todos los
vectores con origen en O.
5.2.2. Explicar por qu´e el conjunto de vectores con origen en O cuyos extremos est´ an en una
recta que no pasa por un punto O no es un subespacio vectorial del espacio vectorial real formado
por todos los vectores con origen en O.
133
5.2.3. Comprobar que el subconjunto de R
2
formado por las parejas (x, y) con x ≥ 0 no es un
subespacio vectorial de R
2
.
5.2.4. Estudiar si son subespacios vectoriales de R
2
los siguientes subconjuntos:
a) S
1
= ¦(x, y) ∈ R
2
[ y −x = 0¦,
b) S
2
= ¦(x, y) ∈ R
2
[ y −x = 1¦,
c) S
3
= ¦(x, y) ∈ R
2
[ xy = 0¦,
d) S
4
= ¦(x, y) ∈ R
2
[ y = [x[¦,
e) S
5
= ¦(x, y) ∈ R
2
[ [y[ = [x[¦.
5.2.5. Estudiar si son subespacios vectoriales de R
3
los siguientes subconjuntos:
a) S
1
= ¦(x, y, z) ∈ R
3
[ y −x = 0¦,
b) S
2
= ¦(x, y, z) ∈ R
3
[ y −x = 1¦,
c) S
3
= ¦(x, y, z) ∈ R
3
[ xy = 0¦,
d) S
4
= ¦(x, y, z) ∈ R
3
[ y = [x[¦,
e) S
5
= ¦(x, y, z) ∈ R
3
[ [y[ = [x[¦.
5.2.6. Comprobar que aunque Q est´ a contenido en R y sus operaciones est´an inducidas por las de
R, Q no es subespacio vectorial de R. (La multiplicaci´on de elementos de Q por elementos de R no
es cerrada en Q (puede dar elementos de R no contenidos en Q)). Lo mismo ocurre con R respecto
a C.
5.2.7. Estudiar si son subespacios vectoriales de C, considerado como espacio vectorial complejo,
a) el conjunto de los n´ umeros reales. b) el conjunto de los n´ umeros imaginarios puros.
5.2.8. Comprobar que el conjunto de las matrices diagonales de orden n con elementos de un
cuerpo K, es un subespacio vectorial del espacio vectorial sobre el cuerpo dado, de las matrices
cuadradas de orden n con elementos de ese cuerpo.
5.2.9. Comprobar que el espacio vectorial de las matrices 2 2 con n´ umeros racionales no es
subespacio vectorial del espacio vectorial real de las matrices 2 2 con n´ umeros reales.
5.2.10. Estudiar si son subespacios vectoriales del espacio vectorial real de funciones reales de
variable real los siguientes subconjuntos: S
1
= ¦f[f(0) = 0¦, S
2
= ¦f[f(1) = 0¦, S
3
= ¦f[f(0) = 1¦.
5.2.11. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales los
siguientes subconjuntos:
a) El subconjunto de los polinomios con coeficientes reales dentro del espacio vectorial real de las
funciones reales de variable real.
b) El subconjunto de los polinomios de grado ≤ n, con coeficientes reales, siendo n fijo, dentro
del espacio vectorial real de las funciones reales de variable real.
c) El conjunto de los polinomios de grado n, siendo n fijo, con coeficientes reales como subconjunto
del espacio vectorial real de los polinomios de cualquier grado con coeficientes reales.
d) El subconjunto de polinomios de grado ≤ 3 con coeficientes reales divisibles por x − 1 como
subconjunto del espacio vectorial real de los polinomios de grado ≤ 3 con coeficientes reales.
134
5.2.12. Averiguar si son subespacios vectoriales del espacio vectorial real de matrices de n´ umeros
reales de orden 2 2 los siguientes subconjuntos:
a) El subconjunto de las matrices de n´ umeros reales de orden 22 de traza cero como subconjunto
del espacio vectorial real de las matrices de n´ umeros reales de orden 2 2. (Se llama traza de una
matriz a la suma de los elementos de su diagonal).
b) El subconjunto de las matrices de n´ umeros reales de orden 2 2 de rango 1 como subconjunto
del espacio vectorial real de las matrices de n´ umeros reales de orden 2 2.
c) El subconjunto de las matrices de n´ umeros reales de orden 2 2 que conmutan con la matriz
B, siendo B una matriz fija 2 2, como subconjunto del espacio vectorial real de las matrices de
n´ umeros reales de orden 2 2 .
5.2.13. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales los
siguientes subconjuntos:
a) El subconjunto de las matrices triangulares superiores nn con elementos de un cuerpo como
subconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas nn con elementos del
mismo cuerpo.
b) El subconjunto de las matrices sim´etricas nn con elementos de un cuerpo como subconjunto
del espacio vectorial sobre ese cuerpo de las matrices cuadradas n n con elementos del mismo
cuerpo.
c) El subconjunto de las matrices antisim´etricas nn con elementos de un cuerpo como subcon-
junto del espacio vectorial sobre ese cuerpo de las matrices cuadradas nn con elementos del mismo
cuerpo.
5.2.14. Averiguar si es subespacio vectorial del espacio vectorial real de matrices de n´ umeros
reales de orden mn el subconjunto de las matrices escalonadas de m filas y n columnas.
Corolario 1:(de la proposici´ on 2.)
La intersecci´on de una familia de subespacios vectoriales es un subespacio vectorial. La de-
mostraci´ on a partir de la proposici´ on 2 es f´acil de ver y se deja como ejercicio.
Corolario 2:
El conjunto de soluciones de un sistema homog´eneo de ecuaciones lineales con coeficientes en un
cuerpo conmutativo es un subespacio vectorial.
Demostraci´on:
Demostrando primero que el conjunto de soluciones de una ecuaci´on lineal es un subespacio
vectorial, la demostraci´on se sigue de la observaci´ on de que el conjunto de soluciones del sistema es
la intersecci´ on de los subespacios soluciones de cada ecuaci´ on.
Respecto a lo primero, sea a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0 una ecuaci´ on con coeficientes en un cuerpo
K conmutativo y sea S el conjunto de sus soluciones. Entonces:
i) (0,0,...,0) es soluci´ on de la ecuaci´on lineal.
135
ii) Sean λ
1
y λ
2
elementos del cuerpo K y (u
1
, u
2
, , u
n
), (v
1
, v
2
, , v
n
), soluciones de la
ecuaci´ on,
λ
1
(u
1
, u
2
, , u
n
) + λ
2
(v
1
, v
2
, , v
n
) = (λ
1
u
1
+ λ
2
v
1
, λ
1
u
2
+ λ
2
v
2
, , λ
1
u
n
+ λ
2
v
n
) es tambi´en
soluci´ on de la ecuaci´on porque:
a
1

1
u
1

2
v
1
) +a
2

1
u
2

2
v
2
) + +a
n

1
u
n

2
v
n
) =
(por la distributividad del producto)
= a
1

1
u
1
) +a
1

2
v
1
) +a
2

1
u
2
) +a
2

2
v
2
) + +a
n

1
u
n
) +a
n

2
v
n
) =
(por la asociatividad del producto)
= (a
1
λ
1
)u
1
+ (a
1
λ
2
)v
1
+ (a
2
λ
1
)u
2
+ (a
2
λ
2
)v
2
+ (a
n
λ
1
)u
n
+ (a
n
λ
2
)v
n
=
(por la commutatividad del producto)
= (λ
1
a
1
)u
1
+ (λ
2
a
1
)v
1
+ (λ
1
a
2
)u
2
+ (λ
2
a
2
)v
2
+ + (λ
1
a
n
)u
n
+ (λ
2
a
n
)v
n
=
(por la commutatividad de la suma)
= (λ
1
a
1
)u
1
+ (λ
1
a
2
)u
2
+ + (λ
1
a
n
)u
n
+ (λ
2
a
1
)v
1
+ (λ
2
a
2
)v
2
+ + (λ
2
a
n
)v
n
=
(por la asociatividad del producto)
= λ
1
(a
1
u
1
) +λ
1
(a
2
u
2
) + +λ
1
(a
n
u
n
) +λ
2
(a
1
v
1
) +λ
2
(a
2
v
2
) + +λ
2
(a
n
v
n
) =
(por la distributividad del producto respecto a la suma)
= λ
1
(a
1
u
1
+a
2
u
2
+ +a
n
u
n
) +λ
2
(a
1
v
1
+a
2
v
2
+ +a
n
v
n
) =
(por ser (u
1
, v
2
, , u
n
) y (v
1
, v
2
, , v
n
) soluciones de la ecuaci´on)
= λ
1
0 +λ
2
0 = 0
porque estos n´ umeros pertenecen a un cuerpo.
Un subespacio vectorial ha sido dado hasta ahora por una condici´ on que han de cumplir sus
vectores, pero tambi´en puede darse por una familia de vectores, a partir de los cuales se obtienen
todos los dem´ as. p. ej. los vectores horizontales de R
3
son un subespacio de R
3
dados por la condici´ on
136
de ser horizontales, pero tambi´en se pueden expresar: ¦(x
1
, x
2
, 0) = x
1
(1, 0, 0) +x
2
(0, 1, 0)¦, es decir,
que se pueden obtener a partir de ¦(1, 0, 0), (0, 1, 0)¦ multiplicando por n´ umeros reales y sumando.
Se introduce el concepto de combinaci´ on lineal para expresar un vector a partir de otros.
Definici´on 4: se llama combinaci´ on lineal de los vectores ¦v
1
, v
2
, ..., v
m
¦ ⊂ V
K
a cualquier
vector v que se pueda escribir v = λ
1
v
1

2
v
2
+... +λ
m
v
m
donde los λ
i
pertenecen al cuerpo K.
El vector cero es combinaci´on lineal de cualquier familia de vectores, ya que tomando λ = 0, se
obtiene λv = 0, cualquiera que sea v.
D´emonos cuenta de que si S es subespacio vectorial de V , por la propiedad asociativa de la suma,
dados m vectores: ¦v
1
, v
2
, ..., v
m
¦ de S, el vector v = λ
1
v
1

2
v
2
+... +λ
m
v
m
(donde los λ
i
pertenecen
al cuerpo) permanece en S.
Podemos decir que un subespacio vectorial es un subconjunto no vac´ıo de un espacio vectorial que
coincide con las combinaciones lineales de todos sus elementos. Pero investigaremos la posibilidad de
determinar un subespacio por un subconjunto de sus vectores, (cuantos menos mejor), como conjunto
de las combinaciones lineales de este subconjunto.
Un ejemplo son los conjuntos de soluciones de un sistema homog´eneo de ecuaciones, que se pueden
expresar como combinaciones lineales de un n´ umero finito de vectores. Lo veremos m´ as adelante en
el ejemplo usado para establecer el Teorema 2.
Lema 1: El conjunto de las combinaciones lineales de m vectores fijos de un espacio vecto-
rial es un subespacio vectorial del dado con las operaciones inducidas. (Su comprobaci´ on se deja
como ejercicio). Se llama subespacio vectorial engendrado por los m vectores. Representaremos
por /¦v
1
, v
2
, ...v
m
¦ al subespacio vectorial engendrado por ¦v
1
, v
2
, ..., v
m
¦. Llamamos a este con-
junto de vectores un sistema generador de dicho subespacio. Y a los vectores del conjunto, vectores
generadores.
Como nos interesa la mayor simplicidad, nos interesan los sistemas generadores con el m´ınimo
n´ umero de elementos y por eso introducimos el concepto de vector linealmente dependiente:
Definici´on 5: Un vector v depende linealmente de los vectores ¦v
1
, v
2
, ..., v
m
¦ si se puede
expresar como combinaci´on lineal de los vectores dados.
Observemos que el vector nulo siempre depende de cualquier conjunto de vectores: se expresa
como una combinaci´on lineal en la que todos los coeficientes son nulos.
La consideraci´ on de los vectores linealmente dependientes est´ a justificada por la proposici´on
siguiente:
137
Proposici´on 4: Si un vector v depende linealmente de los vectores ¦v
1
, v
2
. . . , v
m
¦, los subespa-
cios vectoriales engendrados por ¦v
1
, v
2
. . . , v
m
¦ y por ¦v
1
, v
2
. . . , v
m
, v¦ coinciden.
Demostraci´on:
Est´ a claro que /¦v
1
, v
2
, ...v
m
¦ ⊂ /¦v
1
, v
2
, ..., v
m
, v¦.
Rec´ıprocamente, si v = λ
1
v
1
+ λ
2
v
2
+ ... + λ
m
v
m
, cualquier elemento de /¦v
1
, v
2
, ..., v
m
, v¦ se
escribe:
α
1
v
1

2
v
2
+... +α
m
v
m
+αv =
α
1
v
1

2
v
2
+... +α
m
v
m
+α(λ
1
v
1

2
v
2
+... +λ
m
v
m
) =

1
+αλ
1
)v
1
+ (α
2
+αλ
2
)v
2
+... + (α
m
+αλ
m
)v
m
Este ´ ultimo es un elemento de /¦v
1
, v
2
, ..., v
m
¦.
Por ejemplo, = /¦(1, 0, 0)(0, 1, 0)¦ = /¦(1, 0, 0)(0, 1, 0)(1, 1, 0)¦ dentro de R
3
.
Definici´on 6: Se dice que los vectores ¦v
1
, v
2
, ..., v
m
¦ son linealmente dependientes si y s´ olo
si uno de ellos depende del resto.
Si el vector cero es uno de los vectores v
i
, los vectores son linealmente dependientes. (Rel´ease la
observaci´on posterior a la definici´on 5).
Proposici´on 5: los vectores ¦v
1
, v
2
, ..., v
m
¦ son linealmente dependientes si y s´ olo si el vector
cero se puede expresar como combinaci´ on lineal de los vectores dados utilizando alg´ un coeficiente no
nulo.
Demostraci´ on:
⇐).
Sea
0 = λ
1
v
1

2
v
2
+... +λ
m
v
m
y sea λ
i
,= 0.
Entonces,
λ
i
v
i
= −λ
1
v
1
−λ
2
v
2
−... −λ
m
v
m
donde en el segundo miembro aparecen s´olo los vectores distintos del v
i
.
Como λ
i
,= 0 y K es un cuerpo, existe inverso de λ
i
. Multiplicando por λ
−1
i
tenemos:
v
i
= −λ
−1
i
λ
1
v
1
−... −λ
−1
i
λ
m
v
m
donde no aparece el v
i
en el segundo miembro, por tanto uno de ellos depende linealmente del resto.
⇒). Sea v
i
un vector que depende del resto de vectores. Entonces,
138
v
i
= λ
1
v
1
+... +λ
m
v
m
donde no aparece v
i
en el segundo miembro. Pas´ andolo al segundo miembro, tenemos
0 = λ
1
v
1
+... −v
i
+... +λ
m
v
m
El coeficiente de v
i
en el segundo miembro es −1 porque v
i
antes no aparec´ıa en el segundo miembro.
Hemos conseguido escribir el cero como combinaci´ on lineal de los vectores dados siendo al menos
el coeficiente de v
i
(−1) distinto de cero. Luego, por la definici´ on 6, los vectores son linealmente
dependientes.
Definici´on 7: Se dice que los vectores ¦v
1
, v
2
, ..., v
m
¦ son linealmente independientes si no
son linealmente dependientes.
En este caso, por la prop. 5, no podemos encontrar una expresi´on:
0 = λ
1
v
1

2
v
2
+... +λ
m
v
m
con alg´ un λ
i
,= 0, o lo que es lo mismo, en una expresi´ on del tipo
0 = λ
1
v
1

2
v
2
+... +λ
m
v
m
todos los λ
i
han de ser nulos.
En la pr´actica, en los casos concretos, se comprueba si ¦v
1
, v
2
, ..., v
m
¦ son linealmente indepen-
dientes viendo si la existencia de la expresi´ on:
0 = λ
1
v
1

2
v
2
+... +λ
m
v
m
implica que todos los coeficientes sean nulos.
Esta regla tambi´en nos da que un conjunto de vectores formado s´ olo por el vector cero es depen-
diente. Y que un conjunto formado s´olo por un vector distinto de cero es independiente. (V´eanse
las propiedades que se demostraron al principio del cap´ıtulo sobre las operaciones en un espacio
vectorial).
Ejercicios:
5.3.1. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familias
de vectores:
a) ¦(1, 2, 0), (0, 1, 1)¦ ⊂ R
3
,
b) ¦(1, 2, 0), (0, 1, 1), (1, 1, 0)¦ ⊂ R
3
,
c) ¦(1, 2, 0), (0, 1, 1), (1, 1, −1)¦ ⊂ R
3
,
139
d) ¦(1, 2, 0), (0, 1, 1), (1, 1, 0), (3, 2, 1)¦ ⊂ R
3
,
e) ¦(i, 1 −i), (2, −2i −2)¦ ⊂ C
2
,
f) ¦(i, 1, −i), (1, i, −1)¦ ⊂ C
3
.
5.3.2. En los casos de las familias anteriores que sean dependientes, expresar uno de los vectores
como combinaci´ on lineal de los restantes.
5.3.3. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familias
de vectores:
a)
__
0 1
0 −2
_
,
_
1 −1
0 1
_
,
_
−2 5
0 −8
__
subconjunto de las matrices 2 2 de n´ umeros reales.
b) Los polinomios ¦1, x −2, (x −2)
2
, (x −2)
3
¦ ⊂ P
3
R
[x].
5.3.4. Demostrar que si ¦f
1
(x), f
2
(x), , f
k
(x)¦ son funciones reales de variable real tales que
existen ¦a
1
, a
2
, , a
k
¦ verificando
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(a
1
) f
2
(a
1
) f
k
(a
1
)
f
1
(a
2
) f
2
(a
2
) f
k
(a
2
)
.
.
.
.
.
.
.
.
.
.
.
.
f
1
(a
k
) f
2
(a
k
) f
k
(a
k
)
¸
¸
¸
¸
¸
¸
¸
¸
¸
,= 0
son funciones independientes.
5.3.5. Utilizar el resultado anterior para
a) Demostrar que cualquiera que sea n, los polinomios ¦1, x −2, (x −2)
2
, , (x −2)
n
¦ ⊂ P
n
[x]
son independientes considerados como vectores de dicho espacio vectorial.
b) Demostrar que los polinomios: ¦1, x − a, (x − a)
2
, , (x − a)
n
¦ ⊂ P
n
[x], cualquiera que sea
n, y cualquiera que sea a, son independientes.
140
La proposici´on 4 establece que en un conjunto de generadores de un subespacio se puede prescindir
de los que dependan linealmente de los otros.
Introducimos el concepto de base para prescindir en el sistema generador de un subespacio de los
vectores que dependan de los restantes. As´ı obtenemos las bases como sistemas generadores con un
n´ umero m´ınimo de vectores.
Bases.
Definici´on 8: Se llama base de un espacio vectorial a un sistema generador del espacio que a su
vez es linealmente independiente.
Ejercicios
5.4.1. Comprobar que los siguientes conjuntos de vectores son bases de los correspondientes
espacios vectoriales: (son las llamadas bases can´onicas)
a) ¦(1, 0, 0, , 0), (0, 1, 0, , 0), (0, 0, 1, , 0), , (0, 0, 0, , 1)¦ ⊂ R
n
.
b)
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
⊂ /
2×2
(R)
c) ¦1, x, x
2
, , x
n
¦ ⊂ P
n
R
(x).
5.4.2. Estudiar si las siguientes familias de vectores son bases de los espacios vectoriales dados:
a) ¦(1, 0, 0, 1), (1, 0, 1, 0), (0, 1, 1, 0), (0, 1, 0, 1)¦ ⊂ R
4
,
b) ¦(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)¦ ⊂ R
4
,
c)
__
1 0
0 1
_
,
_
1 0
1 0
_
,
_
0 1
1 0
_
,
_
0 1
0 1
__
⊂ /
2×2
(R),
d)
__
1 0
0 1
_
,
_
1 0
1 0
_
,
_
0 2
1 0
_
,
_
0 1
0 1
__
⊂ /
2×2
(R),
e)
__
1 0
1 1
_
,
_
0 1
1 1
_
,
_
1 1
1 2
_
,
_
0 1
1 0
__
⊂ /
2×2
(1),
141
f)
__
1 0
1 1
_
,
_
0 1
1 1
_
,
_
1 1
1 1
_
,
_
0 1
1 0
__
⊂ /
2×2
(1).
5.4.3. Encontrar bases de los siguientes subespacios vectoriales de /
3×3
(1) :
a) Las matrices diagonales.
b) Las matrices triangulares superiores.
c) Las matrices triangulares inferiores.
d) Las matrices sim´etricas.
e) Las matrices antisim´etricas.
5.4.4. Siendo ¦e
1
, e
2
, , e
n
¦ una base de R
n
, demostrar que los vectores:
u
1
= e
1
, u
2
= e
1
+e
2
, , u
n−1
= e
1
+e
2
+ +e
n−1
, u
n
= e
1
+e
2
+ +e
n
son otra base de R
n
.
Adem´ as de ser una base un sistema generador m´ınimo, (por ser un sistema independiente), permite
la definici´on de coordenadas que asocia a cada vector un conjunto de n´ umeros e identifica el espacio
vectorial con un producto cartesiano del cuerpo K por s´ı mismo un determinado n´ umero de veces.
Definici´on 9: Se llaman coordenadas de un vector en una base a los coeficientes que hay que
poner a los vectores de dicha base para obtener una combinaci´ on lineal que d´e el vector dado.
Teorema 1: Las coordenadas est´ an bien definidas. (Son ´ unicas para un vector fijo en una base
fija).
Demostraci´ on:
Sean ¦x
1
, x
2
, ..., x
n
¦ y ¦x

1
, x

2
, ..., x

n
¦ dos conjuntos de coordenadas de un vector x respecto a una
base ¦e
1
, e
2
, ..., e
n
¦ de V. Entonces,
x
1
e
1
+x
2
e
2
+... +x
n
e
n
= x = x

1
e
1
+x

2
e
2
+... +x

n
e
n
de donde
(x
1
−x

1
)e
1
+ (x
2
−x

2
)e
2
+... + (x
n
−x

n
)e
n
= 0
Como los vectores e
i
son independientes, los coeficientes x
i
−x

i
han de ser nulos. Entonces x
i
= x

i
para todo i.
142
Observemos que si el sistema generador de un subespacio vectorial no es una base, los coeficientes
que podemos poner a los vectores del sistema generador para obtener un vector dado no son ´ unicos.
En /¦(1, 0, 0)(0, 1, 0)(1, 1, 0)¦ podemos escribir:
(2, 1, 0) = 2(1, 0, 0) + 1(0, 1, 0) + 0(1, 1, 0) ´o (2, 1, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 1(1, 1, 0)
Y no siempre le corresponder´ıan al vector cero las coordenadas (0, 0, 0) ya que tambi´en se tendr´ıa
(0, 0, 0) = −1(1, 0, 0) −1(0, 1, 0) + 1(1, 1, 0)
Por ello, las coordenadas de un vector en un sistema generador que no sea base no est´ an bien
definidas. Sin embargo, dada una base de n elementos en un espacio vectorial, cada vector del espacio
queda determinado por los n n´ umeros que son sus coordenadas en esa base.
Ejercicios:
5.5.1. Hallar las coordenadas del vector (3, 2, −1, 0) de R
4
en la base de R
4
dada en el ejercicio
5.4.2 b).
5.5.2. Hallar las coordenadas de los vectores (n, n−1, , 2, 1) y (1, 2, , n−1, n) de R
n
, en la
base ¦u
1
, u
2
, ...u
n
¦ dada en el ejercicio 5.4.4 cuando ¦e
1
, e
2
, ...e
n
¦ es la base can´ onica de R
n
.
5.5.3. Hallar las coordenadas de
_
1 1
1 1
_
en la base
__
1 0
1 1
_
,
_
0 1
1 1
_
,
_
1 1
1 2
_
,
_
0 1
1 0
__
⊂ /
2×2
(1)
5.5.4. Hallar las coordenadas de 1 +x +x
2
en la base 1, x −1, (x −1)
2
.
143
Veremos c´ ual es la relaci´on entre las coordenadas de un vector en bases distintas pero antes
demostraremos una serie de resultados encaminados a demostrar que si un espacio vectorial tiene
una base con n elementos, cualquier otra base tiene tambi´en n elementos.
Proposici´on 6: Todo conjunto formado por n vectores independientes de R
n
forma una base de
R
n
.
Demostraci´ on:
Sea ¦v
1
, v
2
, v
3
, , v
n
¦ un conjunto formado por n vectores independientes. Entonces la expresi´on:
λ
1
v
1

2
v
2
+... +λ
n
v
n
= 0 s´olo se cumple cuando todos los coeficientes λ
i
son nulos.
Si v
1
= (v
11
, v
12
, ..., v
1n
), v
2
= (v
21
, v
22
, ..., v
2n
), v
n
= (v
n1
, v
n2
, ..., v
nn
) (todos elementos
de R
n
), el vector λ
1
v
1

2
v
2
+... +λ
n
v
n
es:

1
v
11

2
v
21
+... +λ
n
v
n1
, λ
1
v
12

2
v
22
+... +λ
n
v
n2
, , λ
1
v
1n

2
v
2n
+... +λ
n
v
nn
).
Si los vectores dados son independientes, estos n´ umeros son todos a la vez nulos s´ olo si los λ
i
son
nulos, es decir si el sistema lineal homog´eneo:
λ
1
v
11

2
v
21
+... +λ
n
v
n1
= 0
λ
1
v
12

2
v
22
+... +λ
n
v
n2
= 0
= 0
λ
1
v
1n

2
v
2n
+... +λ
n
v
nn
= 0
_
¸
¸
_
¸
¸
_
s´ olo tiene la soluci´on trivial.
Esto es cierto si y s´ olo si
det
_
_
_
_
v
11
v
21
v
n1
v
12
v
22
v
n2

v
1n
v
2n
v
nn
_
_
_
_
,= 0
Veremos que esta condici´ on es suficiente para demostrar que los vectores dados son un sistema
generador, es decir, que / ¦v
1
, v
2
, ...v
n
¦ = R
n
En efecto, dado cualquier vector: (x
1
, x
2
, ...x
n
) de R
n
, el sistema lineal
λ
1
v
11

2
v
21
+... +λ
n
v
n1
= x
1
λ
1
v
12

2
v
22
+... +λ
n
v
n2
= x
2

λ
1
v
1n

2
v
2n
+... +λ
n
v
nn
= x
n
_
¸
¸
_
¸
¸
_
tiene soluci´on por el Teorema de Rouch´e Frobenius, ya que al ser el determinante de la matriz de sus
coeficientes (el anterior determinante) distinto de cero, el rango de la matriz de los coeficientes del
sistema es igual al rango de la matriz ampliada.
144
Cogiendo las soluciones encontradas para los valores de λ
i
en la expresi´ on: λ
1
v
1
+ λ
2
v
2
+ ... +
λ
n
v
n
, obtenemos el vector dado (x
1
, x
2
, ...x
n
). Esto nos dice que cualquier vector de R
n
es una
combinaci´ on lineal de los vectores dados, por tanto, formaban un sistema generador. Como tambi´en
eran independientes, forman un sistema generador independiente, es decir, una base de R
n
.
El procedimiento seguido en esta demostraci´on establece tambi´en que:
n n-uplas de R
n
son una base de R
n
si y s´olo si el determinante de la matriz cuyas columnas
(o filas)son las n-uplas dadas es distinto de cero.
Ejercicios:
5.6.1. Encontrar los valores de a para los que los vectores ¦(a, 0, 1), (0, 1, 1), (2, −1, a)¦ formen
una base de R
3
.
5.6.2. Dados dos vectores a = (a
1
, a
2
, a
3
), b = (b
1
, b
2
, b
3
) de R
3
, se define el producto vectorial
a b como el vector simb´olicamente expresado por
¸
¸
¸
¸
¸
¸
i j k
a
1
a
2
a
3
b
1
b
2
b
3
¸
¸
¸
¸
¸
¸


¸
¸
¸
a
2
a
3
b
2
b
3
¸
¸
¸
¸
, −
¸
¸
¸
¸
a
1
a
3
b
1
b
3
¸
¸
¸
¸
,
¸
¸
¸
¸
a
1
a
2
b
1
b
2
¸
¸
¸
¸
_
Demostrar que si los vectores a y b son independientes, los vectores ¦a, b, a b¦ son una base de
R
3
.
5.6.3. Hallar los n´ umeros complejos z para los cuales los vectores:
¦(z +i, 1, i), (0, z + 1, z), (0, i, z −1)¦
no forman base considerados como vectores del espacio vectorial complejo C
3
.
5.6.4. Los vectores ¦(z, 1, 0), (−1, z, 1), (0, −1, z)¦ ⊂ R
3
, pueden considerarse contenidos en R
3
´ o
en C
3
, seg´ un se permita a z variar en R ´ o en C. A´ un consider´ andose contenidos en C
3
, puede darse
a ´este conjunto estructura de espacio vectorial real y estructura de espacio vectorial complejo. Hallar
los valores de z que los hacen dependientes en cada uno de los tres casos.
145
Se puede generalizar la proposici´ on 6 a la siguiente proposici´on 7: Todo conjunto formado por
n vectores independientes de un espacio vectorial que tenga una base de n elementos forma una base
de dicho espacio.
Proposici´on 8:
Si un espacio vectorial V
K
tiene una base con n vectores, cualquier conjunto con m´as de n vectores
es dependiente.
Demostraci´ on:
Sean ¦e
1
, e
2
, ..., e
n
¦ una base de V y ¦v
1
, v
2
, ..., v
m
¦ un conjunto de vectores, donde m > n.
Expresemos los vectores por sus coordenadas en la base dada:
v
1
= (v
11
, v
12
, ..., v
1n
)
v
2
= (v
21
, v
22
, ..., v
2n
)

v
m
= (v
m1
, v
m2
, ..., v
mn
)
Las coordenadas de una combinaci´ on lineal de estos vectores: λ
1
v
1

2
v
2
+... +λ
m
v
m
son:
λ
1
v
11

2
v
21
+... +λ
m
v
m1
λ
1
v
12

2
v
22
+... +λ
m
v
m2

λ
1
v
1n

2
v
2n
+... +λ
m
v
mn
La combinaci´ on lineal es nula si y s´ olo si sus coordenadas son nulas. El sistema lineal homog´eneo:
λ
1
v
11

2
v
21
+... +λ
m
v
m1
= 0
λ
1
v
12

2
v
22
+... +λ
m
v
m2
= 0

λ
1
v
1n

2
v
2n
+... +λ
m
v
mn
= 0
_
¸
¸
_
¸
¸
_
tiene por el teorema de Rouch´e-Frobenius, soluciones no nulas para todas las λ
i
ya que como m > n,
hay m´as inc´ognitas que ecuaciones y por tanto el rango de la matriz de los coeficientes es menor que
el n´ umero de inc´ognitas. Estas soluciones pemiten poner el vector nulo como combinaci´on lineal de
los vectores dados con coeficientes no todos nulos, por tanto los vectores dados son dependientes.
Con esta proposici´ on llegamos al importante
146
Teorema de la Base.
Si un espacio vectorial tiene una base con n vectores, cualquier otra base tiene el mismo n´ umero
de vectores.
Demostraci´ on: Sea ¦e
1
, e
2
, ...e
n
¦ una base de V. Sea ¦e

1
, e

2
, ...e

m
¦ otra base de V.
Si m > n, seg´ un la proposici´on anterior, los vectores ¦e

1
, e

2
, ...e

m
¦ ser´ıan dependientes y no
podr´ıan formar base.
Si m < n, tomando ¦e

1
, e

2
, ...e

m
¦ como base de partida de V, tendr´ıamos, tambi´en, seg´ un la
proposici´ on anterior, que los vectores ¦e
1
, e
2
, ...e
n
¦ ser´ıan dependientes y no podr´ıan formar base.
Luego m = n.
Se llama dimensi´on del espacio vectorial al n´ umero de vectores de una base. (Un espacio
vectorial de dimensi´ on finita es un espacio vectorial que admite una base de n vectores para alg´ un
n ∈ N.) El Teorema de la Base demostrado garantiza que la dimensi´ on del espacio vectorial es
independiente de la base considerada, cuando el espacio es de dimensi´ on finita.
Una aplicaci´ on del concepto de dimensi´ on nos sirve para distinguir el espacio vectorial formado
por los complejos sobre el cuerpo complejo del espacio vectorial formado por los complejos sobre el
cuerpo real: v´ease el siguiente ejercicio:
5.7.1. Comprobar que una base de C considerado como espacio vectorial sobre C est´ a formada
por ¦1¦, pero una base de C considerado como espacio vectorial sobre R es ¦1, i¦. Estos dos espacios
vectoriales tienen distinta dimensi´on.
Tambi´en se deduce de la proposici´ on 8 que n vectores independientes de un espacio vectorial con
una base de n elementos son otra base, pues cualquier otro vector a˜ nadido a los dados es dependiente
de ellos, siendo por tanto el conjunto dado de vectores independientes un sistema generador del
espacio vectorial.
Dado que las bases contienen un menor n´ umero de elementos, hacen los c´alculos m´ as cortos y
por eso en el trabajo con espacios vectoriales son ´ utiles las dos proposiciones siguientes:
Proposici´on 9: De todo sistema generador finito de un espacio vectorial se puede extraer una
base.
Si el sistema generador no es una base es porque no es linealmente independiente y existe alg´ un
vector que depende linealmente del resto. Por la proposici´ on 4, el espacio de combinaciones lineales
del sistema generador coincide con el espacio de combinaciones lineales del conjunto de vectores que
queda al extraer del sistema generador el vector dependiente. Podemos repetir el proceso mientras el
sistema generador sea dependiente hasta que se haga independiente (porque es finito). En el primer
momento en que el conjunto de vectores no extraidos sea independiente ser´a tambi´en una base del
espacio porque sigue siendo un sistema generador.
147
Proposici´on 10: Todo sistema independiente de un espacio vectorial de dimensi´ on finita se
puede completar a una base.
Sea n la dimensi´on de V y ¦v
1
, v
2
, ..., v
r
¦ un sistema de vectores independientes de V .
Por la proposici´ on 8 no puede ser r > n.
Si /¦v
1
, v
2
, ..., v
r
¦ = V , ¦v
1
, v
2
, ..., v
r
¦ son tambi´en un sistema generador de V y por tanto son ya
una base de V . Entonces, por el teorema de la base, r = n.
Si /¦v
1
, v
2
, ..., v
r
¦ , = V , debe ser r < n y existir un vector w ∈ V − /¦v
1
, v
2
, ..., v
r
¦, que es
linealmente independiente de los dados. Llamemos v
r+1
= w y a˜ nad´ amoslo a los vectores dados. El
conjunto ¦v
1
, v
2
, ..., v
r
, v
r+1
¦ es un conjunto de vectores independiente, que ser´a una base de V si
/¦v
1
, v
2
, ..., v
r
, v
r+1
¦ = V , en cuyo caso r + 1 = n y ya hemos completado el conjunto de vectores
dado a una base. Si r + 1 < n, repetimos el proceso anterior para a˜ nadir un v
r+2
independiente
de los anteriores y hasta un v
n
independiente de los anteriormente a˜ nadidos y en ese momento, el
sistema independiente es un sistema generador por la proposici´ on 8, habiendo completado el sistema
independiente dado a una base de V .
El m´etodo para llevar a cabo los hechos de las dos proposiciones anteriores en casos concre-
tos se ver´a como aplicaci´on de la relaci´ on entre el rango de una matriz y el n´ umero de sus filas
independientes, m´ as adelante.
Corolario 3: Dos subespacios vectoriales S
1
y S
2
son iguales si y s´ olo si S
1
⊂ S
2
y dimS
1
=
dimS
2
. (S
1
y S
2
son intercambiables).
Este corolario es cierto porque si S
1
⊂ S
2
, una base de S
1
puede completarse a una base de S
2
,
pero al ser dimS
1
= dimS
2
, no podemos a˜ nadir ning´ un vector porque todas las bases tienen el mismo
n´ umero de elementos, lo cual implica que la base de S
1
es ya una base de S
2
, y por tanto, S
1
= S
2
.
Teorema 2: La dimensi´on del subespacio de soluciones de un sistema homog´eneo de ecuaciones
lineales es igual al n´ umero de inc´ognitas menos el rango de la matriz de los coeficientes de las
inc´ ognitas.
Como es m´as f´acil comprobar este teorema en un ejemplo y visto el ejemplo, el teorema resulta ob-
vio, a´ un sabiendo que un ejemplo no es una demostraci´ on, vamos a hallar la dimensi´ on del subespacio
de soluciones del sistema siguiente:
3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
3x
1
+2x
2
+2x
3
+3x
4
= 0
6x
1
+4x
2
+x
3
−3x
5
= 0
_
_
_
Una forma sistem´atica de resolver un sistema homog´eneo de ecuaciones lineales, que se puede
escribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por opera-
148
ciones elementales y pasar en las ecuaciones de Ex=0, las inc´ ognitas de las columnas que no dan
escal´ on al segundo miembro.
Como hicimos en el cap´ıtulo del m´etodo de Gauss:
3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
x
3
+2x
4
+x
5
= 0
−x
3
−2x
4
−x
5
= 0
_
_
_

3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
x
3
+2x
4
+x
5
= 0
_
Pasamos al segundo miembro las inc´ ognitas x
2
x
4
y x
5
:
3x
1
+x
3
= −2x
2
−x
4
+x
5
x
3
= −2x
4
−x
5
_
Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´ ognitas del primer miembro van dismi-
nuyendo de una en una, apareciendo s´olo una inc´ognita despejada en el primer miembro en la ´ ultima
ecuaci´ on. Sustituyendo esta inc´ognita en la ecuaci´ on anterior, podemos despejar otra inc´ ognita m´as
y seguir as´ı despejando hasta agotar las inc´ ognitas de los primeros miembros.
En este ejemplo, sustituyendo el valor de x
3
dado por la segunda ecuaci´ on en la primera ecuaci´ on
tenemos: 3x
1
= −2x
2
+x
4
+ 2x
5
,.
Podemos considerar todas las inc´ ognitas como funciones lineales de las variables pasadas al se-
gundo miembro, a˜ nadiendo x
i
= x
i
para estas ´ ultimas variables.
En este ejemplo, a˜ nadiendo x
2
= x
2
, x
4
= x
4
, x
5
= x
5
, obtenemos las condiciones:
x
1
= −
2
3
x
2
+
1
3
x
4
+
2
3
x
5
x
2
= x
2
x
3
= −2x
4
−x
5
x
4
= x
4
x
5
= x
5
Una soluci´on cualquiera es una 5-upla de valores, donde las inc´ ognitas pasadas al segundo miembro
pueden variar arbitrariamente y las inc´ognitas del primer miembro est´ an sujetas a las condiciones
despejadas. Que expresamos por:
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
_
_
_
_
_
_
= x
2
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_
+x
4
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_
+x
5
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
Haciendo ahora x
2
= λ
1
, x
4
= λ
2
, x
5
= λ
3
se escribe:
149
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
_
_
_
_
_
_
= λ
1
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_

2
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_

3
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
El subespacio de soluciones del sistema es el subespacio de las combinaciones lineales de los tres
vectores columna del segundo miembro.
En este caso, ninguno de los vectores columna anteriores del segundo miembro de la igualdad es
superfluo a la hora de dar las combinaciones lineales soluciones. En nuestro caso, para comprobar
que son independientes, mirar´ıamos si una combinaci´ on lineal de los vectores igual a cero es posible
con coeficientes λ
i
distintos de cero. Tendr´ıa que ser:
_
_
_
_
_
_
0
0
0
0
0
_
_
_
_
_
_
= λ
1
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_

2
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_

3
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
Considerando la segunda, la cuarta y la quinta filas, tenemos: 0 = λ
1
, 0 = λ
2
, 0 = λ
3
, lo que
implica que los vectores columna escritos son independientes. La dimensi´on del espacio de soluciones
de este sistema es 5 −2 = 3, (n
o
de inc´ognitas menos rango de la matriz de los coeficientes).
Para demostrar el teorema 2 en forma general, tenemos en cuenta que la forma sistem´ atica por el
M´etodo de Gauss, de resolver un sistema homog´eneo de ecuaciones lineales, escrito en forma matricial
por Ax=0, es reducir la matriz A a una matriz escalonada E por operaciones elementales y pasar
en las ecuaciones de Ex=0, las inc´ ognitas de las columnas que no dan escal´ on al segundo miembro.
Se despejan las inc´ ognitas que dan escal´ on en funci´on de las que no lo dan y si n es el n´ umero de
inc´ ognitas, las soluciones son las n-uplas de n´ umeros que se pueden escribir seg´ un las expresiones
obtenidas al despejar, donde var´ıan arbitrariamente las inc´ ognitas del segundo miembro. Poniendo
las n-uplas soluciones en columna ordenada y desglosando sus expresiones seg´ un las inc´ ognitas varia-
bles, (que se pueden sustituir por param´etros), aparecen las soluciones como combinaciones lineales
de tantas columnas como inc´ognitas variables. Estas columnas son un sistema de generadores del
conjunto de soluciones del sistema.
Los vectores generadores as´ı obtenidos tienen el n´ umero 1 en el sitio correspondiente a dicha
coordenada y el n´ umero 0 en el sitio correspondiente a las otras coordenadas pasadas al segundo
miembro. Por esta condici´on son independientes.
150
El n´ umero de inc´ ognitas que dan escal´on es igual al n´ umero de escalones de E, igual a su vez
al rango de la matriz de los coeficientes del sistema, (en t´erminos de determinantes), por tanto, se
pasan al segundo miembro un n´ umero de inc´ognitas igual al n´ umero total de ellas menos el rango de
la matriz de los coeficientes. Por ello, la dimensi´on del conjunto de soluciones del sistema es n
o
de
inc´ ognitas menos rango de la matriz de los coeficientes.
Ejercicios:
5.8.1. Encontrar bases de los siguientes subespacios:
x
1
+x
3
+2x
4
= 0
x
1
−x
3
= 0
_
⊂ R
4
x
1
+x
2
+x
3
+x
4
+x
5
= 0
x
1
−x
2
+x
3
−x
4
+x
5
= 0
_
⊂ R
5
3x
1
−x
2
+3x
3
−x
4
+3x
5
= 0
3x
1
+x
2
+3x
3
+x
4
+3x
5
= 0
_
⊂ R
5
5.8.2. Encontrar una base del subespacio S ⊂ /
2×2
(R) definido por
S =
__
a b
c d

¸
¸
¸
2a +b −c +d = 0
a +b +c −d = 0
_
5.8.3. Encontrar una base del espacio vectorial de los polinomios de grado menor o igual que tres
divisibles por x −1.
151
Corolario 4: Dos subespacios vectoriales S
1
y S
2
dados respectivamente por las ecuaciones
matriciales A
1
x = 0 y A
2
x = 0 son iguales si y s´ olo si el rango de A
1
es igual al rango de A
2
y
S
1
⊂ S
2
. (S
1
y S
2
son intercambiables).
Se pueden utilizar estos corolarios para averiguar si los conjuntos de soluciones de sistemas ho-
mog´eneos distintos son coincidentes.
Corolario 5: En el conjunto de ecuaciones Ax = 0 de un subespacio vectorial, podemos suprimir
las ecuaciones tales que al suprimir de A las filas de coeficientes correspondientes a tales ecuaciones,
queda una matriz del mismo rango que A.
Ejercicios:
5.9.1. Comprobar que el subespacio de R
4
engendrado por ¦(1, 0, 1, −1), (1, −1, 1, −1)¦ coincide
con el espacio de soluciones del sistema:
x
1
+x
3
+2x
4
= 0
x
1
−x
3
= 0
_
⊂ R
4
.
5.9.2. Comprobar que los subespacios S
1
y S
2
de R
5
cuyas ecuaciones son los sistemas:
x
1
+x
2
+x
3
+x
4
+x
5
= 0
x
1
−x
2
+x
3
−x
4
+x
5
= 0
_
(1)
3x
1
−x
2
+3x
3
−x
4
+3x
5
= 0
3x
1
+x
2
+3x
3
+x
4
+3x
5
= 0
_
(2)
son iguales.
5.9.3. Dos subespacios vectoriales S
1
y S
2
dados respectivamente por las ecuaciones matriciales
A
1
x = 0 y A
2
x = 0 son iguales si y s´olo si
r
_
A
1
A
2
_
= r(A
1
) = r(A
2
).
(S
1
y S
2
son intercambiables).
152
Cambio de base.
Veremos aqu´ı cu´al es la relaci´ on entre las coordenadas de un vector en dos bases distintas.
Sean B = ¦e
1
, e
2
, ...e
n
¦, B

= ¦e

1
, e

2
, ...e

n
¦ dos bases de un espacio vectorial de dimensi´ on n.
Sean (x
1
, x
2
, ...x
n
), (x

1
, x

2
, ...x

n
) las coordenadas respectivas de un vector x en ambas bases.
Entonces, x
1
e
1
+x
2
e
2
+ +x
n
e
n
= x = x

1
e

1
+x

2
e

2
+ +x

n
e

n
, lo que tambi´en se puede escribir:
_
e
1
e
2
... e
n
_
_
_
_
_
x
1
x
2
...
x
n
_
_
_
_
= x = (e

1
, e

2
, ...e

n
)
_
_
_
_
x

1
x

2
...
x

n
_
_
_
_
Sean
e

1
= a
11
e
1
+a
21
e
2
+... +a
n1
e
n
e

2
= a
12
e
1
+a
22
e
2
+... +a
n2
e
n

e

n
= a
1n
e
1
+a
2n
e
2
+... +a
nn
e
n
los vectores de la nueva base expresados en la antigua. Tambi´en los podemos escribir globalmente
as´ı:
_
e

1
e

2
... e

n
_
=
_
e
1
e
2
... e
n
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
,
sustituyendo la expresi´on anterior de los ¦e

¦ en la expresi´ on de x, tenemos:
x =
_
e
1
e
2
... e
n
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
x

1
x

2
...
x

n
_
_
_
_
que comparada con
x =
_
e
1
e
2
... e
n
_
_
_
_
_
x
1
x
2
...
x
n
_
_
_
_
,
ya que las coordenadas de un vector en una base fija son ´ unicas, da:
153
_
_
_
_
x
1
x
2
...
x
n
_
_
_
_
=
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
x

1
x

2
...
x

n
_
_
_
_
Expresi´ on de la relaci´on entre las coordenadas en las dos bases.
Observemos que las columnas de esta matriz son las coordenadas de cada uno de los vectores de
la nueva base expresados en la antigua.
Ejercicios:
5.10.1. Hallar las matrices de cambio de base en R
4
a) de la base dada en el ejercicio 5.4.2. b) a la base can´ onica.
b) de la base can´onica a la base dada en el ejercicio 5.4.2. b)
5.10.2. Siendo ¦v
1
, v
2
, v
3
, v
4
¦ = ¦(1, 1, 0, 0), (0, 1, 0, −1), (0, 1, 1, 0), (0, 0, 0, 1)¦
y ¦w
1
, w
2
, w
3
, w
4
¦ = ¦(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)¦, hallar:
a) Las coordenadas del vector 3w
1
+ 2w
2
+w
3
−w
4
en la base ¦v
1
, v
2
, v
3
, v
4
¦.
b) Las coordenadas del vector 3v
1
−v
3
+ 2v
2
en la base ¦w
1
, w
2
, w
3
, w
4
¦.
5.10.3. Escribir las matrices de cambio de base en R
4
entre las dos bases del ejercicio 5.10.2 y
comprobar los resultados de ese ejercicio.
5.10.4.
a) Hallar las matrices de cambio de base en /
2×2
(R) entre las siguientes bases:
__
1 0
0 1
_
,
_
1 1
0 0
_
,
_
0 1
1 0
_
,
_
1 0
0 0
__
y
__
−1 0
1 1
_
,
_
0 −1
1 1
_
,
_
1 1
0 −1
_
,
_
1 1
−1 0
__
b) Hallar las coordenadas de la matriz
_
1 1
1 1
_
directamente en las dos bases anteriores y comprobar que est´ an relacionadas por las matrices de
cambio de base.
5.10.5. Escribir las matrices de cambio de base en el espacio de los polinomios de grado menor o
igual que 3 con coeficientes reales entre las bases ¦1, x−1, (x−1)
2
, (x−1)
3
¦ y ¦1, x+1, (x+1)
2
, (x+1)
3
¦.
Hallar las coordenadas del polinomio 1 +x +x
2
+x
3
directamente en las dos bases y comprobar
que est´an relacionadas por las matrices de cambio de base.
154
APLICACIONES DEL CONCEPTO DE DIMENSION A PROCESOS CONCRETOS.
Independencia del n´ umero de escalones obtenidos escalonando una matriz.
Queremos aqu´ı mostrar, sin usar determinantes, que el n´ umero de escalones de la matriz escalona-
da E obtenida escalonando una matriz dada A es independiente del itinerario seguido para escalonarla
(de las operaciones elementales utilizadas y del orden de ´estas).
Primero demostramos que las filas no nulas de una matriz escalonada con elementos de un cuerpo
K, consideradas como elementos de K
n
son independientes:
Sea
E =
_
_
_
_
e
11
e
12
e
1n
e
21
e
22
e
2n

e
m1
e
m2
e
mn
_
_
_
_
una matriz escalonada.
Sea
λ
1
(e
11
, e
12
, , e
1n
)+λ
2
(e
21
, e
22
, , e
2n
)+ +λ
i
(e
i1
, e
i2
, , e
in
)+λ
r
(e
r1
, e
r2
, , e
rn
) = (0, 0, , 0)
una conbinaci´ on lineal nula de sus filas
Recordemos que por ser la matriz escalonada, si e
1k
es el primer n´ umero distinto de cero de la
primera fila e
ik
= 0 para i > 1. Entonces, la k-´esima coordenada de la anterior combinaci´on lineal
se reduce a λ
1
e
1k
, pero si esta combinaci´on lineal es nula, λ
1
e
1k
= 0. Como e
1k
,= 0 y pertenece a un
cuerpo, existe e
−1
1k
y entonces tenemos λ
1
= (λ
1
e
1k
)e
−1
1k
= 0.
Sea ahora e
2l
el primer n´ umero no nulo de la segunda fila. Entonces, e
il
= 0 para i > 2. Como
λ
1
= 0, la l-´esima coordenada de la combinaci´on lineal escrita es λ
2
e
2l
, pero como la combinaci´ on
lineal es nula, λ
2
e
2l
= 0 y concluimos que λ
2
= 0, lo mismo que en el caso anterior.
Vamos considerando las filas sucesivamente en orden creciente y llegamos a la conclusi´on de
que todas las λ
j
son nulas ya que lo son las λ
i
anteriores, y en cada fila no nula hay una primera
coordenada no nula tal que las coordenadas en ese lugar de las filas sucesivas son nulas. Por tanto,
las filas no nulas de la matriz escalonada son independientes.
Ahora, dada una matriz A
m×n
, llamamos ¦v
i
¦
i≤m
⊂ K
n
a los vectores que tienen por coordenadas
los elementos de las filas de la matriz A y llamamos espacio fila de A: (F(A)) al subespacio de K
n
engendrado por los vectores ¦v
i
¦
i≤m
.
155
El n´ umero de escalones de la matriz escalonada E(A) obtenida de A es igual al n´ umero de sus
filas no nulas. Veamos que este n´ umero (el de filas no nulas de la matriz escalonada al que queda
reducida A) es la dimensi´on del subespacio vectorial F(A). Cuando lo hayamos visto, tendrenos que
los distintos n´ umeros de filas no nulas de distintas matrices escalonadas obtenidas de A son todos
iguales, por ser iguales a la dimensi´ on de F(A).
Para ello, primero, se puede comprobar que en cada operaci´ on elemental realizada en la matriz A
para hacerla escalonada, sus vectores filas se transforman en otros vectores que dependen linealmente
de los anteriores, por lo que el subespacio de las combinaciones lineales de los vectores filas de la matriz
obtenida est´ a contenido en el subespacio fila de la matriz de la que proven´ıa y al final F(E(A)) ⊂
F(A). Como las operaciones elementales tienen como inversas, otras operaciones elementales; al
volver hacia atr´ as desde E(A) a A, en cada operaci´ on elemental ocurre lo mismo: el subespacio
engendrado por los vectores filas est´ a contenido en el anterior, por lo que F(A) ⊂ F(E(A))), luego
F(A) = F(E(A))).
Despu´es, sean ¦e
i
= (e
i1
, e
i2
....e
in
) i ≤ m¦, las filas de E(A) y ¦e
i
= (e
i1
, e
i2
....e
in
) i ≤ r¦ las filas no
nulas de E(A); por lo anterior, F(A) = /¦v
1
, v
2
, ..., v
i
, ...v
m
¦ =/ ¦e
1
, e
2
, ..., e
i
, ...e
m
¦ =/¦e
1
, e
2
, ..., e
i
, ...e
r
¦
ya que podemos prescindir de las filas nulas.
Como los vectores filas no nulas de E(A) son independientes y forman un sistema generador del
subespacio /¦e
1
, e
2
, ..., e
i
, ...e
r
¦ = /¦v
1
, v
2
, ..., v
i
, ..., v
m
¦, son una base de este subespacio.
Cualquiera que sea la forma en que escalonamos la matriz A, el n´ umero de filas no nulas (y, por
tanto, el n´ umero de escalones) coincide con la dimensi´on del subespacio F(A).
Dicho de otra manera, si escalonando de otra forma, obtenemos que /¦e

1
, e

2
, ..., e

i
, ...e

r
¦ =
/¦v
1
, v
2
, ..., v
i
, ..., v
m
¦, como ¦e
1
, e
2
, ..., e
i
, ...e
r
¦ y ¦e

1
, e

2
, ..., e

i
, ...e

r
¦ son dos bases del mismo sub-
espacio vectorial, han de tener el mismo n´ umero de elementos, luego r = r

.
En el transcurso de esta demostraci´ on hemos hallado una base del subespacio vectorial engen-
drado por las filas de una matriz. Por tanto, si nos dan un subespacio vectorial por una familia de
generadores, una manera de obtener una base de ese subespacio es escribir la matriz formada por las
coordenadas de esos vectores en filas y escalonarla y los vectores correspondientes a las filas no nulas
de la matriz escalonada obtenida, son una base del subespacio dado.
Si queremos que la base sea un subconjunto del conjunto de generadores dado, seguimos el
siguiente procedimiento:
Extracci´ on de la base a partir de un sistema generador.
Se deduce de lo visto en la proposici´on 9 que para extraer una base de un sistema generador hay
que ir eliminando los vectores que dependan de los dem´ as. Esto, a veces, puede hacerse a simple
156
vista, pero, en general, no. Veremos c´omo escoger un sistema generador independiente utilizando
el rango de la matriz que tiene por filas las coordenadas de los vectores generadores en una base
prefijada.
El n´ umero de vectores que tenemos que escoger es igual a la dimensi´ on del subespacio considerado.
Sea S = /¦v
1
, v
2
, ..., v
i
, ...v
m
¦ donde cada v
i
= (v
i1
, v
i2
....v
in
) est´ a expresado en una base prefijada
del espacio total. Llamamos A a la matriz que tiene por filas las coordenadas de cada v
i
y la reducimos
a su forma escalonada a la que llamamos E(A). Sabemos (por el procedimiento de la demostraci´ on
del teorema de Rouch´e-Frobenius) que el n´ umero de filas no nulas de una matriz escalonada E(A) a
la que A se reduzca es igual al m´aximo de los ´ ordenes de los menores distintos de cero de A, al que
vamos a llamar r. Hemos visto que este n´ umero (el de filas no nulas de la matriz escalonada E(A))
es la dimensi´ on del subespacio vectorial engendrado por los vectores ¦v
i
¦
i≤m
. Luego es r, el n´ umero
de vectores independientes que tenemos que escoger.
Tenemos que decidir ahora cu´ ales pueden ser esos r vectores. Por la definici´ on de rango, podemos
escoger en A un menor de orden r distinto de cero; consideramos la submatriz formada por las r
filas de las dadas que intersecan con este menor distinto de cero. El rango de esta submatriz es r,
por lo que el subespacio engendrado por esas filas es de dimensi´ on r. Como este subespacio est´ a
contenido en el dado y es de su misma dimensi´ on, coincide con el dado y podemos escoger las r filas
correspondientes a la submatriz considerada para formar una base del subespacio dado.
Ejercicios:
5.11.1. Calcular la dimensi´on y extraer una base del subespacio de R
5
engendrado por
¦(1, 0, 1, 0, 1), (0, 1, 1, 0, 1), (1, 1, 3, 1, 1), (0, 0, 1, 1, 1), (0, −1, 1, 2, 1)¦
5.11.2. Encontrar una base de R
4
que contenga a los vectores ¦(0, 0, 1, 1), (1, 1, 0, 0)¦
5.11.3. Calc´ ulese seg´ un los valores de α, β, γ la dimensi´on del espacio vectorial:
S = /¦(1, 1, 0), (2, 1, α), (3, 0, β), (1, γ, 1)¦
5.11.4. Dado el subespacio vectorial de las matrices cuadradas 2 2 engendrado por
__
1 0
0 1
_
,
_
0 1
1 0
_
,
_
1 1
1 1
_
,
_
1 −1
−1 1
__
extraer una base del subespacio considerado, de este sistema de generadores.
5.11.5. Dado el subespacio vectorial de los polinomios de grado 3 engendrado por los vectores:
¦x
2
−1, x
2
+ 1, x
3
+ 4, x
3
¦ extraer una base de este sistema de generadores.
157
Tambi´en, del procedimiento anterior se deduce que el rango de una matriz A es igual al n´ umero
de sus filas independientes, ya que siempre se puede extender un sistema independiente de vectores
a una base de F(A) y un n´ umero de vectores superior al de la dimensi´on del subespacio F(A) es
dependiente.
Y como el rango de A, como m´ aximo de los ´ ordenes de los menores distintos de cero de A, es
igual al rango de su traspuesta, este rango es igual al n´ umero de filas independientes de
t
A, es decir,
al n´ umero de columnas de A.
Aplicaci´ on del rango a la obtenci´ on de las ecuaciones cartesianas de un subespacio
dado por sus generadores.
Para simplificar los c´alculos, se obtiene primero una base del subespacio dado. Una vez obtenida
una base del subespacio vectorial dado por sus generadores, la condici´ on necesaria y suficiente para
que un vector (x
1
, x
2
, ..., x
n
) sea del subespacio es que dependa linealmente de los vectores de la base,
es decir, que el rango de la matriz que tiene por filas las componentes de los vectores de la base sea
igual al rango de esta matriz aumentada con la fila (x
1
, x
2
, ..., x
n
).
Como el rango de la matriz que tiene por filas las coordenadas de los vectores de la base es igual
al n´ umero de estos, (llam´emoslo r), podemos encontrar en ella un menor de orden r distinto de cero.
Agrandamos la matriz formada por las coordenadas de los vectores de la base en filas con la fila
(x
1
, x
2
, ..., x
n
) debajo de las anteriores; completando ahora el menor encontrado de todas las formas
posibles a un menor de orden r+1 en la matriz agrandada con las columnas que no aparecen en
dicho menor, obtenemos n-r expresiones lineales en las coordenadas que han de ser cero para que el
nuevo vector (x
1
, x
2
, ..., x
n
) pertenezca al subespacio. Estas n-r condiciones necesarias son tambi´en
suficientes para que el vector dependa linealmente de los de la base. Para darnos cuenta de ello,
tengamos en cuenta que al ser el determinante de una matriz igual al de su traspuesta, el rango de
la matriz, no s´ olo es el n´ umero de filas independientes, sino el n´ umero de columnas independientes
y que la anulaci´ on de cada una de las expresiones obtenidas indica que cada columna de la matriz
agrandada depende linealmente de las columnas del menor distinto de cero de orden r encontrado.
Por ello aseguran que el n´ umero de columnas independientes de la matriz agrandada es r; y tambi´en el
n´ umero de sus filas, por lo que aseguran que la fila (x
1
, x
2
, ..., x
n
) pertenece al subespacio considerado.
Ninguna de estas ecuaciones es superflua porque considerando la matriz de los coeficientes del
sistema homog´eneo formado por ellas, las n-r columnas formadas por los coeficientes de las inc´ognitas
que no est´ an debajo de las del menor distinto de cero tienen s´ olo un elemento distinto de cero de
valor absoluto igual al del menor distinto de cero, permutado adem´ as de tal forma que dan lugar a
un menor de orden n-r distinto de cero. Conviene comprobarlo con un ejemplo.
As´ı tenemos n-r ecuaciones que son necesarias y suficientes para que un vector (x
1
, x
2
, ..., x
n
)
pertenezca al subespacio.
158
Hay una sola ecuaci´ on cuando la dimensi´ on del subespacio es n −1; estos subespacios se llaman
hiperplanos. El subespacio soluci´ on de un sistema de ecuaciones homog´eneo es una intersecci´ on de
hiperplanos. Y seg´ un hemos visto ahora, los subespacios engendrados por una base de r vectores son
intersecci´ on de n −r hiperplanos.
Ejercicios:
5.12.1. Hallar las ecuaciones cartesianas de los siguientes subespacios de R
4
:
S
1
= /¦(1, 0, 1, 0)(2, 1, 0, −1)(1, −1, 3, 1)¦, S
2
= /¦(3, 1, 0, −1)(1, 1, −1, −1), (7, 1, 2, −1)¦, S
3
=
/¦(0, 2, 5, 0)¦.
5.12.2. Hallar las ecuaciones cartesianas de los siguientes subespacios de R
5
:
S
1
= /¦(1, 0, 1, 0, 1)(0, 1, 1, 0, 1)(1, 1, 3, 1, 1), (0, 0, 1, 1, 1)(0, −1, 1, 2, 1)¦,
S
2
= /¦(1, 0, 1, 0, 0)(2, 1, 0, −1, 1)(2, 0, 1, 0, 0), (3, 1, 0, −1, 1)¦.
159
C´alculo del rango de la matriz A y b´ usqueda del menor distinto de cero de orden
igual al rango.
Seg´ un la definici´on de rango de A como el m´ aximo de los ´ ordenes de los menores distintos de
cero, parece que habr´ıa que calcularlos todos, pero teniendo en cuenta que tambi´en es el n´ umero de
filas independientes de la matriz, no es necesario calcular los determinantes de todas las submatrices
de A, seg´ un el procedimiento que vamos a ver.
Veamos antes un ejemplo: calculemos el rango de la matriz:
_
_
_
_
_
_
0 1 −1 2 1
0 0 1 −3 −2
0 1 −1 −4 −3
0 2 1 −9 −6
0 1 0 −3 −2
_
_
_
_
_
_
Podemos prescindir de la primera columna de ceros, porque siempre que aparezca en un menor,
este menor tiene determinante cero.
Empezamos aqu´ı por el primer 1 de la primera fila y la segunda columna, que da un menor de
orden uno distinto de cero.
Ahora, lo orlamos con elementos de la segunda fila y de la segunda columna para formar un
menor de orden 2.
De esta forma, obtenemos:
det
_
1 −1
0 1
_
= 1 ,= 0
Entonces, el rango de la matriz primitiva es mayor o igual que dos y las filas 1
a
y 2
a
son inde-
pendientes.
Ampliamos este menor con la fila 3
a
y columna 3
a
, obteniendo:
det
_
_
1 −1 2
0 1 −3
1 −1 −4
_
_
= 0
y con la fila 3
a
y con la columna 4
a
obteniendo:
det
_
_
1 −1 1
0 1 −2
1 −1 −3
_
_
= 0
160
Ya que la anulaci´on de estos dos determinantes implica la dependencia lineal de las dos ´ ultimas
columnas de la matriz
_
_
0 1 −1 2 1
0 0 1 −3 −2
0 1 −1 −4 −3
_
_
respecto a las dos primeras, se sigue de la anulaci´ on de estos dos determinantes, la anulaci´ on de
det
_
_
−1 2 1
1 −3 2
−1 −4 −3
_
_
ya que sus tres columnas perteneces a un espacio de dimensi´on 2. Por tanto, no es necesario calcular
este determinante.
Al mismo tiempo, el n´ umero de filas independientes de la matriz
_
_
0 1 −1 2 1
0 0 1 −3 −2
0 1 −1 −4 −3
_
_
es igual a su n´ umero de columnas independientes igual a 2.
Como calcular el rango de la matriz total es calcular el n´ umero de filas independientes, podemos
prescindir de la 3
a
fila en el c´alculo de las filas independientes y no tenemos que calcular ning´ un
determinante de ning´ un menor de orden mayor que 3 en el que aparezcan las tres primeras filas.
Ampliamos ahora el menor de orden 2 distinto de cero obtenido con elementos de la 4
a
fila y 3
a
columna y obtenemos:
det
_
_
1 −1 2
0 1 −3
2 1 −9
_
_
= −4 ,= 0
Entonces, el rango es mayor o igual que 3 y las filas 1
a
, 2
a
y 4
a
son independientes.
Para ver si la ´ ultima fila es independiente de las anteriores, ampliamos el menor de orden 3
obtenido a un menor de orden 4, obteniendo:
det
_
_
_
_
1 −1 2 1
0 1 −3 −2
2 1 −9 −6
1 0 −3 −2
_
_
_
_
= det
_
_
_
_
1 −1 2 1
0 1 −3 −2
0 3 −13 −8
0 1 −5 −3
_
_
_
_
= 0
Ya podemos concluir que el rango de la matriz es tres sin necesidad de calcular m´ as menores.
Podr´ıamos pensar que quiz´ a otra submatriz de orden cuatro con otras filas pudiera tener determinante
161
distinto de cero. Pero lo que se deduce de que el anterior determinante es cero, es que la ´ ultima fila
depende de las otras, luego s´ olo hay tres filas independientes. Entonces, el espacio engendrado por
las filas de la matriz es de dimensi´on 3 y cualesquiera que sean las cuatro filas que escojamos, por la
proposici´ on 8, son dependientes, siendo por tanto el menor formado, nulo y el rango de A no superior
a 3.
Nos hemos ahorrado el c´alculo de los determinantes:
¸
¸
¸
¸
¸
¸
¸
¸
0 1 −3 −2
1 −1 −4 −3
2 1 9 −6
1 0 −3 −2
¸
¸
¸
¸
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
¸
¸
1 −1 2 1
1 −1 −4 −3
2 1 9 −6
1 0 −3 −2
¸
¸
¸
¸
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
¸
¸
1 −1 2 1
0 1 −3 −2
1 −1 −4 −3
1 0 −3 −2
¸
¸
¸
¸
¸
¸
¸
¸
,
¸
¸
¸
¸
¸
¸
¸
¸
1 −1 2 1
0 1 −3 −2
1 −1 −4 −3
2 1 9 −6
¸
¸
¸
¸
¸
¸
¸
¸
Estableciendo, en general, el procedimiento de c´alculo del rango de una matriz:
Podemos prescindir de las columnas nulas y de las filas nulas de la matriz porque no aumentan
el orden de los menores con determinante distinto de cero.
Hecho esto, despu´es de una permutaci´ on de filas, (que no altera el rango), si es necesario, podemos
suponer que a
11
es distinto de cero. Entonces consideramos todos los menores de orden dos en los que
figura a
11
con elementos de la segunda fila, si alguno de estos menores es distinto de cero, el rango
de la matriz es mayor o igual que dos. En caso contrario, el rango de la matriz formada por las dos
primeras filas es 1. Entonces, la segunda fila es m´ ultiplo de la primera, por ello podemos prescindir
de ella en el c´ alculo de las filas independientes. Repetimos el proceso con las restantes filas hasta
encontrar, o bien que todas son m´ ultiplos de la primera y entonces el rango es uno y hemos acabado.
O bien un menor de orden dos con determinante no nulo, y entonces, el rango es mayor o igual que
dos y hemos encontrado dos filas independientes.
Para averiguar si el rango es mayor que dos, consideramos los menores de orden 3 obtenidos al
ampliar el primer menor de orden dos con determinante distinto de cero encontrado, con elementos
correspondientes de las columnas siguientes y de la fila siguiente. Si todos los determinantes de
las submatrices de orden 3 con esta fila son cero, esa fila depende de las dos anteriores y podemos
prescindir de ella en la formaci´ on de m´ as menores. Seguimos formando menores de orden 3 con las
filas siguientes. Si todos los menores formados as´ı salen con determinante cero, las filas siguientes
dependen de las dos primeras. Al haber s´ olo dos filas independientes, otro menor cualquiera de orden
3 es cero, el rango es dos y hemos acabado.
Si hay un menor de orden 3 con determinante distinto de cero, el rango de la matriz es mayor o
igual que 3 y hemos encontrado tres filas independientes.
El procedimiento es an´ alogo para ver si el rango de la matriz es mayor que 3, ampliando el menor
de orden 3 distinto de cero encontrado con elementos de las columnas y de las filas siguientes.
162
Seguimos aumentando el tama˜ no de los menores tanto como sea posible con el mismo proce-
dimiento y cuando no podamos aumentar el tama˜ no, hemos llegado al m´ aximo orden de los menores
con determinante distinto de cero en los que aparece parcial o totalmente la primera fila no nula.
Podr´ıamos pensar que al formar submatrices que no empiecen en la 1
a
fila no nula, orl´ andolas luego
con elementos correspondientes de las otras columnas y otras filas se pudieran encontrar submatrices
de orden superior al rango establecido anteriormente, con determinante distinto de cero. Pero en
el procedimiento seguido hemos hallado el m´ aximo n´ umero de filas independientes. Este n´ umero es
la dimensi´ on del espacio vectorial engendrado por las filas, independiente del orden considerado al
formar las submatrices. Por tanto no tenemos que comprobar m´as determinantes de m´ as submatrices.
Adem´ as, como el rango de la matriz es la dimensi´ on del espacio engendrado por sus vectores filas
y del espacio engendrado por sus vectores columnas, el orden de ´estas no influye en la dimensi´ on.
Por ello, podemos hacer un intercambio de filas o de columnas antes de empezar a calcular menores
si vemos que las operaciones van a resultar m´ as f´ aciles.
Ejercicios:
5.13.1. Estudiar, seg´ un el valor de λ, los rangos de las siguientes matrices:
_
_
2 3 1 7
3 7 −6 −2
5 8 1 λ
_
_
,
_
_
_
_
3 1 1 4
λ 4 10 1
1 7 17 3
2 2 4 3
_
_
_
_
,
_
_
1 λ −1 2
2 −1 λ 5
1 10 −6 1
_
_
.
5.13.2. Estudiar, seg´ un los valores de λ la compatibilidad de los sistemas AX = b donde la matriz
A[b es la dada a continuaci´ on:
_
_
3 2 5
2 4 6
5 7 λ
¸
¸
¸
¸
¸
¸
1
3
5
_
_
,
_
_
λ 1 1
1 λ 1
1 1 λ
¸
¸
¸
¸
¸
¸
1
1
1
_
_
.
Aplicaci´ on al m´etodo de Gauss.
Las soluciones de un sistema homog´eneo son un subespacio vectorial de dimensi´ on igual al n´ umero
de inc´ ognitas menos el rango de la matriz del sistema y este rango se puede determinar calculando
determinantes de menores de la matriz de coeficientes de la manera ordenada indicada.
163
SUMA E INTERSECCI
´
ON DE SUBESPACIOS VECTORIALES.
La intersecci´ on de dos subespacios vectoriales es su intersecci´ on conjuntista. El corolario 1 afirma
que es otro subespacio vectorial.
Se define la suma de dos subespacios vectoriales como el conjunto de los vectores que son suma de
vectores de los dos subespacios. Puede comprobarse como ejercicio, que es otro subespacio vectorial
porque cumple las condiciones de la proposici´ on 2.
La suma de dos subespacios vectoriales est´a engendrada por la uni´on de dos sistemas generadores
de cada uno de los subespacios. Sus ecuaciones se obtienen a partir de este sistema generador,
suprimiendo los generadores dependientes.
Las dimensiones de la suma y de la intersecci´on de dos subespacios est´an relacionadas por la
f´ ormula de las dimensiones para la suma y la intersecci´ on de dos subespacios vectoriales.
F´ ormula de las dimensiones:
Si V
1
y V
2
son dos subespacios vectoriales,
dim(V
1
) +dim(V
2
) = dim(V
1
+V
2
) +dim(V
1
∩ V
2
).
Cuando la intersecci´on de los dos subespacios es ¦0¦, la suma se llama suma directa,
y se representa por V
1
⊕V
2
.
Si adem´as de ser la suma, directa, V
1
⊕V
2
= V , los dos subespacios se llaman complementarios.
Demostraci´ on de la F´ormula de las dimensiones.
Sean V
1
, V
2
, los subespacios vectoriales de dimensiones n
1
y n
2
, respectivamente. Sea k la di-
mensi´ on de la intersecci´on. La base del subespacio intersecci´ on se puede ampliar a una base de V
1
y a
una base de V
2
; podemos suponer que ¦e
1
, e
2
, ..., e
k
¦ es una base de V
1
∩V
2
, ¦e
1
, e
2
, ..., e
k
, e
k+1
, ..., e
n
1
¦
una base de V
1
, ¦e
1
, e
2
, ..., e
k
, e

k+1
, ..., e

n
2
¦ una base de V
2
.
Nuestra f´ormula est´ a demostrada si vemos que
¦e
1
, e
2
, ...e
k
, e
k+1
, ...e
n
1
, e

k+1
, e

k+2
, ...e

n
2
¦
es una base de V
1
+V
2
.
Desde luego, los vectores
¦e
1
, e
2
, ...e
k
, e
k+1
, ...e
n
1
, e

k+1
, e

k+2
, ...e

n
2
¦
son un sistema generador de la suma. En cuanto a la independencia lineal, sea
164
Σ
n
1
i=1
λ
i
e
i
+ Σ
n
2
−k
j=1
λ

j
e

k+j
= 0
Veamos que todos los coeficientes han de ser nulos.
Escribamos:
Σ
n
1
i=1
λ
i
e
i
= −Σ
n
2
−k
j=1
λ

j
e

k+j
El vector del primer miembro de esta igualdad est´a en V
1
y el vector del segundo miembro de la
igualdad est´a en V
2
. Al ser iguales estos vectores, est´ an en la intersecci´ on de V
1
y de V
2
. Este vector
de V
1
∩ V
2
se expresa de manera ´ unica en cada una de las bases de V
1
, V
2
y V
1
∩ V
2
.
Las coordenadas del vector en la base dada de V
1
son las (λ
i
)
i≤n
1
, de forma que si ha de estar en
V
1
∩ V
2
ha de ser λ
i
= 0, para i tal que k < i ≤ n
1
, y las ¦λ
i
¦
i≤k
son las coordenadas del vector
en la base de V
1
∩V
2
. La suma considerada: Σ
n
1
i=1
λ
i
e
i

n
2
−k
j=1
λ

j
e

k+j
= 0, queda, entonces, como una
combinaci´ on lineal nula de los vectores de la base de V
2
y por tanto sus coeficientes han de ser cero.
Se pueden sacar importantes consecuencias de la f´ ormula de las dimensiones para la suma directa
de subespacios:
Si V
1
+V
2
= V
1

V
2
, por ser la intersecci´ on de los dos subespacios cero, la uni´on de las bases de
V
1
y de V
2
es una base de su suma directa. (Basta observar la demostraci´on).
Si adem´as los espacios son complementarios, la uni´on de las dos bases es una base del espacio
total. Por eso, dado un subespacio V
1
, los vectores que se puedan a˜ nadir a la base de V
1
para dar
una base del espacio total, constituyen una base de un espacio complementario de V
1
.
Aunque la condici´ on para que dos espacios sean complementarios es que su intersecci´ on sea el
cero y su suma sea el total, s´olo es necesario comprobar una de estas dos condiciones y que la suma
de las dimensiones de los dos subespacios es la dimensi´on del espacio total, porque una de ellas se
da contando con la otra y la f´ ormula de las dimensiones. Es decir:
a) Si V
1

V
2
= 0, V
1
y V
2
son complementarios si y s´olo si la suma de sus dimensiones es la
dimensi´ on del espacio total.
b) Si la suma de V
1
y V
2
es el espacio total, V
1
y V
2
son complementarios si y s´ olo si la suma de
sus dimensiones es igual a la dimensi´ on del espacio total.
Veamos a):
Si V
1

V
2
= 0, la f´ormula de las dimensiones implica que dim(V
1
+V
2
) = dim(V
1
) +dim(V
2
); sea
V el espacio total, como V
1
+V
2
= V si y s´olo si tienen la misma dimensi´ on, V
1
+V
2
= V si y s´olo si
dim(V
1
) +dim(V
2
) = dimV .
Veamos b):
165
Si V
1
+V
2
= V , la f´ ormula de las dimensiones da dim(V
1

V
2
) = dim(V
1
)+dim(V
2
)−dim(V
1
+V
2
);
por tanto V
1

V
2
= 0(≡ dim(V
1

V
2
) = 0) si y s´ olo si dim(V
1
) + dim(V
2
) − dim(V
1
+ V
2
) = 0, es
decir, si dim(V
1
) +dim(V
2
) = dim(V
1
+V
2
) = dimV.
Ejercicios:
5.14.1. Siendo S
1
= /¦(1, −5, 2, 0)(1, −1, 0, 2)¦ y S
2
= /¦(3, −5, 2, 1)(2, 0, 0, 1)¦, hallar una base
y las ecuaciones cartesianas de S
1
+S
2
y de S
1

S
2
.
5.14.2. Siendo S
1
= /¦(1, 0, 1, 0)(2, 1, 0, −1)¦ y S
2
= /¦(3, 1, 0, −1)(1, 1, −1, −1)¦, hallar una
base y las ecuaciones cartesianas de S
1
+S
2
y de S
1

S
2
.
5.14.3. Sean S
1
= /¦(1, 0, 1, 0, 1)(2, 1, 0, −1, 0)(2, 0, 1, 0, 1)¦ y S
2
= /¦(3, 1, 0, −1, 0)(1, 1, −1, −1, −1)¦,
comprobar que S
1
+S
2
= S
1
y S
1

S
2
= S
2
.
5.14.4. Siendo S
1
= /¦(1, 1, 2, 0)(−2, 0, 1, 3)¦ y S
2
= /¦(0, 2, 5, 0)(−1, 1, 3, 2)¦, hallar una base y
las ecuaciones cartesianas de S
1
+S
2
y S
1

S
2
.
5.14.5. Siendo S
1
= /¦(0, 1, 1, 0)(1, 0, 0, 1)¦ y
S
2

_
x
1
+x
2
+x
3
+x
4
= 0
x
1
+x
2
= 0
hallar una base y las ecuaciones cartesianas de S
1
+S
2
y S
1

S
2
.
5.14.6. Siendo
S
1

_
x
1
−x
3
= 0
x
2
−x
4
= 0
y
S
2

_
x
1
+x
2
+x
3
+x
4
= 0
x
1
+x
2
= 0
hallar una base y las ecuaciones cartesianas de S
1
+S
2
y S
1

S
2
.
5.14.7. Siendo F
1
el plano de ecuaci´ on x + 2y −z = 0 y F
2
la recta de ecuaciones
x −y +2z = 0
−2x +2y +z = 0
_
Averiguar si son complementarios.
5.14.8. Siendo V
1
= /¦(1, 1, 0), (1, 0, 1)¦ y V
2
= /¦(0, 1, 1)¦. Averiguar si son complementarios.
5.14.9. Comprobar que son complementarios los subespacios de ecuaciones:
S
1

_
−2x
1
−5x
2
+4x
3
= 0
−2x
1
+7x
2
+4x
4
= 0
S
2

_
x
1
+2x
2
+x
4
= 0
x
1
−2x
2
+x
3
= 0
5.14.10. Hallar una base y las ecuaciones cartesianas de un espacio complementario de
166
a) S
1
= /¦(0, 2, 5, 0)(−1, 1, 3, 2)¦.
b) S
2
= /¦(1, 1, 0, 0)(1, 0, 1, 0)(0, 0, 1, 1)(0, 1, 0, 1)¦
5.14.11. Hallar una base de S
1

S
2
donde
S
1
= /
__
1 1
0 0
_
,
_
0 1
1 0
_
,
_
0 0
1 1
__
S
2
= /
__
1 0
1 0
_
,
_
1 −1
0 0
_
,
_
0 1
−1 0
__
¿C´ ual es S
1
+S
2
?.
5.14.12. Hallar una base de S
1

S
2
y de S
1
+S
2
, donde
S
1
= /
__
1 1
0 0
_
,
_
0 0
1 1
__
S
2
= /
__
1 0
0 1
_
,
_
0 1
1 0
__
Hallar tambi´en las ecuaciones cartesianas de S
1

S
2
y de S
1
+S
2
.
5.14.13. En /
2×2
(R) se consideran los subespacios que conmutan con cada una de las siguientes
matrices:
A =
_
1 1
0 2
_
B =
_
1 1
1 1
_
a) Hallar una base de cada uno de ellos, de su suma y de su intersecci´ on.
b) Hallar una base de un espacio complementario del subespacio de las matrices que conmutan
con A.
5.14.14. Sea
M =
_
_
1 0 0
0 2 0
0 0 1
_
_
,
y S
1
= ¦A[AM = A¦, S
2
= ¦B[MB = B¦.
Encontrar dimensiones y bases de S
1

S
2
y de S
1
+S
2
.
5.14.15. Hallar los subespacios suma e intersecci´on de los siguientes subespacios de las matrices
cuadradas de orden n:
a) El subespacio de las matrices triangulares superiores de orden n y el subespacio de las matrices
triangulares inferiores.
b) El subespacio de las matrices sim´etricas de orden n y el subespacio de las matrices antisim´etricas
de orden n.
167
5.14.16. Hallar los subespacios suma e intersecci´on de los siguientes subespacios del espacio de
los polinomios de grado ≤ 3: S
1
es el subespacio de los polinomios m´ ultiplos de x + 1 y S
2
es el
subespacio de los polinomios m´ ultiplos de x −1.
5.14.17. En R
4
sean U = /¦u
1
, u
2
¦ y V = /¦v
1
, v
2
¦ donde
u
1
= (1, 1, 2, −λ), u
2
= (−1, 1, 0, −λ), v
1
= (1, λ, 2, −λ), v
2
= (2, 3, λ, 1)
Hallar seg´ un los valores de λ las dimensiones de U, V U +V , U

V .
Ejemplos resueltos y m´ as problemas propuestos en el cap´ıtulo 3 de (A), en el cap´ıtulo 4 de (Gr),
en el cap´ıtulo 6 de (H) y en el cap´ıtulo 3 de (S2).
168
BIBLIOGRAFIA.
(A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´ an
Espa˜ nol. Ed. S´ıntesis Madrid. 1999.
(Gr) Algebra lineal con aplicaciones. S. I. Grossman. Ed. Mc Graw Hill 2001.
[G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e
Ruiz Jim´ nez. Ed. Editex. 2009.
(H) Algebra y Geometr´ıa. Eugenio Hern´andez. Addison- Wesley / UAM, 1994.
[M] Matem´aticas 2 Bachillerato. M
a
Felicidad Monteagudo Mart´ınez. Jes´ us Paz Fern´ andez Ed.
Luis Vives. 2003.
(S) Algebra lineal y sus aplicaciones. G. Strang Ed. Addison-Wesley Iberoamericana. 1990.
(S2) Introduction to Linear Algebra. G.Strang Ed. Wellesley-Cambridge Press 1993.
169
170
APLICACIONES LINEALES.
Introducci´ on.
Una aplicaci´ on lineal entre espacios vectoriales sobre el mismo cuerpo es una aplicaci´on que
respeta las operaciones de espacio vectorial, es decir, aplica la suma de vectores en la suma de sus
im´ agenes y el producto de un escalar por un vector en el producto del escalar por la imagen del
vector, respectivamente.
Definici´ on:
Sean V
1
y V
2
dos espacios vectoriales sobre el mismo cuerpo y f una aplicaci´on de V
1
en V
2
. Se
dice que f es una aplicaci´ on lineal si
a) Dados dos vectores cualesquiera v y v

de V
1
, f(v +v

) = f(v) +f(v

).
b) Dados un vector v de V
1
y un elemento del cuerpo λ, f(λv) = λf(v).
Las aplicaciones lineales se llaman tambi´en homomorfismos.
Las aplicaciones lineales nos permiten trasvasar los resultados encontrados en unos espacios vec-
toriales a otros en los que la intuici´ on es m´ as dif´ıcil.
Adem´ as, la importancia de la estructura de espacio vectorial est´a en que no s´ olo la encontramos
en los conjuntos de vectores del plano o del espacio, sino en que se puede trasmitir a otros conjuntos
que est´an en correspondencia biyectiva con alg´ un R
n
´ o alg´ un C
n
, haciendo la biyecci´on una aplicaci´ on
lineal.
Consecuencia inmediata de la definici´ on es:
1) f(0) = f(0 v) = 0 f(v) = 0.
2) f(−v) = f((−1)v) = (−1)f(v) = −f(v), ∀v ∈ V
1
.
Cuando el espacio original y el espacio final coinciden, el homomorfismo se llama endomorfismo.
Un ejemplo de endomorfismos son las aplicaciones que resultan al multiplicar los vectores del
espacio por un n´ umero fijo: f
α
(v) = αv ∀v ∈ V . Estas aplicaciones se llaman homotecias.
Las proyecciones sobre una recta de R
2
o de R
3
y sobre un plano de R
3
son aplicaciones lineales.
(V´ease el dibujo siguiente).
171
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
>
>
>
>
>
>
>
>
>
>
>
>
v

`
v’
>
>
>
>
>
>
>
>
>
>
>
>

.
.
.
.
.
.
.
.. [p(v

)[
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
\
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
p(v)
p(v+v’)
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z
Z

v+v’
Las simetr´ıas respecto a rectas o planos en R
3
son endomorfismos. (V´ease el dibujo siguiente).

¸

s(v)
s(v’)
s(v+v’)

`
´
´
´
´
´
´
´
´
´
´
´
´ ´´
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
// `
v
v’
v+v’
´
´
´
´
´
´
´
´
´
´
´
´ ´
172
La aplicaci´ on que hace corresponder a cada matriz cuadrada su traza es una aplicaci´ on lineal
definida en cada espacio vectorial de matrices cuadradas de orden n con valores en el cuerpo del que
son las entradas de la matriz.
La aplicaci´ on derivada hace corresponder a un polinomio de grado ≤ n otro polinomio de grado
≤ n − 1, por tanto es tambi´en una aplicaci´ on del espacio vectorial de polinomios de grado ≤ n con
coeficientes reales en el espacio vectorial de polinomios de grado ≤ n −1 con coeficientes reales. Se
puede comprobar que es una aplicaci´on lineal.
La aplicaci´ on de 1 en 1 definida por f(x) = x + 1 no cumple la condici´ on 1). Por tanto no es
lineal. A pesar de que la aplicaci´ on de 1 en 1 definida por f(x) = x
2
cumple la condici´ on 1), no
cumple la condici´on 2), por lo que tampoco es lineal.
Ejercicios:
6.1.1. Averiguar si son aplicaciones lineales las siguientes aplicaciones:
a) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el espacio vectorial
de las matrices antisim´etricas de orden n dada por /(B) =
1
2
(B −
t
B).
b) La aplicaci´on traza definida en el espacio vectorial de las matrices cuadradas 33 con entradas
reales sobre R.
c) La aplicaci´ on del espacio vectorial de los polinomios de grado ≤ n en ´este mismo conjunto
dada por T(p(x)) = p(x −1).
d) La aplicaci´ on del espacio vectorial de los polinomios de grado ≤ n en ´este mismo espacio
vectorial dada por T(p(x)) = p(x) −1.
e) La aplicaci´ on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio
vectorial dada por P(A) = AB donde B es una matriz fija.
f) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio
dada por Q(A) = A +B donde B es una matriz fija.
g) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio
dada por C(A) = AB −BA donde B es una matriz fija.
173
La suma de aplicaciones lineales es otra aplicaci´on lineal. El producto de una aplicaci´on lineal
por un n´ umero es una aplicaci´on lineal. Pueden comprobarse como ejercicio f´ acilmente estas dos
afirmaciones y por tanto que el conjunto de las aplicaciones lineales definidas entre dos espacios
vectoriales es otro espacio vectorial, que denotamos por / (V
1
, V
2
). Como consecuencia del p´arrafo
siguiente vamos a ver que / (V
1
, V
2
) se puede equiparar a un espacio vectorial de matrices.
Expresi´on matricial de una aplicaci´on lineal.
Primero, queremos pasar del concepto de aplicaci´on lineal a ciertos n´ umeros que la determinen y
luego obtener n´ umeros que la caractericen.
Fijada ¦e
1
, e
2
, ...e
n
¦, base de V
1
, f est´ a determinada por las im´agenes de los elementos de esa
base y fijada ¦u
1
, u
2
, ..., u
m
¦, base de V
2
, estas im´ agenes est´an determinadas por sus coordenadas en
esa base, como consecuencia, cada aplicaci´on lineal est´a determinada por una matriz mn:
Para determinarla, escribimos un vector x de V
1
como x = x
1
e
1
+ x
2
e
2
+ ... + x
n
e
n
y escribimos
el vector y = f(x) de V
2
como f(x) = y
1
u
1
+y
2
u
2
+... +y
m
u
m
.
Entonces, si x es un vector de V
1
,
f(x) = f(x
1
e
1
+x
2
e
2
+... +x
n
e
n
) = f(x
1
e
1
) +f(x
2
e
2
) +... +f(x
n
e
n
) = por a)
= x
1
f(e
1
) +x
2
f(e
2
) +... +x
n
f(e
n
). por b)
Si las coordenadas de f(e
1
) son (a
11
, a
21
, ..., a
m1
), las de f(e
2
) son (a
12
, a
22
, ..., a
m2
)...,las de f(e
n
)
son (a
1n
, a
2n
, ..., a
mn
), en la base de V
2
, las de y = f(x) son:
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
= x
1
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
+x
2
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
+ +x
n
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
La matriz
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
se llama matriz de la aplicaci´ on f en las bases dadas. Se escribe, de forma abreviada, una aplicaci´ on
lineal por f(x) = Ax. Las columnas de esta matriz est´ an formadas por las coordenadas de los
vectores im´ agenes de los de la base del primer espacio expresados en la base del segundo espacio.
174
Dados dos espacios vectoriales y escogidas una base en cada uno de ellos, hemos visto que corres-
ponde a cada aplicaci´ on lineal entre los dos, una matriz A ∈ /
m×n
. Rec´ıprocamente, dados dos
espacios vectoriales V
1
y V
2
de dimensiones respectivas n y m, y escogidas una base en cada uno de
ellos, a cada matriz A ∈ /
m×n
le corresponde una aplicaci´ on lineal definida por f(x) = Ax, donde
x es la columna de las coordenadas de un vector de V
1
en una base de ´este y Ax es la columna de
las coordenadas de su imagen en una base correspondiente de V
2
. Se comprueba f´acilmente que f es
lineal utilizando las propiedades del producto de matrices.
Es f´acil ver que esta correspondencia es biyectiva entre el espacio vectorial de las aplicaciones
lineales entre V
1
y V
2
y /
m×n
(K) una vez fijadas las bases de estos, y que a su vez es una aplicaci´on
lineal, que por ello identifica / (V
1
, V
2
) con /
m×n
(K).
La expresi´on abreviada Ax = f(x) nos recuerda la expresi´on abreviada Ax = b de un sistema
de ecuaciones lineales. Nos indica que resolver el sistema Ax = b es encontrar un vector x del
primer espacio que se aplica en b por la aplicaci´ on f de la misma matriz A. Si no existe este vector,
el sistema es incompatible, si existe s´olo un vector, es compatible determinado, si existen muchos
vectores cumpliendo esa condici´on, el sistema es compatible indeterminado.
Ejercicios:
6.2.1. Escribir la matriz de la simetr´ıa de R
2
respecto a:
a) El eje coordenado OX.
b) El eje coordenado OY.
c) La diagonal del primer cuadrante.
d) La diagonal del segundo cuadrante.
6.2.2. Escribir las matrices de las proyecciones ortogonales de R
2
sobre las distintas rectas enuncia-
das en el ejercicio anterior.
6.2.3. Escribir la matriz de un giro:
a) de noventa grados en sentido positivo (contrario al de las agujas del reloj), alrededor del origen
en R
2
b) de ´ angulo α en sentido positivo alrededor del origen en R
2
.
6.2.4. Escribir la matriz de la simetr´ıa de R
3
respecto a:
a) El plano de ecuaci´on y = x.
b) El plano de ecuaci´on y = z.
c) El plano de ecuaci´on x = z.
d) La recta de ecuaciones y = x, z = 0.
e) La recta de ecuaciones y = z, x = 0.
175
f) La recta de ecuaciones x = z, y = 0.
6.2.5. Escribir las matrices de las proyecciones ortogonales de R
3
sobre los distintos planos y
rectas enunciados en el ejercicio anterior.
6.2.6. Determinar la matriz que corresponde en la base can´ onica al endomorfismo de R
3
que
transforma los vectores ¦(3, 2, 1)(0, 2, 1)(0, 0, 1)¦ en los vectores ¦(1, 0, 0)(1, 1, 0)(1, 1, 1)¦ respetando
el orden. (Se pueden calcular f´acilmente las im´ agenes de los vectores de la base can´onica).
6.2.7. Hallar la matriz en las bases can´onicas de la aplicaci´ on del espacio de los polinomios de
grado ≤ 3 en R
4
dada por f(p(x))=(p(-1),p(1),p(-2),p(2)).
6.2.8. Hallar las matrices en las bases can´ onicas de las siguientes aplicaciones:
a) La aplicaci´ on A de R
3
en R
3
dada por A(x, y, z) = (x −y + 2z, x +y, 2x + 2y +z).
b) La aplicaci´ on B de C
2
en C
2
dada por B(z
1
, z
2
) = (iz
1
+ 2z
2
, z
1
−iz
2
).
c) La aplicaci´ on C de R
3
en R
3
dada por C(x, y, z) = (x +z, y, x +y +z).
d) La aplicaci´ on D de C
2
en C
3
dada por D(z
1
, z
2
) = (iz
1
+z
2
, z
1
+iz
2
, z
1
−iz
2
).
e) La aplicaci´ on E de R
2
en R
4
dada por E(x, y) = (x, x +y, 2x, x + 2y)
6.2.9. Hallar la matriz en las bases can´onicas de la aplicaci´ on traza considerada en el espacio de
las matrices cuadradas de orden 2 de n´ umeros reales con valores en R.
176
Como la matriz de una aplicaci´ on lineal depende de las bases escogidas, no es un invariante
intr´ınseco de la aplicaci´ on lineal y por ello tenemos que ver qu´e le ocurre al cambiar las bases.
Veamos c´ omo est´ an relacionadas las matrices que coresponden a una aplicaci´on lineal en las distintas
bases.
Cambio de base en la expresi´ on matricial de una aplicaci´on lineal.
Sean ¦e
1
, e
2
, ..., e
n
¦ base de V
1
, ¦u
1
, u
2
, ..., u
m
¦ base de V
2
y f un homomorfismo dado en estas
bases por
f(x) =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
≡ Ax
Sean ¦e

1
, e

2
, ..., e

n
¦ otra base de V
1
, ¦u

1
, u

2
, ..., u

m
¦ otra base de V
2
y A

la matriz de f en las
nuevas bases. Si (x

1
, x

2
, ..., x

n
) son las coordenadas de x e (y

1
, y

2
, ..., y

n
) son las coordenadas de
y = f(x) en las nuevas bases, se tiene la relaci´ on:
f(x) =
_
_
_
_
_
y

1
y

2
.
.
.
y

m
_
_
_
_
_
= A

_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
Para ver la relaci´ on entre A y A’ recordemos que las coordenadas de un vector x de V
1
en las dos
bases est´an relacionadas por
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
= C
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
Las coordenadas de un vector y de V
2
en las dos bases est´an relacionadas por
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
=
_
_
_
_
_
d
11
d
12
d
1m
d
21
d
22
d
2m
.
.
.
.
.
.
.
.
.
.
.
.
d
m1
d
m2
d
mm
_
_
_
_
_
_
_
_
_
_
y

1
y

2
.
.
.
y

m
_
_
_
_
_
= D
_
_
_
_
_
y

1
y

2
.
.
.
y

m
_
_
_
_
_
Recordemos que las columnas de las matrices C y D son las coordenadas de los vectores de las
nuevas bases en las antiguas y que estas matrices son invertibles.
177
Sustituyendo respectivamente estas relaciones en la expresi´ on de la aplicaci´ on lineal, tenemos:
_
_
_
_
_
d
11
d
12
d
1n
d
21
d
22
d
2m
.
.
.
.
.
.
.
.
.
.
.
.
d
m1
d
m2
d
mm
_
_
_
_
_
_
_
_
_
_
y

1
y

2
.
.
.
y

m
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
De donde
_
_
_
_
_
y

1
y

2
.
.
.
y

m
_
_
_
_
_
=
_
_
_
_
_
d
11
d
12
d
1n
d
21
d
22
d
2m
.
.
.
.
.
.
.
.
.
.
.
.
d
m1
d
m2
d
mm
_
_
_
_
_
−1
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
Esta es la expresi´ on matricial de la aplicaci´on lineal en las nuevas bases. Por lo que A

= D
−1
AC.
las columnas de D
−1
son las coordenadas de los vectores de la base primera en la base segunda dentro
del segundo espacio.
Otra forma de ver la modificaci´ on que sufre la matriz de la aplicaci´ on lineal al realizar un cambio
de base es darse cuenta de que la matriz A de una aplicaci´ on lineal sirve para expresar los vectores
¨(f(e
1
), f(e
2
), ..., f(e
n
)) en funci´ on de los vectores (u
1
, u
2
, ...u
m
) seg´ un la relaci´on: ¨
(f(e
1
), f(e
2
), ..., f(e
n
)) = (u
1
, u
2
, ...u
m
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
= (u
1
, u
2
, ...u
m
)A
La matriz A

expresar´ıa los vectores ¨(f(e

1
), f(e

2
), ..., f(e

n
)) en funci´ on de los vectores (u

1
, u

2
, ...u

m
)
seg´ un la relaci´ on: ¨
(f(e

1
), f(e

2
), ..., f(e

n
)) = (u

1
, u

2
, ...u

m
)
_
_
_
_
_
a

11
a

12
a

1n
a

21
a

22
a

2n
.
.
.
.
.
.
.
.
.
.
.
.
a

m1
a

m2
a

mn
_
_
_
_
_
= (u

1
, u

2
, ...u

m
)A

Como
178
(e

1
, e

2
, ..., e

n
) = (e
1
, e
2
, ..., e
n
)
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
implica
(f(e

1
), f(e

2
), ..., f(e

n
)) = (f(e
1
), f(e
2
), ..., f(e
n
))
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
y
(u

1
, u

2
, ...u

m
) = (u
1
, u
2
, ...u
m
)
_
_
_
_
_
d
11
d
12
d
1n
d
21
d
22
d
2m
.
.
.
.
.
.
.
.
.
.
.
.
d
m1
d
m2
d
mm
_
_
_
_
_
sustituyendo en la expresi´ on en las nuevas bases tenemos
(f(e
1
), f(e
2
), ..., f(e
n
))
_
_
_
_
_
c
11
c
12
c
1n
c
21
c
22
c
2n
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
= (u
1
, u
2
, ...u
m
)
_
_
_
_
_
d
11
d
12
d
1n
d
21
d
22
d
2m
.
.
.
.
.
.
.
.
.
.
.
.
d
m1
d
m2
d
mm
_
_
_
_
_
A

de donde
(f(e
1
), f(e
2
), ..., f(e
n
)) = (u
1
, u
2
, ...u
m
)DA

C
−1
obteni´endose tambi´en A = DA

C
−1
.
Si el homomorfismo es un endomorfismo, como coinciden el espacio original y el espacio final de
la aplicaci´ on, se utiliza normalmente la misma base en estos dos espacios y un cambio de base en
la matriz de la aplicaci´on lineal se refiere al mismo cambio de base en V considerado como espacio
inicial y como espacio final. Entonces C = D y A

= C
−1
AC. Todas las matrices correspondientes
a un endomorfismo en distintas bases se llaman equivalentes.
179
Como aplicaci´on del mecanismo de cambio de base en endomorfismos se puede hallar f´acilmente
la matriz de las simetr´ıas ortogonales y de las proyecciones ortogonales que permiten escoger bases
en las que su expresi´ on es muy f´ acil. La expresi´on de estas aplicaciones en la base can´onica se
encuentra haciendo el cambio de base necesario en cada caso desde la base que da la expresi´ on f´ acil
de la aplicaci´ on a la base can´onica.
Aplicaci´ on 1.
1) Matriz de la simetr´ıa ortogonal de R
3
respecto al plano de ecuaci´on x −y +z = 0:
Esta simetr´ıa deja invariantes los vectores del plano y transforma en su opuesto el vector perpen-
dicular al plano.
Sean dos vectores independientes del plano e

1
= (1, 1, 0), e

2
= (1, 0, −1). Estos dos vectores
junto al vector perpendicular al plano e

3
= (1, −1, 1) forman una base de R
3
en la que la matriz de
la simetr´ıa es:
A

=
_
_
1 0 0
0 1 0
0 0 −1
_
_
.
Como la matriz de cambio de base de las coordenadas de la nueva base a las coordenadas de la
base can´onica es
_
_
x
1
x
2
x
3
_
_
=
_
_
1 1 1
1 0 −1
0 −1 1
_
_
_
_
x

1
x

2
x

3
_
_
la matriz en la base can´ onica de la simetr´ıa considerada es:
A =
_
_
1 1 1
1 0 −1
0 −1 1
_
_
_
_
1 0 0
0 1 0
0 0 −1
_
_
_
_
1 1 1
1 0 −1
0 −1 1
_
_
−1
=
1
3
_
_
1 2 −2
2 1 2
−2 2 1
_
_
Aplicaci´ on 2.
Matriz de la proyecci´on ortogonal de R
3
sobre la recta engendrada por el vector (1,1,1):
En esta proyecci´ on el vector de la recta queda fijo y se aplican en cero los vectores ortogonales a
la recta.
El vector de la recta e

1
= (1, 1, 1) junto con dos vectores independientes ortogonales a ´el: e

2
=
(1, −1, 0) e

3
= (1, 0, −1) forman una base en la que la matriz de la aplicaci´on es:
A

=
_
_
1 0 0
0 0 0
0 0 0
_
_
.
180
Como la matriz de cambio de base de las coordenadas de la nueva base a las coordenadas de la
base can´onica es
_
_
x
1
x
2
x
3
_
_
=
_
_
1 1 1
1 −1 0
1 0 −1
_
_
_
_
x

1
x

2
x

3
_
_
la matriz en la base can´ onica de la proyecci´on considerada es:
A =
_
_
1 1 1
1 −1 0
1 0 −1
_
_
_
_
1 0 0
0 0 0
0 0 0
_
_
_
_
1 1 1
1 −1 0
1 0 −1
_
_
−1
=
1
3
_
_
1 1 1
1 1 1
1 1 1
_
_
Ejercicios:
6.3.1. Dada la aplicaci´ on de R
2
en R
4
por la matriz:
_
_
_
_
1 0
0 1
1 0
0 1
_
_
_
_
en las bases can´ onicas, hallar la matriz de dicha aplicaci´ on en las bases ¦(0, 1), (1, 1)¦ de R
2
y
¦(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)¦ de R
4
.
6.3.2. Dada la aplicaci´ on de R
2
en R
4
por la matriz:
_
_
_
_
1 0
0 1
1 0
0 1
_
_
_
_
en las bases ¦(0, 1), (1, 1)¦ de R
2
y ¦(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)¦ de R
4
, hallar la matriz
de dicha aplicaci´on en las bases can´ onicas.
6.3.3. Hallar, haciendo un cambio de base, la expresi´ on matricial en la base can´onica de la
aplicaci´ on lineal f de R
3
en R
3
tal que: f(1, 1, 0) = (1, 1, 1), f(1, 0, −1) = (0, 1, 1), f(1, −1, 1) =
(1, 2, 2).
6.3.4. Comprobar mediante un cambio de base, la matriz en la base can´ onica obtenida para la
aplicaci´ on lineal del ejercicio 6.2.6.
6.3.5. Hallar la matriz de la aplicaci´ on lineal del ejercicio 6.2.6.
a) en la base ¦(3, 2, 1)(0, 2, 1)(0, 0, 1)¦.
181
b) en la base ¦(1, 0, 0)(1, 1, 0)(1, 1, 1)¦.
c) Comprobar que las matrices obtenidas anteriormente est´ an relacionadas con la matriz del
endomorfismo en la base can´ onica por las matrices de cambio de base correspondientes entre las
bases.
6.3.6. Utilizando cambios de base calcul´ense las matrices en las bases can´onicas de
a) La simetr´ıa ortogonal de R
3
respecto a la recta engendrada por el vector (−1, 1, −1).
b) La proyecci´on ortogonal de R
3
sobre el plano de ecuaci´on x +y +z = 0.
c) Las rotaciones vectoriales de noventa grados de R
3
respecto a la recta de ecuaciones:
x +y = 0, z = 0.
182
A pesar de que la expresi´ on matricial no es una propiedad intr´ınseca de la aplicaci´ on (porque
depende de las bases escogidas en los espacios), podemos llegar, utiliz´ andola, a la determinaci´ on de
subespacios asociados de manera intr´ınseca a la aplicaci´ on lineal. Estos subespacios son el n´ ucleo y
la imagen de la aplicaci´ on lineal. Sus dimensiones son n´ umeros independientes de la base escogida
siendo por tanto, propiedades intr´ınsecas de dicha aplicaci´ on.
N´ ucleo de una aplicaci´on lineal:
Es el conjunto de vectores del primer espacio que se aplican en el elemento neutro del segundo
espacio.
El n´ ucleo de una aplicaci´on lineal es un subespacio vectorial ya que
Siempre contiene el cero por 1) y
Si v
1
, v
2
∈ Nf y α
1
, α
2
∈ K, f(α
1
v
1

2
v
2
) = α
1
f(v
1
) +α
2
f(v
2
) = 0. i. e. α
1
v
1

2
v
2
∈ Nf.
El subespacio n´ ucleo de la aplicaci´ on lineal es independiente de su expresi´on matricial.
Fij´ andonos en la expresi´ on matricial de la aplicaci´ on lineal, vemos que fijada la base (e
1
, e
2
, ...e
n
)
de V
1
, el n´ ucleo de la aplicaci´on lineal f es el conjunto de vectores de coordenadas (x
1
, x
2
, ...x
n
) en
esa base tales que
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n

.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
Por tanto, el n´ ucleo es el conjunto de soluciones del sistema homog´eneo cuya matriz de coeficientes
es la matriz de la aplicaci´ on lineal.
Su dimensi´ on es por tanto la dimensi´on del primer espacio menos el rango de la matriz de la
aplicaci´ on lineal. Llegamos, por ello, a que el rango de dicha matriz es siempre el mismo, cualquiera
que sean las bases escogidas en los espacios V
1
y V
2
. Es un n´ umero invariante de la aplicaci´on y se
le llama rango de la aplicaci´on.
Las ecuaciones cartesianas del n´ ucleo se obtienen eliminando en las ecuaciones AX = 0 del
sistema, las ecuaciones cuyas filas dependan de las dem´as.
Una base del n´ ucleo se obtiene resolviendo el sistema homog´eneo obtenido.
Como ejemplo, hallemos el n´ ucleo de una aplicaci´on lineal f de R
5
en R
3
dada por la matriz:
183
A =
_
_
3 2 1 1 −1
3 2 2 3 0
6 4 1 0 −3
_
_
.
El n´ ucleo de f es el conjunto de vectores (x
1
, x
2
, x
3
, x
4
, x
5
) que verifican f(x) = 0, equivalente a
A(x) = 0, es decir,
3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
3x
1
+2x
2
+2x
3
+3x
4
= 0
6x
1
+4x
2
+x
3
−3x
5
= 0
_
_
_
Este es el sistema del ejemplo 2 del cap´ıtulo sobre espacios vectoriales y repito aqu´ı su resoluci´on.
Una forma sistem´atica de resolver un sistema homog´eneo de ecuaciones lineales, que se puede
escribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por opera-
ciones elementales y pasar en las ecuaciones de Ex=0, las inc´ ognitas de las columnas que no dan
escal´ on al segundo miembro.
Como hicimos en el cap´ıtulo del m´etodo de Gauss:
3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
x
3
+2x
4
+x
5
= 0
−x
3
−2x
4
−x
5
= 0
_
_
_

3x
1
+2x
2
+x
3
+x
4
−x
5
= 0
x
3
+2x
4
+x
5
= 0
_
Pasamos al segundo miembro las inc´ ognitas x
2
x
4
y x
5
:
3x
1
+x
3
= −2x
2
−x
4
+x
5
x
3
= −2x
4
−x
5
_
Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´ ognitas del primer miembro van dismi-
nuyendo de una en una, apareciendo s´olo una inc´ognita despejada en el primer miembro en la ´ ultima
ecuaci´ on. Sustituyendo esta inc´ognita en la ecuaci´ on anterior, podemos despejar otra inc´ ognita m´as
y seguir as´ı despejando hasta agotar las inc´ ognitas de los primeros miembros.
En este ejemplo, sustituyendo el valor de x
3
dado por la segunda ecuaci´ on en la primera ecuaci´ on
tenemos: 3x
1
= −2x
2
+x
4
+ 2x
5
.
Podemos considerar todas las inc´ ognitas como funciones lineales de las variables pasadas al se-
gundo miembro, a˜ nadiendo x
i
= x
i
para estas ´ ultimas variables.
En este ejemplo, a˜ nadiendo x
2
= x
2
, x
4
= x
4
, x
5
= x
5
, obtenemos las condiciones:
184
x
1
= −
2
3
x
2
+
1
3
x
4
+
2
3
x
5
x
2
= x
2
x
3
= −2x
4
−x
5
x
4
= x
4
x
5
= x
5
Una soluci´on cualquiera es una 5-upla de valores, donde las inc´ ognitas pasadas al segundo miembro
pueden variar arbitrariamente y las inc´ognitas del primer miembro est´ an sujetas a las condiciones
despejadas. Que expresamos por:
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
_
_
_
_
_
_
= x
2
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_
+x
4
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_
+x
5
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
Haciendo ahora x
2
= λ
1
, x
4
= λ
2
, x
5
= λ
3
se escribe:
_
_
_
_
_
_
x
1
x
2
x
3
x
4
x
5
_
_
_
_
_
_
= λ
1
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_

2
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_

3
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
El subespacio de soluciones del sistema es el subespacio de las combinaciones lineales de los tres
vectores columna del segundo miembro.
Nf = /¦(−
2
3
, 1, 0, 0, 0), (
1
3
, 0, −2, 1, 0), (
2
3
, 0, −1, 0, 1)¦ y estos tres vectores son una base de Nf.
En efecto, ninguno de los vectores columna es superfluo a la hora de dar las combinaciones lineales
soluciones. En nuestro caso, para comprobar que son independientes, mirar´ıamos si una combinaci´on
lineal de los vectores igual a cero es posible con coeficientes λ
i
distintos de cero. Tendr´ıa que ser:
_
_
_
_
_
_
0
0
0
0
0
_
_
_
_
_
_
= λ
1
_
_
_
_
_
_

2
3
1
0
0
0
_
_
_
_
_
_

2
_
_
_
_
_
_
1
3
0
−2
1
0
_
_
_
_
_
_

3
_
_
_
_
_
_
2
3
0
−1
0
1
_
_
_
_
_
_
Considerando la segunda, la cuarta y la quinta filas, tenemos: 0 = λ
1
, 0 = λ
2
, 0 = λ
3
, lo que
implica que los vectores columna escritos son independientes. La dimensi´on del espacio de soluciones
de este sistema es 3 = 5 −2 = dim V
1
−r(A).
185
Imagen de una aplicaci´ on lineal:
Es el conjunto de vectores que se pueden obtener como imagen de alg´ un vector del primer espacio,
por la aplicaci´ on lineal. Se representa por Im(f).
Al obtener la expresi´ on matricial de la aplicaci´ on lineal hemos visto que cualquier vector f(x) de
la imagen es combinaci´ on lineal de los vectores ¦f(e
1
), f(e
2
), ..., f(e
n
)¦, (vu´elvase a leer), es decir, de
los vectores columnas de la matriz de la aplicaci´ on lineal. Rec´ıprocamente, cualquier combinaci´on
lineal de estos vectores con los coeficientes α
1
, α
2
, ...α
n
es la imagen del vector (α
1
e
1

2
e
2
+...+α
n
e
n
)
de V
1
.
Por ello, la imagen de f es el subespacio de V
2
engendrado por ¦f(e
1
), f(e
2
), ..., f(e
n
)¦. Como
las coordenadas de estos vectores son las columnas de A, podremos extraer de ellos tantos vectores
independientes como sea el rango de A, por lo que la dimensi´ on de la imagen es el rango de A.
Extrayendo una base de este sistema generador podemos hallar las ecuaciones cartesianas y las
param´etricas del subespacio imagen de la aplicaci´ on lineal.
En el ejemplo anterior, (en el que hemos calculado el n´ ucleo de f), la imagen de f es el sube-
spacio de R
3
engendrado por ¦(3, 3, 6), (2, 2, 4), (1, 2, 1), (1, 3, 0), (−1, 0, −3)¦, de los cuales, s´ olo dos
son independientes (compru´ebese); la imagen de esa aplicaci´on lineal est´a engendrada p.ej. por
¦(1, 3, 0), (−1, 0, −3)¦, siendo su ecuaci´ on:
¸
¸
¸
¸
¸
¸
1 3 0
−1 0 −3
x
1
x
2
x
3
¸
¸
¸
¸
¸
¸
= 0 ≡ −9x
1
+ 3x
2
+ 3x
3
= 0 ≡ 3x
1
−x
2
−x
3
= 0
Teorema de Rouch´e-Frobenius
Seg´ un hemos visto en un p´ arrafo anterior, resolver el sistema Ax = b es hallar x tal que f(x) = b
donde f es la aplicaci´on lineal dada por la matriz A. Si b no est´ a en Im(f), este x no existe, siendo
el sistema incompatible. Si b est´ a en Im(f) el sistema es compatible, siendo determinado, si s´ olo hay
”uno” de tales x, e indeterminado si existen muchos x.
Veamos que si Nf es cero, s´ olo puede existir un x tal que f(x) = b: sean x y x

tales que
f(x) = b = f(x

), entonces, f(x −x

) = f(x) −f(x

) = 0 implica que x −x

= 0, i.e. x = x

.
Veamos tambi´en que si Nf ,= 0, existen muchas soluciones cuando el sistema es compatible:
entonces, ∀a ∈ Nf, a ,= 0, y si f(x) = b, tambi´en f(x +a) = b, siendo x ,= x +a.
En el ejemplo de la aplicaci´ on f anterior y de su matriz A, el sistema Ax = b tiene soluci´ on si y
s´ olo si siendo b = (b
1
, b
2
, b
3
), se verifica 3b
1
− b
2
− b
3
= 0. La soluci´on no es ´ unica porque Nf ,= 0.
Luego ese sistema es compatible indeterminado si 3b
1
−b
2
−b
3
= 0 e incompatible en caso contrario.
186
Tambi´en deducimos de las consideraciones anteriores que el sistema Ax = b tiene soluci´on (es
compatible) si y s´ olo si al a˜ nadir el vector b a los vectores que generan la imagen de A, (que son las
columnas de A) el n´ umero de vectores independientes es el mismo, lo cual equivale a que el rango de la
matriz ampliada A[b es igual al rango de la matriz A. Para que la soluci´on sea ´ unica, (sea compatible
determinado), adem´as, la dimensi´on del n´ ucleo de f debe ser cero, es decir, dim V
1
− r(A) = 0, o
lo que es lo mismo, el rango de A debe ser igual al n´ umero de inc´ ognitas. El sistema es compatible
indeterminado si el rango de la matriz ampliada A[b es igual al rango de la matriz A y ´este es menor
que el n´ umero de inc´ognitas. As´ı hemos vuelto a encontrar el teorema de Rouch´e-Frobenius como
consecuencia de la teor´ıa estudiada sobre aplicaciones lineales.
Es conveniente, para adquirir agilidad, hacer los siguientes
Ejercicios:
6.4.1. Determinar cu´al es el n´ ucleo y cu´ al es la imagen:
a) de una proyecci´on ortogonal de R
2
sobre una de sus rectas.
b) de una proyecci´on ortogonal de R
3
sobre una de sus rectas.
c) de una proyecci´on ortogonal de R
3
sobre uno de sus planos.
d) de una simetr´ıa ortogonal de R
2
respecto a una de sus rectas.
e) de una simetr´ıa ortogonal de R
3
respecto a una de sus rectas.
f) de una simetr´ıa ortogonal de R
3
respecto a uno de sus planos.
6.4.2. Hallar las ecuaciones cartesianas y una base de los n´ ucleos y de las im´agenes de las siguientes
aplicaciones lineales:
a) La aplicaci´ on A de R
3
en R
3
dada por A(x, y, z) = (x −y + 2z, x +y, 2x + 2y +z).
b) La aplicaci´ on B de C
2
en C
2
dada por B(z
1
, z
2
) = (iz
1
+ 2z
2
, z
1
−iz
2
).
c) La aplicaci´ on C de R
3
en R
3
dada por C(x, y, z) = (x +z, y, x +y +z).
d) La aplicaci´ on D de C
2
en C
3
dada por D(z
1
, z
2
) = (iz
1
+z
2
, z
1
+iz
2
, z
1
−iz
2
).
e) La aplicaci´ on E de R
2
en R
4
dada por E(x, y) = (x, x +y, 2x, x + 2y)
6.4.3. Dada la aplicaci´ on lineal f : R
5
→R
4
en las bases can´ onicas por la matriz:
_
_
_
_
1 −2 −1 0 −1
1 1 1 2 0
2 0 3 5 −3
0 3 2 2 1
_
_
_
_
1) Hallar una base del n´ ucleo de f.
2) Seleccionar las ecuaciones del n´ ucleo de f.
3) Hallar una base de la imagen de f.
4) Hallar las ecuaciones cartesianas de la imagen de f.
187
6.4.4. Siendo A la matriz:
A =
_
_
_
_
−1 1 1 0
0 0 1 1
0 1 0 0
1 0 0 1
_
_
_
_
Hallar c para que el sistema Ax = b tenga soluci´on en los dos casos siguientes:
1) b = (1, 0, 1, c)
t
, 2) b = (1, 0, c, 1)
t
2) En los casos anteriores, ¿es el sistema compatible determinado o indeterminado?
6.4.5. Hallar las ecuaciones cartesianas y una base del n´ ucleo y de la imagen de la aplicaci´on
lineal de R
4
en R
4
(endomorfismo) dada por la matriz:
a)
_
_
_
_
2 0 −1 −2
−2 4 −1 2
2 2 −2 −2
−2 2 0 2
_
_
_
_
La uni´on de las dos bases encontradas correspondientes al n´ ucleo y a la imagen es un conjunto
de cuatro vectores. ¿Es una base de R
4
? ¿Podr´ıamos conseguir una base de R
4
como uni´ on de otras
bases distintas del n´ ucleo y de la imagen de estas aplicaciones?
Responder a las mismas cuestiones para la aplicaci´on lineal g dada por
b)
_
_
_
_
2 1 0 −1
−1 1 1 2
1 2 1 1
0 3 2 0
_
_
_
_
6.4.6. Dada la aplicaci´ on lineal de R
4
en R
4
(endomorfismo) por la matriz:
_
_
_
_
1 2 3 1
−1 0 −1 1
1 3 4 2
−1 0 −1 1
_
_
_
_
Hallar la dimensi´ on del subespacio vectorial f(L) ⊂ R
4
en los dos casos siguientes:
a) L ≡ x
3
= 0. b) L ≡ x
1
+x
3
−x
4
= 0.
¿Hay alg´ un hiperplano de R
4
, cuya imagen es otro hiperplano? (Un hiperplano de R
n
es un
subespacio vectorial de dimensi´ on n −1).
6.4.7. Dada la aplicaci´ on lineal de R
4
en R
4
(endomorfismo) por la matriz:
188
_
_
_
_
1 1 0 0
0 1 1 0
0 0 1 1
1 0 0 1
_
_
_
_
a) Hallar las ecuaciones cartesianas del subespacio vectorial f(L) ⊂ R
4
si L ≡ x
3
−x
4
= 0.
b) Hallar las ecuaciones cartesianas de un subespacio vectorial L ,= R
4
, tal que su imagen sea un
hiperplano de R
4
. (Un hiperplano de R
n
es un subespacio vectorial de dimensi´on n −1).
c) ¿Hay alg´ un hiperplano de R
4
, cuya imagen sea una recta?
6.4.8. Cualquier matriz puede expresarse como suma de una matriz sim´etrica y de una matriz
antisim´etrica. Considerar en /
3×3
(R) las aplicaciones lineales:
a) La que hace corresponder a cada matriz su matriz sim´etrica sumando.
b) La que hace corresponder a cada matriz su matriz antisim´etrica sumando.
Hallar el n´ ucleo y la imagen de cada aplicaci´ on.
189
F´ ormula de las dimensiones para una aplicaci´on lineal.
Repitiendo, la dimensi´on de la imagen de una aplicaci´ on lineal es, por tanto, el n´ umero de vectores
independientes de los ¦f(e
1
), f(e
2
), ..., f(e
n
)¦, es decir, de columnas independientes de la matriz de
la aplicaci´on, o sea, el rango de la matriz de la aplicaci´on lineal. Como hemos visto que la dimensi´on
del n´ ucleo es la dimensi´on del espacio original menos el rango de esta misma matriz, tenemos la
relaci´ on:
dim(Nf) +dim(Im f) = dim(espacio origen) −r(A) +r(A) = dim(espacio origen).
Si las dimensiones del espacio original y el espacio final coinciden, la dimensi´ on del n´ ucleo es cero
si y s´ olo si la dimensi´ on del espacio imagen coincide con la dimensi´on del espacio total.
Es un ejercicio conveniente comprobar la f´ omula de las dimensiones en cada uno de los ejercicios
anteriores en los que se han hallado ambos espacios.
Hasta ahora, dada una aplicaci´ on lineal, hemos hallado su n´ ucleo y su imagen. Podemos plantearnos
el problema inverso: dados dos espacios vectoriales V
1
y V
2
, si W
1
⊂ V
1
y W
2
⊂ V
2
son dos subespa-
cios vectoriales, ¿se pueden construir aplicaciones lineales de V
1
en V
2
tales que su n´ ucleo sea W
1
y
su imagen sea W
2
?
Para que se puedan construir, en virtud de la f´ ormula de las dimensiones, es necesario que
dimW
1
+ dimW
2
= dimV
1
. Vamos a ver que esta condici´on es suficiente. En efecto, podemos coger
una base de W
1
y extenderla a una base de V
1
, para lo cual necesitamos tantos vectores como hay en
una base de W
2
. Como una aplicaci´ on lineal queda determinada por las im´ agenes de los elementos de
una base, definimos la aplicaci´ on lineal aplicando los elementos de la base de W
1
en cero y aplicando
los a˜ nadidos para obtener una base de V
1
, en una base de W
2
con cualquier biyecci´on posible.
Ejercicios
6.5.1. Comprobar la f´ormula de las dimensiones en todas las aplicaciones lineales de los ejercicios
anteriores en las que se han calculado n´ ucleo e imagen.
6.5.2. Comprobar que es posible hallar una aplicaci´ on definida en R
3
con imagen en R
3
, tal que:
a) Su n´ ucleo es el plano de ecuaci´ on x +y +z = 0 y su imagen es la recta x = y = 2z.
b) Su imagen es el plano de ecuaci´on x +y +z = 0 y su n´ ucleo es la recta x = y = 2z.
c) Hallar las matrices correspondientes en la base can´onica.
6.5.3. Comprobar que es posible hallar una aplicaci´ on definida en R
4
con imagen en R
4
, tal que
tanto su n´ ucleo como su imagen sean el subespacio de ecuaciones:
190
x
1
+ x
2
+x
3
+x
4
= 0
x
2
+x
3
= 0
_
Hallar la matriz de dicha aplicaci´on en la base can´ onica de R
4
.
191
Isomorfismos.
Los homomorfismos cuyo n´ ucleo es cero y cuya imagen es el espacio total se llaman isomorfismos.
Los isomorfismos son aplicaciones lineales que hacen coresponder a cada elemento de un espacio otro
elemento del otro espacio y s´olo uno, por ello, identifican distintos espacios vectoriales y permiten el
trasvase de propiedades de un espacio a otro.
Un isomorfismo es un homomorfismo cuyo n´ ucleo es cero y cuya imagen es el total.
El car´ acter de isomorfismo de una aplicaci´on lineal queda reflejado en la matriz de la aplicaci´on
lineal: Veremos que para que la aplicaci´on lineal sea isomorfismo es necesario y suficiente que la
matriz sea cuadrada y que su determinante sea distinto de cero.
Si f es isomorfismo, por por ser N(f) = 0 y por la f´ ormula de las dimensiones dimIm(f) =
dimN(f) + dimIm(f) = dim(V
1
); como tambi´en Im(f) = V
2
, dimIm(f) = dim(V
2
), por lo que
dimV
1
= dimV
2
. Ya que la matriz de una aplicaci´ on lineal f : V
1
−→ V
2
es m n donde m es la
dimensi´ on de V
2
y n es la dimensi´ on de V
1
, la matriz de un isomorfismo es cuadrada. Por otra parte,
el n´ ucleo de f ser´ a cero si y s´olo si 0 = dimNf = dimV
1
−r(A), es decir, si y s´ olo si r(A) = dimV
1
,
(que es su n´ umero de columnas) o sea si y s´ olo si el determinante de A es distinto de cero.
Rec´ıprocamente, si A es cuadrada, dimV
1
= dimV
2
y si [A[ , = 0, dimN(f) = dimV
1
−r(A) = 0, por
lo que N(f) = 0 y utilizando otra vez la f´ormula de las dimensiones, dimIm(f) = dimV
1
= dimV
2
,
por lo que Im(f) = V
2
.
Teorema 1: Si f : V
1
−→ V
2
es isomorfismo, existe la aplicaci´on inversa de f, que es lineal, y
si A es la matriz de f en dos bases prefijadas de V
1
y de V
2
, A
−1
es la matriz de la aplicaci´on lineal
inversa de f en las mismas bases.
Demostraci´ on:
La aplicaci´on inversa g de f existe si sabemos hacer corresponder a cada y ∈ V
2
un x tal que
f(x) = y, entonces ser´ıa x = g(y).
Si f es isomorfismo, por ser Im(f) = V
2
, cualquiera que sea el y ∈ V
2
, existe x tal que f(x) = y;
este x es un candidato a ser g(y), pero podr´ıamos tener problemas si existieran varios de estos x y
no supi´eramos cu´ al escoger. Veremos que s´olo existe uno cuando f es un isomorfismo. En efecto, si
f(x) = f(x

), para alg´ un otro x

, 0 = f(x) − f(x

) = f(x − x

) implica que x − x

∈ Nf = ¦0¦, es
decir que x = x

. Luego podemos construir la aplicaci´ on inversa de f, haciendo corresponder a cada
y ∈ V
2
el ´ unico x ∈ V
1
, tal que f(x) = y.
Esta aplicaci´ on es lineal, porque si f(g(y
1
)) = y
1
y f(g(y
2
)) = y
2
, se tiene f(g(y
1
) + g(y
2
)) =
f(g(y
1
)) + f(g(y
2
)) = y
1
+ y
2
, de donde g(y
1
+ y
2
) = g(y
1
) + g(y
2
) por una parte y si f(g(y)) = y,
f(αg(y)) = αf(g(y)) = αy, de donde αg(y) = g(αy).
El hecho de que la matriz de g es la inversa de la matriz de f se sigue de que al ser g ◦ f = Id y
f ◦ g = I, si la matriz de f es A y la matriz de g es B, AB=I y BA=I.
192
Tambi´en tenemos el siguiente
Teorema 2: Dos espacios vectoriales son isomorfos si y s´ olo si tienen la misma dimensi´ on.
Demostraci´ on:
Si f : V
1
−→ V
2
es un isomorfismo, dimV
1
= dim(Im(f)) por la f´ ormula de las dimensiones y
por ser N(f) = 0, y por la definici´ on de isomorfismo, dim(Im(f)) = dimV
2
, por lo que dimV
1
=
dim(Im(f)) = dimV
2
El rec´ıproco tambi´en es cierto: si dos espacios tienen la misma dimensi´ on, son isomorfos.
En efecto, sea dim(V
1
) = dim(V
2
) = n y sean ¦e
1
, e
2
, ..., e
n
¦ una base de V
1
y ¦u
1
, u
2
, ..., u
n
¦ una
base de V
2
, definimos:
f(x) = f(x
1
e
1
+x
2
e
2
+... +x
n
e
n
) = x
1
u
1
+x
2
u
2
+... +x
n
u
n
Se puede comprobar f´ acilmente que la aplicaci´ on f es lineal:
a)
f(x +y) = f((x
1
e
1
+x
2
e
2
+... +x
n
e
n
) + (y
1
e
1
+y
2
e
2
+... +y
n
e
n
)) =
= f((x
1
+y
1
)e
1
+ (x
2
+y
2
)e
2
+... + (x
n
+y
n
)e
n
) = (x
1
+y
1
)u
1
+ (x
2
+y
2
)u
2
+... + (x
n
+y
n
)u
n
=
(x
1
u
1
+x
2
u
2
+... +x
n
u
n
) + (y
1
u
1
+y
2
u
2
+... +y
n
u
n
) = f(x) +f(y)
b)
f(αx) = f(α(x
1
e
1
+x
2
e
2
+... +x
n
e
n
)) = f(αx
1
e
1
+αx
2
e
2
+... +αx
n
e
n
)) =
= (αx
1
)u
1
+ (αx
2
)u
2
+... + (αx
n
)u
n
= α(x
1
u
1
+x
2
u
2
+... +x
n
u
n
) = αf(x).
Como Imf = / ¦u
1
, u
2
, ..., u
n
¦ = V
2
y seg´ un la f´ ormula de las dimensiones, Nf = 0, f es
isomorfismo.
Quedando as´ı demostrado el teorema.
El teorema nos da una forma f´ acil para calcular la dimensi´ on del espacio vectorial de las aplica-
ciones lineales entre dos espacios vectoriales.
Corolario:
Si V
1
y V
2
son dos espacios vectoriales sobre el mismo cuerpo K, de dimensiones respectivas n y
m, dim / (V
1
, V
2
) = mn.
Ya que hemos visto anteriormente que fijadas las bases de V
1
y de V
2
, hay una aplicaci´ on lineal
biyectiva entre / (V
1
, V
2
) y /
m×n
(K). y se puede comprobar f´acilmente que esta aplicaci´on es
isomorfismo.
193
Ejercicios:
6.6.1. Compru´ebese que:
a) La composici´ on de dos aplicaciones lineales es una aplicaci´on lineal y
b) La matriz de la composici´ on de ellas es el producto de sus matrices.
6.6.2. Sea f un isomorfismo en R
3
y g otro homomorfismo tal que la dimensi´ on de la imagen de
g ◦ f es 2.
a) ¿Cu´al es el rango de la matriz de g.
b) ¿C´ ual es la dimensi´ on de la imagen de f ◦ g?
6.6.3. Demostrar que una aplicaci´ on lineal con n´ ucleo cero tiene inversa a la izquierda tambi´en
lineal. ¿Es ´ unica?
6.6.4. Demostrar que una aplicaci´ on lineal cuya imagen coincide con el espacio final, tiene inversa
a la derecha tambi´en lineal. ¿Es ´ unica?
6.6.5. Estudiar si son isomorfismos las aplicaciones del ejercicio 6.4.1. ¿C´ uales son los isomorfismos
inversos en los casos que existen?
6.6.6. Considerar las aplicaciones lineales de los ejercicios 6.2.6. y 6.3.3. y estudiar si son
isomorfismos.
En los casos que lo sean hallar la matriz del isomorfismo inverso.
194
Espacio Dual.
Un tipo especial de aplicaciones lineales, que merecen un nombre especial, son las aplicaciones
lineales de un espacio vectorial real V
n
en R. Se llaman formas lineales, forman el espacio /(V
n
, R)
que seg´ un lo visto anteriormente, son un espacio vectorial de dimensi´ on n. Este espacio vectorial se
llama espacio dual de V
n
.
Un ejemplo de forma lineal en R
3
es la aplicaci´ on que resulta de multiplicar escalarmente un
vector fijo a = (a
1
, a
2
, a
3
) por los distintos vectores de R
3
:
f
_
_
x
1
x
2
x
3
_
_
= (a
1
, a
2
, a
3
)
_
_
x
1
x
2
x
3
_
_
= a
1
x
1
+a
2
x
2
+a
3
x
3
.
Una vez escogida una base de V
n
, una forma lineal, como aplicaci´on lineal de un espacio de
dimensi´ on n en un espacio de dimensi´on 1, viene determinada por una matriz 1 n, (la base de R
se da por supuesta como 1). Por eso, tanto un elemento de R
n
como un elemento de su dual vienen
determinados por n n´ umeros reales.
Si f es una forma lineal de R
n
,
f(x) ≡ f
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= (a
1
, a
2
, , a
n
)
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= a
1
x
1
+a
2
x
2
+ +a
n
x
n
expresi´ on que nos recuerda la del producto escalar.
Proposici´on: Si una forma lineal no es nula, es suprayectiva.
Demostraci´ on: Si la forma lineal no es nula, existe un vector x que no se aplica en el cero.
Entonces, para cada valor r ∈ R, podemos encontrar el vector
r
f(x)
x que se aplica en r.
Son de especial significado geom´etrico los conjuntos de nivel de estas aplicaciones. Se llama
conjunto de nivel de una aplicaci´ on con valores reales al conjunto de puntos que se aplican en uno
dado de R. Por ser las formas lineales no nulas, suprayectivas, los conjuntos de nivel de cada r ∈ R
son no vac´ıos.
Consideremos una forma lineal sobre R
2
no nula,
Ya que la forma lineal viene dada en general por:
f
_
x
y
_
= (a
1
, a
2
)
_
x
y
_
= a
1
x +a
2
y,
195
el conjunto de nivel r ∈ R de f es: ¦(x, y)[a
1
x+a
2
y = r¦. Este conjunto es una recta del plano dada
por su ecuaci´ on impl´ıcita.
Para cada forma lineal no nula de R
3
los conjuntos de nivel son planos geom´etricos dados por su
ecuaci´ on imp´ıcita. En efecto, ya que la forma lineal viene dada en general por
f
_
_
x
y
z
_
_
= (a
1
, a
2
, a
3
)
_
_
x
y
z
_
_
= a
1
x +a
2
y +a
3
z,
el conjunto de nivel r ∈ R de f es: ¦(x, y, z)[a
1
x +a
2
y +a
3
z = r¦.
Dada una forma lineal en R
n
, el conjunto de nivel cero es el n´ ucleo de la forma lineal, que es un
subespacio de R
n
, cuya dimensi´ on es n − 1, por la f´ormula de las dimensiones y por ser la forma
lineal suprayectiva.
Si x
0
es un vector tal que f(x
0
) = r, el conjunto de nivel r ∈ R se obtiene sumando al vector x
0
todos los vectores de N(f). Ya que si x ∈ N(f), f(x
0
+x) = f(x
0
)+f(x) = f(x
0
). Y rec´ıprocamente,
si y
0
est´ a en el conjunto de nivel r, se puede escribir y
0
= x
0
+ (y
0
−x
0
), donde y
0
−x
0
∈ N(f).
Es decir, el conjunto de nivel r: f
−1
(r) = ¦x
0
+x[x
0
∈ f
−1
(r) y x ∈ N(f)¦ se obtiene trasladando
por un vector x
0
∈ f
−1
(r) el n´ ucleo de la forma lineal.
Dada una base B = ¦e
1
, e
2
, ...e
n
¦ ⊂ V
n
, se definen los elementos ¦e

i
¦ (duales de los e
i
) por
e

i
(e
j
) =
_
1 si i = j
0 si i ,= j
Se puede comprobar f´ acilmente que si f ∈ V

, est´a definida en B por
f(x) = f
_
_
_
x
1
.
.
.
x
n
_
_
_
= (a
1
a
n
)
_
_
_
x
1
.
.
.
x
n
_
_
_
se tiene f = a
1
e

1
+a
n
e

n
(Ya que coinciden en todos los elementos de la base).
Por ello, los elememtos ¦e

i
¦
i∈{1...n}
son un sistema de generadores de V

. Tambi´en se puede ver
f´ acilmente que son independientes. Por ello, forman una base de V

, llamada base dual de B.
Las coordenadas de f en la base dual de B son (a
1
, ..., a
n
), donde a
i
= f(e
i
).
Un problema que se plantea es c´ omo var´ıan las coordenadas de f al cambiar de base en V . ¿Cu´ al
es la relaci´ on entre la matriz de cambio de base en V y la matriz de cambio de base en V

?
196
Sean B y B

, dos bases de V , tales que la relaci´ on entre las coordenadas de un vector x en esas
bases viene dada por:
_
_
_
x
1
.
.
.
x
n
_
_
_
= C
_
_
_
x

1
.
.
.
x

n
_
_
_
Sean (a
1
, ..., a
n
) y (a

1
, ..., a

n
), las coordenadas de una aplicaci´on f en las bases duales de las dos
anteriores.
Entonces, dado que
(a
1
, ..., a
n
)
_
_
_
x
1
.
.
.
x
n
_
_
_
= f(x) = (a

1
, ..., a

n
)
_
_
_
x

1
.
.
.
x

n
_
_
_
(a
1
, ..., a
n
)C
_
_
_
x

1
.
.
.
x

n
_
_
_
= (a

1
, ..., a

n
)
_
_
_
x

1
.
.
.
x

n
_
_
_
,
de donde
(a
1
...a
n
)C = (a

1
...a

n
) ≡
_
_
_
a

1
.
.
.
a

n
_
_
_
= C
t
_
_
_
a
1
.
.
.
a
n
_
_
_

_
_
_
a
1
.
.
.
a
n
_
_
_
= (C
t
)
−1
_
_
_
a

1
.
.
.
a

n
_
_
_
que es la relaci´ on buscada.
Representando los duales de dos espacios vectoriales por V

1
= /(V
1
, K), V

2
= /(V
2
, K), a cada
aplicaci´ on f : V
1
→ V
2
, le corresponde la aplicaci´ on f

: V

2
→ V

1
que hace corresponder a ω ∈ V

2
la aplicaci´on ω ◦ f. Esta aplicaci´on es lineal, se llama aplicaci´on dual de f y se representa por f

.
El problema que se plantea ahora es encontrar la matriz de f

en las bases duales de dos bases
de V
1
y V
2
, conocida la matriz de f en dichas bases.
Recordemos que si B
1
= ¦e
1
, ...e
n
¦ ⊂ V
1
y B

1
= ¦e

1
, ...e

m
¦ ⊂ V
2
, las columnas de la matriz que
expresa f son las coordenadas de los vectores f(e
i
) en la base B

1
. An´ alogamente, las columnas de
la matriz de f

son las coordenadas de las aplicaciones f

(e


k
) en ¦e

1
, ..., e

n
¦. Hall´emoslas: Sea A la
matriz de f,
f

(e


k
)(e
i
) = (e


k
◦ f)(e
i
) = e


k
(f(e
i
)) = e


k
(

a
li
e

l
) = a
ki
197
Al variar i vamos obteniendo los elementos de la fila k de la matriz de f. Luego las columnas de
la matriz de f

son las filas de la matriz de f. Sus matrices, en las bases duales, son traspuestas la
una de la otra.
Ejercicios:
6.6.1. Sea f un elemento del dual de R
3
tal que f(1, 1, 0) = 1, f(0, 1, 1) = 1, f(1, 0, 1) = 3.
Hallar las coordenadas de f en la base dual de la can´ onica.
6.6.2. Sea f : R
3
→R
3
una aplicaci´on determinada por
f(1, 1, 0) = (−1, 0, 1), f(0, 1, 1) = (0, −1, 1), f(1, 0, 1) = (1, −1, 0).
Hallar la matriz de la aplicaci´on dual de f en la base dual de la base can´onica de R
3
.
6.6.3. Expresar en la base dual de la can´ onica de R
3
los elementos de la base dual de la base B,
siendo B:
a) B = ¦(1, 1, 0), (0, 1, 1), (1, 0, 1)¦
b) B = ¦(1, 1, 0), (0, 1, 1), (1, 0, 2)¦
Observar que aunque el primer vector coincide en estas dos bases, su dual no coincide en los dos
casos.
Ejemplos resueltos y problemas propuestos en el cap´ıtulo 4 de [A], en el cap´ıtulo 6 de [H] y en el
cap´ıtulo 3 de [V]
198
BIBLIOGRAFIA.
[A] Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an
Espa˜ nol. Ed. S´ıntesis Madrid. 1999.
[G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e
Ruiz Jim´ nez. Ed. Editex. 2009.
[H] Algebra y Geometr´ıa. Eugenio Hern´andez. Addison- Wesley / UAM, 1994.
[S] Algebra lineal y sus aplicaciones. G. Strang Ed. Addison-Wesley Iberoamericana. 1990.
[S2] Introduction to Linear Algebra. G.Strang Ed. Wellesley-Cambridge Press 1993.
[V] Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994.
199
200
ESPACIO EUCL
´
IDEO.
Proyecciones y M´etodo de M´ınimos Cuadrados.
Introducci´ on.
Un espacio eucl´ıdeo es un espacio vectorial real en el que se define un producto entre vectores
que a cada par de vectores asocia un n´ umero real. El producto se llama producto escalar.
El producto escalar usual en R
2
y en R
3
est´ a dado por las f´ ormulas:
u v = (u
1
, u
2
) (v
1
, v
2
) = u
1
v
1
+u
2
v
2
u v = (u
1
, u
2
, u
3
) (v
1
, v
2
, v
3
) = u
1
v
1
+u
2
v
2
+u
3
v
3
Observemos que debido al teorema de Pit´ agoras, en R
2
y en R
3
, el cuadrado de la longitud de
un vector es igual al producto escalar del vector por s´ı mismo. Representando la longitud del vector
u por |u|: |u|
2
= u u. La longitud de un vector tambi´en se llama m´ odulo del vector.
Un vector se llama unitario si es de longitud 1. Normalizar un vector cualquiera es obtener otro dependiente de
´el y unitario. Se normaliza un vector dividi´endolo por su longitud o m´odulo.
De lo anterior se deduce que la distancia entre dos puntos viene dada por la raiz cuadrada del
producto escalar por s´ı mismo del vector cuyas componentes son las diferencias de coordenadas de
los puntos.
En espacios con n variables, es ´ util tener un concepto similar al de distancia. Se generaliza el
concepto de longitud de un vector y de distancia entre dos puntos a R
n
utilizando el producto escalar
generalizado.
Definici´ on 1: Producto escalar generalizado: dados dos vectores u y v de R
n
, u v =
= (u
1
, , u
i
, , u
n
)(v
1
, , v
i
, , v
n
) = u
1
v
1
+ +u
i
v
i
+ +u
n
v
n
= (u
1
, , u
i
, u
n
)
_
_
_
_
_
_
_
v
1
.
.
.
v
i
.
.
.
v
n
_
_
_
_
_
_
_
Cuando u y v representan vectores fila, se ha escrito u v = u v
t
. Cuando u y v representan vectores columna,
se escribe u v = u
t
v.
Tenemos tambi´en la idea de que la distancia m´as corta desde un punto a una recta viene dada
por la perpendicular trazada a la recta por el punto. De aqu´ı que tambi´en sea importante el concepto
201
de perpendicularidad u ortogonalidad. Que se generaliza a R
n
para hallar distancias de puntos a
subespacios de mayor dimensi´ on.
Ortogonalidad.
En R
3
la recta perpendicular a otra engendrada por un vector v es la mediatriz del segmento
formado al yuxtaponer los vectores v y −v. Si u es perpendicular a v, u est´ a en esa mediatriz y
ya que entonces los ´ angulos formados por la mediatriz y v y por la mediatriz y −v son iguales, las
longitudes de los vectores u +v y u −v son iguales.

-
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
// `
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
`
`
`
`
`
`
`
`
`
`
`
`
`
`
v
-v
u
u-v
u+v
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

`
`
`
`
`
`
`
`
`
`
`

Por tanto, (u + v) (u + v) = (u − v) (u − v). Sustituyendo las coordenadas de los vectores en
los dos productos escalares, desarrollando y simplificando, tenemos:
2u
1
v
1
+ 2u
2
v
2
+ 2u
3
v
3
= −2u
1
v
1
−2u
2
v
2
−2u
3
v
3
de donde si los vectores u y v son perpendiculares u ortogonales, u
1
v
1
+u
2
v
2
+u
3
v
3
= 0, es decir, su
producto escalar es cero. Rec´ıprocamente, puede comprobarse que si su producto escalar es cero, los
vectores son perpendiculares.
El concepto de ortogonalidad se generaliza a R
n
:
Definici´ on 2:
Dos vectores de R
n
son ortogonales si su producto escalar es nulo.
Si u es ortogonal a v, escribimos u ⊥ v. Entonces la definici´on anterior se expresa por:
u ⊥ v ≡ u v = 0.
202
Para hacer c´ alculos sin sustituir todas las coordenadas y para una posible generalizaci´on posterior
observemos que el producto escalar tiene las propiedades 1), 2), 3) y 2’) siguientes: es sim´etrico, lineal
en cada una de las variables vectores que multiplicamos, y tiene la propiedad de ser definido positivo
expresada en 3):
1)∀u, v ∈ R
n
, u v = v u
2)
_
∀u, u

, v ∈ R
n
, (u +u

) v = u v +u

v.
∀u ∈ R
n
, ∀c ∈ R, cu v = c(u v).
3)∀u ∈ R
n
, u u ≥ 0 y u u = 0 ≡ u = 0.
2’) Aunque en 2) s´ olo hemos explicitado la linealidad del producto escalar en la primera variable,
de la simetr´ıa del producto escalar y de 2) se sigue la linealidad en la segunda variable, an´ aloga a 2),
para v.
La linealidad del producto escalar en las dos variables se expresa diciendo que el producto escalar
es una forma bilineal.
Por la propiedad definida positiva del producto escalar, ning´ un vector distinto de cero es ortogonal
a ´el mismo.
Veamos ahora c´ omo, sin sustituir coordenadas, utilizando las propiedades 1) y 2) del producto
escalar podemos comprobar de nuevo, que la recta de direcci´on u es perpendicular a la recta de
direcci´ on v si y s´olo si el producto escalar u v es nulo: el extremo del vector u es equidistante de
los extremos de v y de −v, por lo que |u − v|
2
= |u − (−v)|
2
= |u + v|
2
. Al desarrollar los dos
extremos de esta igualdad utilizando la bilinealidad y la simetr´ıa, tenemos:
u u −2u v +v v = |u −v|
2
= |u +v|
2
= u u + 2u v +v v,
o equivalentemente, 4u v = 0 ≡ u v = 0.
Tambi´en, utilizando la linealidad y la simetr´ıa del producto escalar, tenemos en R
n
el teorema
de Pit´agoras generalizado:
Los vectores u y v son ortogonales si y s´olo si |u +v|
2
= |u|
2
+|v|
2
.
En efecto:
|u+v|
2
= (u+v)(u+v) = uu+uv+vu+vv = |u|
2
+|v|
2
+2uv = |u|
2
+|v|
2
si y s´ olo si uv = 0
.
203
Ejercicios:
7.1.1. Demostrar:
|u
1
+u
2
+ +u
n
|
2
= |u
1
|
2
+|u
2
|
2
+ +|u
n
|
2
si los vectores ¦u
i
¦ ⊂ R
n
son ortogonales dos a dos.
7.1.2. Sean u y v vectores de R
n
. Demostrar:
a) |u +v|
2
+|u −v|
2
= 2(|u|
2
+|v|
2
). (ley del paralelogramo).
b) |u +v|
2
−|u −v|
2
= 4u v. (identidad de polarizaci´on).
c) |u +v|
2
−|u|
2
−|v|
2
= 2u v.
7.1.3. Demostrar que dados dos vectores u y v cualesquiera, los vectores u + v y u − v son
ortogonales si y s´ olo si |u| = |v|.
7.1.4. Demostrar:
a) Las diagonales de un rombo son perpendiculares.
b) Un paralelogramo es un rombo si sus diagonales son perpendiculares.
7.1.5. Demostrar que las bisectrices de dos rectas secantes de R
3
son perpendiculares utilizando
el problema 7.1.3.
204
La ortogonalidad es tambi´en ´ util cuando se combina con el concepto de base. Vamos a verlo.
Bases Ortogonales.
Un conjunto ortogonal de vectores es un conjunto de vectores no nulos en el que cada dos vectores
distintos son ortogonales.
Ejemplos de vectores ortogonales dos a dos son los de las bases can´ onicas de R
2
´ o de R
3
. Se
comprueba f´acilmente que sus productos escalares cruzados son nulos.
Proposici´on 1: Todo conjunto ortogonal de vectores distintos de cero es un conjunto indepen-
diente de vectores:
Demostraci´ on:
Consideremos un conjunto ¦x
1
, x
2
, ..., x
k
¦ de k vectores ortogonales dos a dos: sea
λ
1
x
1

2
x
2
+... +λ
k
x
k
= 0
Multiplicando escalarmente esta combinaci´on lineal por el vector x
i
tenemos:

1
x
1

2
x
2
+... +λ
k
x
k
) x
i
= 0
es decir,

1
x
1
) x
i
+ (λ
2
x
2
) x
i
+...(λ
k
x
k
) x
i
= 0
por tanto,
0 = (λ
i
x
i
) x
i
= λ
i
(x
i
x
i
)
como x
i
x
i
> 0, ha de ser λ
i
= 0 ∀ i, que era lo requerido para que los vectores fueran independientes.
Corolario: Un conjunto ortogonal de n vectores distintos de cero de R
n
forman una base.
Las bases formadas por conjuntos ortogonales se llaman bases ortogonales y son interesantes
porque las coordenadas de un vector en una base ortogonal pueden calcularse de una manera directa
utilizando el producto escalar:
Teorema 1: Si ¦v
1
, v
2
, ..., v
n
¦ son una base ortogonal de R
n
, y x es un vector de R
n
, las coorde-
nadas de x en esta base son:
(
x v
1
v
1
v
1
, ...,
x v
i
v
i
v
i
, ...,
x v
n
v
n
v
n
).
205
Demostraci´ on: Sea x = x
1
v
1
+ + x
i
v
i
+ + x
n
v
n
, haciendo el producto escalar de x por v
1
,
tenemos:
x v
1
= (x
1
v
1
+ +x
i
v
i
+ +x
n
v
n
) v
1
= (x
1
v
1
) v
1
+ + (x
i
v
i
) v
1
+ + (x
n
v
n
) v
1
=
= x
1
(v
1
v
1
) + 0 + + 0 = x
1
(v
1
v
1
)
de donde despejando x
1
, tenemos la expresi´on de x
1
en el teorema. Haciendo lo an´ alogo para las
coordenadas restantes tenemos sus expresiones en el teorema.
Si los vectores de una base ortogonal est´an normalizados la base se llama ortonormal. En este
caso, si la base es ¦u
1
, u
2
, ..., u
n
¦, x
i
= x u
i
. Y el vector x se expresa:
x = (x u
1
)u
1
+ (x u
2
)u
2
+ + (x u
i
)u
i
+ + (x u
n
)u
n
Ejercicios:
7.2.1. Comprobar que son bases ortonormales de R
3
con el producto escalar usual, las siguientes:
B
1
= ¦(1/3(2, −2, 1), 1/3(2, 1, −2), 1/3(1, 2, 2)¦ B
2
= ¦(1/7(2, 3, 6), 1/7(6, 2, −3), 1/7(3, −6, 2)¦
7.2.2. Hallar las coordenadas del vector (1, 1, 1) en las bases anteriores.
206
Ortogonalidad entre subespacios.
Tambi´en se define la ortogonalidad entre subespacios: Si U y V son dos subespacios de R
n
,
U es ortogonal a V si y s´ olo si ∀u ∈ U y ∀v ∈ V, u v = 0.
U es ortogonal a V se escribe U ⊥ V .
Proposici´on 2: U ⊥ V ⇒U ∩ V = 0.
En efecto, si w ∈ U ∩ V , por ser w ∈ U y w ∈ V , es w w = 0, lo que implica w = 0, por ser el
producto escalar definido positivo.
Por ello, si U y V son ortogonales, U +V = U ⊕V .
Ejercicio:
7.3.1. Comprobar que el subespacio U es ortogonal a V si y s´ olo si todos los vectores de U son
ortogonales a los vectores de una base de V.
Complemento Ortogonal.
Dado un subespacio U, hay un subespacio ortogonal a U que contiene a todos los subespacios
ortogonales a U, es el llamado complemento ortogonal del subespacio dado. Lo denotaremos por
U

. Es el conjunto de todos los vectores que son ortogonales a todos los de U. Es f´ acil de comprobar
(y es un ejercicio conveniente) que este conjunto es un subespacio vectorial en virtud de la linealidad
del producto escalar en cada uno de sus factores. Tambi´en hemos visto antes que dos subespacios
ortogonales s´ olo se intersecan en el cero. Por ello, U ∩ U

= 0. Para justificarle el nombre de
complemento tenemos que demostrar que su dimensi´ on es igual a la dimensi´ on del espacio total
menos la dimensi´ on de U, con lo cual U y U

ser´ an complementarios, es decir, R
n
= U ⊕U

.
Observemos que un vector v est´ a en U

si y s´olo si es ortogonal a todos los vectores de una base
escogida de U (compru´ebese tambi´en).
Sea la base de U ¦u
1
= (a
11
, a
12
, ...a
1n
), u
2
= (a
21
, a
22
, ...a
2n
), , u
p
= (a
p1
, a
p2
, ...a
pn
)¦, la
ortogonalidad de un vector x = (x
1
, x
2
, , x
n
) con los ¦u
i
¦
i∈{1...p}
es equivalente a las igualdades:
(x u
i
= 0)
_
¸
¸
_
¸
¸
_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= 0

a
p1
x
1
+a
p2
x
2
+ +a
pn
x
n
= 0
Estas igualdades son un sistema de p ecuaciones con n inc´ ognitas, cuya matriz de coeficientes es
la matriz que tiene por filas las coordenadas de cada uno de los vectores de la base de U. Por ser
207
estos vectores independientes, el rango de esta matriz es p y por tanto la dimensi´ on del subespacio
de soluciones del sistema (que es el complemento ortogonal), es n −p = n −dim(U).
Resumiendo, tenemos:
U

es un subespacio vectorial de dimensi´ on n−dim(U) y U∩U

= 0, de donde U+U

= U⊕U

y como dim(U ⊕U

) = dim(U) +dim(U

) = dim(U) +n −dim(U) = n, U ⊕U

= R
n
.
Al mismo tiempo observemos que U

puede tener distintos sistemas de ecuaciones correspon-
dientes a distintas bases del subespacio U dado. Pero el complementario de un subespacio vectorial
es ´ unico por la forma de definirlo; lo que ocurre es que los distintos sistemas de ecuaciones correspon-
dientes a distintas bases son equivalentes porque los vectores de una base de U son combinaciones
lineales de los vectores de otra base de U. (Las transformaciones que llevan los vectores de una base a
los vectores de la otra base se pueden traducir en transformaciones elementales que llevan un sistema
al otro).
Ejercicios:
7.4.1. Hallar una base de W

siendo W los siguientes subespacios:
a) W=/¦u, v¦ ⊂ R
3
donde u = (1, 0, 1) y v = (2, −1, 1).
b) W=/¦u, v¦ ⊂ R
4
donde u = (1, 0, 1, 0) y v = (2, −1, 1, 0).
c)
W =
_
x ∈ R
4
¸
¸
¸
¸
x
1
+x
2
+x
3
+x
4
= 0
2x
1
−x
2
= 0
_
Ejemplos de subespacios complementarios ortogonales:
Dada una matriz A, podemos considerar el subespacio de R
n
engendrado por los vectores filas
de A, lo llamamos el espacio fila de A y podemos considerar el espacio de las soluciones del sistema
AX = 0, que llamamos espacio nulo de A. Estos dos subespacios son ortogonales y complementarios.
Por ello, dado un plano de R
3
por la ecuaci´ on Ax +By +Cz = 0, su complemento ortogonal es
la recta engendrada por el vector (A, B, C).
Cuando una recta de R
3
viene dada como intersecci´ on de dos planos de ecuaciones
Ax+By+Cz=0, A’x+B’y+C’z=0, el subespacio ortogonal a la recta est´a engendrado por los
vectores (A,B,C) y (A’,B’,C’).
La observaci´ on de que el producto vectorial de dos vectores es ortogonal a los dos vectores factores
da un m´etodo para hallar un generador del complementario ortogonal en R
3
de un plano dado por
dos vectores independientes.
208
Teorema de Tellegen.
Otra aplicaci´on de la ortogonalidad puede demostrar un teorema de electricidad llamdo teorema
de Tellegen. (Tomado del libro Algebra Lineal y sus Aplicaciones. G. Strang).
Consideramos una red formada por las aristas de un tetraedro; son seis aristas convergentes en
cuatro nodos. (Ver p´agina siguiente).
Llamamos p
1
, p
2
, p
3
, p
4
a los potenciales en cada uno de los nodos e I
1
, I
2
, I
3
, I
4
, I
5
, I
6
a las inten-
sidades que corren por cada arista. Si E
1
, E
2
, E
3
, E
4
, E
5
, E
6
son las diferencias de potencial en cada
arista, se cumple:
I
1
E
1
+I
2
E
2
+I
3
E
3
+I
4
E
4
+I
5
E
5
+I
6
E
6
= 0
Demostraci´ on:
Podemos escribir:
(E
1
, E
2
, E
3
, E
4
, E
5
, E
6
) = (p
1
, p
2
, p
3
, p
4
)
_
_
_
_
1 0 −1 1 0 0
−1 1 0 0 1 0
0 −1 1 0 0 −1
0 0 0 −1 −1 1
_
_
_
_
(1)
¸

- `
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`
`´`

´
p
1
p
2
p
3
p
4
I
1
I
2
I
3
I
6
I
5
I
4
Tambi´en, por la primera ley de Kirchoff, en cada nodo la suma de las intensidades que entran es
igual a la suma de las intensidades que salen, por tanto:
209
I
3
= I
1
+I
4
I
1
= I
2
+I
5
I
2
+I
6
= I
3
I
4
+I
5
= I
6
Pasando todos los t´erminos al segundo miembro en estas ecuaciones, obtenemos un sistema ho-
mog´eneo en las intensidades, que se puede escribir:
_
_
_
_
1 0 −1 1 0 0
−1 1 0 0 1 0
0 −1 1 0 0 −1
0 0 0 −1 −1 1
_
_
_
_
_
_
_
_
_
_
_
_
I
1
I
2
I
3
I
4
I
5
I
6
_
_
_
_
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
(2)
Volvemos ahora a la expresi´on (1) y vemos que expresa la fila de las diferencias de potencial como
combinaci´ on lineal de las filas de la matriz de los coeficientes de este sistema de ecuaciones lineales.
Por otra parte, (2) expresa la columna de las intensidades como ortogonal para el producto escalar
usual de R
6
a cada una de las filas de esa matriz.
Como el producto escalar es lineal, la propiedad (2) de la definici´ on implica que la columna de
las intensidades es tambi´en ortogonal a cualquier combinaci´ on lineal de las filas de esa matriz, en
particular, a la fila de las diferencias de potencial.
Al multiplicar escalarmente la fila de las diferencias de potencial por la columna de las intensi-
dades, obtenemos la expresi´ on del Teorema.
210
Proyecciones en general.
Veamos ahora que, en general, si R
n
= U ⊕ W, la descomposici´ on de un vector y ∈ R
n
como
suma de un vector de U y otro de W es ´ unica. Esto quiere decir que si u +w = y = u

+w

, donde
u, u

∈ U y w, w

∈ V , se tiene u = u

y w = w

.
En efecto,
u +w = u

+w

⇒u −u

= w

−w ∈ U ∩ V ⇒u −u

= w

−w = 0 ⇒u = u

y w

= w.
La unicidad de la descomposici´ on de los vectores por una suma directa permite asociar a cada
vector gen´erico y el ´ unico vector sumando u de U. Esta aplicaci´on se llama, en general, proyecci´ on
sobre U paralela al subespacio W y si W = U

se llama proyecci´on ortogonal. Debe comprobarse
como ejercicios:
7.5.1. Demostrar que la aplicaci´ on proyecci´ on es una aplicaci´on lineal.
7.5.2. Demostrar que si p es una aplicaci´ on proyecci´ on, p
2
= p.
7.5.3. Demostrar que si p es una aplicaci´ on proyecci´ on, I −p es otra aplicaci´ on proyecci´ on.
7.5.4. Comprobar que si p es una aplicaci´ on proyecci´ on, (I −p)
2
= I −p.
Por ser lineal, la aplicaci´on proyecci´ on se expresa por una matriz, una vez elegida una base de
R
n
.
Dado el procedimiento que hemos seguido para definir la proyecci´on, la manera natural de hallar
su matriz es considerar que en una proyecci´ on sobre un espacio U, los vectores de U quedan fijos y
los vectores de W se proyectan en el el cero. En una base de R
n
formada por la yuxtaposici´ on de
una base de U y una base de W (que puede ser U

), la matriz de la proyecci´ on es:
_
I
p
0
0 0
_
donde p es la dimensi´on de U. En la base can´onica de R
n
, la matriz de la proyecci´on es:
C
_
I
p
0
0 0
_
C
−1
donde C es la matriz que tiene en columnas las coordenadas de los vectores de la base (de R
n
)
yuxtaposici´ on de una base de U y otra base de W.
Debido a que si n es grande, la inversa de la matriz C puede ser pesada de calcular, vamos a
estudiar tambi´en otros m´etodos para hallar las matrices de las proyecciones ortogonales.
211
Proyecciones Ortogonales.
Dada la matriz de una proyecci´on, se puede hallar la proyecci´on de un vector multiplicando la matriz de la
proyecci´on por la columna correspondiente al vector. Tambi´en se puede hallar la proyecci´on de un vector directamente
realizando su descomposici´on en suma. Adem´as, en el caso de las proyecciones ortogonales se puede hallar la proyecci´on
de un vector utilizando el producto escalar.
En el sentido geom´etrico com´ un proyectar ortogonalmente un punto sobre una recta o sobre un
plano es obtener un punto de la recta o del plano trazando la perpendicular a la recta o al plano por
el punto dado.
En sentido anal´ıtico, en R
n
, para proyectar ortogonalmente un vector sobre una recta, sobre un
plano o sobre un subespacio de dimensi´ on mayor, descomponemos el vector dado en suma de un
vector del subespacio sobre el que estamos proyectando y de otro vector perpendicular a ´el, o lo que
es lo mismo, perteneciente al subespacio ortogonal al subespacio considerado. Siendo la proyecci´ on
del vector sobre el subespacio, el vector obtenido en el subespacio considerado.
La descomposici´ on puede hacerse c´omodamente utilizando el producto escalar. Lo vemos a con-
tinuaci´ on.
Proyecci´ on ortogonal de un vector sobre una recta.
Si la recta est´a engendrada por el vector v, la proyecci´ on sobre esa recta de un vector y es un
vector de la forma cv, tal que y = cv +w, donde w ⊥ v; entonces,
y v = (cv +w) v = cv v +w v = c(v v),
de donde c =
y·v
v·v
y cv =
y·v
v·v
v. Expresamos esta proyecci´on por P
U
y y tenemos:
P
U
y =
y v
v v
v.
Ejercicio:
7.6.1. Comprobar que el vector P
U
y no depende del generador v que cojamos de la recta.
Volviendo a mirar las coordenadas de un vector en una base ortogonal, (p´ ag 206), vemos que
´estas coinciden con los coeficientes de las proyecciones del vector sobre las rectas engendradas por los
vectores de la base. Y tambi´en vemos que el vector es la suma de sus proyecciones sobre esas rectas.
212
Proyecci´ on ortogonal de un vector sobre un subespacio.
Dado un subespacio U = /¦v
1
, ..., v
p
¦, la proyecci´on de y sobre U es un vector u de U tal que
y = u +w, donde w ⊥ u (w ∈ U

).
La validez de la definici´ on estriba en el hecho de que el vector de U que buscamos es ´ unico. Esta
unicidad se sigue del razonamiento conceptual, hecho para proyecciones en general.
Escribamos P
U
y = u para calcularlo.
Por ser P
U
y ∈ U, tendr´ıamos: P
U
y = c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
, y
y = c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w donde w v
i
= 0 ∀i
Calcular P
U
y es calcular los coeficientes c
1
, c
2
, ..., c
p
. Para ello tenemos:
y v
1
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w) v
1
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
) v
1
=
c
1
v
1
v
1
+ +c
i
v
i
v
1
+ +c
p
v
p
v
1

y v
j
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w) v
j
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
) v
j
=
c
1
v
1
v
j
+ +c
i
v
i
v
j
+ +c
p
v
p
v
j

y v
p
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w) v
p
= (c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
) v
p
=
c
1
v
1
v
j
+ +c
i
v
i
v
j
+ +c
p
v
p
v
p
considerando las c
i
como inc´ognitas, cuyo valor determina P
U
y, hemos encontrado el sistema:
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
y v
1
= c
1
v
1
v
1
+ + c
i
v
i
v
1
+ + c
p
v
p
v
1

y v
j
= c
1
v
1
v
j
+ + c
i
v
i
v
j
+ + c
p
v
p
v
j

y v
p
= c
1
v
1
v
p
+ + c
i
v
i
v
p
+ + c
p
v
p
v
p
Este sistema siempre tiene soluci´ on ´ unica debido a que la definici´ on de la aplicaci´ on proyecci´on
es buena. Seg´ un el teorema de Rouch´e-Frobenius la matriz de los coeficientes de este sistema es
invertible, pudi´endose resolver el sistema por Cramer o por Gauss.
Vamos a observar que si la base ¦v
1
, ..., v
i
, ...v
p
¦ de U es ortogonal, la matriz de los coeficientes
es diagonal y se puede obtener para cada i:
c
i
=
y v
i
v
i
v
i
por lo que en este caso:
P
U
y =
y v
1
v
1
v
1
v
1
+
y v
2
v
2
v
2
v
2
+ +
y v
p
v
p
v
p
v
p
213
Esta es una de las razones de la importancia de las bases ortogonales.
Si la base es ortonormal, c
i
= y v
i
.
Ya que hemos utilizado una base de U para obtener la proyecci´ on del vector sobre el subespacio
U, es posible plantearse la cuesti´ on sobre si el vector proyecci´ on obtenido es dependiente de la base
utilizada. Pero no es as´ı, porque ya hemos visto que la descomposici´ on de un vector por una suma
directa es ´ unica y la aplicaci´ on proyecci´ on est´ a bien definida.
Otra forma de obtener la matriz de la proyecci´on en la base ¦e
1
, e
2
, ..., e
n
¦ es tener en cuenta que
sus columnas son las coordenadas de las im´agenes de los vectores de la base y hallar por tanto, una
a una, las proyecciones p
U
(e
i
) de los vectores de la base, una vez encontrada una base ortogonal
¦v
1
, v
2
, , v
p
¦ de U, por la f´ormula:
P
U
(e
i
) =
e
i
v
1
v
1
v
1
v
1
+
e
i
v
2
v
2
v
2
v
2
+ +
e
i
v
p
v
p
v
p
v
p
donde e
i
recorre los vectores de la base can´ onica de R
n
.
Si consideramos una base ortonormal de U, esta f´ ormula se simplifica pero puede ser que los
vectores se compliquen al tener que dividirlos por raices cuadradas.
Ejercicios:
7.7.1. Siendo U = /¦(1, 0, 1), (2, −1, 1)¦¦ ⊂ R
3
, hallar
a) Una base ortogonal de U.
b) La proyecci´on ortogonal del vector (1, 1, 1) sobre U.
c) La matriz (en la base can´ onica) de la aplicaci´on proyecci´on ortogonal de R
3
sobre U por los
dos m´etodos para comprobar que sale lo mismo.
7.7.2. Siendo U el subespacio de R
3
de ecuaci´ on x+y+z = 0, resolver los tres apartados an´ alogos
a los del problema anterior.
7.7.3. Dados los vectores u
1
= (2, 1, 1, −1), u
2
= (1, 1, 3, 0) de R
4
y el vector a = (5, 2, −2, 2),
descomponer el vector a = b +c donde b es un vector perteneciente al subespacio /¦u
1
, u
2
¦ y c es un
vector perteneciente al ortogonal a dicho subespacio.
7.7.4. Dados los vectores u
1
= (1, 2, 0, −1, 1), u
2
= (0, 1, −1, 1, 0) de R
5
y el vector a =
(0, 0, 1, 2, 1), descomponer el vector a = b + c donde b es un vector perteneciente al subespacio
/¦u
1
, u
2
¦ y c es un vector perteneciente al ortogonal a dicho subespacio.
7.7.5. Hallar la matriz de la proyecci´ on ortogonal de R
4
sobre /¦(1, 1, −1, 0), (0, 0, 2, 1)¦.
7.7.6. Hallar la matriz de la proyecci´ on ortogonal de R
4
sobre el subespacio
U = /¦(1, 1, −1, 0), (0, 0, 2, 1), (0, 1, 1, 1)¦. (Usar el ortogonal a U).
214
Teorema de la aproximaci´ on ´optima:
La importancia de la proyecci´on ortogonal de un vector sobre un subespacio est´ a en que da el
vector del subespacio que m´as se acerca o aproxima al vector dado. Por ello, la distancia del punto
a un subespacio es la distancia del punto a la proyecci´ on ortogonal de su vector de posici´on sobre el
subespacio. Esto se demuestra en el teorema de la aproximaci´on ´ optima:
Dado un vector y de R
n
y un subespacio U ⊂ R
n
, si ´ y = P
U
y, |y − ´ y| ≤ |y −u| ∀u ∈ U.
Demostraci´ on:
Por el teorema de Pit´ agoras generalizado,
∀u ∈ U, |y −u|
2
= |y − ´ y + ´ y −u|
2
= |y − ´ y|
2
+|´ y −u|
2
≥ |y − ´ y|
2
al ser y − ´ y ∈ U

, ´ y −u ∈ U,
Ejercicios:
7.8.1 Hallar la distancia del vector a al subespacio /¦u
1
, u
2
¦ en los problemas 7.7.3 y 7.7.4
anteriores.
7.8.2. Dado el plano π de ecuaci´ on Ax + By + Cz = 0 y el punto p de coordenadas (a, b, c),
demostrar que la distancia de p a π es
d(p, π) =
[Aa +Bb +Cc[

A
2
+B
2
+C
2
.
215
M´etodo de Aproximaci´ on de M´ınimos Cuadrados.
El teorema de Rouch´e-Frobenius da condiciones necesarias y suficientes para que un sistema de
ecuaciones de la forma AX = b sea compatible, es decir, para que exista un X tal que AX −b = 0.
Nos podemos preguntar, en el caso en que el sistema sea incompatible, si existe una aproximaci´ on
´ optima de la soluci´on, es decir, unos valores de las inc´ ognitas X, tales que la diferencia AX −b sea
m´ınima. La respuesta es que el problema de la aproximaci´on ´optima siempre tiene soluci´on, y a veces
no ´ unica.
Como siempre, para llegar a la soluci´ on de un problema, lo estudiamos y hacemos observaciones:
Si existe una soluci´ on del sistema, el vector b es combinaci´ on lineal de los vectores columnas
de A con coeficientes precisamente iguales a las soluciones del sistema. Si no existe soluci´on, al
probar distintos valores de las inc´ognitas como posibles aproximaciones, y realizar la operaci´ on AX,
obtenemos vectores que pertenecen al espacio engendrado por los vectores columnas de A. Si de todos
estos vectores AX queremos el que m´as se aproxime a b, podemos pensar en el anterior Teorema
de la aproximaci´ on ´ optima y considerar que el vector que estamos buscando es de los vectores del
subespacio engendrado por las columnas de A, el m´ as pr´oximo a b, es decir, la proyecci´on ortogonal
de b sobre dicho subespacio.
Por tanto, para aproximar el problema, podemos proyectar ortogonalmente el vector b sobre el
subespacio engendrado por las columnas de A (que vamos a llamar espacio columna de A), y si es
´
b
esta proyecci´ on, resolver despu´es el sistema AX =
´
b que siempre tiene soluci´ on.
Pero podemos elaborar un poco m´as el procedimiento.
Nuestra soluci´on
´
X que verificara A
´
X =
´
b es la que verifica que A
´
X − b =
´
b − b es ortogonal
al espacio engendrado por las columnas de A; La condici´on necesaria y suficiente para ello es que
el vector A
´
X − b sea ortogonal a todos los vectores columna de A. O lo que es lo mismo, que el
producto escalar de estos vectores columna y el vector A
´
X − b sea cero. Podemos expresar en una
s´ ola ecuaci´ on matricial la ortogonalidad requerida por
t
A(A
´
X −b) = 0 ≡
t
AA
´
X =
t
Ab
La soluci´ on del ´ ultimo sistema es ´ unica si la matriz
t
AA es invertible y m´ ultiple, si la matriz no
es invertible.
Cuando la soluci´on es ´ unica, ´esta es
´
X = (
t
AA)
−1t
Ab.
En este caso, es la ´ unica aproximaci´ on ´ optima a una soluci´ on del sistema incompatible AX = b.
Podemos demostrar ahora que la matriz
t
AA es invertible si y s´olo si las columnas de A son
independientes.
216
Por una parte, la matriz
t
AA es invertible si y s´ olo si el sistema
t
AAX = 0 tiene ´ unicamente la
soluci´ on trivial.
Por otra parte, al resolver el sistema AX = 0, estamos tratando de encontrar los coeficientes que
hay que poner a las columnas de A para obtener una combinaci´ on lineal nula; estos coeficientes son
´ unicamente ceros si las columnas de A son independientes. Entonces vemos que AX = 0 tiene s´ olo
la soluci´on trivial si y s´ olo si las columnas de A son independientes.
Viendo que las soluciones de
t
AAX = 0 y de AX = 0 son las mismas quedar´ a establecida la
equivalencia enunciada. En efecto:
t
AAX = 0 ⇒X
tt
AAX = 0 ⇒AX = 0 ⇒
t
AAX = 0
217
Aplicaci´ on del m´etodo de m´ınimos cuadrados a la regresi´ on lineal.
Cuando se cree que existe una dependencia lineal entre dos magnitudes x e y, es decir, se cree que
y = cx +d para ciertos c y d, se trata de determinar c y d haciendo experimentos. Si la dependencia
lineal fuera perfecta y las medidas de los experimentos tambi´en, haciendo dos experimentos en los
que a la magnitud variable x di´eramos los valores x
1
y x
2
distintos, para los cuales midi´eramos y
1
e
y
2
, las dos relaciones
_
y
1
= cx
1
+d
y
2
= cx
2
+d
dar´ıan un sistema de dos ecuaciones con las dos inc´ ognitas c y d con soluci´ on ´ unica. Entonces, al
hacer m´ as experimentos, si ´estos y las medidas fueran perfectos, al darle a la magnitud variable x el
valor x
i
obtendr´ıamos un valor y
i
tal que y
i
= cx
i
+d. Y los pares de valores (x
i
, y
i
), que se pueden
representar por puntos en el plano, quedar´ıan alineados y todos sobre la recta de ecuaci´ on y = cx+d.
experimentos ideales
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Pero en la pr´ actica, la dependencia lineal no es perfecta y las medidas en los experimentos no son
exactas, por lo que al hacer los experimentos y representar los puntos (x
i
, y
i
) obtenidos, se obtiene
una nube de puntos que admitimos que se aproxima a la gr´afica de una recta. Entonces, el problema
consiste en determinar cu´ al es la recta que m´ as se aproxima a la nube de puntos representada y como
se trata de una aproximaci´ on, utilizamos el m´etodo de los m´ınimos cuadrados.
218
experimentos reales
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Supongamos que tenemos un conjunto de parejas de valores ¦(x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
)¦ obtenidos
experimentalmente. Si existiera una recta de ecuaci´ on y = cx +d conteniendo a todos los puntos, el
sistema:
_
¸
¸
¸
_
¸
¸
¸
_
y
1
= cx
1
+d
y
2
= cx
2
+d
.
.
.
.
.
.
y
n
= cx
n
+d
ser´ıa satisfecho para ciertos valores de c y de d, es decir, tendr´ıa soluci´on en las inc´ ognitas c y d. Si
no est´an contenidos en una recta, no existe esa soluci´ on.
El sistema anterior lo podemos escribir matricialmente:
_
_
_
_
_
x
1
1
x
2
1
.
.
.
x
n
1
_
_
_
_
_
_
c
d
_
=
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
donde las inc´ognitas son c y d y la matriz de los coeficientes correspondiente a la discusi´ on te´ orica
general es:
A =
_
_
_
_
_
x
1
1
x
2
1
.
.
. 1
x
n
1
_
_
_
_
_
219
Si todas las x
i
son iguales, todos los puntos est´ an sobre una recta vertical, por tanto no es el caso
que nos ocupa.
Es suficiente que haya dos x
i
distintas para que las dos columnas de A sean independientes y por
tanto que la matriz
t
AA sea invertible.
Utilizando la f´ ormula obtenida anteriormente en el m´etodo de m´ınimos cuadrados, las aproxima-
ciones ´optimas para c y d son:
_
c
d
_
=
_
_
_
_
_
x
1
x
2
x
n
1 1 1
_
_
_
_
_
x
1
1
x
2
1

x
n
1
_
_
_
_
_
_
_
_
−1
_
x
1
x
2
x
n
1 1 1
_
_
_
_
_
y
1
y
2

y
n
_
_
_
_
Haciendo operaciones:
_
c
d
_
=
_
n
i=1
x
2
i

n
i=1
x
i

n
i=1
x
i
n
_
−1
_
n
i=1
x
i
y
i

n
i=1
y
i
_
=
=
1
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
_
n −

n
i=1
x
i

n
i=1
x
i

n
i=1
x
2
i
__
n
i=1
x
i
y
i

n
i=1
y
i
_
O sea,
c =
n

n
i=1
x
i
y
i
−(

n
i=1
x
i
)(

n
i=1
y
i
)
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
d =
−(

n
i=1
x
i
)(

n
i=1
x
i
y
i
) + (

n
i=1
x
2
i
)(

n
i=1
y
i
)
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
Tambi´en, aparentemente m´as simple para d, es la f´ ormula:
d =

n
i=1
y
i
−c

n
i=1
x
i
n
Comprobemos que son iguales.

n
i=1
y
i
−c

n
i=1
x
i
n
=
1
n
(
n

i=1
y
i

n

n
i=1
x
i
y
i
−(

n
i=1
x
i
)(

n
i=1
y
i
)
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
n

i=1
x
i
) =
=
1
n
(

n
i=1
y
i
)(n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
) −(n

n
i=1
x
i
y
i
−(

n
i=1
x
i
)(

n
i=1
y
i
))

n
i=1
x
i
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
=
220
=
1
n
n(

n
i=1
y
i
)(

n
i=1
x
2
i
) −(

n
i=1
y
i
)(

n
i=1
x
i
)
2
−n(

n
i=1
x
i
y
i
)(

n
i=1
x
i
) + (

n
i=1
x
i
)
2
(

n
i=1
y
i
)
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
=
=
(

n
i=1
y
i
)(

n
i=1
x
2
i
) −(

n
i=1
x
i
y
i
)

n
i=1
x
i
n

n
i=1
x
2
i
−(

n
i=1
x
i
)
2
Aplicaci´on del m´etodo de m´ınimos cuadrados a la obtenci´on de la matriz de la apli-
caci´ on proyecci´ on ortogonal sobre un subespacio.
La proyecci´on sobre un subespacio puede ser aplicada a un vector cualquiera. En ese sentido es
una aplicaci´on de R
n
en R
n
y puede demostrarse como un ejercicio que es lineal. Es un endomorfismo
de R
n
.
Llegados a este punto vamos a aprovechar la expresi´on del vector
´
b, proyecci´ on de b sobre el
espacio columna de A para obtener la expresi´on matricial de la aplicaci´ on lineal proyecci´ on sobre un
subespacio U.
En el desarrollo anterior, cuando la soluci´ on es ´ unica: (cuando
t
AA es una matriz invertible o
equivalentemente las columnas de A son una base de U),
´
b es la proyecci´on de b sobre U, siendo
´
b = A
´
X = A(
t
AA)
−1t
Ab
Si queremos proyectar un vector gen´erico x sobre un subespacio U, construimos la matriz A cuyas
columnas son un conjunto de vectores base de U y vemos que entonces
t
AA es una matriz invertible,
despu´es aplicamos la f´ormula anterior a x. De forma que
P
U
(x) = A
´
X = A(
t
AA)
−1t
Ax
Por tanto, la aplicaci´ on proyecci´ on que hace corresponder a cada vector x su proyecci´on sobre el
subespacio es una aplicaci´ on lineal que tiene de matriz A(
t
AA)
−1t
A.
Si comparamos este m´etodo con el primero desarrollado para obtener la matriz de una proyecci´ on
observamos que tambi´en tenemos que hallar la inversa de una matriz pero pp, siendo p la dimensi´ on
de U en lugar de n n y nos ahorramos el trabajo de hallar la base de U

.
Ejercicios:
7.9.1. Comprobar con la f´ ormula obtenida en ´ ultimo lugar, las matrices obtenidas para las
proyeciones ortogonales en los problemas 7.6.*.
221
ESPACIO EUCL
´
IDEO GENERAL.
Condiciones necesarias y suficientes para que una matriz corresponda a un
producto escalar.
Una generalizaci´ on m´as del Producto Escalar.
Hemos dado la definici´ on de producto escalar usual utilizando las coordenadas de los vectores en
la base can´ onica. La base can´ onica es un instrumento auxiliar para definir ese producto; podemos
prescindir de ella utilizando solamente las propiedades del producto escalar que lo caracterizan,
obteni´endo as´ı una definici´on de mayor calidad y de mayor generalidad.
Qued´ andonos con las propiedades 1), 2) y 3) vistas anteriormente del producto escalar en R
n
,
definimos un producto escalar general en un espacio vectorial V
R
real como una aplicaci´on f del
producto cartesiano V
R
V
R
en R, que cumple esas tres condiciones:
Definici´ on 1:
Un producto escalar en un espacio vectorial real V
R
es una aplicaci´ on f : V
R
V
R
→R tal que:
1) f es sim´etrica ≡ f(x, y) = f(y, x).
2) f es lineal en cada variable: (Por la simetr´ıa, es lineal en la segunda variable si lo es en la
primera)
_
∀x, x

, y ∈ R
n
, f(x +x

, y) = f(x, y) +f(x

, y)
∀x ∈ R
n
, ∀c ∈ R, f(cx, y) = cf(x, y).
3) f es definida positiva: ∀x ∈ R
n
, f(x, x) ≥ 0 y f(x, x) = 0 ≡ x = 0.
Como llamamos forma lineal a una aplicaci´ on del espacio vectorial real en R y forma bilineal a
una aplicaci´ on del producto cartesiano V
R
V
R
en R, lineal en cada una de las variables vectores
tenemos, resumidamente, la
Definici´ on 1’:
Un producto escalar en un espacio vectorial real es una forma bilineal, sim´etrica y definida positiva.
Veremos en este cap´ıtulo que dado un producto escalar seg´ un la definici´ on anterior en un espacio
vectorial de dimensi´on finita, existe siempre una base en la que el producto escalar se expresa como
el usual de R
n
. Siendo, por tanto, mediante un cambio de base, esta definici´on equivalente a la del
producto escalar usual; entonces nos quedamos con la definici´on que no depende de la base.
Tambi´en se suele escribir f(x, y) =< x, y >= x y cuando no haya lugar a confusi´ on.
222
Un ejemplo de producto escalar en R
4
es el dado por la expresi´ on:
f(x, y) = x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
En efecto, esta expresi´ on es
1)Sim´etrica: (escribiendo en lo que sigue x y para f(x, y)
y x = y
1
x
1
+y
1
x
2
+y
2
x
1
+ 2y
2
x
2
+ 3y
3
x
3
+y
3
x
4
+y
4
x
3
+y
4
x
4
=
(por la conmutatividad del producto de n´ umeros reales)
= x
1
y
1
+x
2
y
1
+x
1
y
2
+ 2x
2
y
2
+ 3x
3
y
3
+x
4
y
3
+x
3
y
4
+x
4
y
4
=
(por la conmutatividad de la suma de n´ umeros reales)
= x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
= x y
2) Lineal en cada variable:
a)
(x +x

) y =
= (x
1
+x

1
)y
1
+(x
1
+x

1
)y
2
+(x
2
+x

2
)y
1
+2(x
2
+x

2
)y
2
+3(x
3
+x

3
)y
3
+(x
3
+x

3
)y
4
+(x
4
+x

4
)y
3
+(x
4
+x

4
)y
4
=
(por la distributividad del producto)
= x
1
y
1
+x

1
y
1
+x
1
y
2
+x

1
y
2
+x
2
y
1
+x

2
y
1
+2x
2
y
2
+2x

2
y
2
+3x
3
y
3
+3x

3
y
3
+x
3
y
4
+x

3
y
4
+x
4
y
3
+x

4
y
3
+x
4
y
4
+x

4
y
4
=
(por la conmutatividad de la suma)
= x
1
y
1
+x
1
y
2
+x
2
y
1
+2x
2
y
2
+3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
+x

1
y
1
+x

1
y
2
+x

2
y
1
+2x

2
y
2
+3x

3
y
3
+x

3
y
4
+x

4
y
3
+x

4
y
4
=
= x y +x

y
b)
(αx) y =
= (αx)
1
y
1
+ (αx)
1
y
2
+ (αx)
2
y
1
+ 2(αx)
2
y
2
+ 3(αx)
3
y
3
+ (αx)
3
y
4
+ (αx)
4
y
3
+ (αx)
4
y
4
=
= (αx
1
)y
1
+ (αx
1
)y
2
+ (αx
2
)y
1
+ 2(αx
2
)y
2
+ 3(αx
3
)y
3
+ (αx)
3
y
4
+ (αx
4
)y
3
+ (αx
4
)y
4
=
(por la asociatividad del producto de n´ umeros reales)
223
= α(x
1
y
1
) +α(x
1
y
2
) +α(x
2
y
1
) + 2α(x
2
y
2
) + 3α(x
3
y
3
) +α(x
3
y
4
) +α(x
4
y
3
) +α(x
4
y
4
) =
(por la distributividad del producto de n´ umeros reales)
= α(x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
= α(x y)
3) Es definida positiva:
x x = x
1
x
1
+x
1
x
2
+x
2
x
1
+ 2x
2
x
2
+ 3x
3
x
3
+x
3
x
4
+x
4
x
3
+x
4
x
4
=
= x
2
1
+ 2x
1
x
2
+ 2x
2
2
+ 3x
2
3
+ 2x
3
x
4
+x
2
4
= (x
1
+x
2
)
2
+x
2
2
+ 2x
2
3
+ (x
3
+x
4
)
2
≥ 0.
De ser x x = 0, habr´ıa de ser
x
1
+x
2
= 0
x
2
= 0
x
3
= 0
x
3
+x
4
= 0
_
¸
¸
_
¸
¸
_

x
1
= 0
x
2
= 0
x
3
= 0
x
4
= 0
_
¸
¸
_
¸
¸
_
≡ x = 0
Definici´ on 2:
Un Espacio Vectorial Eucl´ıdeo es un espacio vectorial real con un producto escalar f.
En un espacio vectorial eucl´ıdeo podemos definir la longitud o el m´odulo de un vector como
|x| =
_
f(x, x) por ser la forma bilineal f definida positiva. Escribimos este m´odulo por [x[ cuando
no hay lugar a confusi´ on.
El concepto de ortogonalidad se generaliza a un producto escalar general, siendo dos vectores
ortogonales si y s´ olo si su producto escalar es nulo. (x ⊥ y ⇔f(x, y) = 0).
Una base ortogonal es una base tal que cada dos vectores distintos son ortogonales.
Una base ortonormal es una base ortogonal tal que todos sus vectores son de m´ odulo 1.
A partir de una base ortogonal se construye una base ortonormal dividiendo cada vector por su
m´ odulo (calculado con f).
Ejercicios:
7.9.1. Comprobar que es un producto escalar en R
3
, el dado por la expresi´ on:
f(x, y) = x y = (x
1
+x
2
)(y
1
+y
2
) + (x
1
+x
3
)(y
1
+y
3
) + (x
2
+x
3
)(y
2
+y
3
).
7.9.2. Comprobar que es un producto escalar en R
4
, el dado por la expresi´ on:
224
x y = x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
2
y
4
+x
4
y
2
+ 2x
4
y
4
.
7.9.3. Demostrar que vectores ortogonales respecto a un producto escalar general son indepen-
dientes.
7.9.4. Comprobar que las aristas opuestas de un tetraedro regular son ortogonales. Sugerencia:
colocar los v´ertices en los puntos: (0,0,0), (1,1,0),(1,0,1),(0,1,1).
225
Tanto el producto escalar usual como el ejemplo de producto escalar en R
4
que hemos visto vienen
dados por expresiones polinomiales, donde cada monomio tiene un x
i
y un y
j
.
Aunque parezca que un producto escalar general puede ser un ente extra˜ no, como es una forma
bilineal, admite en un espacio de dimensi´on finita una expresi´on polinomial y una expresi´on matricial,
encontr´ andonoslo casi siempre en una de estas dos formas.
Expresi´on polinomial de una forma bilineal en un Espacio Vectorial de dimensi´on
finita.
Se comprueba que todo producto escalar definido en un espacio vectorial de dimensi´ on finita tiene
una expresi´on polinomial haciendo el siguiente desarrollo:
Sea ¦e
1
, e
2
, ...e
n
¦ una base del espacio vectorial V
n
sobre el que est´a definida la forma bilineal.
Sean x = (x
1
, x
2
, ..., x
n
), y = (y
1
, y
2
, ...y
n
) dos vectores del espacio vectorial expresados por sus
coordenadas en esa base y sea f la forma bilineal.
Entonces, por ser f bilineal,
f(x, y) = f(x
1
e
1
+x
2
e
2
+... +x
n
e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
x
1
f(e
1
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+x
2
f(e
2
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+... +x
n
f(e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
= x
1
(y
1
f(e
1
, e
1
)+...+y
n
f(e
1
, e
n
))+x
2
(y
1
f(e
2
, e
1
)+...+y
n
f(e
2
, e
n
))+...+x
n
(y
1
f(e
n
, e
1
)+...+y
n
f(e
n
, e
n
)) =
= x
1
y
1
f(e
1
, e
1
) +... +x
1
y
n
f(e
1
, e
n
) +x
2
y
1
f(e
2
, e
1
) +... +x
2
y
n
f(e
2
, e
n
) +
+x
n
y
1
f(e
n
, e
1
) +... +x
n
y
n
f(e
n
, e
n
) = x
1
Σ
j
y
j
f(e
i
, e
j
) +... +x
n
Σ
j
y
j
f(e
n
, e
j
) =

i,j
x
i
y
j
f(e
i
, e
j
)
expresi´ on polinomial de la forma bilineal, donde se ve que en todos los monomios aparece un x
i
y un
y
j
y el coeficiente de x
i
y
j
es f(e
i
, e
j
). Por ser el producto escalar sim´etrico el coeficiente de x
i
y
j
es
el mismo que el de x
j
y
i
y por ser definido positivo son positivos los coeficientes de los x
i
y
i
.
Veamos la expresi´ on matricial:
Expresi´on matricial de una forma bilineal en un Espacio Vectorial de dimensi´on finita.
Con la misma notaci´ on del apartado anterior tambi´en tenemos:
f(x, y) = f(x
1
e
1
+x
2
e
2
+... +x
n
e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
x
1
f(e
1
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+x
2
f(e
2
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+... +x
n
f(e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
226
= x
1
(y
1
f(e
1
, e
1
)+...+y
n
f(e
1
, e
n
))+x
2
(y
1
f(e
2
, e
1
)+...+y
n
f(e
2
, e
n
))+...+x
n
(y
1
f(e
n
, e
1
)+...+y
n
f(e
n
, e
n
)) =
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
y
1
f(e
1
, e
1
) +y
2
f(e
1
, e
2
) +... +y
n
f(e
1
, e
n
)
y
1
f(e
2
, e
1
) +y
2
f(e
2
, e
2
) +... +y
n
f(e
2
, e
n
)
...
y
1
f(e
n
, e
1
) +y
2
f(e
n
, e
2
) +... +y
n
f(e
n
, e
n
)
_
_
_
_
=
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
f(e
1
, e
1
) f(e
1
, e
2
) ... f(e
1
, e
n
)
f(e
2
, e
1
) f(e
2
, e
2
) ... f(e
2
, e
n
)

f(e
n
, e
1
) f(e
n
, e
2
) ... f(e
n
, e
n
)
_
_
_
_
_
_
_
_
y
1
y
2
...
y
n
_
_
_
_
expresi´ on matricial de la forma bilineal.
La matriz correspondiente a una forma bilineal que sea adem´ as un producto escalar, es sim´etrica
debido a que f(e
i
, e
j
) = f(e
j
, e
i
) y los elementos de su diagonal son positivos debido a que f es
definida positiva.
Adem´ as esta matriz, que generalmente se escribe G tiene determinante distinto de cero. En
efecto, si fuera [G[ = 0, el sistema lineal homog´eneo GX = 0 tendr´ıa soluciones no triviales. Si
(a
1
, a
2
, ..., a
n
) ,= (0, 0, ..., 0) es una soluci´ on no trivial de ese sistema se tendr´ıa:
G
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
=
_
_
_
_
_
0
0
.
.
.
0
_
_
_
_
_
de donde (a
1
, a
2
, ..., a
n
)G
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
= 0
pero esto implicar´ıa (a
1
, a
2
, ..., a
n
) = (0, 0, ..., 0) por ser el producto escalar definido positivo, teni´endose
una contradicci´ on.
Veremos que en virtud de que [G[ , = 0 se puede definir el complemento ortogonal de un subespacio
respecto al producto escalar general de manera an´ aloga a como se defin´ıa para el producto escalar
usual. Y se tiene tambi´en la descomposici´ on V
n
= U ⊕ U

, que permite definir las proyecciones
ortogonales respecto al producto escalar general.
A pesar de que todas las expresiones matriciales del tipo
t
xAy, donde x e y son vectores columna, dan expresiones
polinomiales de segundo grado, hay expresiones polinomiales de segundo grado que no se pueden expresar matricial-
mente, no dando lugar a una forma bilineal. Esto ocurre cuando en alg´ un monomio no aparecen las x
i
y las y
j
al
mismo tiempo. Ejemplos de estos casos se dan en el ejercicio 7.10.3.
227
Ejercicios.
7.10.1. Comprobar:
a) Que al producto escalar usual le corresponde la matriz identidad en la base can´onica.
b) Que a un producto escalar general en R
n
le corresponde una matriz diagonal en una base
ortogonal respecto a ese producto escalar.
c) Que a un producto escalar general en R
n
le corresponde la matriz identidad en una base
ortonormal respecto a ese producto escalar.
7.10.2. Encontrar las expresiones matriciales de las siguientes expresiones polinomiales en R
2
´ o
R
3
:
a) < x, y >= x
1
y
1
−3x
1
y
2
+ 2x
2
y
1
+ 2x
2
y
2
b) < x, y >= x
1
y
1
−x
2
y
2
c) < x, y >= x
1
y
1
+ 2x
1
y
2
+ 3x
2
y
1
+ 7x
2
y
2
d) < x, y >= x
1
y
1
+ 3x
1
y
2
+ 3x
2
y
1
+ 2x
2
y
2
e) < x, y >= 2x
1
y
1
+ 2x
1
y
2
+ 2x
2
y
1
+ 3x
2
y
2
.
f) < x, y >= x
1
y
1
+x
2
y
2
+x
3
y
3
−x
1
y
3
−x
3
y
1
−x
2
y
1
−x
1
y
2
g) < x, y >= x
1
y
1
+x
2
y
2
+x
3
y
3
−2x
1
y
3
−2x
3
y
1
h) < x, y >= x
1
y
2
+x
2
y
1
+x
2
y
3
+x
3
y
2
i) < x, y >= 2x
1
y
1
−2x
1
y
2
+x
2
y
1
+ 2x
1
y
3
+ 2x
3
y
1
−3x
2
y
3
−3x
3
y
2
+ 11x
3
y
3
j) < x, y >= x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
k) < x, y >= x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
2
y
4
+x
4
y
2
+ 2x
4
y
4
7.10.3. Comprobar que las siguientes expresiones polinomiales no dan formas bilineales de R
2
.
a) < x, y >= x
2
1
+y
2
1
b) < x, y >= x
1
x
2
−y
1
y
2
.
7.10.4. Escribir expresiones polinomiales que no den formas bilineales en R
3
.
7.10.5. Estudiar si las expresiones polinomiales de los ejercicios anteriores dan productos escalares.
228
Complementario Ortogonal en el espacio eucl´ıdeo general.
Sea V
n
un espacio vectorial eucl´ıdeo con producto escalar f. Dado un subespacio U de V
n
, se
define el subespacio complementario ortogonal de U como el conjunto de los vectores ortogonales a
todos los de U: U

= ¦x[f(x, y) = 0, ∀y ∈ U¦. Es otro subespacio de V
n
(debido a la bilinealidad
del producto escalar).
Demostremos que U y U

son complementarios (U +U

= U ⊕U

= V
n
):
Primero, se comprueba que U ∩ U

= ¦0¦ debido a que el producto escalar es definido positivo.
En efecto, si x ∈ U ∩ U

, habr´ıa de ser f(x, x) = 0, lo que implica x = 0.
Veamos que tambi´en, dim(U

) = n −dim(U): como [G[ , = 0, la aplicaci´on h:
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
→G
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
es un isomorfismo, que por tanto manda vectores independientes a vectores independientes (ejercicio).
Adem´ as, si una base de U es: ¦u
1
= (a
11
, a
12
, ..., a
1n
), u
2
= (a
21
, a
22
, ..., a
2n
), ..., u
p
= (a
p1
, a
p2
, ..., a
pn
)¦,
tenemos (x
1
, x
2
, ..., x
n
) ∈ U

si y s´ olo si f(x, u
i
) = 0 ∀i (ejercicio), es decir, si y s´ olo si
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
_
(x
1
, x
2
, ..., x
n
)G
_
_
_
_
_
a
11
a
12
.
.
.
a
1n
_
_
_
_
_
= 0

.
.
.
(x
1
, x
2
, ..., x
n
)G
_
_
_
_
_
a
p1
a
p2
.
.
.
a
pn
_
_
_
_
_
= 0

_
¸
¸
¸
_
¸
¸
¸
_
b
11
x
1
+b
12
x
2
+ +b
1n
x
n
= 0
b
21
x
1
+b
22
x
2
+ +b
2n
x
n
= 0

.
.
.
b
p1
x
1
+b
p2
x
2
+ +b
pn
x
n
= 0
donde
_
_
_
_
_
b
i1
b
i2
.
.
.
b
in
_
_
_
_
_
= G
_
_
_
_
_
a
i1
a
i2
.
.
.
a
in
_
_
_
_
_
229
y los vectores ¦(b
i1
, b
i2
, ..., b
in

i∈{1,...p}
son independientes, por ser im´ agenes por la aplicaci´on h de
vectores independientes. Entonces U

es un subespacio de dimensi´on n −p = n −dim(U).
Por tanto, dim(U ⊕U

) = p +n −p = n, de donde, U +U

= U ⊕U

= V
n
.
Ejercicios.
7.11.1. Hallar el complemento ortogonal del subespacio /¦(1, 1, 0, 0), (0, 1, 1, 0)¦ ⊂ R
4
respecto
al producto escalar dado en el ejercicio 7.9.2.
7.11.2. Hallar el complemento ortogonal del subespacio de ecuaciones
x
1
+x
2
= 0
x
3
+x
4
= 0
_
en R
4
, respecto al producto escalar dado en el ejercicio 7.9.2.
Proyecciones ortogonales en un espacio eucl´ıdeo general.
La descomposici´on U ⊕U

= V
n
permite realizar las proyecciones ortogonales an´ alogas a las que
hac´ıamos en el espacio eucl´ıdeo usual.
Repetimos aqu´ı el procedimiento para obtener la proyecci´on ortogonal de un vector sobre un
subespacio, ahora, con un producto escalar general.
Dado un subespacio U = /¦v
1
, ..., v
p
¦, la proyecci´ on ortogonal de y sobre U es un vector u de U
tal que y = u +w, donde w ∈ U

(f(u, w) = 0).
La validez de la definici´on estriba en el hecho de que el vector de U determinado as´ı es ´ unico.
Esta unicidad se sigue de la descomposici´ on en suma directa del espacio total.
Escribamos P
U
y = u para calcularlo.
Por ser P
U
y ∈ U, tendr´ıamos: P
U
y = c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
, y adem´ as,
y = c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w donde f(w, v
i
) = 0 ∀i
Calcular P
U
y es calcular los coeficientes c
1
, c
2
, ..., c
p
. Para ello tenemos:
f(y, v
1
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w, v
1
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
, v
1
) =
c
1
f(v
1
, v
1
) + +c
i
f(v
i
, v
1
) + +c
p
f(v
p
, v
1
)

f(y v
j
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w, v
j
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
, v
j
) =
c
1
f(v
1
, v
j
) + +c
i
f(v
i
, v
j
) + +c
p
f(v
p
, v
j
)

f((y, v
p
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
+w, v
p
) = f(c
1
v
1
+ +c
i
v
i
+ +c
p
v
p
, v
p
) =
c
1
f(v
1
v
j
) + +c
i
f(v
i
, v
j
) + +c
p
f(v
p
, v
p
)
230
Considerando las c
i
como inc´ognitas, cuyo valor determina P
U
y, hemos encontrado el sistema:
_
¸
¸
¸
¸
_
¸
¸
¸
¸
_
f(y, v
1
) = c
1
f(v
1
, v
1
)+ + c
i
f(v
i
, v
1
)+ + c
p
f(v
p
, v
1
)

f(y, v
j
) = c
1
f(v
1
, v
j
)+ + c
i
f(v
i
, v
j
)+ + c
p
f(v
p
, v
j
)

f(y, v
p
) = c
1
f(v
1
, v
p
)+ + c
i
f(v
i
, v
p
)+ + c
p
f(v
p
, v
p
)
Este sistema siempre tiene soluci´ on ´ unica debido a que la definici´on de aplicaci´on proyecci´ on
es buena. Y adem´as porque la matriz de los coeficientes del sistema es la matriz de la restricci´ on
del producto escalar al subespacio vectorial sobre el que se proyecta, en la base considerada de
dicho subespacio, a fin de cuentas, la matriz de un producto escalar en un espacio vectorial, cuyo
determinante es distinto de cero.
Vamos a observar que si la base ¦v
1
, ..., v
i
, ...v
p
¦ de U es ortogonal, la matriz de los coeficientes
es diagonal y se puede obtener para cada i:
c
i
=
f(y, v
i
)
f(v
i
, v
i
)
por lo que en este caso,
P
U
y =
f(y, v
1
)
f(v
1
, v
1
)
v
1
+
f(y, v
2
)
f(v
2
, v
2
)
v
2
+ +
f(y, v
p
)
f(v
p
, v
p
)
v
p
Esta es una de las razones de la importancia de las bases ortogonales.
Si la base es ortonormal, c
i
= f(y, v
i
).
Ya que hemos utilizado una base de U para obtener la proyecci´on del vector sobre el subespacio U, es posible
plantearse la cuesti´on sobre si el vector proyecci´on obtenido es dependiente de la base utilizada. Pero no es as´ı, pues
ya hemos visto que la descomposici´on de un vector por una suma directa es ´ unica y la aplicaci´on proyecci´on est´a bien
definida.
Para obtener la matriz de la proyecci´ on en la base ¦e
1
, e
2
, ..., e
n
¦ podemos tener en cuenta que
sus columnas son las coordenadas de las im´ agenes de los vectores de la base y hallar, por tanto, una
a una, las proyecciones p
U
(e
i
) de los vectores de la base, una vez encontrada una base ortogonal
¦v
1
, ..., v
p
¦ de U, por la f´ormula:
P
U
(e
i
) =
f(e
i
, v
1
)
f(v
1
, v
1
)
v
1
+
f(e
i
, v
2
)
f(v
2
, v
2
)
v
2
+ +
f(e
i
, v
p
)
f(v
p
, v
p
)
v
p
231
Si consideramos una base ortonormal de U, esta f´ ormula se simplifica pero puede ser que los
vectores de la base se compliquen al tener que dividirlos por raices cuadradas.
Tambi´en se puede hallar la matriz de la proyecci´on mediante un cambio de base utilizando una base formada por
una base de U y otra base de U

.
Como para realizar las proyecciones sobre un subespacio son ´ utiles las bases ortogonales, veremos
ahora c´omo se pueden obtener bases ortogonales de un espacio vectorial para un producto escalar
general.
M´etodo para encontrar una base ortonormal en un espacio vectorial de dimensi´ on
finita.
Si la dimensi´ on del espacio vectorial es 1, n=1 y dividiendo este vector por su m´odulo, tenemos
una base ortonormal.
Supondremos en lo que sigue que la dimensi´on del espacio es mayor que 1.
Sea x
1
= (x
11
, x
12
, ..., x
1n
) un vector cualquiera no nulo del espacio vectorial V
n
.
Otro vector y = (y
1
, y
2
, ...y
n
) es ortogonal a x
1
si y s´ olo si
(y
1
, y
2
, ..., y
n
)G
_
_
_
_
x
11
x
12
...
x
1n
_
_
_
_
= 0
donde G es la matriz del producto escalar.
Al hacer el producto de G por la columna de x
1
, obtenemos una columna (a
11
, a
12
, ...a
1n
)
t
no nula
debido a que la aplicaci´ on h(x) = Gx es un isomorfismo. Al hacer el producto total, obtenemos una
ecuaci´ on:
(y
1
, y
2
, ..., y
n
)
_
_
_
_
_
a
11
a
12
.
.
.
a
1n
_
_
_
_
_
= a
11
y
1
+a
12
y
2
+... +a
1n
y
n
= 0 donde
_
_
_
_
_
a
11
a
12
.
.
.
a
1n
_
_
_
_
_
= G
_
_
_
_
_
x
11
x
12
.
.
.
x
1n
_
_
_
_
_
Siempre podemos encontrar un vector no nulo x
2
que satisfaga esta ecuaci´ on si la dimensi´on del
espacio, y por tanto, el n´ umero de inc´ ognitas es superior o igual a dos. Este vector es ortogonal a x
1
.
232
Se puede demostrar que vectores ortogonales son independientes usando la bilinealidad del producto
escalar, por tanto x
2
es independiente de x
1
.
Si la dimensi´on del espacio es dos, ya tenemos una base ortogonal de la que podemos obtener una
base ortonormal dividiendo cada vector por su m´ odulo.
Si la dimensi´on del espacio es superior a dos, buscamos otro vector x
3
, ortogonal a los dos vectores
anteriores, x
1
y x
2
teniendo en cuenta que ha de verificar la ecuaci´ on a
11
y
1
+a
12
y
2
+... +a
1n
y
n
= 0 por
ser ortogonal a x
1
y adem´ as la an´aloga correspondiente al vector x
2
: a
21
y
1
+a
22
y
2
+... +a
2n
y
n
= 0.
Estas dos ecuaciones son independientes debido a que los vectores coeficientes de las inc´ ognitas son
las im´agenes por el isomorfismo h de vectores independientes.
Podemos encontrar el vector x
3
,= 0 porque s´olo tiene que satisfacer dos ecuaciones con tres o
m´ as inc´ ognitas. Los vectores ¦x
1
, x
2
, x
3
¦ son independientes por ser ortogonales.
Podemos seguir con el mismo procedimiento hasta obtener tantos vectores ortogonales dos a dos
como sea el n´ umero de inc´ ognitas, igual a la dimensi´ on del espacio. Entonces tenemos una base
ortogonal de la que sabemos pasar a una base ortonormal, dividiendo cada vector por su m´ odulo,
calculado usando la matriz G.
Cuando estamos interesados en obtener una base ortogonal de un subespacio, distinto del espacio
total, podemos seguir el mismo m´etodo, escogiendo un primer vector del subespacio y encontrando
los vectores siguientes de forma que adem´as de satisfacer las ecuaciones de ortogonalidad, satisfagan
las ecuaciones del subespacio.
M´etodo de ortogonalizaci´ on de Gram-Schmidt:
Este m´etodo es interesante debido a la condici´on subrayada a continuaci´on.
Dada una base ¦e
1
, e
2
, ...e
n
¦ de un espacio vectorial eucl´ıdeo V
n
R
, existe una base ortonormal
¦u
1
, u
2
, ..., u
n
¦ tal que ¦u
1
, u
2
, ...u
i
¦ es una base ortonormal de / ¦e
1
, e
2
, ..., e
i
¦.
Construcci´on:
En lo que sigue denotamos por x y a f(x, y), producto escalar de dos vectores que puede ser no
usual.
Primero construimos una base ortogonal con la propiedad subrayada y despu´es dividimos cada
vector por su m´ odulo:
La idea es:
1) Dejar e
1
= v
1
.
2) Considerar el espacio /¦e
1
, e
2
¦, que es un plano, y dentro de ´el modificar e
2
para que llegue a
pertenecer al subespacio ortogonal a v
1
en /¦e
1
, e
2
¦ = /¦v
1
, e
2
¦.
233
Ser´ıa:
v
2
= e
2

21
v
1
cumpliendo v
2
v
1
= 0.
Ha de ser
0 = (e
2

21
v
1
) v
1
= e
2
v
1

21
v
1
v
1
Para ello es suficiente con que
α
21
= −
e
2
v
1
v
1
v
1
Esta operaci´on es posible porque v
1
v
1
> 0.
El vector v
2
obtenido es distinto de cero porque ¦e
2
, v
1
¦ son independientes y su coeficiente en e
2
es 1. Al mismo tiempo /¦v
1
, v
2
¦ = /¦v
1
, e
2
¦ = /¦e
1
, e
2
¦
3) Considerar el espacio /¦e
1
, e
2
, e
3
¦ y modificar e
3
dentro de ´el para que quede ortogonal a los dos
vectores v
1
y v
2
obtenidos, llev´ andolo al subespacio ortogonal a /¦v
1
, v
2
¦ dentro de /¦e
1
, e
2
, e
3
¦ =
/¦v
1
, v
2
, e
3
¦.
Ser´ıa ahora
v
3
= e
3

32
v
2

31
v
1
Como queremos que v
3
v
1
= 0, y v
3
v
2
= 0, ha de ser
0 = (e
3

32
v
2

31
v
1
) v
1
= e
3
v
1

32
v
2
v
1

31
v
1
v
1
Tambi´en,
0 = (e
3

32
v
2

31
v
1
) v
2
= e
3
v
2

32
v
2
v
2

31
v
1
v
2
Como v
2
v
1
= 0, es:
α
31
= −
e
3
v
1
v
1
v
1
, α
32
= −
e
3
v
2
v
2
v
2
Esta operaci´on es posible porque tambi´en v
2
v
2
> 0 por ser v
2
,= 0.
El vector v
3
obtenido es distinto de cero porque ¦e
3
, v
1
, v
2
¦ son independientes. Al mismo tiempo
/¦v
1
, v
2
, v
3
¦ = /¦v
1
, v
2
, e
3
¦ = /¦e
1
, e
2
, e
3
¦
4) Con la misma idea seguimos calculando los v
i
: Una vez obtenidos ¦v
1
, v
2
, ...v
i−1
¦, todos distintos
de cero, para obtener v
i
tenemos en cuenta que ha de ser
v
i
= e
i

i,i−1
v
i−1
+.... +α
i,1
v
1
Y como v
i
v
j
= 0 ∀j < i, tenemos para cada j:
234
0 = (e
i

i,i−1
v
i−1
+... +α
i,j
v
j
+... +α
i1
v
1
) v
j
= e
i
v
j

i,i−1
v
i−1
v
j
... +α
ij
v
j
v
j
+... +α
i1
v
1
v
j
que queda reducido a
0 = e
i
v
j

ij
v
j
v
j
∀j
de donde
α
ij
= −
e
i
v
j
v
j
v
j
∀j
As´ı se determinan todos los ¦α
ij
¦
j∈{1...i−1}
y por tanto, todos los ¦v
i
¦
i∈{1...n}
.
Obs´ervese que todos los v
i
son distintos de cero porque los e
i
son independientes de los ¦v
1
, ..., v
i−1
¦.
Una base ortonormal est´ a formada por los vectores ¦u
i
= v
i
/|v
i

i∈{i,...,n}
.
Las f´ ormulas de los α
ij
tienen denominadores que a su vez dan denominadores en los v
i
, que luego
pueden ir complicando los c´ alculos. Para que no se d´e esta complicaci´on, como lo que nos interesa
de los v
i
es que sean ortogonales a todos los anteriores, y eso se cumple para cualquier m´ ultiplo
de los vectores v
i
obtenidos, podemos quitar los denominadores en el momento de ser obtenidos,
multiplicando adecuadamente, lo cual simplifica los c´ alculos posteriores.
Observemos que a veces, las propiedades de los espacios vectoriales y de las aplicaciones lineales se
obtienen utilizando bases. Utilizando una base ortonormal, (que hemos visto que podemos encontrar)
en un espacio vectorial real de dimensi´ on finita con producto escalar general, este producto escalar
se expresa en dicha base ortonormal por la misma expresi´ on que el producto escalar usual en la base
can´ onica, por tanto, todas las propiedades y c´alculos que hemos hecho anteriormente con el producto
escalar usual son transferibles al producto escalar general.
Ejercicios.
7.12.1. Hallar bases ortonormales de R
3
y R
4
para los productos escalares de los ejercicios 7.9.1
y 7.9.2 anteriores, respectivamente.
7.12.2.
a) Encontrar una base ortogonal respecto al producto escalar del ejercicio 7.9.2 del subespacio de
ecuaci´ on x
1
+x
2
+x
3
+x
4
= 0.
235
b) Hallar la proyecci´ on ortogonal para el mismo producto escalar, sobre el subespacio anterior
del vector (1, 1, 1, 1)
c) Hallar la distancia del punto del apartado b) al subespacio del apartado a) con el mismo
producto escalar.
d) Hallar la matriz de la proyecci´ on ortogonal respecto al mismo producto escalar de R
4
sobre el
subespacio del apartado a).
7.12.3. Repetir los apartados del ejercicio anterior para R
4
con el producto escalar del primer
ejemplo de producto escalar no usual de este cap´ıtulo.
7.12.4. Se da en R
3
un producto escalar no usual por
x y = x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+x
2
y
3
+x
3
y
2
+ 3x
3
y
3
.
Se define la simetr´ıa ortogonal correspondiente a un producto escalar respecto a un subespacio U
de R
3
como S
U
(y) = P
U
(y) −P
U
⊥(y). (P
U
y P
U
⊥ son las proyecciones ortogonales correspondientes).
a) Hallar el vector sim´etrico ortogonal con el producto escalar dado del vector (1,0,1) respecto al
plano de ecuaci´on x
2
+x
3
= 0.
b) Hallar la distancia del extremo del vector (1,0,1) al extremo del vector sim´etrico con este
producto escalar.
7.12.5.
a) Modificar la base can´ onica por el m´etodo de ortogonalizaci´on de Gram-Schmidt para obtener
una base ortonormal para el producto escalar:
f(x, y) = x y = (x
1
+x
2
)(y
1
+y
2
) + (x
1
+x
3
)(y
1
+y
3
) + (x
2
+x
3
)(y
2
+y
3
)
b) Dada la base ¦(1, 1, 0), (4, −2, 0), (1, 5, 5)¦ construir a partir de ella una base ortonormal de
R
3
utilizando el m´etodo de ortogonalizaci´on de Gram-Schmidt para el producto escalar dado.
c) Hallar una base ortonormal para el producto escalar anterior del subespacio M de R
3
de
ecuaci´ on x
1
+ 2x
2
+ 3x
3
= 0, tambi´en por el m´etodo de Gram-Schmidt.
7.12.6. Dada la cadena de subespacios vectoriales U
1
⊂ U
2
⊂ U
3
⊂ R
4
, de ecuaciones:
x
1
+x
2
+x
3
+x
4
= 0
2x
1
+x
3
= 0
2x
2
+x
4
= 0
_
_
_
x
1
+x
2
+x
3
+x
4
= 0
2x
1
+x
3
= 0
_
x
1
+x
2
+x
3
+x
4
= 0
_
Utilizar el m´etodo de Gram-Schmidt para obtener una base ortonormal respecto al producto escalar
usual de R
4
: ¦u
1
, u
2
, u
3
, u
4
¦ tal que /¦u
1
, , u
i
¦ = U
i
.
7.12.7. Sea U = /¦(−1, 0, −1, 0, 1), (0, 1, 1, 0, −1), (1, 1, 0, 1, −1)¦ ⊂ R
5
.
a) Hallar la matriz en la base dada de U de la restricci´ on del producto escalar usual a dicho
subespacio.
236
b) Obtener una base ortogonal de U para el producto escalar usual de R
5
, utilizando el m´etodo
de ortogonalizaci´ on de Gram-Schmidt y la matriz hallada en a).
c) Hallar una base ortogonal de R
5
para el producto escalar usual, que contenga a la base de U
obtenida en b).
7.12.8. Sea U = /¦(−1, 0, −1, 0, 1), (0, 1, 1, 0, −1), (1, 1, 0, 1, −1)¦ ⊂ R
5
. Consideremos en R
5
el
producto escalar dado por la matriz:
_
_
_
_
_
_
1 2 1 0 0
2 5 0 1 1
1 0 6 0 0
0 1 0 6 1
0 1 0 1 22
_
_
_
_
_
_
a) Hallar la matriz en la base dada de U de la restricci´on del producto escalar usual a dicho
subespacio.
b) Obtener una base ortogonal de U para el producto dado en R
5
, utilizando el m´etodo de
ortogonalizaci´ on de Gram-Schmidt y la matriz hallada en a).
c) Hallar una base ortogonal de R
5
para el producto escalar dado que contenga a la base de U
obtenida en b).
237
Ortogonalidad en un espacio eucl´ıdeo general.
En R
3
, adem´ as de la ortogonalidad o perpendicularidad, tenemos ´angulos. Tambi´en veremos que
los ´angulos se pueden definir en un espacio eucl´ıdeo general:
La relaci´ on entre el producto escalar usual de R
3
y los ´ angulos es x y = |x||y|cosα, donde α
es el ´angulo que forman los vectores x e y. Se demuestra utilizando el teorema de Pit´ agoras. Una
vez demostrado esto en R
3
con el producto escalar usual, veremos c´omo se generaliza a un espacio
vectorial con un producto general.
Dados dos vectores x e y, el vector y −x determina con x e y un tri´ angulo, siendo el lado opuesto
del ´angulo de lados x e y, Sea α el ´angulo que forman x e y.

/
/
/
/
/
/
/
/
/
/
/
/
/
/
/

`
`
`
`
`
`
`
`
`
`
`
6
α
x
y −x
y
|y|senα
|y|cosα −|x|
Entonces, utilizando el teorema de Pit´ agoras, tenemos:
|y −x|
2
= (|y|cosα −|x|)
2
+ (|y|senα)
2
= |y|
2
cos
2
α +|x|
2
−2|x||y|cosα +|y|
2
sen
2
α =
= |y|
2
+|x|
2
−2|x||y|cosα
desarrollando el primer miembro, tenemos:
y y −2y x +x x = y y +x x −2|x||y|cosα
donde simplificando, sale:
238
x y = |x||y|cosα.
de donde
cosα =
x y
|x||y|
y como el coseno de un ´ angulo es siempre de valor absoluto menor o igual que 1, tomando valores
absolutos tenemos:
[x y[ ≤ |x||y|
Para generalizar el concepto de ´ angulo entre dos vectores en un espacio vectorial con un producto
escalar f general veremos que tambi´en se cumple la desigualdad:
[f(x, y)[ ≤ |x||y|
donde |x| =
_
f(x, x) y |y| =
_
f(y, y), llamada desigualdad de Schwarz, defini´endose entonces
en general:
cosα =
f(x, y)
|x||y|
Demostraci´ on de la desigualdad de Schwarz:
Veremos primero el teorema de Pit´ agoras generalizado:
Si x = y +z, siendo f(y, z) = 0, se tiene f(x, x) = f(y, y) +f(z, z), ya que
f(x, x) = f(y +z, y +z) = f(y, y) +f(y, z) +f(z, y) +f(z, z) = f(y, y) +f(z, z)
Ahora, siguiendo Axler [Ax], sean x e y dos vectores distintos no nulos, el vector w = x −
f(x,y)
f(y,y)
y
es ortogonal a y y se verifica x =
f(x,y)
f(y,y)
y +w; entonces, por el teorema de Pit´ agoras generalizado,
f(x, x) = (
f(x, y)
f(y, y)
)
2
f(y, y) +f(w, w) ≥
f(x, y)
2
f(y, y)
2
f(y, y) =
f(x, y)
2
f(y, y)
de donde
[f(x, y)[ ≤
_
f(x, x)
_
f(y, y) = |x||y|
Por este motivo se pueden medir ´angulos en un espacio eucl´ıdeo no usual definiendo
cos(´ ang(x, y)) =
f(x, y)
|x||y|
.
239
Proposici´on:
El m´odulo definido por un producto escalar f verifica la Desigualdad Triangular:
|x +y| ≤ |x| +|y|
Demostraci´ on:
|x +y|
2
= f(x +y, x +y) = f(x, x) + 2f(x, y) +f(y, y) ≤ f(x, x) + 2[f(x, y)[ +f(y, y) ≤
≤ |x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2
La desigualdad triangular permite comprobar que el lado de un tri´angulo es menor o igual que la
suma de los otros dos, ya que
d(x, z) = |x −z| ≤ |x −y| +|y −z| = d(x, y) +d(y, z)
Ejercicios:
7.13.3. Demostrar que la desigualdad de Schwarz es una igualdad si y s´ olo si los vectores son
proporcionales.
7.13.4. Demostrar que si x e y son dos vectores de un espacio eucl´ıdeo V ,
|x −y| ≥ [|x| −|y|[
240
Cambio de base.
Hay algunos problemas en los que por las caracter´ısticas de la situaci´ on es m´ as conveniente utilizar
otra base distinta de la can´onica (p. ej. porque se simplifica en otra base la expresi´ on de alguna
funci´ on que estemos estudiando); conviene por ello obtener la expresi´on del producto escalar en la
nueva base. Nos planteamos por eso, como se refleja el cambio de base en la matriz del producto
escalar.
Otras veces, debido a la simplificaci´on que suponen en los c´ alculos las matrices diagonales, nos
interesa cambiar a bases ortogonales u ortonormales y ver la relaci´ on que hay entre la matriz del
producto escalar y la matriz del cambio de base a una base ortonormal.
Cambio de base en la Expresi´on Matricial de una forma bilineal. (de un producto
escalar).
Un cambio de base cambia la expresi´on del producto escalar de la siguiente forma:
Sean ¦e
1
, e
2
, ...e
n
¦ y ¦e

1
, e

2
, ..., e

n
¦ dos bases del espacio vectorial V
n
sobre el que est´a definido el
producto escalar.
Sean x = (x
1
, x
2
, ..., x
n
), y = (y
1
, y
2
, ...y
n
) y x = (x

1
, x

2
, ..., x

n
), y = (y

1
, y

2
, ...y

n
) expresados
respectivamente en las dos bases.
El producto escalar en forma matricial en las distintas bases ser´ıa:
(x
1
, , x
n
)G
_
_
_
y
1
.
.
.
y
n
_
_
_
= x y = (x

1
, , x

n
)G

_
_
_
y

1
.
.
.
y

n
_
_
_
Las coordenadas de los vectores en las dos bases est´an relacionadas por una matriz de cambio de
base:
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= C
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
;
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= C
_
_
_
_
_
y

1
y

2
.
.
.
y

n
_
_
_
_
_
donde la matriz C tiene como columnas las coordenadas de los vectores de la base ¦e

1
, e

2
, ..., e

n
¦ en
la base ¦e
1
, e
2
, ...e
n
¦.
Trasponiendo la columna de las coordenadas de x y sustituyendo en la primera expresi´ on matricial
del producto escalar las coordenadas de x y de y tenemos:
241
x y = (x

1
, x

2
, ..., x

n
)C
t
GC
_
_
_
_
y

1
y

2
...
y

n
_
_
_
_
;
comparando las dos expresiones del producto escalar en la segunda base, tenemos:
C
t
GC = G

Hemos visto antes que aunque la base can´onica no sea ortonormal respecto a un producto escalar
general, siempre podemos encontrar otra base ortonormal respecto al producto escalar dado, en la
que su expresi´ on es an´ aloga a la del producto escalar usual.
El hecho de que podamos obtener siempre una base ortonormal se traduce en que siempre hay
una matriz C de cambio de base tal que
C
t
GC = I.
Y entonces, despejando, tenemos G = (C
t
)
−1
C
−1
, de donde se deduce que [G[ = [(C
t
)
−1
[[C
−1
[ =
[(C
−1
)
t
[[C
−1
[ = [C
−1
[
2
> 0; otra condici´ on que necesariamente ha de cumplir G.
Ejercicios:
7.14.1. Hallar la matriz del producto escalar usual de R
3
en la base B = ¦(1, 1, 0), (2, 0, 1), (1, 1, 1)¦
a) Utilizando el cambio de base de la base can´ onica a la base dada.
b) Calculando directamente la matriz de la forma bilineal producto escalar en esta base.
Comprobar que los dos m´etodos dan la misma soluci´ on.
7.14.2. Hallar la matriz del producto escalar en la base B = ¦(1, 1, 0, 1), (2, 0, 1, 0), (1, 1, 1, 0), (1, 0, 0, 1)¦
de R
4
dado en la base can´onica por
x y = x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+x
3
y
4
+x
4
y
3
+x
4
y
4
a) Utilizando el cambio de base de la base can´ onica a la base dada.
b) Calculando la matriz de la forma bilineal producto escalar en esta base.
Comprobar que los dos m´etodos dan la misma soluci´ on.
7.14.3. Sean u
1
= (−2, −1, 1), u
2
= (0, −1, 0), u
3
= (1, −1, 0), tres vectores linealmente indepen-
dientes de R
3
. Se puede definir un producto escalar en R
3
de manera que sea bilineal con la condici´on
de que los tres vectores anteriores son una base ortonormal para ese producto escalar. Hallar la matriz
de dicho producto escalar en la base can´onica de R
3
.
242
Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto
Escalar.
Se puede comprobar que fijada una base de V
n
R
, en la que las coordenadas de los vectores x e y
son (x
1
, x
2
, ..., x
n
) e (y
1
, y
2
, ..., y
n
), la aplicaci´ on f : V
n
R
V
n
R
→R dada por:
f(x, y) = (x
1
, x
2
, ..., x
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
es una aplicaci´on bilineal, cualquiera que sea la matriz A, debido a la distributibidad y asociatividad
del producto de matrices.
f(x + x

, y) = (x
1
+ x

1
, x
2
+ x

2
, ..., x
n
+ x

n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= [(x
1
, x
2
, ..., x
n
) + (x

1
, x

2
, ..., x

n
)]A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
=
= (x
1
, x
2
, ..., x
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
+ (x

1
, x

2
, ..., x

n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= f(x, y) + f(x

, y).
f(αx, y) = (αx
1
, αx
2
, ..., αx
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= α[(x
1
, x
2
, ..., x
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
] = αf(x, y).
y an´alogamente para la variable y.
Hemos visto que para que la forma bilineal determinada por G sea un producto escalar, G ha de
ser sim´etrica; rec´ıprocamente, si la matriz A es sim´etrica, la forma bilineal determinada es sim´etrica:
en efecto, se puede ver la simetr´ıa de la expresi´ on anterior trasponiendo el n´ umero
(x
1
, x
2
, ..., x
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
243
considerado como una matriz 1 1; entonces,
f(x, y) = (x
1
, x
2
, ..., x
n
)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (y
1
, y
2
, ..., y
n
)
t
A
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= (y
1
, y
2
, ..., y
n
)A
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= f(y, x).
Hemos visto antes tambi´en que si la matriz corresponde a un producto escalar, todos los t´erminos
de la diagonal son positivos y su determinante ha de ser distinto de cero.
Se ve en el siguiente ejemplo que no es suficiente que la matriz sea sim´etrica, que los t´erminos de
la diagonal sean positivos y que su determinante sea distinto de cero para que la forma bilineal sea
definida positiva: sea
f(x, y) = (x
1
, x
2
)
_
1 2
2 1
__
y
1
y
2
_
Calculemos f(x, x) = x
2
1
+ 4x
1
x
2
+ x
2
2
= (x
1
+ 2x
2
)
2
−3x
2
2
; podemos coger el vector x = (−2, 1)
y se tiene f(x, x) = −3 < 0, no siendo, por tanto, definida positiva.
Esta forma bilineal no es un producto escalar porque el determinante de su matriz es negativo y
hab´ıamos visto al final de la secci´ on sobre cambio de base que ese determinante tiene que ser positivo.
Sin embargo, se ve en el siguiente ejemplo que no es suficiente que el determinante de la matriz
sea mayor que cero para que la forma bilineal determinada por ella sea definida positiva.
Sea
f(x, y) = (x
1
, x
2
, x
3
)
_
_
2 −4 −2
−4 4 4
−2 4 1
_
_
_
_
y
1
y
2
y
3
_
_
Aunque el determinante de la matriz es 8, calculando f((2, 1, 0), (2, 1, 0)) obtenemos −4, lo que
indica que la forma bilinal correspondiente no es definida positiva.
Nos planteamos por ello, la pregunta: ¿Cu´ ales son las condiciones necesarias y suficientes que
ha de cumplir una matriz para que la forma bilineal correspondiente sea un producto escalar? La
condici´ on necesaria y suficiente para que una matriz sim´etrica determine un producto escalar la da
el Criterio de Sylvester:
La matriz G determina un producto escalar en cualquier base si y s´olo si es sim´etrica y todos sus
menores angulares superiores izquierdos tienen determinante positivo.
244
Demostraci´ on:
Primero, observemos que si G proviene de un producto escalar, al tener siempre ´este una base
ortonormal, existe una matriz C de cambio de base tal que C
t
GC = I, por lo que G = (C
t
)
−1
C
−1
,
donde C es una matriz con determinante distinto de cero, entonces, [G[ = [(C
t
)
−1
[[C
−1
[ = [C
−1
[
2
> 0.
Despu´es, observemos que la restrici´on de un producto escalar a un subespacio es tambi´en un
producto escalar en dicho subespacio, y que de ser G la matriz de un producto escalar en un espacio
vectorial de base ¦e
1
, e
2
, , e
n
¦, esta restrici´on al subespacio /¦e
1
, e
2
, , e
i
¦ vendr´ıa dada por la
submatriz angular superior izquierda de G formada por la intersecci´ on de las i primeras filas y de
las i primeras columnas (que escribimos G
ii
). Entonces ha de ser tambi´en [G
ii
[ > 0 ∀i. Pues vamos
a demostrar que esta condici´on necesaria es tambi´en suficiente para que el producto f dado por la
matriz G, sim´etrica, en cualquier base ¦e
1
, e
2
, , e
n
¦ sea definido positivo.
La forma bilineal f dada por G es sim´etrica por serlo G.
Luego, para demostrar la segunda parte del teorema, veremos que podemos construir a partir de
la base ¦e
1
, e
2
, , e
n
¦ otra base ¦e

1
, e

2
, ..., e

n
¦ tal que
1)f(e

i
, e

j
) = 0 si i ,= j
2)f(e

i
, e

i
) = α
ii
> 0 ∀i
en la cual, si (x

1
, x

2
, ..., x

n
) son las coordenadas de x en la nueva base, se tiene
f(x, x) = α
11
(x

1
)
2

22
(x

2
)
2
... +α
nn
(x

n
)
2
≥ 0
lo que muestra que la forma cuadr´ atica es definida positiva porque todos los α
ii
son mayores que
cero.
Para construir la base ¦e

1
, e

2
, ..., e

n
¦ veremos que es suficiente encontrar
e

i
= α
i1
e
1
+... +α
ij
e
j
+... +α
ii
e
i
tales que
_
a) f(e

i
, e
j
) = 0 ∀j < i
b) f(e

i
, e
i
) = 1 ∀i
donde los ¦e
1
, e
2
, , e
n
¦ son la base de partida.
En efecto, entonces, si
j < i, f(e

i
, e

j
) = f(e

i
,
j

1
α
jk
e
k
) =
j

1
f(e

i
, e
j
) = 0,
tambi´en f(e

i
, e

j
) = f(e

j
, e

i
) = 0, si j > i por simetr´ıa y
f(e

i
, e

i
) = f(e

i
,
i

1
α
jk
e
k
) = α
ii
f(e

i
, e
i
) = α
ii
245
El hecho de que los α
ii
sean todos positivos se sigue despu´es del procedimiento utilizado para encon-
trarlos.
Para encontrar los vectores e

i
que seg´ un lo dicho anteriormente son:
e

1
= α
11
e
1
e

2
= α
21
e
1

22
e
2
.
.
. =
.
.
.
e

i
= α
i1
e
1
+... +α
ij
e
j
+... +α
ii
e
i
vemos que para e

1
debe ser:
α
11
=
1
f(e
1
, e
1
)
Para que se cumpla a) y b) para e

i
debe ser:
f(α
i1
e
1
+... +α
ij
e
j
+... +α
ii
e
i
, e
1
) = 0
f(α
i1
e
1
+... +α
ij
e
j
+... +α
ii
e
i
, e
2
) = 0
..........
f(α
i1
e
1
+... +α
ij
e
j
+... +α
ii
e
i
, e
i
) = 1
Es decir,
α
i1
f(e
1
, e
1
) +... +α
ij
f(e
j
, e
1
) +... +α
ii
f(e
i
, e
1
) = 0
α
i1
f(e
1
, e
2
) +... +α
ij
f(e
j
, e
2
) +... +α
ii
f(e
i
, e
2
) = 0
........... = 0
α
i1
f(e
1
, e
i
) +... +α
ij
f(e
j
, e
i
) +... +α
ii
f(e
i
, e
i
) = 1
_
¸
¸
_
¸
¸
_
Este es un sistema no homog´eneo en las α
ij
cuya matriz de coeficientes es el menor angular
superior izquierdo de dimensi´on i, de la matriz considerada G; su determinante es distinto de cero
porque [G
ii
[ > 0, y por tanto, existe soluci´ on para las α
ij
pudiendo por tanto encontrar los vectores
e

i
que cumplen a) y b).
Observando el sistema no homog´eneo y aplicando la regla de Cramer, vemos que
α
ii
=
[G
i−1,i−1
[
[G
ii
[
> 0
en las condiciones del teorema, con lo que hemos concluido la demostraci´ on.
246
Ejercicios.
7.15.1. Las siguientes expresiones dan formas bilineales de R
2
. Determinar cu´ ales de ellas dan
productos escalares utilizando el criterio de Sylvester.
a) < x, y >= x
1
y
1
+ 3x
1
y
2
+ 3x
2
y
1
+ 2x
2
y
2
.
b) < x, y >= 2x
1
y
1
+ 2x
1
y
2
+ 2x
2
y
1
+ 3x
2
y
2
.
7.15.2. Las siguientes expresiones dan formas bilineales de R
3
. Determinar cu´ ales de ellas dan
productos escalares.
a) < x, y >= x
1
y
1
+x
2
y
2
+x
3
y
3
−x
1
y
3
−x
3
y
1
−x
2
y
1
−x
1
y
2
.
b) < x, y >= x
1
y
1
+x
2
y
2
+x
3
y
3
−2x
1
y
3
−2x
3
y
1
.
c) < x, y >= 2x
1
y
1
−2x
1
y
2
−2x
2
y
1
+ 3x
2
y
2
+ 2x
1
y
3
+ 2x
3
y
1
−3x
2
y
3
−3x
3
y
2
+ 11x
3
y
3
.
d) < x, y >= x
1
y
2
+x
2
y
1
+x
2
y
3
+x
3
y
2
.
e) < x, y >= 2x
1
y
1
+x
1
y
2
+x
2
y
1
+ 2x
1
y
3
+ 2x
3
y
1
−3x
2
y
3
−3x
3
y
2
+ 11x
3
y
3
f) < x, y >= x
1
y
1
+ 2x
2
y
2
+ 2x
3
y
3
−x
1
y
3
−x
3
y
1
+x
2
y
3
+x
3
y
2
.
247
Bibliograf´ıa:
[A] J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´ an Espa˜ nol. Algebra Lineal y aplicaciones.
Ed. S´ıntesis. 1999.
[Ax] S. Axler. Linear Algebra done right. Springer. 1997.
[H] E. Hern´ andez. Algebra y Geometr´ıa. Ed. Addison-Wesley/U.A.M. 1994.
[L] D. C. Lay. Algebra Lineal y sus Aplicaciones. Ed. Prentice-Hall 2001.
[S] G. Strang. Algebra Lineal y sus Aplicaciones Ed. Addison-Wesley Iberoamericana. 1990.
248
DIAGONALIZACI
´
ON DE ENDOMORFISMOS.
Aplicaciones autoadjuntas en espacios eucl´ıdeos y herm´ıticos,
y aplicaciones unitarias en espacios herm´ıticos.
Introducci´ on.
Una aplicaci´on lineal definida en un espacio vectorial con imagen en el mismo espacio vectorial
se llama endomorfismo. Utilizaremos a partir de ahora la palabra endomorfismo por razones de
brevedad.
La expresi´on matricial de un endomorfismo de un espacio vectorial depende de la base escogida.
La matriz correspondiente es una matriz cuadrada. Al hacer un cambio de base la matriz cambia
y puede llegar a ser m´as sencilla. La interpretaci´ on geom´etrica de los endomorfismos con matrices
diagonales es m´ as f´ acil. Puede ser una proyecci´ on, una simetr´ıa, una composici´on de dilataciones
y contracciones seg´ un determinadas direcciones. Nos planteamos por ello el problema de encontrar
una base en la que la matriz de dicha expresi´ on matricial sea diagonal.
Diagonalizar un endomorfismo es encontrar una base del espacio vectorial en el que la matriz
correspondiente es diagonal. No todos los endomorfismos son diagonalizables.
Las distintas matrices que corresponden a un endomorfismo al cambiar de base est´an relacionadas
de la forma siguiente: Si A y A

corresponden al mismo endomorfismo en distintas bases, A

= C
−1
AC
donde C (la matriz del cambio de base) es una matriz con determinante distinto de cero. Estas
matrices se llaman equivalentes. Si un endomorfismo es diagonalizable, existe una matriz diagonal
equivalente a la matriz del endomorfismo.
Diagonalizar una matriz es encontrar una matriz diagonal equivalente a la dada. No todas las
matrices son diagonalizables.
Si una matriz es diagonalizable, el endomorfismo expresado por dicha matriz (en cualquier base) es diagonalizable.
En efecto, si dada la matriz A, existe una matriz C de cambio de base tal que C
−1
AC = D, el endomorfismo expresado
por la matriz A en la base B = ¦e
1
, e
2
, ..., e
n
¦ es diagonalizable, porque este endomorfismo se expresa por la matriz
diagonal D en la base B = ¦u
1
, u
2
, ..., u
n
¦ = ¦e
1
, e
2
, ..., e
n
¦C. Entonces, el endomorfismo expresado por la misma
matriz A en otra base B

= ¦e

1
, e

2
, ..., e

n
¦ se expresa tambi´en por D en la base B

= ¦u

1
, u

2
, ..., u

n
¦ = ¦e

1
, e

2
, ..., e

n
¦C
puesto que el cambio de base viene dado por la misma matriz C.
Las operaciones con el endomorfismo que se hacen utilizando su matriz, p. ej., sus potencias,
se hacen m´as f´acilmente con una matriz diagonal ya que las potencias de matrices diagonales se
pueden hallar m´as f´ acilmente. Respecto al c´alculo de las potencias de matrices, se observa que si
249
C
−1
AC = D, A = CDC
−1
, por lo que
A
n
= CDC
−1
CDC
−1
CDC
−1
= CD
n
C
−1
calculable de manera relativamente f´ acil ya que D
n
es una matriz diagonal cuyos elementos diagonales
son las potencias de los elementos diagonales de D.
Veremos como ejemplos de endomorfismos diagonalizables, las aplicaciones autoadjuntas de un
espacio eucl´ıdeo o herm´ıtico y las aplicaciones unitarias de un espacio herm´ıtico. Ejemplos de matrices
diagonalizables son las matrices sim´etricas.
En un tema posterior veremos que en los casos en que el endomorfismo de un espacio vectorial sobre el cuerpo
de los n´ umeros complejos, si la matriz correspondiente no es diagonalizable, existe una matriz relativamente f´acil
equivalente a la dada llamada matriz de Jordan, que tambi´en simplifica los c´alculos.
Nuestro objetivo ahora es encontrar condiciones necesarias y suficientes para que un endomorfismo
o an´alogamente una matriz sea diagonalizable. Empezamos dando las siguientes definiciones:
Vectores propios y valores propios.
Observemos que si
D =
_
_
_
_
_
λ
1
0 0
0 λ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
_
_
_
_
_
es la matriz que corresponde a un endomorfismo en la base B = ¦v
1
, v
2
, ..., v
n
¦, los vectores v
i
son
distintos de cero y f(v
i
) = λ
i
v
i
∀i.
Esta es la motivaci´ on de las siguientes definiciones:
Definici´ on 1: Se llama vector propio de un endomorfismo f de un espacio vectorial V sobre un
cuerpo K a un vector v ,= 0 que verifica f(v) = λv para alg´ un λ ∈ K.
Definici´ on 2: Se llama valor propio de un endomorfismo f de un espacio vectorial sobre un
cuerpo K a un elemento λ ∈ K tal que existe v ∈ V , v ,= 0, verificando f(v) = λv.
Las definiciones an´ alogas se pueden dar para una matriz.
Definici´ on 3: Se llama vector propio de una matriz A ∈ /
n×n
(K) con elementos de un cuerpo
K, a un vector v ,= 0 de K
n
que verifica Av = λv para alg´ un λ ∈ K.
Definici´ on 4: Se llama valor propio de una matriz A ∈ /
n×n
(K) con elementos de un cuerpo
K, a un elemento λ ∈ K tal que existe v ∈ K
n
, v ,= 0 verificando Av = λv.
250
Primera condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable.
Observando que la matriz del endomorfismo de un espacio vectorial es diagonal si y s´ olo si los vec-
tores de la base son vectores propios tenemos que la existencia de una base de vectores propios, es de-
cir, la existencia de un n´ umero de vectores propios independientes igual a la dimensi´ on del espacio vec-
torial, es la inmediata condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable.
No es necesario llegar hasta hallar una base de vectores propios si lo que queremos es solamente
saber si el endomorfismo es diagonalizable ya que tenemos:
Lema 1:
Vectores propios correspondientes a valores propios distintos son independientes.
Demostraci´ on: La haremos por inducci´on.
En el caso en que hay s´ olo un valor propio, un s´ olo vector propio correspondiente a dicho valor
es independiente por ser distinto de cero.
Consideremos ahora dos vectores propios v
1
, v
2
correspondientes a dos valores propios distintos
λ
1
,= λ
2
de un endomorfismo f.
Sea α
1
v
1
+ α
2
v
2
= 0 una combinaci´ on lineal nula de estos dos vectores. Entonces, por ser f una
aplicaci´ on lineal,
f(α
1
v
1

2
v
2
) = α
1
f(v
1
) +α
2
f(v
2
) = α
1
λ
1
v
1

2
λ
2
v
2
= 0.
Adem´ as, multiplicando por λ
2
la expresi´on de la combinaci´on lineal, tenemos:
α
1
λ
2
v
1

2
λ
2
v
2
= 0.
Restando las expresiones finales, tenemos: α
1

1
−λ
2
)v
1
= 0, de donde, como v
1
,= 0 y λ
1
−λ
2
,= 0,
ha de ser α
1
= 0, sustituyendo este valor en la combinaci´ on lineal dada se obtiene α
2
v
2
= 0, que
como v
2
es vector propio, implica α
2
= 0, por tanto, los dos vectores son independientes.
Suponiendo cierto que n−1 vectores propios correspondientes a n−1 valores propios distintos son
independientes, demostraremos que n vectores propios correspondientes a n valores propios distintos
son independientes.
Sean v
1
, v
2
, , v
n−1
, v
n
, n vectores propios correspondientes a λ
1
, λ
2
, , λ
n−1
, λ
n
, n valores
propios distintos.
De forma an´aloga a la realizada cuando son dos los vectores propios correspondientes a valores
propios distintos, consideremos una combinaci´on lineal
α
1
v
1

2
v
2
+ +α
n−1
v
n−1

n
v
n
= 0;
251
por ser f una aplicaci´on lineal,
f(α
1
v
1

2
v
2
+ +α
n−1
v
n−1

n
v
n
) = α
1
f(v
1
) +α
2
f(v
2
) + +α
n−1
f(v
n−1
) +α
n
f(v
n
) =
α
1
λ
1
v
1

2
λ
2
v
2
+ +α
n−1
λ
n−1
v
n−1

n
λ
n
v
n
= 0
Multiplicando ahora la combinaci´on lineal considerada por λ
n
, tenemos
α
1
λ
n
v
1

2
λ
n
v
2
+ +α
n−1
λ
n
v
n−1

n
λ
n
v
n
= 0
Restando las dos ´ ultimas expresiones, se obtiene
α
1

1
−λ
n
)v
1

2

2
−λ
n
)v
2
+ +α
n−1

n−1
−λ
n
)v
n−1
= 0
En la hip´otesis de que la proposici´on es cierta para n − 1 vectores, ya que λ
i
− λ
n
,= 0, ∀i, la
´ ultima igualdad implica que α
1
= α
2
= α
n−1
= 0; sustituyendo estos valores en la combinaci´ on lineal
dada, obtenemos α
n
v
n
= 0, que como v
n
,= 0 implica tambi´en α
n
= 0. Por tanto, los n vectores
propios considerados son independientes.
Corolario 1: Si un endomorfismo de un espacio vectorial de dimensi´ on n tiene n valores propios
distintos es diagonalizable.
Demostraci´ on: Por el lema, el endomorfismo tiene n vectores propios independientes, es decir,
una base de vectores propios.
Nos interesa, pues, ver c´ omo se calculan los valores propios para ver si son todos distintos.
Seg´ un la definici´on de valor propio, λ es valor propio de f si y s´olo si existe x ,= 0 tal que
f(x) = λx, es decir, si existe x ,= 0 tal que (f − λI)x = 0 o lo que es lo mismo, si existe x ,= 0,
x ∈ ker(f −λI).
M´ as detalladamente, para poder hacer c´ alculos tomamos una base B = ¦u
1
, , u
n
¦ del espacio
vectorial en el que estamos trabajando, en la que las coordenadas de un vector x sean (x
1
, , x
n
)
y la matriz de f en dicha base sea A. Entonces, las coordenadas de f(x) son:
f(x) ≡ A
_
_
_
x
1
.
.
.
x
n
_
_
_
,
teni´endose, por tanto que
252
f(x) = λx ⇐⇒A
_
_
_
x
1
.
.
.
x
n
_
_
_
= λ
_
_
_
x
1
.
.
.
x
n
_
_
_
= λI
_
_
_
x
1
.
.
.
x
n
_
_
_
⇐⇒(A −λI)
_
_
_
x
1
.
.
.
x
n
_
_
_
= 0.
Desarrollando la ´ ultima expresi´on matricial obtenemos las ecuaciones cartesianas del ker(f −λI)
para las coordenadas de x en la base B. Para que λ sea valor propio, este sistema homog´eneo de
ecuaciones ha de tener como soluci´on al menos un vector v ,= 0 (vector propio). Como la matriz de
los coeficientes de las inc´ognitas de este sistema es A −λI,
λ es valor propio de f ⇐⇒ [A −λI[ = 0 ⇐⇒ λ es raiz de [A −λI[.
El polinomio [A − λI[ se llama polinomio caracter´ıstico y la ecuaci´ on [A − λI[ = 0 se llama
ecuaci´ on caracter´ıstica del endomorfismo f y de la matriz A.
Ejemplo 1.
Consideremos el endomorfismo de R
2
dado en la base can´onica por la matriz
_
1
2
1
2
1
2
1
2
_
Sus valores propios son los que verifican
0 =
¸
¸
¸
¸
_
1
2
1
2
1
2
1
2
_
−λI
¸
¸
¸
¸
=
¸
¸
¸
¸
1
2
−λ
1
2
1
2
1
2
−λ
¸
¸
¸
¸
= −λ +λ
2
.
Tiene dos valores propios distintos que son λ
1
= 0 y λ
2
= 1 y por ello es diagonalizable.
Con el objetivo de hallar la base que lo diagonaliza, hallamos los vectores propios correspondientes
a los dos vectores propios distintos, que por ello ser´ an una base de vectores propios de R
2
.
Correspondiente a λ = 1, v = (v
1
, v
2
) ser´a vector propio si
f(v) = 1 v ≡
_
1
2
1
2
1
2
1
2
__
v
1
v
2
_
=
_
v
1
v
2
_

_
1
2
−1
1
2
1
2
1
2
−1
__
v
1
v
2
_
=
_
0
0
_
o lo que es lo mismo, −v
1
+v
2
= 0, luego, (1, 1) es vector propio para el valor propio λ = 1.
Puede comprobarse que para el valor propio λ = 0, el vector (1, −1) es vector propio.
Los vectores: ¦(1, 1), (1, −1)¦ son dos vectores propios independientes que por ello forman una
base de R
2
en la que la matriz del endomorfismo es diagonal:
_
1 0
0 0
_
253
Ya que la matriz diagonal a la que hemos llegado y la matriz dada corresponden al mismo
endomorfismo en distintas bases, est´ an relacionadas por el cambio de base entre dichas bases en R
2
:
compru´ebese que:
_
1 0
0 0
_
=
_
1 1
1 −1
_
−1
_
1
2
1
2
1
2
1
2
__
1 1
1 −1
_
Una disgresi´ on no necesaria para entender el resto del tema es la interpretaci´ on geom´etrica que
se puede hacer del endomorfismo del ejemplo: los vectores de la recta engendrada por (1, 1) quedan
fijos, los vectores de la recta (1, −1) se aplican en el cero. Cada vector puede descomponerse en
suma de dos vectores contenidos en cada una de las rectas anteriores. Como la aplicaci´ on es lineal, la
imagen de cada vector es la suma de las im´ agenes de los vectores sumandos, que se reduce al sumando
contenido en la recta engendrada por (1, 1). Al ser las dos rectas consideradas perpendiculares, este
sumando es la proyecci´on ortogonal del vector sobre esa recta. La aplicaci´on que nos dieron es la
proyecci´on ortogonal sobre la recta de vectores fijos, que es en este caso, la diagonal del primer y
tercer cuadrante.
Otra aplicaci´ on de la diagonalizaci´ on al c´ alculo de potencias de una matriz en este caso es la
comprobaci´ on de que la matriz dada en este ejemplo elevada a cualquier potencia coincide con la
matriz dada. Ello se sigue de que cualquier potencia de la matriz diagonal correspondiente coincide
con ella misma.
Los valores propios se llaman tambi´en autovalores y los vectores propios, autovectores.
Los valores propios de un endomorfismo de un espacio vectorial real han de ser n´ umeros reales,
mientras que los valores propios de un endomorfismo de un espacio vectorial complejo pueden ser
complejos, a´ un cuando la matriz correspondiente sea de n´ umeros reales.
Ejercicios:
8.1.1. Comprobar que son diagonalizables los endomorfismos de R
2
dados en la base can´onica
por las matrices:
a)
_
5 6
−3 −4
_
b)
_
1 −2
1 4
_
c)
_
5 −2
6 −2
_
d)
_
−5 2
−6 2
_
Hallar tambi´en bases que diagonalicen a los endomorfismos.
Escribir la matriz de cambio de base desde la base can´onica a la base diagonalizante y la relaci´on
matricial entre la matriz dada y la diagonal.
8.1.2. Calcular la potencia de orden 10 de las matrices del ejercicio 8.1.1.
254
8.1.3. Se celebran unas elecciones en un pa´ıs en el que s´ olo hay dos partidos, el conservador
y el progresista. En un determinado a˜ no cuarenta por ciento del electorado votaron al partido
progresista y sesenta por ciento del electorado votaron al conservador. Cada mes que va pasando
los progresistas conservan exactamente un 80 por ciento del electorado perdiendo el resto y los
conservadores conservan exactamente un 70 por ciento perdiendo el resto. ¿C´ ual es la distribuci´ on
del electorado tres a˜ nos despu´es?
8.1.4. Averiguar si son diagonalizables los endomorfismos de R
3
dados en la base can´ onica por
las matrices:
a)
_
_
0 −1 0
−1 1 −1
0 −1 0
_
_
b)
_
_
−1 2 1
2 −1 1
−1 1 −2
_
_
c)
_
_
2 −1 −2
2 −1 −2
1 −1 −1
_
_
d)
_
_
1 −1 1
1 −1 −1
1 −1 −1
_
_
Hallar tambi´en bases que diagonalicen a los endomorfismos.
Escribir la matriz de cambio de base desde la base can´onica a la base diagonalizante y la relaci´on
matricial entre la matriz dada y la diagonal.
8.1.5. Probar que toda matriz triangular (superior o inferior) con todos los elementos de su
diagonal distintos es diagonalizable.
8.1.6.
a) Demostrar que si λ es valor propio de f, λ
n
es valor propio de f
n
.
b) Si la base B = ¦e
1
, e
2
, ..., e
n
¦ diagonaliza a f, diagonaliza tambi´en a cualquier potencia de f.
8.1.7. Mostrar que A
15
es diagonalizable, cuando A es una de las matrices del ejercicio 8.1.4.
¿Cu´ ales son las bases que diagonalizan A
15
en cada uno de los casos?
8.1.8.
a) Demostrar que una matriz A es invertible si y s´ olo si todos sus valores propios son distintos
de cero.
b) Decidir c´ uales de las matrices del ejercicio 8.1.4. son invertibles a la vista de sus valores
propios.
c) Hallar, en el caso en que sean invertibles, las inversas de las matrices anteriores, usando la
inversa de la diagonal D que diagonaliza a A.
8.1.9. Demostrar que si f es isomorfismo y λ es un valor propio suyo, λ
−1
es valor propio de f
−1
.
8.1.10. Demostrar que si f es un endomorfismo con valor propio λ
1
,
a) el endomorfismo f −λ
1
I tiene el cero como valor propio.
b) el endomorfismo f −aI tiene λ
1
−a como valor propio.
8.1.11. Comprobar que los endomorfismos diagonalizables con un s´ olo valor propio son m´ ultiplos
de la identidad.
255
8.1.12. a)Comprobar que no es diagonalizable el endomorfismo de R
2
dado por la matriz
_
1 −1
1 1
_
b) Observar, sin embargo, que s´ı es diagonalizable el endomorfismo de C
2
dado por la misma
matriz.
8.1.13. Se defini´o una proyecci´ on en el cap´ıtulo sobre espacio eucl´ıdeo.
a) Comprobar que los n´ umeros 1 y 0 son valores propios de una proyecci´ on.
b) Demostrar que una proyecci´ on no tiene m´as valores propios que el 1 y el 0 y es diagonalizable.
c) Comprobar que cualquier potencia de una proyecci´on coincide con la proyecci´ on.
8.1.14. Probar que si f es un endomorfismo de V
n
con n valores propios distintos, y g es otro
endomorfismo de V
n
que conmuta con f, todo autovector de f lo es de g y por eso g es diagonalizable.
8.1.15. Demostrar que todo valor propio de la potencia de orden m de una matriz, de n´ umeros
reales o complejos, es potencia de orden m de alg´ un valor propio de la matriz (real o complejo).
256
No es necesario que haya n valores propios distintos para que un endomorfismo de un espacio
vectorial de dimensi´ on n sea diagonalizable. (La condici´ on dada anteriormente en el corolario es
suficiente pero no necesaria). Podemos debilitar esa condici´ on:
Segunda condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable.
Proposici´on 1:
Un endomorfismo de un espacio vectorial V
n
es diagonalizable si y s´ olo si la suma de las di-
mensiones de los subespacios de vectores propios correspondientes a cada valor propio es igual a la
dimensi´ on del espacio.
Demostraci´ on: Sean λ
1
, ..., λ
i
, ..., λ
m
los valores propios de un endomorfismo f.
Llamando E(λ
i
) = Ker(f −λ
i
I), (subespacio de vectores propios para λ
i
), se tiene que si λ
i
,= λ
j
,
E(λ
i
) ∩ E(λ
j
) = ¦0¦. Por tanto, si λ
i
,= λ
j
, E(λ
i
) + E(λ
j
) = E(λ
i
) ⊕ E(λ
j
) y como tambi´en ∀i,
E(λ
i
) ∩ (E(λ
i−1
) ⊕E(λ
i−2
) ⊕... ⊕E(λ
1
)) = ¦0¦,
E(λ
1
) +E(λ
2
) + +E(λ
i
) + +E(λ
m
) = E(λ
1
) ⊕E(λ
2
) ⊕ ⊕E(λ
i
) ⊕ ⊕E(λ
m
)
Si dimE(λ
1
) = n
1
y ¦v
1
1
, , v
1
n
1
¦ son base de E
λ
1
, dimE(λ
i
) = n
i
y ¦v
i
1
, , v
i
n
i
¦ son base de E
λ
i
y dimE(λ
m
) = n
m
y ¦v
m
1
, , v
m
nm
¦ son base de E
λm
, por ser la suma de estos subespacios directa,
la dimensi´ on de esta suma es la suma de las dimensiones y la uni´ on de las bases de los subespacios
sumandos es base del subespacio suma. Si la suma de las dimensiones de todos estos subespacios
es la dimensi´ on del espacio total, ´este coincide con el subespacio suma y una base de este ´ ultimo es
tambi´en una base del espacio total. Entonces, ¦v
1
1
, , v
1
n
1
, , v
i
1
, v
i
n
i
, v
m
1
, , v
m
nm
¦ es base
de vectores propios del espacio total que diagonaliza al endomorfismo, quedando demostrada la parte
”si” de la proposici´ on. Para la parte ”s´ olo si” basta observar que en el caso en que el endomorfismo
es diagonalizable, la cantidad de vectores propios correspondiente a cada valor propio es la dimensi´ on
del n´ ucleo del correspondiente f −λ
i
I y que la suma de todas estas cantidades es igual a la dimensi´ on
del espacio.
Se llama multiplicidad geom´etrica de un valor propio λ
i
a la dimensi´ on del espacio ker(f −λ
i
I).
Con ello, la proposici´ on anterior se enuncia:
Un endomorfismo de un espacio vectorial V
n
es diagonalizable si y s´olo si la suma de las multi-
plicidades geom´etricas de sus valores propios es igual a la dimensi´on del espacio.
Se da aqu´ı una f´ ormula para obtener el polinomio caracter´ıstico de matrices 3 3:
[A −λI[ =
¸
¸
¸
¸
¸
¸
a
11
−λ a
12
a
13
a
21
a
22
−λ a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
=
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
−λ a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
a
21
a
22
−λ a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
=
257
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
0 −λ 0
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
a
21
a
22
a
23
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
0 −λ 0
a
31
a
32
a
33
−λ
¸
¸
¸
¸
¸
¸
=
=
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
a
21
a
22
a
23
0 0 −λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
0 −λ 0
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
a
11
a
12
a
13
0 −λ 0
0 0 −λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
a
21
a
22
a
23
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
a
21
a
22
a
23
0 0 −λ
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
0 −λ 0
a
31
a
32
a
33
¸
¸
¸
¸
¸
¸
+
¸
¸
¸
¸
¸
¸
−λ 0 0
0 −λ 0
0 0 −λ
¸
¸
¸
¸
¸
¸
=
[A[ −(
¸
¸
¸
¸
a
11
a
12
a
21
a
22
¸
¸
¸
¸
+
¸
¸
¸
¸
a
11
a
13
a
31
a
33
¸
¸
¸
¸
+
¸
¸
¸
¸
a
22
a
23
a
23
a
33
¸
¸
¸
¸
)λ + (a
11
+a
22
+a
33

2
−λ
3
Ejercicios:
8.2.1.
a) Averiguar si son diagonalizables los endomorfismos de R
3
dados en la base can´onica por las
matrices:
a)
_
_
−1 0 1
0 0 0
1 0 −1
_
_
b)
_
_
−1 0 −1
−1 0 −1
1 0 1
_
_
c)
_
_
5 −1 −1
1 3 −1
1 −1 3
_
_
d)
_
_
3 −2 2
2 −1 2
−1 1 0
_
_
e)
_
_
−1 3 1
2 −2 −1
−2 −1 −2
_
_
f)
_
_
−1 −1 −2
1 2 1
1 0 2
_
_
b) Escribir la relaci´ on entre las matrices dadas y las matrices diagonales correspondientes cuando
son diagonalizables.
c) Hallar la potencia de orden 5 de las matrices anteriores que sean diagonalizables.
8.2.2. La poblaci´ on de un pa´ıs est´ a repartida en tres regiones, A, B y C. En en momento actual,
hay cuarenta por ciento de la poblaci´ on en la regi´on A, cuarenta y cinco por ciento en la regi´ on B
y quince por ciento en la regi´ on C. Cada mes que va pasando hay un flujo de poblaci´ on entre las
regiones en el que cada regi´ on pierde el cuarenta por ciento de su poblaci´on, el cual se reparte por
igual entre las otras dos regiones. ¿Cu´al es la distribuci´ on de la poblaci´on dos a˜ nos despu´es?
8.2.3. En un pueblo hay tres panader´ıas, A, B, y C. Sus clientelas constituyen, respectivamente, el
treinta, cincuenta y veinte por ciento de la poblaci´ on total del pueblo. Al pasar cada mes hay cambio
de clientela: la panader´ıa A pierde veinte por ciento de su clientela, pasando el quince por ciento a
la panader´ıa B y el cinco por ciento a la panader´ıa C; la panader´ıa B pierde el treinta por ciento,
258
pasando el veinte por ciento a la panader´ıa A y el diez por ciento a la panader´ıa C; la panader´ıa C
pierde el cuarenta por ciento, pasando veinte por ciento a la panader´ıa A y veinte por ciento a la
panader´ıa B. ¿Cu´ al es el reparto de la clientela al cabo de un a˜ no?
8.2.4. En un bosque hay una poblaci´ on de depredadores y otra poblaci´ on de presas devoradas por
ellos. Cada medio a˜ no la poblaci´ on de presas se reproduce en una proporci´ on de 20 por ciento respecto
a su poblaci´ on existente, es devorada en una proporci´ on de 10 por ciento respecto a la poblaci´ on
de depredadores y muere en una proporci´ on de 10 por ciento respecto a su propia poblaci´ on. Los
depredadores se reproducen en una proporci´on de 40 por ciento respecto a la poblaci´on de presas
y en una proporci´on de 10 por ciento respecto a la proporci´ on de su poblaci´ on existente muriendo
tambi´en en una proporci´ on de un 40 por ciento respecto a su poblaci´on. Probar que si la poblaci´ on
de presas es la mitad que la poblaci´on de depredadores, esta relaci´ on se mantiene constante.
Nota: Estos tres ´ ultimos problemas se llaman problemas de din´amica de poblaciones. Se
puede demostrar que a largo plazo la poblaci´ on queda distribuida proporcionalmente al vector propio
correspondiente al valor propio de mayor valor absoluto de la matriz de transici´ on de una etapa a la
siguiente:
Supongamos por sencillez que la matriz A es 22 y tiene dos valores propios λ
1
y λ
2
con vectores
propios v
1
y v
2
respectivamente, siendo [λ
1
[ > [λ
2
[; entonces, como v
1
, v
2
son base, cualquiera que
sea el vector v (de distribuci´on de la poblaci´ on), se puede expresar:
A
n
(v) = A
n

1
v
1

2
v
2
) = α
1
λ
n
1
v
1

2
λ
n
2
v
2
de donde
1
λ
n
1
A
n
(v) = α
1
v
1

2
(
λ
2
λ
1
)
n
v
2
por lo que lim
n→∞
1
λ
n
1
A
n
(v) = α
1
v
1
porque [λ
1
[ > [λ
2
[, teni´endose que lim
n→∞
A
n
(v) = λ
n
1
α
1
v
1
, proporcional a v
1
. quedando demostrado
lo enunciado.
Como todos los m´ ultiplos de un vector propio son vectores propios para el mismo valor propio,
la igualdad anterior muestra que lim
n→∞
A
n
(v) es un vector propio para el mismo valor propio
cualquiera que sea v. Siendo adem´ as A
n+1
(v) ≈ λ
1
A
n
(v), es decir, a largo plazo la poblaci´on tiende
a quedar multiplicada por el valor propio λ
1
.
Si λ
1
> 1 crece indefinidamente y si λ
1
< 1 decrece y tiende a extinguirse. En los problemas en
los que s´ olo hay trasvase de poblaci´on de unas regiones a otras, la poblaci´ on no crece ni decrece, por
lo que el valor propio de mayor valor absoluto es 1. Y la poblaci´ on tiende a distribuirse seg´ un el
vector propio del valor propio 1.
259
Multiplicidad de los valores propios.
La teor´ıa que sigue es para abreviar el c´ alculo de las multiplicidades geom´etricas de algunos
valores propios y est´a motivada por el estudio de la ecuaci´ on caracter´ıstica.
Definici´ on 5: Se llama polinomio caracter´ıstico de un endomorfismo f o de su matriz A, al
determinante [A−λI[. Este es un polinomio de grado n en λ. Su definici´ on depende de la matriz A
que a su vez depende de la base escogida para expresar f pero puede demostrarse que en realidad,
s´ olo depende de f, es decir, que permanece constante al cambiar la base.
En efecto, si A

es la matriz de f en otra base, existe una matriz C de cambio de base tal que
A

= C
−1
AC. La matriz C tiene inversa por corresponder a un cambio de base y tiene determinante
distinto de cero. El polinomio caracter´ıstico de f, usando esta matriz ser´ıa
[A

−λI[ = [C
−1
AC −λI[ = [C
−1
AC −λC
−1
C[ = [C
−1
(A −λI)C[ =
= [C
−1
[[(A −λI)[[C[ = 1/[C[[(A −λI)[[C[ = [(A −λI)[
(por ser las matrices C y C
−1
de n´ umeros e invertibles y por ello producto de matrices elementales
y tener los determinantes de las matrices polinomiales, las mismas propiedades que las matrices
de n´ umeros, respecto a la suma de filas (o de columnas), intercambio de filas (o de columnas) y
multiplicaci´ on por un n´ umero de una fila (o de una columna).
Se puede comprobar que si n es el orden de A,
[λI −A[ = λ
n

n

i=1
a
ii
λ
n−1
+

ij
¸
¸
¸
¸
a
ii
a
ij
a
ji
a
jj
¸
¸
¸
¸
λ
n−2
+ + (−1)
n
[A[
siendo el coeficiente de λ
i
, la suma de los menores diagonales de orden n −i, que tienen su diagonal
en la diagonal de la matriz, multiplicada por (−1)
n−i
.
Obs´ervese que [A −λI[ = (−1)
n
[λI −A[.
Al ser el polinomio caracter´ıstico un invariante de f (independiente de la base escogida), tambi´en
son invariantes de f los coeficientes de las potencias de λ en cada uno de sus t´erminos y el t´ermino
independiente. Este ´ ultimo es el determinante de A que por eso se llama tambi´en determinante de
f. Otro invariante f´ acil de calcular es el coeficiente de λ
n−1
que es la suma de los t´erminos de la
diagonal de A multiplicada por (−1)
n−1
. Como el signo s´olo depende de n, la suma de los t´erminos
de la diagonal de A, que se llama traza de A, es tambi´en invariante de f.
260
Volviendo a los valores propios, cada uno de ellos es raiz λ
i
de [A−λI[ y tiene una multiplicidad
algebraica α
i
, tal que [A −λI[ = (λ −λ
i
)
α
i
q(λ), donde λ
i
no es raiz de q(λ).
Vamos a dar un lema que implica que la multiplicidad geom´etrica de los valores propios simples
del endomorfismo (de multiplicidad algebraica 1) es tambi´en 1. Por lo que al comprobar si el endo-
morfismo verifica la condici´ on enunciada en la proposici´ on 1 para ser diagonalizable s´olo tendremos
que hallar las dimensiones de los subespacios de vectores propios correspondientes a valores propios
m´ ultiples.
Demostramos el siguiente Lema 2: La multiplicidad geom´etrica de un valor propio λ
i
es menor
o igual que su multiplicidad algebraica.
Una vez demostrado el lema, tendremos que la multiplicidad geom´etrica de los valores propios
simples es 1, ya que por el lema es ≤ 1 pero como siempre hay por lo menos un vector propio para
un valor propio, es tambi´en ≥ 1, deduci´endose que es 1.
Demostraci´ on del lema 2: Como el polinomio caracter´ıstico es independiente de la base utilizada
para calcularlo, vamos a utilizar una base adaptada al resultado que queremos demostrar. Sea
m
i
= dim ker(f − λ
i
I); podemos entonces escoger ¦v
1
, , v
m
i
¦ vectores propios independientes
para el mismo valor propio λ
i
y extender este conjunto independiente a una base de todo el espacio
vectorial. Expresando f en esta base extendida, se obtiene una matriz as´ı:
A =
_
_
_
_
_
_
_
_
_
_
_
λ
i
0 0 a
1,m
i+1
a
1,n
0 λ
i
0 a
2,m
i+1
a
2,n
.
.
.
.
.
.
.
.
. 0
0 0 λ
i
a
m
i
,m
i+1
a
m
i
,n
0 0 0 a
m
i+1
,m
i+1
a
m
i
+1,n
0 0
.
.
. 0
.
.
.
.
.
.
.
.
.
0 0 0 a
n,m
i+1
a
n,n
_
_
_
_
_
_
_
_
_
_
_
y
[A −λI[ =
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
λ
i
−λ 0 0 a
1,m
i
+1
a
1,n
0 λ
i
−λ 0 a
2,m
i
+1
a
2,n
.
.
.
.
.
.
.
.
. 0
0 0 λ
i
−λ a
m
i
,m
i
+1
a
m
i
,n
0 0 0 a
m
i+1
,m
i+1
−λ a
m
i
+1,n
0 0
.
.
. 0
.
.
.
.
.
.
.
.
.
0 0 0 a
n,m
i
+1
a
n,n
−λ
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
=
261
= (λ
i
−λ)
m
i
¸
¸
¸
¸
¸
¸
¸
a
m
i+1
,m
i+1
−λ a
m
i
+1,n
.
.
.
.
.
.
.
.
.
a
n,m
i
+1
a
n,n
−λ
¸
¸
¸
¸
¸
¸
¸
= (λ
i
−λ)
m
i
q(λ)
donde q(λ) es un polinomio que podr´ıa tener λ
i
como raiz. Entonces λ
i
es raiz de [A − λI[ de
multiplicidad mayor o igual que m
i
= dim ker(f −λ
i
I), por tanto, dim ker(f −λ
i
I) ≤ α
i
c.q.d.
Como por el teorema fundamental del ´ algebra, la suma de las multiplicidades algebraicas de las
raices del polinomio caracter´ıstico (reales y complejas), es igual al grado del polinomio, (que en el
caso del polinomio caracter´ıstico coincide con la dimensi´ on del espacio vectorial), tambi´en se deduce
del lema que si la matriz de un endomorfismo de un espacio vectorial real tiene valores propios
complejos, el endomorfismo no es diagonalizable, porque la suma de las multiplicidades geom´etricas
de los valores propios reales es menor o igual que la suma de las multiplicidades algebraicas de dichos
valores propios, y ´esta suma s´olo llega a n sum´ andole adem´ as la multiplicidad de las raices complejas.
Plante´ andonos las causas por las que un endomorfismo puede no ser diagonalizable, encontramos
que son: a) que la multiplicidad geom´etrica de alg´ un valor propio no coincida con su multiplicidad
algebraica, b) en el caso de endomorfismos de espacios vectoriales reales, que el polinomio carac-
ter´ıstico tenga valores propios complejos. Si el espacio vectorial es complejo no aparece esta ´ ultima
dificultad, teni´endose los resultados siguientes:
Tercera condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable.
Teorema 1: Un endomorfismo de un espacio vectorial complejo es diagonalizable si y s´ olo si
la dimensi´ on del subespacio de vectores propios correspondiente a cada valor propio es igual a la
multiplicidad (algebraica) de ese valor propio en el polinomio caracter´ıstico.
Demostraci´ on: En efecto, si para todo λ
i
la dimensi´ on del ker(f −λ
i
I) coincide con la multiplici-
dad algebraica de la raiz λ
i
, se verifica que la suma de las dimensiones de los subespacios de vectores
propios es igual a la suma de las multiplicidades algebraicas de los valores propios, (igual a n), lo
que por la proposici´on 1 demuestra que el endomorfismo f es diagonalizable.
Rec´ıprocamente, por reducci´on al absurdo, ha de ser en el caso diagonalizable, dim ker(f −λ
i
I) =
multiplicidad algebraica de λ
i
ya que si fuera menor para alg´ un λ
i
, no se dar´ıa que el n´ umero de
vectores propios independientes de f fuera igual a la dimensi´on del espacio.
Una matriz A ∈ /
n×n
(R) de n´ umeros reales determina un endomorfismo f de R
n
en la base
can´ onica y tambi´en un endomorfismo f de C
n
. Diagonalizar f es encontrar una base de vectores
propios de R
n
para A y diagonalizar f es encontrar una base de vectores propios de C
n
para A.
262
Como los vectores de R
n
, son vectores de C
n
, toda diagonalizaci´ on de f da una diagonalizaci´ on de
f, pero el rec´ıproco no es cierto si los vectores propios de C
n
tienen coordenadas no reales.
Veamos un ejemplo de una matriz A ∈ /
3×3
(R) tal que el endomorfismo f : R
3
→ R
3
corres-
pondiente no es diagonalizable y el endomorfismo f : C
3
→C
3
correspondiente s´ı lo es:
A =
_
_
2 0 0
0 0 −1
0 1 0
_
_
Su polinomio caracter´ıstico es (2−λ)(λ
2
+1) cuyas raices son λ
1
= 2, λ
2
= i, λ
3
= −i. Las tres raices
son valores propios de f. Por ser distintas, f es diagonalizable. Pero s´olo la raiz real λ = 2 es valor
propio real. Entonces f tiene un s´olo valor propio cuya multiplicidad algebraica es 1, siendo 1 < 3, la
suma de las multiplicidades geom´etricas de los valores propios de f. Por ello f no es diagonalizable.
Dado un endomorfismo f de R
n
de matriz A, aunque el teorema 1 de diagonalizaci´ on anterior
s´ olo se aplica al endomorfismo f de la misma matriz, cuando f es diagonalizable y los valores propios
de f, (que son los de A), son todos reales, la matriz diagonal D equivalente a A es de n´ umeros reales
y tambi´en lo es la matriz de cambio de base C, tal que D = C
−1
AC. Esta diagonalizaci´ on es v´ alida
entonces, en /
n×n
(R) y nos dice que f es tambi´en diagonalizable. Por tanto, el teorema puede
aplicarse entonces a endomorfismos de R
n
, seg´ un el
Corolario 2: Un endomorfismo de un espacio vectorial sobre 1 es diagonalizable si y s´ olo si su
matriz tiene todos los valores propios reales y la dimensi´ on del subespacio de vectores propios para
cada valor propio (multiplicidad geom´etrica) es igual a la multiplicidad algebraica de ese valor propio
en el polinomio caracter´ıstico.
Ejercicios:
8.3.1. Estudiar, seg´ un los valores de los par´ ametros a y b, la diagonalizaci´on de las siguientes
matrices:
a)
_
_
−1 0 b
0 1 0
0 0 a
_
_
b)
_
_
1 −1 0
0 a 0
a 1 a
_
_
c)
_
_
1 2 b
0 a 0
1 0 b
_
_
8.3.2. Comprobar la f´ ormula dada para [λI − A[ posteriormente a la definici´ on 5 cuando A es
una matriz cuadrada 4 4.
263
Aplicaciones Autoadjuntas en un espacio eucl´ıdeo.
Vamos a utilizar la letra f para aplicaciones y a representar, a partir de este momento, el producto
escalar (que no tiene por qu´e ser el usual), por < x, y >.
Dada una aplicaci´ on f : V →V definida en un espacio vectorial eucl´ıdeo, se llama aplicaci´ on adjunta
de f a otra aplicaci´ on g : V →V tal que
< f(x), y >=< x, g(y) > ∀x, y ∈ V
Una aplicaci´on se llama autoadjunta cuando es adjunta de ella misma:
< f(x), y >=< x, f(y) > .
Ejemplos de aplicaciones autoadjuntas son las proyecciones ortogonales sobre un subespacio vec-
torial. En efecto, sea P
U
la aplicaci´ on proyeci´ on ortogonal sobre el subespacio U, entonces, para todo
vector x, tenemos x = P
U
(x) +P
U
⊥(x), por lo que
< P
U
(x), y >=< P
U
(x), P
U
(y) +P
U
⊥(y) >=
=< P
U
(x), P
U
(y) > + < P
U
(x), P
U
⊥(y) >=< P
U
(x), P
U
(y) >
ya que por ser P
U
(x) ∈ U, P
U
⊥(x) ∈ U

, < P
U
(x), P
U
⊥(y) >= 0. Por otra parte, cambiando el papel
de x por y, se obtiene de la anterior igualdad:
< x, P
U
(y) >=< P
U
(y), x >=< P
U
(y), P
U
(x) >
De donde < P
U
(x), y >= < x, P
U
(y) >.
Teorema 2:
a) Si la aplicaci´ on dada f es lineal, existe una aplicaci´on adjunta de f tambi´en lineal.
b) Si existe la aplicaci´on adjunta de una aplicaci´on dada, es ´ unica.
a) Es l´ ogico pensar que la adjunta de una aplicaci´ on lineal sea lineal, y suponiendo que en una
base determinada f se expresa por la matriz A y su adjunta g se exprese por una matriz B se puede
hallar la relaci´on necesaria que tendr´ıa que haber entre A y B. Comprobamos despu´es que esta
relaci´ on es suficiente.
264
Sea f(x) = A(x) en una base cualquiera y G la matriz del producto escalar en esa base. Si
g(x) = B(x) y g es adjunta de f:
(x
1
, x
2
, ..., x
n
)
t
AG
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
=< A(x), y >=< x, B(y) >= (x
1
, x
2
, ..., x
n
)GB
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
Como esta igualdad debe ser cierta para todo x e y, debe tenerse:
t
AG = GB, es decir, B = G
−1t
AG
En una base ortonormal, G = I y entonces obtenemos B =
t
A.
Comprobamos que esta condici´ on necesaria para B es suficiente para que g sea adjunta de f:
1) Si f es una aplicaci´on lineal que se expresa en una base ortonormal por A, la aplicaci´ on lineal
que se expresa en esa misma base por
t
A es adjunta de la anterior.
2) Si f es una aplicaci´ on lineal que se expresa en una base cualquiera por A, la aplicaci´ on lineal
g que se expresa en esa misma base por G
−1t
AG donde G es la matriz del producto escalar en esa
base, es adjunta de la anterior.
En efecto:
1) En una base ortonormal,
< f(x), y >=
_
_
_
_
_
A
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
t

_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (x
1
, x
2
, ..., x
n
)
t
A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
y
< x, g(y) >= (x
1
, x
2
, ..., x
n
)
t
A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
siendo, por tanto iguales.
2) En una base cualquiera,
< f(x), y >=
_
_
_
_
_
A
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
t
G
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (x
1
, x
2
, ..., x
n
)
t
AG
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
265
y
< x, g(y) >= (x
1
, x
2
, ..., x
n
)GG
−1t
AG
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (x
1
, x
2
, ..., x
n
)
t
AG
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
son iguales.
b) Veamos ahora que en el caso de existir la aplicaci´on adjunta de otra aplicaci´ on, ser´ıa ´ unica.
Sean g y h dos adjuntas de la aplicaci´ on f, entonces:
< x, g(y) >=< f(x), y >=< x, h(y) > ∀x, y ∈ V
de donde
< x, g(y) −h(y) >= 0 ∀x, y ∈ V
Cogiendo x = g(y) −h(y), tenemos:
< g(y) −h(y), g(y) −h(y) >= 0 ∀y ∈ V
Por las propiedades del producto escalar, esto implica g(y) −h(y) = 0 ∀y ∈ V . Es decir,
g(y) = h(y) ∀y ∈ V
En virtud de b), podemos hablar de la aplicaci´ on adjunta de una aplicaci´ on lineal y afirmar que
es lineal, siendo su matriz la que hemos calculado en el apartado a).
Para que la aplicaci´on lineal sea autoadjunta, debe coincidir con su adjunta, por tanto, seg´ un lo
visto anteriormente, si la expresamos en una base ortonormal, ha de ser A =
t
A y si la expresamos
en una base cualquiera, ha de ser A = G
−1t
AG, lo cual es equivalente a GA =
t
AG =
t
AG
t
= (GA)
t
,
es decir, que GA ha de ser una matriz sim´etrica, siendo G la matriz del producto escalar en dicha
base.
Corolario: Como hemos visto que las proyecciones ortogonales son aplicaciones autoadjuntas, si
las expresamos en una base ortonormal, su matriz ha de ser sim´etrica.
266
Ejercicios.
8.4.1. Encontrar las matrices en la base can´ onica de las aplicaciones adjuntas respecto al producto
escalar usual de los endomorfismos de R
3
dados en la base can´onica por
a) f(x, y, z) = (x +y +z, 2x +y + 2z, x +y + 3z)
b) f(x, y, z) = (y +z, 2x + 2z, 2x +y + 3z)
c) f(x, y, z) = (−y +z, −x + 2z, x + 2y).
d) f(x, y, z) = (x +y +z, x + 2y + 2z, x + 2y + 3z).
8.4.2. Se˜ nalar cuales de los endomorfismos del ejercicio anterior son autoadjuntos.
8.4.3.
a) Averiguar si son autoadjuntos respecto al producto escalar usual los endomorfismos de R
3
dados en la base ¦(1, 1, 1), (1, 2, 0), (1, 0, 3)¦ por
a)
_
_
−1 0 −2
1 2 1
1 0 2
_
_
b)
_
_
6 4 10
−3 −2 −5
−1 −1 −1
_
_
b) Comprobar el resultado mirando las matrices de dichos endomorfismos en la base can´onica.
c) Hay una aplicaci´on que no es autoadjunta. Hallar la matriz en la base dada y en la base
can´ onica de su aplicaci´on adjunta y comprobar que est´an relacionadas por el correspondiente cambio
de base.
8.4.4. Se considera una base ortonormal ¦e
1
, e
2
, e
3
¦ en un espacio vectorial eucl´ıdeo de dimensi´ on
3 y en ´el la aplicaci´ on lineal dada por
3f(e
1
) = 2e
1
−2e
2
+e
3
3f(e
2
) = αe
1
+e
2
−2e
3
3f(e
3
) = βe
1
+γe
2
+ 2e
3
Encontrar α, β, γ para que la aplicaci´ on f sea autoadjunta.
267
Diagonalizaci´ on de las Aplicaciones Autoadjuntas, (de las matrices sim´etricas).
Hemos visto que una aplicaci´on autoadjunta se expresa en una base ortonormal por una ma-
triz sim´etrica y la aplicaci´on expresada por una aplicaci´ on sim´etrica en una base ortonormal es
autoadjunta, por ello es equivalente la diagonalizaci´ on de aplicaciones autoadjuntas y de matrices
sim´etricas.
Recordemos que un endomorfismo es diagonalizable si y s´ olo si la suma de las multiplicidades
geom´etricas de sus valores propios es igual a la dimensi´on del espacio y la dimensi´ on del espacio es
el grado del polinomio caracter´ıstico, que coincide con la suma de las multiplicidades algebraicas de
los valores propios. Como la multiplicidad geom´etrica de un valor propio es menor o igual que su
multiplicidad algebraica, una raz´on para que un endomorfismo de un espacio vectorial real no sea
diagonalizable es que una de las raices de su polinomio caracter´ıstico sea compleja. Veamos que no
se da este caso para los endomorfismos expresados por matrices sim´etricas.
Proposici´on 2: Una matriz sim´etrica de n´ umeros reales no tiene valores propios complejos.
Demostraci´ on:
Sea A la matriz sim´etrica de n´ umeros reales A. Una matriz cuadrada de n´ umeros reales determina
un endomorfismo f de R
n
y tambi´en un endomorfismo f de C
n
. Los valores propios de f son s´ olo
las raices reales del polinomio caracter´ıstico de la matriz. Los valores propios de f son las raices,
reales o complejas, del polinomio caracter´ıstico de la matriz.
Consideremos el endomorfismo f dado por la matriz A en el espacio vectorial C
n
donde n es el
orden de A. Si α + iβ fuera un valor propio de este endomorfismo, existir´ıa un vector propio (no
nulo) de coordenadas complejas:
w = (w
1
, w
2
, ...w
n
) = (u
1
+iv
1
, u
2
+iv
2
, ..., u
n
+iv
n
) = (u
1
, u
2
, ..., u
n
) +i(v
1
, v
2
, ..., v
n
) = u +iv
tal que
f(u +iv) = (α +iβ)(u +iv) equiv. a A(u +iv) = (α +iβ)(u +iv)
es decir,
Au +iAv = αu −βv +i(αv +βu),
igualando partes reales y partes imaginarias, existir´ıan dos vectores u y v del espacio vectorial real
R
n
, tales que
Au = αu −βv
Av = αv +βu
268
Como Au = f(u) y Av = f(v), se tiene
f(u) = αu −βv
f(v) = αv +βu
y como f es autoadjunta en el espacio vectorial real, tenemos, sustituyendo ahora f(u) y f(v) por
sus valores en < f(u), v >=< u, f(v) >,
< αu −βv, v >=< u, αv +βu >⇒α < u, v > −β < v, v >= α < u, v > +β < u, u >
o sea,
β(< u, u > + < v, v >) = 0
Tenemos, de aqu´ı, β = 0 porque el producto escalar es definido positivo y el vector w = u + iv
no era nulo. Por ello, el valor propio ha de ser real.
Como una matriz sim´etrica n n de n´ umeros reales no tiene valores propios complejos, sabemos
que si todos los valores propios son de multiplicidad 1, tiene que tener n valores propios reales distintos
y por tanto la matriz es diagonalizable en R. Y m´as a´ un, en virtud de la proposici´ on siguiente, la base
que diagonaliza a la matriz sim´etrica (o a la aplicaci´ on autoadjunta correspondiente) es ortogonal.
Proposici´on 3:
Dos vectores propios de una aplicaci´ on autoadjunta (de una matriz sim´etrica) correspondientes a
distintos valores propios son ortogonales:
Demostraci´ on:
Sean v
1
, v
2
vectores propios de f tales que f(v
1
) = λ
1
v
1
, f(v
2
) = λ
2
v
2
, siendo λ
1
,= λ
2
.
< f(v
1
), v
2
>=< v
1
, f(v
2
) >⇒< λ
1
v
1
, v
2
>=< v
1
, λ
2
v
2
>⇒λ
1
< v
1
, v
2
>= λ
2
< v
1
, v
2
>
de donde

1
−λ
2
) < v
1
, v
2
>= 0
y como λ
1
−λ
2
,= 0 ha de ser < v
1
, v
2
>= 0.
Por la misma raz´ on, subespacios de vectores propios correspondientes a distintos valores propios
son ortogonales.
269
EJEMPLO 2:
Al diagonalizar la matriz
_
_
7 2 0
2 6 −2
0 −2 5
_
_
obtenemos su polinomio caracter´ıstico −λ
3
+ 18λ
2
− 99λ + 162 = (3 − λ)(λ − 6)(λ − 9). Por tanto
los valores propios son λ
1
= 3, λ
2
= 6 λ
3
= 9.
Los vectores propios para λ
1
son los que verifiquen la ecuaci´on
_
_
7 2 0
2 6 −2
0 −2 5
_
_
_
_
x
y
z
_
_
= 3
_
_
x
y
z
_
_

_
_
4 2 0
2 3 −2
0 −2 2
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
,
uno de ellos es (1, −2, −2).
Los vectores propios para λ
2
son los que verifiquen la ecuaci´on
_
_
7 2 0
2 6 −2
0 −2 5
_
_
_
_
x
y
z
_
_
= 6
_
_
x
y
z
_
_

_
_
1 2 0
2 0 −2
0 −2 −1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
,
uno de ellos es (−2, 1, −2).
Los vectores propios para λ
3
son los que verifiquen la ecuaci´on
_
_
7 2 0
2 6 −2
0 −2 5
_
_
_
_
x
y
z
_
_
= 9
_
_
x
y
z
_
_

_
_
−2 2 0
2 −3 −2
0 −2 −4
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
,
uno de ellos es (2, 2, −1).
Se ve que el producto escalar de dos distintos de estos vectores propios es nulo y por tanto son
ortogonales o perpendiculares. Por tanto, la base que diagonaliza al endomorfismo correspondiente a
la matriz dada es una base ortogonal, que puede transformarse en ortonormal dividiendo cada vector
por su m´ odulo.
De hecho, tenemos el interesante Teorema 3: Todo endomorfismo autoadjunto de un espacio
vectorial eucl´ıdeo es diagonalizable en una base ortonormal.
Utilizamos un argumento que se basa en la siguiente propiedad:
Proposici´on 4: Si f : V
n
R
→V
n
R
es una aplicaci´on autoadjunta y U es un subespacio invariante
por f, el subespacio ortogonal a U es tambi´en invariante por f.
270
En efecto, si v

∈ U

y v ∈ U, < v, f(v

) >=< f(v), v

>= 0 ∀v ∈ U.
Demostraci´ on del teorema:
Damos ahora una demostraci´ on constructiva. Otra demostraci´ on por inducci´ on del teorema se
puede encontrar al final del cap´ıtulo.
Sea λ
1
un valor propio real del endomorfismo autoadjunto f con el vector propio v
1
. (Existe por
la proposici´on 2).
Entonces el subespacio /¦v
1
¦ es invariante por f y por tanto /¦v
1
¦

es invariante por f.
Completando v
1
a una base de V con una base ¦u
2
, u
3
, ..., u
n
¦ del ortogonal a v
1
, la matriz de f
en esa base ser´ıa:
_
_
_
_
λ
1
0 0 0
0 ∗ ∗ ∗
0 ∗ ∗ ∗
0 ∗ ∗ ∗
_
_
_
_
porque como para j > 1, f(u
j
) ∈ /¦u
2
, u
3
, ..., u
n
¦, su coordenada en v
1
es nula.
Aqu´ı las * llenar´ıan la matriz de la restricci´on de f al ortogonal a v
1
. Como esta restricci´ on f[
v

1
es autoadjunta, podemos encontrar otro λ
2
valor propio real de esta restricci´on (y a su vez de f) y
otro v
2
, vector propio del subespacio ortogonal a v
1
para f y λ
2
.
El subespacio /¦v
1
, v
2
¦

es tambi´en invariante por f por serlo /¦v
1
, v
2
¦.
Expresando f en una base formada por ¦v
1
, v
2
¦ ampliada con una base del subespacio ortogonal
a estos dos vectores, tendr´ıamos una matriz del tipo:
_
_
_
_
λ
1
0 0 0
0 λ
2
0 0
0 0 ∗ ∗
0 0 ∗ ∗
_
_
_
_
donde las * llenar´ıan la matriz de la restricci´ on de f al ortogonal a /¦v
1
, v
2
¦.
Podemos seguir repitiendo el razonamiento hasta reducir la matriz de las estrellas a dimensi´ on
uno porque la restricci´ on del endomorfismo dado a cualquier subespacio invariante sigue siendo au-
toadjunto y por tanto teniendo valores propios reales. Al final hemos hecho nulos todos los elementos
que no est´ an en la diagonal y hemos encontrado una base en la que f se expresa por una matriz
diagonal, por tanto f es diagonalizable.
Observemos tambi´en que la base de vectores propios que se han ido obteniendo de esta forma son
ortogonales a todos los anteriores. Son por tanto una base ortogonal que diagonaliza a f y se puede
hacer ortonormal dividiendo cada vector por su m´odulo sin perder la propiedad de diagonalizar a f.
Para el procedimiento pr´actico para encontrar una base ortonormal que diagonalice a una apli-
caci´ on autoadjunta utilizamos la
271
Observaci´on 1:
Cuando f es autoadjunta, al ser f diagonalizable, la suma de las multiplicidades ge´ ometricas
de todos sus valores propios (que son reales) es igual a la dimensi´ on del espacio. Por lo que V
n
=

m
1
ker(f −λ
i
I).
Adem´ as, todos estos subespacios sumandos son ortogonales entre s´ı seg´ un se ha visto. En cada uno
de los subespacios podemos coger una base ortonormal y la uni´ on de todas las bases ortonormales
de los ker(f −λ
i
I) da una base ortonormal de V
n
que diagonaliza a f.
En la pr´actica tambi´en obtenemos primero una base ortogonal que diagonaliza a f y luego di-
vidimos cada vector de la base por su m´odulo.
EJEMPLO 3: Diagonalizar en una base ortonormal el endomorfismo de R
3
, dado por la matriz
A =
_
_
2 −1 −1
−1 2 −1
−1 −1 2
_
_
Su polinomio caracter´ıstico es −λ
3
+ 6λ
2
−9λ de raices λ
1
= 0, simple y λ
2
= 3, doble.
Como sabemos que el endomorfismo es diagonalizable, la dimensi´ on del subespacio de vectores
propios para λ
2
= 3 ha de ser 2. Las ecuaciones de este subespacio son
_
_
_
_
2 −1 −1
−1 2 −1
−1 −1 2
_
_
−3I
_
_
_
_
x
y
z
_
_
=
_
_
−1 −1 −1
−1 −1 −1
−1 −1 −1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
es decir, la ecuaci´ on −x −y −z = 0. En el plano de esta ecuaci´ on podemos encontrar dos vectores
propios ortogonales: Escogido uno: (0, 1, −1), el otro, para ser ortogonal a ´el ha de verificar la
ecuaci´ on y −z = 0 adem´ as de verificar −x −y −z = 0, y puede ser, por tanto (−2, 1, 1). Un vector
propio correspondiente al valor propio λ
1
= 0 es perpendicular a los otros dos, por lo que ha de ser
proporcional al vector que tiene de coordenadas los coeficientes de las inc´ ognitas en la ecuaci´ on del
plano de vectores propios para λ
2
= 3: (−1, −1, −1).
Una base ortogonal que diagonaliza al endomorfismo es ¦(0, 1, −1), (−2, 1, 1)(−1, −1, −1)¦.
Una base ortonormal que diagonaliza al endomorfismo es ¦
1

2
(0, 1, −1),
1

6
(−2, 1, 1),
1

3
(−1, −1, −1)¦.
Las relaciones entre la matriz de f y la diagonal son: C
−1
AC = D donde
D =
_
_
3 0 0
0 3 0
0 0 0
_
_
272
y C puede ser
_
_
0 −2 −1
1 1 −1
−1 1 −1
_
_
´ o
_
_
_
0
1

6
(−2)
1

3
(−1)
1

2
1

6
1

3
(−1)
1

2
(−1)
1

6
1

3
(−1)
_
_
_
.
Para diagonalizar formas cuadr´aticas (que veremos m´as adelante) y tambi´en para tener otro
m´etodo de hallar bases ortogonales de un producto escalar, hacemos la
Observaci´on 2:
Si C es la matriz de cambio de base de la can´ onica a otra ortonormal, C
t
C = I, es decir,
C
t
= C
−1
. (Compru´ebese en el caso anterior, en particular y como ejercicio, en general). Entonces,
la diagonalizaci´ on de una matriz sim´etrica A, que implica la existencia de una matriz C de cambio de
base tal que C
−1
AC = D, por poderse hacer en una base ortonormal, tambi´en implica la existencia
de una matriz de cambio de base C tal que C
t
AC = D.
Observaci´on 3:
Si C es la matriz de cambio de base de la can´ onica a otra ortogonal, C
t
C no es la identidad
pero es una matriz diagonal cuyos elementos diagonales son los m´ odulos de los vectores columna de
C: (|v
i
|
2
). Entonces,
C
t
AC =
_
_
_
_
_
λ
1
|v
1
|
2
0 0
0 λ
2
|v
2
|
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
|v
n
|
2
_
_
_
_
_
Compru´ebese como ejercicio.
Ejercicios:
8.5.1. Diagonalizar en una base ortonormal los endomorfismos de R
3
dados en la base can´ onica
por las siguientes matrices:
a)
_
_
−3 6 0
6 0 −6
0 −6 3
_
_
b)
1
3
_
_
2 −2 1
−2 1 −2
1 −2 2
_
_
c)
_
_
1 0 1
0 1 1
1 1 −1
_
_
Sol. Valores propios: a) 0, 9, −9 b)1/3, −1/3, 5/3 c) 1,

3, −

3
8.5.2. Diagonalizar en una base ortonormal las aplicaciones lineales de R
3
dadas en la base
can´ onica por las siguientes matrices:
273
a)
_
_
3 2 4
2 0 2
4 2 3
_
_
b)
_
_
−2 −2 1
−2 1 −2
1 −2 −2
_
_
c)
_
_
3 −1 0
−1 3 0
0 0 2
_
_
d)
_
_
−7 −4 −4
−4 −1 8
−4 8 −1
_
_
Sol. Valores propios: a) 8, −1 (doble). b) 3, −3(doble) c) 4, 2(doble), d) 9, −9 (doble).
274
Espacios Herm´ıticos.
En C
n
se puede definir un producto llamado herm´ıtico de la siguiente forma:
(z
1
, z
2
, , z
n
) (z

1
, z

2
, , z

n
) = z
1
z

1
+z
2
z

2
+ +z
n
z

n
= (z
1
, z
2
, , z
n
)
_
_
_
_
_
z

1
z

2
.
.
.
z

n
_
_
_
_
_
Puede comprobarse que es una aplicaci´ on de c
n
c
n
en c que cumple las siguientes propiedades:
1) z z

= z

z
2) Es sesquilineal: Si z, z

, z

∈ C
n
_
(z +z

) z

= z z

+z

z

λz z

= λz z

_
z λz

= λz z

z (z

+z

) = z z

+z z

3) Es definido positivo: z z ≥ 0 y z z = 0 ≡ z = 0 (z z es real)
Un producto herm´ıtico generalizado en un espacio vectorial V
n
C
complejo es una aplicaci´on
h : V
n
C
V
n
C
→C que cumple las propiedades 1), 2) y 3) anteriores.
Un espacio herm´ıtico general es un espacio vectorial complejo con un producto herm´ıtico
general.
Se puede definir el m´odulo de un vector de un espacio herm´ıtico, por ser ´este definido positivo.
(|z| =
_
h(z, z)).
Tambi´en se cumple la desigualdad de Schwarz: [[z z

[[ ≤ |z||z

| y la desigualdad triangular,
pero no podemos definir ´angulos, ya que los cosenos son n´ umeros reales y los productos de vectores
complejos son n´ umeros complejos.
Lo mismo que se hizo con el producto escalar, se puede encontrar una expresi´ on matricial del
producto herm´ıtico generalizado, que viene dado por una matriz H que tiene determinante distinto
de cero, por ser el producto definido positivo. Por ello, se puede definir el subespacio ortogonal a
otro dado de manera an´aloga a como se define en el espacio eucl´ıdeo, teni´endose que el espacio total
es suma directa de un subespacio suyo y de su subespacio ortogonal. Por lo que tambi´en se pueden
definir las proyecciones ortogonales en el espacio herm´ıtico.
275
Tambi´en podemos encontrar bases ortonormales para el producto herm´ıtico en el que la matriz
de dicho producto es I. El procedimiento de Gram-Schmidt es v´ alido para un producto herm´ıtico,
por ser ´este definido positivo.
La matriz H necesariamente ha de cumplir que su traspuesta es igual a su conjugada. Tales
matrices se llaman herm´ıticas. Adem´as, para que una matriz herm´ıtica corresponda a un producto
herm´ıtico, todos sus menores angulares superiores izquierdos han de ser n´ umeros reales positivos,
siendo esta condici´ on suficiente. Puede comprobarse de manera an´ aloga a como se demostr´ o el criterio
de Sylvester para la matriz de un producto escalar.
En un espacio herm´ıtico se define la adjunta de una aplicaci´ on lineal de la misma forma que en
un espacio eucl´ıdeo y una aplicaci´ on es autoadjunta si ∀z, z

∈ V
n
C
:
f(z) z

= z f(z

)
Expresada en una base ortonormal la aplicaci´ on f por la matriz A, tendr´ıamos:
Az z

= (z
1
, z
2
, , z
n
)
t
A
_
_
_
_
_
z

1
z

2
.
.
.
z

n
_
_
_
_
_
= (z
1
, z
2
, , z
n
)A
_
_
_
_
_
z

1
z

2
.
.
.
z

n
_
_
_
_
_
∀z, z

∈ C
n
de donde para que la aplicaci´on sea autoadjunta,
t
A = A (herm´ıtica).
Proposici´on 4: Los autovalores de una aplicaci´ on autoadjunta de un espacio herm´ıtico son
reales:
En efecto, si f(v) = λv, se tiene
λ(v v) = (λv) v = f(v) v = v f(v) = v λv = λv v
Como < v, v > es distinto de cero, esta igualdad implica λ = λ.
Otras aplicaciones importantes entre los espacios herm´ıticos son las aplicaciones unitarias: son
las que conservan el producto herm´ıtico: f(z) f(z

) = z z

∀z, z

∈ V
n
C
.
Si U es la matriz de una aplicaci´ on unitaria en una base ortonormal, ∀z, z

∈ V
n
C
, tenemos:
276
(z
1
, z
2
, , z
n
)U
t
U
_
_
_
_
_
z

1
z

2
.
.
.
z

n
_
_
_
_
_
= (z
1
, z
2
, , z
n
)
_
_
_
_
_
z

1
z

2
.
.
.
z

n
_
_
_
_
_
∀z, z

∈ V
n
C
lo que implica que U
t
U = I. Estas matrices se llaman unitarias.
Proposici´on 5:
Los valores propios de una aplicaci´ on unitaria son n´ umeros complejos de m´ odulo 1.
En efecto, si f(z) = λz, f(z) f(z) = z z implica z z = λz λz = λλz z = [λ[
2
z z lo cual
implica [λ[ = 1.
Como consecuencia, los valores propios de las aplicaciones unitarias son distintos de cero, siendo
por tanto estas aplicaciones inyectivas y por tanto suprayectivas, es decir, isomorfismos, cuyo iso-
morfismo inverso es tambi´en unitario.
Teorema 4. Tanto las aplicaciones autoadjuntas como las aplicaciones unitarias de un espacio
herm´ıtico son diagonalizables en bases ortonormales.
La demostraci´on se sigue por inducci´ on del siguiente lema:
Lema 2: Si v
1
es un vector propio de una aplicaci´on autoadjunta o unitaria, el subespacio /¦v
1
¦

es invariante por f.
En efecto:
1) Si f es autoadjunta y v ∈ /¦v
1
¦

, f(v) v
1
= v f(v
1
) = v λ
1
v
1
= λ
1
v v
1
= 0, de donde
f(v) ∈ /¦v
1
¦

.
2) Si f es unitaria, sea v
1
un vector propio de f para el valor propio λ; entonces, v
1
es tambi´en
un valor propio de f
−1
para 1/λ. Si v ∈ /¦v
1
¦

, v
1
f(v) = f
−1
(v
1
) f
−1
f(v) = (1/λ)v
1
v = 0, de
donde f(v) ∈ /¦v
1
¦

.
Demostraci´ on de la diagonalizaci´ on de aplicaciones autoadjuntas y unitarias en una base ortonormal:
La diagonalizaci´on de un endomorfismo en una base ortonormal es equivalente a la diagonalizaci´on
del endomorfismo en una base ortogonal dividiendo cada vector por su m´ odulo.
Hacemos la demostraci´on por inducci´ on sobre la dimensi´ on del espacio. Sea esta n.
Tengamos en cuenta que el endomorfismo es diagonalizable en una base ortogonal si podemos
encontrar n vectores propios independientes ortogonales dos a dos.
Cuando n = 1, la matriz se reduce a un n´ umero y es ya diagonal.
Suponemos que toda aplicaci´on autoadjunta o unitaria de un espacio herm´ıtico de dimensi´ on n−1
es diagonalizable en una base ortogonal.
Sea v
1
un vector propio. El subespacio /¦v
1
¦

es invariante por f seg´ un hemos visto en el lema 1
y es de dimesi´on n−1. Seg´ un la hip´ otesis de inducci´ on, la restricci´ on de f a /¦v
1
¦

es diagonalizable
277
en una base ortogonal, por lo que existen n −1 vectores propios para f, ortogonales dos a dos. Esta
base unida al vector propio v
1
es una base de vectores propios ortogonales dos a dos del espacio total
que diagonaliza a f.
Dividiendo cada vector por su m´odulo podemos obtener una base ortonormal diagonalizante.
Ejercicios:
8.6.1. Determinar si son autoadjuntas o unitarias las aplicaciones de C
3
en C
3
cuyas matrices en
la base can´ onica son las siguientes:
A)
_
_
1 0 i
0 2 0
−i 0 3
_
_
B)
_
_
6 0 −2

2 −2i
0 −4 0
−2

2 + 2i 0 2
_
_
C) 1/2
_
_
1 +i

2 0 i
0 2 0
i 0 1 −i

2
_
_
D)
_
_
7 −

2 +i −2

2 + 2i


2 −i 7 −2
−2

2 −2i −2 −8
_
_
E)
_
_
2 −2

2 + 2i 2

2 −2i
−2

2 −2i 8 −2
2

2 + 2i −2 4
_
_
F)
_
_
0 0 −i
0 −1 0
−i 0 0
_
_
G)
1
2
_
_
1 −i

2 0 1
0 2 0
−1 0 1 +i

2
_
_
H)
1
3
_
_
−2 i 2i
2 2i i
−1 2i −2i
_
_
I)
1
9
_
_
−4i −1 8i
4i −8 i
7i 4 4i
_
_
J)
1
4
_
_
−1 +i(2

2 −1) 0 −1 −

2 +i(

2 + 1)
0 4 0
1 −

2 +i(

2 + 1) 0 −1 +i(1 −2

2)
_
_
K)
_
_
3i + 4 2 −6i −4
2 −6i 1 −2 −6i
−4 −2 −6i 4 −3i
_
_
8.6.2.
a) Comprobar que las matrices anteriores que son autoadjuntas tienen los valores propios reales.
b) Comprobar que las matrices anteriores que son unitarias tienen los valores propios de m´ odulo
1.
c) Diagonalizar las matrices A), F), H), K) anteriores. (Encontrar una base de vectores propios
de cada aplicaci´on y la matriz de la aplicaci´ on en esta base).
8.6.3.
a) Demostrar que si un subespacio W es invariante por una aplicaci´on autoadjuta, el subespacio
W

tambi´en lo es.
b) Demostrar que si un subespacio W es invariante por una aplicaci´ on unitaria, el subespacio W

tambi´en lo es.
8.6.4. Demostrar que vectores propios correspondientes a distintos valores propios de una apli-
caci´ on unitaria son ortogonales.
278
Bibliograf´ıa:
[A] J. Arves´ u Carballo, R.
´
Alvarez Nodarse, F. Marcell´an Espa˜ nol. Algebra Lineal y aplicaciones.
Ed. S´ıntesis. 1999.
[B] J. de Burgos. Curso de Algebra y Geometr´ıa. Ed. Alhambra 1982.
[C] M. Castellet, I. Llerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e. 1991.
[G] L. Golovina. Algebra Lineal y algunas de sus Aplicaciones. Ed. Mir. 1980.
[H] E. Hern´ andez. Algebra y Geometr´ıa. Ed. Addison-Wesley/U.A.M. 1994.
[L] D. C. Lay. Algebra Lineal y sus Aplicaciones. Ed. Prentice-Hall 2001.
[S] G. Strang. Algebra Lineal y sus Aplicaciones Ed. Addison-Wesley
Iberoamericana. 1990.
[V] A. de la Villa. Problemas de Algebra. Ed. Clagsa, 1994.
279
280
FORMAS CUADR
´
ATICAS.
Introducci´ on.
Ya hemos estudiado ciertas formas bilineales, los productos escalares. Las formas bilineales en
general, no tienen porqu´e ser sim´ utricas ni definidas positivas.
A cada forma bilineal se le asocia una forma cuadr´ atica; aunque a distintas formas bilineales
resulta asociada la misma forma cuadr´ atica, encontramos s
´
lo una forma bilineal sim´etrica (de matriz
sim´etrica) asociada a ´esta forma cuadr´ atica. Veremos que su matriz puede llegar a ser diagonal,
haciendo un cambio de base. Hallar la matriz diagonal, la base y el nuevo sistema de coordenadas
en la que le corresponde es diagonalizar la forma cuadr´ atica. Todas las formas cuadr´aticas son
diagonalizables.
Definici´ on 1. Dado un espacio vectorial sobre un cuerpo K, se llama forma bilineal en V a toda
aplicaci´ on f : V V −→K que es lineal en cada una de las variables, es decir,
∀x, x

, y, y

∈ V, ∀α ∈ K
_
¸
¸
_
¸
¸
_
f(x +x

, y) = f(x, y) +f(x

, y)
f(αx, y) = αf(x, y)
f(x, y +y

) = f(x, y) +f(x, y

)
f(x, αy) = αf(x, y)
Definici´on 2. Dado un espacio vectorial V sobre un cuerpo K, se llama forma cuadr´ atica en V
a una aplicaci´ on Q : V −→K si existe una forma bilineal f tal que Q(x) = f(x, x)
La forma cuadr´ atica Q verifica Q(αx) = f(αx, αx) = α
2
f(x, x) = α
2
Q(x).
Expresi´on matricial de una forma cuadr´atica.
Toda forma cuadr´atica en un espacio vectorial de dimensi´ on finita admite una expresi´on matricial
deducida de la expresi´ on matricial de la forma bilineal en el espacio vectorial de dimensi´on finita:
Sea ¦e
1
, e
2
, ...e
n
¦ una base del espacio vectorial V
n
sobre el que est´ a definida la forma bilineal.
Sean x = (x
1
, x
2
, ..., x
n
), y = (y
1
, y
2
, ...y
n
) dos vectores del espacio vectorial expresados por sus
coordenadas en esa base y sea f la forma bilineal.
Entonces,
f(x, y) = f(x
1
e
1
+x
2
e
2
+... +x
n
e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
x
1
f(e
1
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+x
2
f(e
2
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
)+... +x
n
f(e
n
, y
1
e
1
+y
2
e
2
+... +y
n
e
n
) =
281
= x
1
(y
1
f(e
1
, e
1
)+...+y
n
f(e
1
, e
n
))+x
2
(y
1
f(e
2
, e
1
)+...+y
n
f(e
2
, e
n
))+...+x
n
(y
1
f(e
n
, e
1
)+...+y
n
f(e
n
, e
n
)) =
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
y
1
f(e
1
, e
1
) +y
2
f(e
1
, e
2
) +... +y
n
f(e
1
, e
n
)
y
1
f(e
2
, e
1
) +y
2
f(e
2
, e
2
) +... +y
n
f(e
2
, e
n
)
...
y
1
f(e
n
, e
1
) +y
2
f(e
n
, e
2
) +... +y
n
f(e
n
, e
n
)
_
_
_
_
=
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
f(e
1
, e
1
) f(e
1
, e
2
) ... f(e
1
, e
n
)
f(e
2
, e
1
) f(e
2
, e
2
) ... f(e
2
, e
n
)

f(e
n
, e
1
) f(e
n
, e
2
) ... f(e
n
, e
n
)
_
_
_
_
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
=
= (x
1
, x
2
, ..., x
n
)B
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
.
donde la matriz denotada por B es la matriz de la forma bilineal.
Como Q(x) = f(x, x), la forma cuadr´ atica tambi´en puede escribirse en forma matricial:
Q(x) = f(x, x) = (x
1
, x
2
, ..., x
n
)B
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
Rec´ıprocamente, cualquiera que sea la matriz B, las expresiones matriciales:
(x
1
, x
2
, ..., x
n
)B
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
y (x
1
, x
2
, ..., x
n
)B
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
donde las coordenadas se refieren a una base fijada, corresponden respectivamente a formas bilineales
y formas cuadr´ aticas.
Ejemplo 1:
282
Veamos lo que resulta al desarrollar la forma bilineal y la forma cuadr´ atica correspondiente a la
matriz:
B =
_
_
1 −1 1
3 1 1
0 1 1
_
_
f(x, y) = (x
1
, x
2
, x
3
)
_
_
1 −1 1
3 1 1
0 1 1
_
_
_
_
y
1
y
2
y
3
_
_
= (x
1
, x
2
, x
3
)
_
_
y
1
−y
2
+y
3
3y
1
+y
2
+y
3
y
2
+y
3
_
_
=
= x
1
y
1
−x
1
y
2
+x
1
y
3
+ 3x
2
y
1
+x
2
y
2
+x
2
y
3
+x
3
y
2
+x
3
y
3
Es un polinomio en x
i
y
j
donde el coeficiente de cada x
i
x
j
es el n´ umero de la entrada (i,j) de la matriz
B.
Al realizar Q(x) obtenemos:
Q(x) = (x
1
, x
2
, x
3
)
_
_
1 −1 1
3 1 1
0 1 1
_
_
_
_
x
1
x
2
x
3
_
_
= (x
1
, x
2
, x
3
)
_
_
x
1
−x
2
+x
3
3x
1
+x
2
+x
3
x
2
+x
3
_
_
=
= x
1
x
1
−x
1
x
2
+x
1
x
3
+ 3x
2
x
1
+x
2
x
2
+x
2
x
3
+x
3
x
2
+x
3
x
3
donde podemos agrupar los t´erminos −x
1
x
2
+ 3x
2
x
1
y los t´erminos x
2
x
3
+x
3
x
2
obteniendo:
Q(x) = x
2
1
+ 2x
1
x
2
+x
1
x
3
+x
2
2
+ 2x
2
x
3
+x
2
3
.
Tambi´en al desarrollar la forma cuadr´ atica correspondiente a la forma bilineal
f

(x, y) = (x
1
, x
2
, x
3
)
_
_
1 −2 1
4 1 1
0 1 1
_
_
_
_
y
1
y
2
y
3
_
_
obtenemos
x
1
x
1
−2x
1
x
2
+x
1
x
3
+ 4x
2
x
1
+x
2
x
2
+x
2
x
3
+x
3
x
2
+x
3
x
3
donde agrupando los t´erminos −2x
1
x
2
+4x
2
x
1
y los t´erminos x
2
x
3
+x
3
x
2
obtenemos la misma forma
cuadr´ atica anterior.
Lo mismo ocurre al desarrollar la forma cuadr´atica correspondiente a la forma bilineal
f

(x, y) = (x
1
, x
2
, x
3
)
_
_
1 −1 1
3 1 3
0 −1 1
_
_
_
_
y
1
y
2
y
3
_
_
283
de la cual obtenemos la misma forma cuadr tica:
x
1
x
1
−x
1
x
2
+x
1
x
3
+ 3x
2
x
1
+x
2
x
2
+ 3x
2
x
3
−x
3
x
2
+x
3
x
3
agrupando los t´erminos −x
1
x
2
+ 3x
2
x
1
y los t´erminos 3x
2
x
3
−x
3
x
2
.
Pero si se exige a la forma bilineal de la que proviene la forma cuadr´ atica que tenga matriz
sim´etrica, como la suma b
12
+ b
21
ha de ser el coeficiente de x
1
x
2
, tanto b
12
como b
21
han de ser la
mitad de ese coeficiente, en este caso b
12
= b
21
= 1, estando entonces perfectamente determinado.
Lo an´alogo ocurre con b
13
y b
31
, siendo la matriz sim´etrica asociada, la siguiente:
_
_
1 1 1/2
1 1 1
1/2 1 1
_
_
.
En general, al desarrollar las expresiones matriciales tenemos:
f(x, y) =
n

ij
x
i
y
j
f(e
i
, e
j
);
Q(x) =
nn

ij
x
i
x
j
f(e
i
, e
j
) =
n

i<j
x
i
x
j
(f(e
i
, e
j
) +f(e
j
, e
i
)) +
n

i=1
x
2
i
f(e
i
, e
i
)
lo que nos dice que mientras que una forma bilineal es una expresi´ on polinomial de segundo grado
en ¦¦x
i
¦, ¦y
j
¦¦ en la que en todos los monomios aparecen ¦x
i
¦ y ¦y
j
¦, una forma cuadr´ atica es una
expresi´ on polinomial homog´enea de segundo grado en las ¦¦x
i
¦ i ∈ ¦1, ..., n¦¦.
Observando las expresiones anteriores, deducimos que dada la expresi´on polinomial de una forma
bilineal, pasamos a escribir la matriz correspondiente B poniendo en el lugar (i, j) de B el coeficiente
de x
i
y
j
. Sin embargo, debido a que al pasar de la forma bilineal a la cuadr´atica, se suman los
coeficientes de x
i
x
j
y x
j
x
i
para dar el monomio x
i
x
j
(f(e
i
, e
j
) + f(e
j
, e
i
)), f(e
i
, e
j
) y f(e
j
, e
i
) se
pueden compensar de distintas formas para dar el mismo n´ umero y distintas matrices de distintas
formas bilineales pueden dar iguales formas cuadr´ aticas.
Pero si se exige a la forma bilineal de la que proviene la forma cuadr´ atica que cumpla la condici´on
f(e
i
, e
j
) = f(e
j
, e
i
), como la suma de estos dos n´ umeros es el coeficiente de x
i
x
j
en la forma
cuadr´ atica, el n´ umero f(e
i
, e
j
) ha de ser la mitad de ese coeficiente y entonces s´ı est´a perfectamente
determinado. Con esta condici´on, la matriz correspondiente a la forma cuadr´ atica es sim´etrica y
´ unica y la escribiremos poniendo en los sitios (i, j) y (j, i) la mitad del coeficiente de x
i
x
j
.
284
As´ı podremos utilizar los resultados de diagonalizaci´ on de las matrices sim´etricas para diagonalizar
tambi´en las formas cuadr´ aticas.
Cambio de base en formas cuadr´aticas.
Un cambio de coordenadas en el espacio vectorial, que es un cambio de base, induce un cambio en
la expresi´on matricial de una forma bilineal y de una forma cuadr´ atica y puede llevar a una expresi´on
m´ as sencilla.
Ve´amoslo en la siguiente forma cuadr´ atica:
Ejemplo 2:
Q(x
1
, x
2
) = x
2
1
+ 4x
1
x
2
+x
2
2
= (x
1
, x
2
)
_
1 2
2 1
__
x
1
x
2
_
Haciendo el cambio de base que lleva de la base can´ onica ¦e
1
, e
2
¦ = ¦(1, 0), (0, 1)¦ a ¦e

1
, e

2
¦ =
¦(1, −1), (1, 1)¦ que induce el cambio de coordenadas
_
x
1
x
2
_
=
_
1 1
−1 1
__
x

1
x

2
_

x
1
= x

1
+x

2
x
2
= −x

1
+x

2
obtenemos primero sustituyendo en la expresi´ on matricial:
Q(x

1
, x

2
) = (x

1
, x

2
)
_
1 −1
1 1
__
1 2
2 1
__
1 1
−1 1
__
x

1
x

2
_
= (x

1
, x

2
)
_
−2 0
0 6
__
x

1
x

2
_
Por otra parte, sustituyendo despu´es en la expresi´ on polinomial de Q, obtenemos:
Q(x

1
, x

2
) = (x

1
+x

2
)
2
+ 4(x

1
+x

2
)(−x

1
+x

2
) + (−x

1
+x

2
)
2
=
= x

2
1
+ 2x

1
x
2
+x

2
2
+ 4(x

1
+x

2
)(−x

1
+x

2
) +x

2
1
−2x

1
x
2
+x

2
2
= −2x

2
1
+ 6x

2
2
donde se ve la correspondencia entre la expresi´on final como suma de cuadrados con coeficientes y
la expresi´on final diagonal de la forma cuadr´atica.
Nos interesa expresar la forma cuadr´atica de la manera m´ as simple posible y de la manera m´ as
manejable. Si la forma cuadr´ atica fuera suma de cuadrados de las coordenadas con coeficientes, ser´ıa:
Q(x) = λ
1
x
2
1

2
x
2
2
+ +λ
n
x
2
n
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
_
λ
1
0 0
0 λ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
285
en cuyo caso la matriz correspondiente es diagonal. Diagonalizar una forma cuadr´ atica es encontrar
un sistema de cordenadas en el que se exprese como suma de cuadrados de coordenadas con coefi-
cientes, lo cual es equivalente a hacer un cambio de base, de forma que la matriz en la nueva base sea
diagonal. Para ello miraremos lo que pasa al hacer un cambio de coordenadas del espacio vectorial
en las expresiones matriciales y polinomiales de una forma bilineal y de una forma cuadr´atica.
En general, si C es una matriz con determinante distinto de cero, haciendo el cambio de coorde-
nadas:
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= C
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
que induce el mismo cambio en (y
1
, y
2
, ..., y
n
), al sustituir en la expresi´ on matricial primera de la
forma bilineal tenemos:
f(x, y) = (x

1
, x

2
, ..., x

n
)C
t
BC
_
_
_
_
_
y

1
y

2
.
.
.
y

n
_
_
_
_
_
y sustituyendo en la expresi´ on matricial de la forma cuadr´ atica tenemos:
Q(x) = (x

1
, x

2
, ..., x

n
)C
t
BC
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
El cambio realizado en la matriz de la forma bilineal coincide con el mismo cambio en la matriz
de la forma cuadr´ atica asociada. La matriz de Q en la nueva base es B

= C
t
BC.
Dado que una forma cuadr´atica puede provenir de distintas formas bilineales, al realizar un cambio de coordenadas,
las distintas matrices de partida de las formas bilineales de las que procede (B) dan lugar a distintas matrices de llegada
(C
t
B C).
Observemos que en el ejemplo 2 anterior, tambi´en
Q(x
1
, x
2
) = (x
1
, x
2
)
_
1 3
1 1
__
x
1
x
2
_
286
y
Q(x

1
, x

2
) = (x

1
, x

2
)
_
−2 1
−1 6
__
x

1
x

2
_
pero sin embargo,
_
1 −1
1 1
__
1 3
1 1
__
1 1
−1 1
_
=
_
−2 2
−2 6
_
,=
_
−2 1
−1 6
_
Es decir, que las distintas matrices no sim´etricas correspondientes a la forma cuadr´atica, antes y despu´es de un
cambio de base pueden no estar relacionadas por la f´ormula de cambio de base, aunque s´ı las sim´etricas. Ello se debe
a que las matrices sim´etricas asociadas a la forma cuadr´atica son ´ unicas.
Dada una forma cuadr´atica por su expresi´on polinomial, existe una ´ unica matriz sim´etrica de la que proviene.
Cuando hacemos un cambio de coordenadas en la expresi´on polinomial de la forma cuadr´atica y luego volvemos a
escribir la matriz sim´etrica correspondiente, esta nueva matriz tambi´en corresponde solamente a una forma bilineal
sim´etrica que la induce. Por ello, la nueva matriz sim´etrica est´a relacionada con la primitiva sim´etrica por la ex-
presi´on B

= C
t
BC aunque no ocurra lo mismo con todas las distintas matrices no sim´etricas que le podemos hacer
corresponder al principio y al final.
La forma cuadr´atica Q(x
1
, x
2
) = x
2
1
+ 2x
1
x
2
+ x
2
2
se puede expresar
Q(x
1
, x
2
) = (x
1
, x
2
)
_
1 1
1 1
__
x
1
x
2
_
Haciendo el cambio de coordenadas x

1
= x
1
+ x
2
x

2
= x
2
, equivalente a x
1
= x

1
−x

2
x
2
= x

2
, obtenemos
Q(x) = x

2
1
= (x

1
, x

2
)
_
1 0
0 0
__
x

1
x

2
_
y en efecto,
_
1 0
0 0
_
=
_
1 0
−1 1
__
1 1
1 1
__
1 −1
0 1
_
Diagonalizaci´ on de formas cuadr´aticas.
El problema de diagonalizaci´ on de las formas cuadr´ aticas consiste en hallar una nueva base en la
que su expresi´ on matricial sea diagonal o un sistema de coordenadas en que su expresi´on polinomial
sea suma de cuadrados con coeficientes. Lo haremos por dos m´etodos esencialmente distintos, uno,
utilizando la diagonalizaci´on ortogonal de las matrices sim´etricas y otro, completando cuadrados.
Diagonalizaci´ on ortogonal de una forma cuadr´atica en una base ortonormal.
Si la forma cuadr´ atica fuera suma de cuadrados de las coordenadas con coeficientes, ser´ıa
287
Q(x) = λ
1
x
2
1

2
x
2
2
+ +λ
n
x
2
n
= (x
1
, x
2
, ..., x
n
)
_
_
_
_
_
λ
1
0 0
0 λ
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 λ
n
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
Para diagonalizarla, por tanto, tenemos que conseguir una matriz C de cambio de coordenadas
tal que C
t
BC sea diagonal.
Sabemos que se pueden diagonalizar matrices sim´etricas, es decir, que se puede obtener una
matriz C de cambio de base tal que C
−1
BC sea diagonal y adem´ as que se pueden diagonalizar en
una base ortonormal. La matriz de cambio de base a una base ortonormal es ortogonal, es decir,
verifica C
t
C = I y equivalentemente C
t
= C
−1
. Entonces, este cambio de coordenadas que, en
principio, es para diagonalizar la aplicaci´ on de matriz sim´etrica B, tambi´en sirve para diagonalizar
la forma cuadr´atica de matriz B, al ser C
t
BC = C
−1
BC = D.
Hecho este cambio de base, la forma cuadr´ atica ser´ıa
Q(x) = (x
1
, x
2
, ..., x
n
)
_
_
_
_
_
λ
1
0 0
0 λ
2
0

.
.
.
0 0 λ
n
_
_
_
_
_
_
_
_
_
x
1
x
2
...
x
n
_
_
_
_
= λ
1
x
2
1

2
x
2
2
+ +λ
n
x
2
n
donde los λ
i
son los valores propios de B.
Si los valores propios son todos positivos, la forma cuadr´atica toma siempre valores positivos y
se anula s´olo en el vector cero. Se llama definida positiva.
Si los valores propios son todos negativos, la forma cuadr´atica toma siempre valores negativos y
se anula s´olo en el vector cero. Se llama definida negativa.
Ejemplo 3:
Una forma cuadr´atica en R
3
es una forma cuadr´atica de las tres coordenadas de cada vector:
Q(x) = Q(x
1
, x
2
, x
3
). Para no escribir sub´ındices escribimos Q(x, y, z).
Sea Q(x, y, z) = 3y
2
+3z
2
+4xy+4xz −2yz; podemos encontrar un nuevo sistema de coordenadas
en el que Q pueda escribirse como suma de cuadrados de las nuevas coordenadas de la siguiente forma:
Primero, escribimos la forma cuadr´ atica de forma matricial sim´etrica:
Q(x, y, z) = (x, y, z)
_
_
0 2 2
2 3 −1
2 −1 3
_
_
_
_
x
y
z
_
_
288
Esta matriz es diagonalizable en una base ortonormal. Para diagonalizarla calculamos los valores
propios, soluciones de [B − λI[ = −λ
3
+ 6λ
2
− 32 = −(λ − 4)
2
(λ + 2) y obtenemos: λ = 4, doble y
λ = −2, simple.
Los vectores propios correspondientes a λ = 4 son los que verifican:
_
_
_
_
0 2 2
2 3 −1
2 −1 3
_
_
−4I
_
_
_
_
x
y
z
_
_
=
_
_
−4 2 2
2 −1 −1
2 −1 −1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
es decir, el plano de ecuaci´ on 2x −y −z = 0. En este plano podemos encontrar dos vectores propios
ortogonales: (0, 1, −1) y (1, 1, 1).
Adem´ as existe otro vector propio correspondiente al valor propio λ = −2. Como vectores propios
de matrices sim´etricas correspondientes a valores propios distintos son ortogonales, (demostrado en la
secci´ on de diagonalizaci´ on de aplicaciones autoadjuntas) este vector propio que nos falta es ortogonal
a los dos anteriores, estando por ello, formado por los coeficientes de las inc´ ognitas en la ecuaci´on
del plano: el nuevo vector es (2, −1, −1).
Entonces, una base ortonormal que diagonaliza la matriz B es:
¦
1

2
(0, 1, −1),
1

3
(1, 1, 1),
1

6
(2, −1, −1)¦. Lo cual quiere decir que
_
_
_
0
1

3
2

6
1

2
1

3

1

6

1

2
1

3

1

6
_
_
_
−1 _
_
0 2 2
2 3 −1
2 −1 3
_
_
_
_
_
0
1

3
2

6
1

2
1

3

1

6

1

2
1

3

1

6
_
_
_
=
_
_
4 0 0
0 4 0
0 0 −2
_
_
Por ser la base buscada ortonormal, la matriz formada por esos vectores en columna, es ortogonal,
por tanto, coinciden su inversa y su traspuesta, teni´endose,
_
_
_
0
1

2

1

2
1

3
1

3
1

3
2

6

1

6

1

6
_
_
_
_
_
0 2 2
2 3 −1
2 −1 3
_
_
_
_
_
0
1

3
2

6
1

2
1

3

1

6

1

2
1

3

1

6
_
_
_
=
_
_
4 0 0
0 4 0
0 0 −2
_
_
Y esta justamente ser´ıa la matriz de Q en las coordenadas (x

, y

, z

), tales que
_
_
x
y
z
_
_
=
_
_
_
0
1

3
2

6
1

2
1

3

1

6

1

2
1

3

1

6
_
_
_
_
_
x

y

z

_
_
o equivalentemente,
_
_
x

y

z

_
_
=
_
_
_
0
1

2

1

2
1

3
1

3
1

3
2

6

1

6

1

6
_
_
_
_
_
x
y
z
_
_
289
siendo
Q(x

, y

, z

) = 4x
2
+ 4y

2
−2z

2
Otros ejercicios a realizar por el lector son:
9.1.1. Diagonalizar en una base ortonormal las siguientes formas cuadr´ aticas:
a) Q(x, y) = −2x
2
+y
2
+ 4xy.
b)Q(x, y, z) = x
2
+y
2
−2xz + 2yz.
c)Q(x, y, z) = x
2
+y
2
+ 2z
2
−2xz + 2yz.
d) Q(x, y, z) = x
2
+y
2
+z
2
−4xz.
e) Q(x, y, z) = xy +yz +zx.
f) Q(x, y, z, t) = x
2
+ 4xt + 4y
2
+ 4yz +z
2
+ 4t
2
g) Q(x, y, z, t) = 32x
2
+ 32xy −44xz −12xt + 2y
2
+ 12yz + 4yt −7z
2
+ 32zt + 23t
2
(val propios:
0, 25, -25, 50).
h) Q(x, y, z, t) = 60x
2
+16xy −12xz −40xt +15y
2
−40yz +12yt +45z
2
+16zt +30t
2
(val propios:
0, 25, 50, 75).
i) Q(x, y, z, t) = −9x
2
+ 40xz + 24xt − 9y
2
− 24yz + 40yt + 9z
2
+ 9t
2
(val propios: 25(doble) y
−25(doble)).
i) Q(x, y, z, t) = 41x
2
−24xz + 34y
2
+ 24yt + 34z
2
+ 41t
2
(val propios: 25(doble) y 50(doble)).
290
Aplicaci´ on 1:
Estudio de C´onicas.
El estudio de las curvas dadas por un polinomio homog´eneo de segundo grado igualado a un
n´ umero se hace utilizando la diagonalizaci´ on de formas cuadr´ aticas:
Estudiemos en este momento, las curvas de ecuaci´on: Ax
2
+ 2Bxy + Cy
2
= D. Son el conjunto
de nivel D de la funci´ on cuadr´atica Ax
2
+ 2Bxy + Cy
2
= Q(x, y) que diagonalizada es Q(x

, y

) =
λ
1
x

2

2
y

2
, donde las coordenadas x

, y

est´ an relacionadas con las x, y por una matriz de cambio
de base C ortogonal.
La curva es entonces el conjunto de puntos con coordenadas (x

, y

) tales que λ
1
x

2

2
y

2
= D.
Dividiendo por D (si D ,= 0), la ecuaci´on de la curva en las nuevas coordenadas es
λ
1
D
x

2
+
λ
2
D
y

2
= 1
que seg´ un los signos de λ
1
, λ
2
y de D es una elipse, una hip´erbola o el conjunto vac´ıo; si λ
1
= 0 ´ o
λ
2
= 0, dos rectas paralelas a uno de los nuevos ejes o el conjunto vac´ıo.
Si D=0, la curva tiene la ecuaci´ on λ
1
x

2
+ λ
2
y

2
= 0, que representa dos rectas concurrentes si
los valores propios son distintos de cero y de distinto signo, un s´ olo punto si los valores propios son
del mismo signo y distintos de cero y uno de los ejes y

= 0 ´ o x

= 0, si uno de los valores propios es
cero.
Las direcciones de los nuevos ejes se obtienen de los antiguos por la matriz ortogonal C por la
que hemos hecho la diagonalizaci´on. Como el eje OX’tiene de ecuaci´on y

= 0, podemos obtener su
ecuaci´ on despejando y

en funci´ on de x, y a trav´es de la matriz C
−1
. Lo an´alogo ocurre con el eje
OY’. El eje OX’ est´ a engendrado por el vector e

1
y el eje OY’ est´a engendrado por el eje e

2
.
Ejercicios:
9.2.1. Estudiar las curvas de nivel de las formas cuadr´aticas que se dan en cada caso, para los
valores D que se indican en cada caso:
a) Q(x, y) = x
2
+xy +y
2
para D=2, D = −2,, D = 0
b) Q(x, y) = x
2
+ 4xy +y
2
para D=1, D = −1, D = 0
c) Q(x, y) = −2x
2
+ 4xy +y
2
para D=8, D = −8, D = 0
d) Q(x, y) = 3x
2
+ 2xy + 3y
2
para D=1, D = −1, D = 0
e) Q(x, y) = x
2
+ 4xy + 4y
2
para D=4, D = −4, D = 0
f) Q(x, y) = 3x
2
+ 8xy −3y
2
para D=5, D = −5, D = 0
g) Q(x, y) = 3x
2
+ 10xy −3y
2
para D=4, D = −4, D = 0
291
9.2.2. Escribir los cambios de coordenadas que diagonalizan en una base ortonormal las anteriores
formas cuadr´aticas y comprobar que siempre se puede conseguir que el cambio de coordenadas
corresponda a un giro.
9.2.3. Observar que si la curva de nivel de una forma cuadr´atica es una elipse, el determinante
de la forma cuadr´ atica es positivo y si es una hip´erbola, es negativo. Demostrar por qu´e.
Aplicaci´ on 2:
M´aximos y m´ınimos de funciones.
Se ve f´ acilmente utilizando el desarrollo en serie de Taylor de una funci´on de dos variables que
si el Hessiano de una funci´ on en un punto cr´ıtico no degenerado (que es una forma cuadr´atica) es
definido positivo, ese punto cr´ıtico es un m´ınimo de la funci´ on y si es definido negativo, ese punto
es un m´aximo. El primer caso se da cuando los dos valores propios del hessiano son positivos, el
segundo caso cuando los dos valores propios son negativos.
Una funci´ on de dos variables f(x, y) tiene un punto cr´ıtico en (x
0
, y
0
) si
δf
δx
(x
0
, y
0
) =
δf
δy
(x
0
, y
0
) = 0.
El punto cr´ıtico es no degenerado si
¸
¸
¸
¸
¸
δ
2
f
δx
2
(x
0
, y
0
)
δ
2
f
δxδy
(x
0
, y
0
)
δ
2
f
δxδy
(x
0
, y
0
)
δ
2
f
δy
2
(x
0
, y
0
)
¸
¸
¸
¸
¸
,= 0
Seg´ un el desarrollo en serie de Taylor de la funci´on f en el punto cr´ıtico,
f(x, y) = f(x
0
, y
0
) +
1
2
(x −x
0
, y −y
0
)
_
δ
2
f
δx
2
(x
0
, y
0
)
δ
2
f
δxδy
(x
0
, y
0
)
δ
2
f
δxδy
(x
0
, y
0
)
δ
2
f
δy
2
(x
0
, y
0
)
_
_
x −x
0
y −y
0
_
+...
donde los puntos suspensivos engloban t´erminos comparativamente peque˜ nos con los anteriores.
El t´ermino que a˜ nadimos a f(x
0
, y
0
) para obtener f(x, y), es aproximadamente una forma cuadr´ atica
en (x −x
0
, y −y
0
).
Diagonaliz´ andola, ser´ıa f(x, y) = f(x
0
, y
0
)+λ
1
x

1
2

2
x

2
2
. Si los dos valores propios son positivos,
al movernos del punto (x
0
, y
0
), sumamos t´erminos positivos, por lo que f(x, y) aumenta, siendo por
tanto (x
0
, y
0
) un m´ınimo.
Si los dos valores propios son negativos, f(x, y) disminuye siempre al movernos del punto (x
0
, y
0
),
siendo por tanto este punto un m´ aximo.
Si un valor propio es positivo y el otro es negativo, f(x, y) unas veces aumenta y otras veces
disminuye al movernos del punto (x
0
, y
0
) y el punto se llama punto silla.
292
Como el hessiano est´a relacionado con la matriz diagonal, cuyos elementos en la diagonal son
los valores propios por C
t
HC = D, tenemos [C[
2
[H[ = λ
1
λ
2
. Por ello el determinante del hessiano
es negativo en los puntos silla y positivo en los m´ aximos y en los m´ınimos. Para distinguir por
el hessiano los m´aximos y los m´ınimos, tenemos en cuenta que cuando los dos valores propios son
positivos, la forma cuadr´ atica determinada por el hessiano es definida positiva, por lo que si nos
acordamos del criterio de Sylvester, demostrado en un cap´ıtulo anterior, ha de ser
δ
2
f
δx
2
(x
0
, y
0
) > 0, en
cuyo caso el punto es un m´ınimo; si
δ
2
f
δx
2
(x
0
, y
0
) < 0 se trata de un m´ aximo.
Ejercicios:
9.3.1. Encontrar y clasificar los puntos cr´ıticos (m´ aximo, m´ınimo o punto silla) de las siguientes
funciones de dos variables:
a) f(x, y) = x
2
+xy +y
2
−3x −3y.
b) f(x, y) = −x
2
−y
2
+xy + 2x
c) f(x, y) = x
2
+xy +y
2
+ 3x + 1.
d) f(x, y) = −2x
2
−y
2
+xy + 7.
e) f(x, y) = 3xy −x
2
−y
2
+ 3.
f) f(x, y) = xy +y
2
+ 2x + 2y + 1
Aplicaci´ on 3:
M´aximos y m´ınimos de las formas cuadr´aticas en la esfera unidad.
Otra consecuencia importante de la diagonalizaci´ on de una forma cuadr´ atica por medio de un
cambio de base ortonormal es el hecho de que toda forma cuadr´atica alcanza un m´aximo y un m´ınimo
sobre la esfera unidad, es decir, sobre el conjunto de vectores de m´odulo 1.
Siendo (x

1
, ..., x

n
) las coordenadas que diagonalizan, veamos que los vectores que verifican x
2
1
+
x
2
2
+ +x
2
n
= 1 son los mismos que los que verifican x

2
1
+x

2
2
+ +x

2
n
= 1, es decir, que la esfera
unidad respecto a las nuevas coordenadas es la misma que la esfera unidad respecto a las antiguas
porque el cambio de coordenadas lo hemos hecho por medio de una matriz ortogonal. (La matriz de
cambio de base C verifica C
t
C = I): en efecto,
x
2
1
+x
2
2
+ +x
2
n
= (x
1
, x
2
, , x
n
)
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= (x

1
, x

2
, , x

n
)C
t
C
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
=
293
= (x

1
, x

2
, , x

n
)I
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
= x

2
1
+x

2
2
+ +x

2
n
En la esfera unidad respecto a las nuevas coordenadas:
Q(x) = λ
1
x

2
1

2
x

2
2
+ +λ
n
x

2
n
=
= λ
1
(x

2
1
+x

2
2
+ +x

2
n
)+(λ
2
−λ
1
)x

2
2
+ +(λ
n
−λ
1
)x

2
n
= λ
1
+(λ
2
−λ
1
)x

2
2
+ +(λ
n
−λ
1
)x

2
n
≥ λ
1
si λ
1
el m´ınimo de los valores propios, por lo que λ
1
es el m´ınimo en la esfera unidad que se obtiene
cuando (x

1
, x

2
, ..., x

n
) = (1, 0, ..., 0)
Por otra parte, suponiendo que λ
n
es el m´ aximo de los valores propios podemos ver que λ
n
es el
m´ aximo de Q(x) en la esfera unidad. En las nuevas coordenadas:
Q(x) = λ
1
x

2
1

2
x

2
2
+ +λ
n
x

2
n
=
= (λ
1
−λ
n
)x

2
1
+ +(λ
n−1
−λ
n
)x

2
n−1

n
(x

2
1
+x

2
2
+ +x

2
n
) = (λ
1
−λ
n
)x

2
1
+ +(λ
n−1
−λ
n
)x

2
n−1

n
≤ λ
n
por lo que λ
n
es el m´ aximo en la esfera unidad que se obtiene cuando (x

1
, x

2
, ..., x

n
) = (0, 0, ..., 1)
Este resultado es utilizado en C´ alculo Vectorial (lema 1 p´ag 183 Marsden/Tromba).
Aplicaci´ on 4:
Energ´ıa de rotaci´on de un s´ olido.
La energ´ıa de un s´ olido r´ıgido que gira alrededor de un eje se expresa por una forma cuadr´ atica
cuya matriz se llama tensor de inercia.
2E = mv
2
= mv v = m(Ω r) v = m(r v) Ω =
m(r (Ω r)) Ω = m[(r r)Ω −(r Ω)r] Ω = m[(r
t
rI −r r
t
)Ω] Ω = ΣΩ
i
I
ij

j
donde I
ij
es el tensor de inercia.
294
Diagonalizaci´ on de formas cuadr´aticas completando cuadrados.
La diagonalizaci´ on de la forma cuadr´ atica usando los valores propios, m´etodo te´oricamente claro,
en la pr´ actica puede ser dif´ıcil de aplicar si los valores propios, que son las raices del polinomio
caracter´ıstico no son f´ aciles de hallar, p.ej. si no son ni siquiera fraccionarios, como ocurre en los
casos siguientes:
Sea Q(x, y, z) = x
2
+ 2y
2
+ 2xy + 2yz + 2z
2
, entonces,
Q(x, y, z) = (x, y, z)
_
_
1 1 0
1 2 1
0 1 2
_
_
_
_
x
y
z
_
_
El polinomio caracter´ıstico de la matriz B en este caso es p(λ) = −λ
3
+5λ
2
−6λ+1, cuyas raices
no son enteras ni fraccionarias.
Sea Q(x, y, z) = x
2
+ 5y
2
−2xy + 2xz, entonces,
Q(x, y, z) = (x, y, z)
_
_
1 −1 1
−1 5 0
1 0 0
_
_
_
_
x
y
z
_
_
El polinomio caracter´ıstico de la matriz B en este caso es p(λ) = −λ
3
+6λ
2
−3λ−5, cuyas raices
no son enteras ni fraccionarias.
Adem´ as, puede ser que s´ olo sea necesario saber si la forma cuadr´ atica es siempre positiva. Y ´esto
puede hacerse agrupando los t´erminos de la forma cuadr´ atica, p.ej.
Q(x, y) = x
2
+ 4xy + 5y
2
= (x + 2y)
2
+y
2
= x
2
+y
2
≥ 0
de forma que Q(x, y) = 0 implica x + 2y = 0, y = 0, lo cual s´ olo se da si x = 0, y = 0, porque la
relaci´ on de cambio de coordenadas:
_
x

1
x

2
_
=
_
1 2
0 1
__
x
1
x
2
_
corresponde a un cambio de base.
Existe otro m´etodo para reducir una forma cuadr´atica a suma de cuadrados de coordenadas con
coeficientes, que se llama el m´etodo de completar cuadrados o m´etodo de Gauss. que se
hace agrupando t´erminos y que puede ser m´as factible que la resoluci´ on del polinomio caracter´ıstico
cuando la dimensi´on del espacio vectorial en el que est´a definida la forma cuadr´atica es mayor que 2.
Vamos a ver que siempre se pueden formar par´entesis que elevados al cuadrado y sumados con
coeficientes dan la forma cuadr´atica y igualando los par´entesis a nuevas coordenadas tenemos un
295
cambio de coordenadas que diagonaliza la forma cuadr´ atica. (Este cambio de coordenadas, sin
embargo, no vendr´ a dado en general, por una matriz ortogonal).
Si la forma cuadr´ atica est´a definida sobre un espacio vectorial de dimensi´ on 1, es de una sola
variable y ya es un cuadrado con un coeficiente.
Si la forma cuadr´atica est´ a definida sobre un espacio de dimensi´ on 2, de dos variables, tenemos:
Q(x, y) = a
11
x
2
+ 2a
12
xy +a
22
y
2
, y entonces podemos escribirla como
Q(x, y) = a
11
(x
2
+ 2
a
12
a
11
xy + (
a
12
a
11
)
2
y
2
) −
a
2
12
a
11
y
2
+a
22
y
2
=
= a
11
(x +
a
12
a
11
y)
2
+ (a
22

a
2
12
a
11
)y
2
= a
11
x

2
+ (a
22

a
2
12
a
11
)y

2
donde se ha hecho el cambio de coordenadas:
x

= x + (a
12
/a
11
)y
y

= y

_
x

y

_
=
_
1 a
12
/a
11
0 1
__
x
y
_
.
Es un verdadero cambio de coordenadas porque corresponde a una matriz con determinante dis-
tinto de cero y tenemos la forma cuadr´ atica escrita como suma de cuadrados de coordenadas con
coeficientes.
Antes de pasar al caso de dimensi´ on n veremos ejemplos de diagonalizaci´on completando cuadra-
dos de formas cuadr´ aticas de tres variables.
Veamos este m´etodo sobre la pr´ actica con los ejemplos anteriores:
Ejemplo 3:
Q(x, y, z) = x
2
+ 2y
2
+ 2xy + 2yz + 2z
2
= (x +y)
2
+y
2
+ 2yz + 2z
2
= (x +y)
2
+ (y +z)
2
+z
2
=
x

2
+y

2
−z

2
donde hemos hecho el cambio de coordenadas:
x

= x+ y
y

= y +z
z

= z

_
_
x

y

z

_
_
=
_
_
1 1 0
0 1 1
0 0 1
_
_
_
_
x
y
z
_
_
que efectivamente corresponde a una matriz con determinante distinto de cero, teniendo entonces la
forma cuadr´atica escrita como suma de cuadrados de coordenadas con coeficientes.
Ejemplo 4:
Q(x, y, z) = x
2
+ 5y
2
− 2xy + 2xz = (x
2
− 2xy + 2xz + y
2
+ z
2
− 2yz) − y
2
− z
2
+ 2yz + 5y
2
=
= (x−y +z)
2
−y
2
−z
2
+2yz +5y
2
= (x−y +z)
2
+4y
2
+2yz −z
2
= (x−y +z)
2
−(z
2
−2yz) +4y
2
=
296
= (x −y +z)
2
−(z
2
−2yz +y
2
) +y
2
+ 4y
2
= (x −y +z)
2
−(z −y)
2
+ 5y
2
= x

2
+ 5y

2
−z

2
donde
hemos hecho el cambio de coordenadas:
x

= x− y +z
y

= y
z

= −y +z

_
_
x

y

z

_
_
=
_
_
1 −1 1
0 1 0
0 −1 1
_
_
_
_
x
y
z
_
_
que efectivamente corresponde a una matriz con determinante distinto de cero, teniendo entonces la
forma cuadr´atica escrita como suma de cuadrados de coordenadas con coeficientes.
Ejemplo 5: (nig´ un coficiente de los cuadrados de las coordenadas es 1),
Sea
Q(x, y, z) = 3x
2
+ 6xy + 3y
2
+ 6yz + 5z
2
+ 12xz
Escogemos una coordenada que est´e elevada al cuadrado y agrupamos todos los t´erminos que tienen
esa coordenada:
Q(x, y, z) = (3x
2
+ 6xy + 12xz) + 3y
2
+ 6yz + 5z
2
despu´es, sacamos el coeficiente del cuadrado factor com´ un de los t´erminos agrupados:
Q(x, y, z) = 3(x
2
+ 2xy + 4xz) + 3y
2
+ 6yz + 5z
2
y ahora completamos el par´entesis hasta que sea un cuadrado de una suma de las tres coordenadas,
en este caso ha de ser (x + y + 2z)
2
, para lo cual, restando a continuaci´ on los t´erminos a˜ nadidos,
escribimos:
Q(x, y, z) = 3(x
2
+ 2xy + 4xz +y
2
+ 4z
2
+ 4yz) −3(y
2
+ 4z
2
+ 4yz) + 3y
2
+ 6yz + 5z
2
que ser´ıa:
Q(x, y, z) = 3(x +y + 2z)
2
−7z
2
−6yz
En esta expresi´ on, en los t´erminos posteriores al cuadrado aparecen ya s´olo dos coordenadas, con las
que podemos seguir completando cuadrados:
Q(x, y, z) = 3(x +y + 2z)
2
−7z
2
−6yz = 3(x +y + 2z)
2
−7(z
2
+
6
7
yz) =
= 3(x +y + 2z)
2
−7(z
2
+
6
7
yz + (
3
7
)
2
y
2
) +
9
7
y
2
= 3(x +y + 2z)
2
−7(z +
3
7
y)
2
+
9
7
y
2
297
Haciendo el cambio de coordenadas:
x

= x+ y + 2z
y

= y
z

=
3
7
y +z

_
_
x

y

z

_
_
=
_
_
1 1 2
0 1 0
0 3/7 1
_
_
_
_
x
y
z
_
_
que corresponde a una matriz de cambio con determinante distinto de cero, tenemos la forma
cuadr´ atica escrita como suma de cuadrados:
Q(x

, y

, z

) = 3x
2
−7z
2
+
9
7
y
2
Ejemplo 6: (en el que al sacar factor com´ un surgen fracciones),
Q(x, y, z) = 2x
2
+ 3xy + 2y
2
+xz −3z
2
+yz = 2(x
2
+
3
2
xy +
1
2
xz) + 2y
2
−3z
2
+yz =
2(x +
3
4
y +
1
4
z)
2

9
8
y
2

1
8
z
2

3
8
yz + 2y
2
−3z
2
+yz = 2(x +
3
4
y +
1
4
z)
2
+
7
8
y
2

25
8
z
2
+
5
8
yz =
2(x +
3
4
y +
1
4
z)
2
+
7
8
(y
2
+
5
7
yz) −
25
8
z
2
= 2(x +
3
4
y +
1
4
z)
2
+
7
8
(y +
5
14
z)
2

25
224
z
2

25
8
z
2
=
2(x +
3
4
y +
1
4
z)
2

7
8
(y +
5
14
z)
2

25
8

29
28
z
2
=
Se deja para el lector escribir el cambio a las nuevas coordenadas y la comprobaci´ on de que es un
cambio bueno.
Ejemplo 7:
Q(x, y, z) = 2x
2
−3xy −2y
2
+xz −3z
2
+yz = 2(x
2

3
2
xy +
1
2
xz) −2y
2
−3z
2
+yz =
2(x −
3
4
y +
1
4
z)
2

9
8
y
2

1
8
z
2
+
3
8
yz −2y
2
−3z
2
+yz = 2(x −
3
4
y +
1
4
z)
2

25
8
y
2

25
8
z
2
+
11
8
yz =
2(x −
3
4
y +
1
4
z)
2

25
8
(y
2

11
25
yz) −
25
8
z
2
= 2(x −
3
4
y +
1
4
z)
2

25
8
(y −
11
50
z)
2
+
25
8
121
2500
z
2

25
8
z
2
=
298
2(x −
3
4
y +
1
4
z)
2

25
8
(y −
11
50
z)
2

2379
800
z
2
=
Se deja para el lector escribir el cambio a las nuevas coordenadas y la comprobaci´ on de que es un
cambio bueno.
Si en el ejemplo no hubiera aparecido ning´ un cuadrado en la expresi´on dada, como en
Q(x, y, z) = xy +xz +yz
se hace primero el siguiente cambio de coordenadas:
x = x

+y

y = x

−y

z = z

cuya matriz tiene determinante distinto de cero y que la transforma en
Q(x, y, z) = x
2
−y
2
+ 2x

z

en la que ya tenemos cuadrados con coeficientes no nulos que podemos coger para realizar el m´etodo
de Gauss seg´ un los primeros ejemplos.
El funcionamiento del m´etodo de Gauss en el caso general, se ve por inducci´on (en Golovina)
primero a), cuando hay a
ii
,= 0; despu´es b) haciendo el cambio de coordenadas apropiado si todos
los a
ii
son nulos.
En el caso general a), haciendo una renumeraci´ on si es necesario, podemos suponer que a
nn
,= 0.
Despu´es reordenamos la expresi´on de la forma cuadr´ atica as´ı:
Q(x) = a
11
x
2
1
+ 2a
12
x
1
x
2
+ 2a
13
x
1
x
3
... + 2a
1n−1
x
1
x
n−1
+ 2a
1n
x
1
x
n
+
a
22
x
2
2
+ 2a
23
x
2
x
3
+... + 2a
2n−1
x
2
x
n−1
+ 2a
2n
x
2
x
n
+
+...+
+a
n−1,n−1
x
2
n−1
+ 2a
n−1,n
x
n−1
x
n
+a
nn
x
2
n
=
= a
nn
[(2
a
1n
ann
x
1
x
n
+... + 2
a
n−1n
ann
x
n−1
x
n
+x
2
n
]+
+a
11
x
2
1
+ 2a
12
x
1
x
2
+... + 2a
1,n−1
x
1
x
n−1
+a
22
x
2
2
+ 2a
23
x
2
x
3
+ + 2a
2,n−1
x
2
x
n−1
+...+
+a
n−1,n−1
x
2
n−1
=
299
= a
nn
[2(
a
1n
ann
x
1
+... + 2
a
n−1n
ann
x
n−1
)x
n
+x
2
n
]+
+a
11
x
2
1
+ 2a
12
x
1
x
2
+... + 2a
1,n−1
x
1
x
n−1
+a
22
x
2
2
+ 2a
23
x
2
x
3
+ + 2a
2,n−1
x
2
x
n−1
+...+
+a
n−1,n−1
x
2
n−1
=
= a
nn
[(
a
1n
ann
x
1
+... +
a
n−1n
ann
x
n−1
) +x
n
]
2
−a
nn
(
a
1n
ann
x
1
+... +
a
n−1n
ann
x
n−1
)
2
+
+a
11
x
2
1
+ 2a
12
x
1
x
2
+... + 2a
1,n−1
x
1
x
n−1
+a
22
x
2
2
+ 2a
23
x
2
x
3
+ + 2a
2,n−1
x
2
x
n−1
+...+
+a
n−1n−1
x
2
n−1
= a
nn
x

2
n
+Q

(x
1
, x
2
, ...x
n−1
)
donde
x

n
=
a
1n
a
nn
x
1
+... +
a
n−1n
a
nn
x
n−1
+x
n
y Q

(x) es el polinomio homog´eneo de segundo grado restante que es una forma cuadr´atica en n-1
coordenadas en la que no aparece x
n
.
Por la hip´ otesis de inducci´ on Q

puede reducirse a una suma de cuadrados de coordenadas con
coeficientes con una matriz de cambio de coordenadas con determinante distinto de cero.
El cambio de coordenadas de ¦x
1
, x
2
, ..., x
n
¦ a ¦x
1
, x
2
, ..., x

n
¦ viene dado por la matriz de deter-
minante distinto de cero:
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
. 1 0
a
1n
ann

a
n−1,n
ann
1
_
_
_
_
_
_
_
En el caso b) cuando todos los coeficientes de los cuadrados de las variables son nulos, tiene que
haber alg´ un a
ij
,= 0. Entonces, hacemos el cambio de variable x

i
= x
i
+x
j
x

j
= x
i
−x
j
, obteniendo
as´ı en la forma cuadr´ atica el t´ermino 2a
ij
(x

2
i
−x

2
j
) que aporta dos cuadrados con coeficiente distinto
de cero y seguimos como en el caso a).
Ejemplos a realizar por el lector son:
Ejercicio 9.4.1.
Diagonalizar completando cuadrados y escribiendo los cambios de coordenadas, las siguientes
formas cuadr´aticas:
300
a) Q(x, y, z) = 3x
2
+ 2y
2
+z
2
−6xy + 4xz.
b) Q(x, y, z) = 2x
2
+y
2
+ 5z
2
−2xy + 6xz −2yz.
c) Q(x, y, z) = xy + 2xz.
d) Q(x, y, z) = x
2
−z
2
−2xy +xz.
301
El m´etodo de completar cuadrados no es un´ıvoco, puede hacerse de muchas maneras, seg´ un el
cuadrado que escojamos para empezar de la expresi´on inicial. Y los coeficientes de los cuadrados
saldr´ an distintos seg´ un el camino que escojamos. Pero, sea por uno de los caminos del m´etodo de
Gauss o sea por el m´etodo de diagonalizaci´ on de la matriz sim´etrica, tenemos la sorprendente Ley
de inercia de Sylvester que establece que el n´ umero de coeficientes positivos es siempre el mismo
y lo mismo ocurre con el n´ umero de coeficientes negativos.
El n´ umero de coeficientes positivos que aparece en la expresi´ on de una forma cuadr´atica reducida
a suma de cuadrados se escribe p y se llama´ındice de inercia positivo de Q y el n´ umero de coeficientes
negativos que aparece en dicha expresi´ on se escribe q y se llama ´ındice de inercia negativo de Q.
Ley de inercia de Sylvester: Sea Q : V
n
R
→R una forma cuadr´ atica y ¦x
1
, x
2
, ..., x
n
¦, ¦x

1
, x

2
, ..., x

n
¦,
dos sistemas de coordenadas de V
n
R
, en los que
Q(x) = a
1
x
2
1
+a
2
x
2
2
+... +a
p
x
2
p
−a
p+1
x
2
p+1
−a
p+2
x
2
p+2
−... −a
p+q
x
2
p+q
=
a

1
x

2
1
+a

2
x

2
2
+... +a

p
x

2
p
−a

p

+1
x

2
p

+1
−a

p

+2
x

2
p

+2
−... −a

p

+q
x

2
p

+q

donde a
i
> 0 ∀i y a

j
> 0 ∀j. Entonces, p = p

y q = q

.
Demostraci´ on:
Sea ¦e
1
, e
2
, ..., e
n
¦ la base correspondiente a las coordenadas ¦x
i
¦ y ¦e

1
, e

2
, ..., e

n
¦ la base corres-
pondiente a las coordenadas ¦x

i
¦.
Entonces, si cogemos x ∈ /¦e
1
, e
2
, ...e
p
¦ y x ,= 0, Q(x) > 0 y si cogemos x ∈ /¦e

p

+1
, e

p

+2
, ...e

n
¦
y x ,= 0, Q(x) ≤ 0. Esto implica que /¦e
1
, e
2
, ...e
p
¦∩/¦e

p

+1
, e

p

+2
, ...e

n
¦ debe ser s´ olo el vector nulo.
Entonces,
dim/¦e
1
, e
2
, ...e
p
¦ +dim/¦e

p

+1
, e

p

+2
, ...e

n
¦ −dim(/¦e
1
, e
2
, ...e
p
¦ ∩/¦e

p

+1
, e

p

+2
, ...e

n
¦) = p +n−p

Seg´ un la f´ ormula de las dimensiones,
dim/¦e
1
, e
2
, ...e
p
¦ +dim/¦e

p

+1
, e

p

+2
, ...e

n
¦ −dim(/¦e
1
, e
2
, ...e
p
¦ ∩ /¦e

p

+1
, e

p

+2
, ...e

n
¦) =
dim(/¦e
1
, e
2
, ...e
p
¦ +/¦e

p

+1
, e

p

+2
, ...e

n
¦)
Pero la dimensi´ on de esta suma es menor o igual que la dimensi´on del espacio total que es n, por
lo que p +n −p

≤ n, de donde p ≤ p

.
Considerando /¦e

1
, e

2
, ...e

p
¦ ∩/¦e
p+1
, e
p+2
, ...e
n
¦ y haciendo el razonamiento an´alogo al anterior
cambiando p por p

, obtenemos p

≤ p de donde p = p

.
Para ver que q = q

, basta considerar −Q y aplicar el razonamiento anterior.
302
Como aplicaci´ on de la ley de inercia de Sylvester se puede terminar la diagonalizaci´on de la forma cuadr´atica
Q(x, y, z) = xy + xz + yz por el m´etodo de Gauss y se puede hacer tambi´en su diagonalizaci´on por el m´etodo de
los valores propios y comprobar que el n´ umero de valores propios positivos es el n´ umero de cuadrados que salen con
coeficiente positivo y an´alogamente para los negativos.
Tambi´en podemos hacer el m´etodo de Gauss en el ejemplo 4, empezando por la coordenada y, obteniendo:
Q(x, y, z) = x
2
+ 5y
2
−2xy + 2xz = 5(y
2

2
5
xy) + x
2
+ 2xz =
= 5(y −
1
5
x)
2
−5
x
2
25
+ x
2
+ 2xz = 5(y −
1
5
x)
2
+
4
5
x
2
+ 2xz = 5(y −
2
5
x)
2
+
4
5
(x
2
+
5
2
xz) =
= 5(y −
2
5
x)
2
+
4
5
(x +
5
4
z)
2

5
4
z
2
donde el n´ umero de cuadrados con coeficiente positivo es 2 y el de cuadrados con coeficientes negativos es 1, igual que
en la anterior agrupaci´on.
”Dos formas cuadr´ aticas son equivalentes” si y s´olo si existe un isomorfismo de V
n
que lleve una
a la otra, lo cual se cumple si y s´olo si existe un cambio de base que lleva una a la otra; podemos ver
que son equivalentes si tienen los mismos indices de inercia.
Comprob´emoslo: sean
Q(x) = a
1
x
2
1
+a
2
x
2
2
+... +a
p
x
2
p
−a
p+1
x
2
p+1
−a
p+2
x
2
p+2
−... −a
p+q
x
2
p+q
= Q

(x) = a

1
x

2
1
+a

2
x

2
2
+... +a

p
x

2
p
−a

p+1
x

2
p+1
−a

p+2
x

2
p+2
−... −a

p+q
x

2
p+q
donde las coordenadas est´ an referidas a dos bases ¦e
1
, e
2
, ..., e
n
¦ y ¦e

1
, e

2
, ..., e

n
¦ y las p primeras
tienen coeficientes positivos mientras que las q siguientes tienen coeficientes negativos. Entonces,
Q(e
i
/

a
i
) = 1 = Q

(e

i
/
_
a

i
) ∀i ≤ p, Q(e
i
/

a
i
) = −1 = Q

(e

i
/
_
a

i
) si p < i ≤ p + q, Q(e
i
) = 0 =
Q

(e

i
)∀i > p +q.
El isomorfismo ϕ de R
n
dado por ϕ(e
i
/

a
i
) = (e

i
/
_
a

i
) si i ≤ p + q, ϕ(e
i
) = (e

i
) si i > p + q
verifica: Q

◦ ϕ(x) = Q ya que Q(e
i
) = a
i
= Q

(ϕ(e
i
)) si 1 ≤ i ≤ p, Q(e
i
) = −a
i
= Q

(ϕ(e
i
)) si
p < i ≤ p +q, Q(e
i
) = 0 = Q

(e

i
)∀i > p +q.
Rec´ıprocamente, si Q y Q

son equivalentes, se pasa de una a otra por un cambio de coordenadas
y entonces la ley de inercia de Sylvester garantiza que tienen los mismos ´ındices de inercia.
Por ello, se pueden clasificar la formas cuadr´ aticas mirando los signos de los coeficientes de los
cuadrados de las coordenadas de las expresiones obtenidas por el m´etodo de Gauss y tambi´en mirando
los signos de los valores propios.
Tambi´en podemos demostrar que la suma de los ´ındices de inercia positivo y negativo de la forma
cuadr´ atica es igual al rango de su matriz sim´etrica.
303
Desde luego, p + q es el rango de la matriz diagonal correspondiente a Q y es siempre el mismo
cuando la matriz est´e expresada como suma de cuadrados, en virtud de la ley de inercia de Sylvester.
Pero tambi´en es el rango de cualquier matriz sim´etrica que corresponda a Q en cualquier sistema de
coordenadas. Aunque matrices no sim´etricas correspondientes a la misma forma cuadr´ atica pueden
tener distinto rango.
La forma cuadr´atica Q(x
1
, x
2
) = x
2
1
+ 2x
1
x
2
+ x
2
2
se puede expresar:
Q(x
1
, x
2
) = (x
1
, x
2
)
_
1 1
1 1
__
x
1
x
2
_
= (x
1
, x
2
)
_
1 2
0 1
__
x
1
x
2
_
siendo las dos matrices de distinto rango.
En un cambio de coordenadas, las distintas matrices de partida B de la forma cuadr´ atica dan
lugar a distintas matrices de llegada: C
t
B C. Pero como la matriz sim´etrica asociada a la forma
cuadr´ atica es ´ unica, si le hacemos corresponder matrices sim´etricas a la partida y a la llegada de un
cambio de coordenadas, la una se tiene que transformar en la otra. La matriz sim´etrica B de Q en
una base pasa a otra sim´etrica de Q, por un cambio C
t
BC, donde C es una matriz de cambio de
coordenadas.
Veamos ahora que las distintas matrices sim´etricas de Q en distintas bases, tienen el mismo
rango: si C es una matriz invertible, C
t
tambi´en lo es, y las columnas de C
t
B son las im´ agenes de
las columnas de B por el isomorfismo de matriz C
t
, por tanto hay el mismo n´ umero de columnas
independientes en B que en C
t
B. Es decir, el rango de B es el mismo que el rango de C
t
B. Por la
misma raz´ on, el rango de
t
C(BC) es el mismo que el rango de BC, igual al rango de
t
C
t
B, igual al
rango de
t
B, y ´este igual al de B.
Un ejemplo tomado de [B] que aparentemente contradice p+q=r es el siguiente:
Q(x, y, z) = 2x
2
+ 2xy + 2yz = (x, y, z)
_
_
2 1 1
1 0 0
1 0 0
_
_
_
_
x
y
z
_
_
El rango de esta forma cuadr´atica es 2, pero se puede escribir
Q(x, y, z) = 2x
2
+ 2xy + 2yz = (x +y +z)
2
−(y +z)
2
+x
2
= x

2
−y

2
+z

2
que aparentemente tiene p=2, q=1, siendo entonces p+q distinto de r. Lo que ocurre es que
_
_
x

y

z

_
_
=
_
_
1 1 1
0 1 1
1 0 0
_
_
_
_
x
y
z
_
_
304
no es un verdadero cambio de coordenadas porque viene dado por una matriz de determinante nulo.
Las formas cuadr´ aticas se llaman no degeneradas si su rango es igual al n´ umero de coordenadas,
y degeneradas en caso contrario.
Las no degeneradas se llaman definidas positivas si el ´ındice de inercia positivo es igual al n´ umero
de coordenadas (su ´ındice de inercia negativo es nulo) y definidas negativas si el ´ındice de inercia
negativo es igual al n´ umero de coordenadas (su ´ındice de inercia positivo es nulo). En otro caso, se
llaman indefinidas.
Las degeneradas se llaman semidefinidas positivas si su´ındice de inercia negativo es nulo, semidefi-
nidas negativas si su ´ındice de inercia positivo es nulo e indefinidas en otro caso.
Si reducimos la forma cuadr´ atica a suma de cuadrados con coeficientes, utilizando los valores
propios, la forma cuadr´ atica es no degenerada si todos sus valores propios son distintos de cero,
entonces, la forma cuadr´ atica es definida positiva si y s´ olo si todos sus valores propios son positivos.
Es definida negativa si y s´ olo si todos sus valores propios son negativos. Es indefinida si hay valores
propios de los dos signos.
Ejercicios:
9.5.1. Encontrar el car´acter de las formas cuadr´aticas de los ejercicios 9.1.1. y estudiar si son
equivalentes.
9.5.2. Encontrar el car´acter de las formas cuadr´aticas del ejercicio 9.4.1 y estudiar si son equiva-
lentes.
305
Las formas cuadr´ aticas m´as interesantes son las definidas positivas. Lo son cuando todos los
valores propios son positivos, pero aunque el c´ alculo de los valores propios de una forma cuadr´ atica
de orden dos consiste en la resoluci´ on de una ecuaci´on de segundo grado, siempre resoluble, y a´ un
cuando el m´etodo de completar cuadrados puede usarse para ver si es definida positiva cuando la
ecuaci´ on a resolver es de mayor orden y no se puede resolver bien, puede ser latoso. Por ello es ´ util
utilizar el criterio de Sylvester.
Criterio de Sylvester para formas cuadr´aticas definidas positivas:
La matriz G sim´etrica determina una forma cuadr´ atica definida positiva en cualquier base si y
s´ olo si todos sus menores angulares superiores izquierdos son positivos.
Nos ahorra hacer todo el proceso del m´etodo de Gauss en cada caso particular.
El criterio de Sylvester sirve tambi´en para decidir si una forma cuadr´ atica es definida negativa, ya
que en este caso su opuesta es definida positiva. Por tanto la matriz sim´etrica de una forma cuadr´atica
definida positiva ha de tener todos los menores angulares superiores izquierdos de orden impar ne-
gativos y todos los menores angulares superiores izquierdos de orden par positivos.
Si la forma cuadr´atica es no degenerada y no es definida positiva ni definida negativa, es indefinida,
p.ej. si alg´ un menor angular superior izquierdo de orden par es negativo o si hay dos menores
angulares superiores izquierdos de orden impar de distinto signo.
Demostraci´ on del criterio de Sylvester:
Ya se hizo una demostraci´ on del criterio en el cap´ıtulo del producto escalar no usual. Se da aqu´ı
otra demostraci´ on completando cuadrados.
Lo vamos a hacer por induci´on sobre la dimensi´ on del espacio.
Estamos interesados en comprobar que si [G
ii
[ > 0 ∀i,
x x = (x
1
, x
2
, , x
n
)G
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
≥ 0, siendo x x = 0 ≡ x = 0
Vamos a probar el teorema haciendo cambios de coordenadas que lleven la expresi´ on x x a ser
una suma de cuadrados de coordenadas con coeficientes y vamos a ver que estos coeficientes son
positivos en las condiciones del Teorema, por lo que entonces, ser´a x x > 0 siempre que el vector x
sea distinto de cero. Es decir, la forma bilineal, adem´as de sim´etrica, ser´ a definida positiva.
306
Hacemos la demostraci´on por inducci´ on sobre la dimensi´ on del espacio.
Cuando la dimensi´on del espacio es 1, s´olo hay un menor angular, que coincide con el determinante
de la matriz: Es el n´ umero g
11
; el producto escalar es x y = g
11
x
1
y
1
, siendo x x = g
11
x
2
1
, mayor o
igual que cero si g
11
> 0, adem´ as x x = 0 ≡ x = 0, si g
11
> 0, quedando por tanto establecido el
teorema en esta dimensi´ on.
Cuando la dimensi´ on del espacio es 2, hay dos menores angulares superiores: g
11
= G
11
y G = G
22
.
Entonces,
x x = (x
1
, x
2
)
_
g
11
g
12
g
12
g
22
__
x
1
x
2
_
= g
11
x
2
1
+ 2g
12
x
1
x
2
+g
22
x
2
2
=
= g
11
(x
2
1
+
2g
12
g
11
x
1
x
2
+ (
g
12
g
11
x
2
)
2
) −g
11
(
g
12
g
11
x
2
)
2
+g
22
x
2
2
= g
11
(x
1
+
g
12
g
11
x
2
)
2
+ (g
22

g
2
12
g
11
)x
2
2
=
= g
11
(x
1
+
g
12
g
11
x
2
)
2
+
g
22
g
11
−g
2
12
g
11
x
2
2
Hacemos el cambio de coordenadas:
_
x

1
= x
1
+
g
12
g
11
x
2
x

2
= x
2

_
x

1
x

2
_
=
_
1
g
12
g
11
0 1
__
x
1
x
2
_
(Hacer un cambio de coordenadas por una matriz de determinante distinto de cero es equivalente a
hacer un cambio de base) y queda el producto
x x = g
11
x

2
1
+
[G[
g
11
x

2
2
que es siempre mayor o igual que cero si [G
11
[ > 0 y [G[ = [G
22
[ > 0 siendo igual a cero s´ olo cuando
x

1
= 0 = x

2
, es decir, cuando el vector x es cero por ser los ¦x

¦ un sistema de coordenadas.
Cuando la dimensi´ on es 3, tendr´ıamos:
x x = (x
1
, x
2
, x
3
)
_
_
g
11
g
12
g
13
g
12
g
22
g
23
g
13
g
23
g
33
_
_
_
_
x
1
x
2
x
3
_
_
= g
11
x
2
1
+2g
12
x
1
x
2
+g
22
x
2
2
+2g
13
x
1
x
3
+2g
23
x
2
x
3
+g
33
x
2
3
307
Los tres primeros sumandos corresponden a la expresi´ on del producto escalar en un espacio de
dimensi´ on 2, en el que hemos visto que con el cambio de coordenadas anterior, se reducen a una
suma de cuadrados con coeficientes positivos, debido a que los dos primeros menores angulares son
positivos. Entonces, la expresi´on queda:
x x = b
1
x

2
1
+b
2
x

2
2
+ 2g
13
(x

1

g
12
g
11
x

2
)x
3
+ 2g
23
x

2
x
3
+g
33
x
2
3
=
b
1
x

2
1
+b
2
x

2
2
+ 2g
13
x

1
x
3
+ (2g
23

2g
13
g
12
g
11
)x

2
x
3
+g
33
x
2
3
donde b
1
> 0 y b
2
> 0.
Llamamos 2b
23
al coeficiente de x

2
x
3
y seguimos arreglando los t´erminos para conseguir una suma
de cuadrados de coordenadas con coeficientes positivos:
x x = b
1
x

2
1
+b
2
x

2
2
+ 2g
13
x

1
x
3
+ 2b
23
x

2
x
3
+g
33
x
2
3
=
= b
1
(x

2
1
+ 2
g
13
b
1
x

1
x
3
+ (
g
13
b
1
x
3
)
2
) +b
2
(x

2
2
+ 2
b
23
b
2
x

2
x
3
+ (
b
23
b
2
x
3
)
2
) + (g
33

g
2
13
b
1

b
2
23
b
2
)x
2
3
=
= b
1
(x

1
+
g
13
b
1
x
3
)
2
+b
2
(x

2
+
b
23
b
2
x
3
)
2
+b
3
x
2
3
= b
1
x
”2
1
+b
2
x
”2
2
+b
3
x
”2
3
donde hemos llamado b
3
= g
33

g
2
13
b
1

b
2
23
b
2
y hemos hecho otro cambio de coordenadas:
_
_
x

1
x

2
x

3
_
_
=
_
_
1 0 g
13
/b
1
0 1 b
23
/b
2
0 0 1
_
_
_
_
x

1
x

2
x
3
_
_
cuya matriz es de determinante distinto de cero,
Ya ten´ıamos de antes que b
1
> 0 y b
2
> 0. Necesitamos que sea tambi´en b
3
> 0 para que
x x ≥ 0 siendo x x = 0, s´ olo cuando x = 0.
Escribamos:
x x = b
1
x
”2
1
+b
2
x
”2
2
+b
3
x
”2
3
= (x”
1
, x”
2
, x”
3
)
_
_
b
1
b
2
b
3
_
_
_
_
x”
1
x”
2
x”
3
_
_
= (x”
1
, x”
2
, x”
3
)B
_
_
x”
1
x”
2
x”
3
_
_
Relacionando la matriz B con la matriz G dada, vamos a obtener que b
3
es tambi´en positivo.
Sabemos c´omo repercuten los cambios de coordenadas que hemos hecho en la matriz de una
forma cuadr´atica. Si C es la matriz de cambio de coordenadas total, la forma bilineal en las ´ ultimas
308
coordenadas es x y = x”
tt
CGCy” lo cual induce el mismo cambio en la expresi´ on de x x en las
nuevas coordenadas: x x = x”
tt
CGCx”.
Aunque nosotros hemos hecho los cambios en la expresi´on polinomial x x = x
t
Cx y despu´es de
hacerlos hemos llegado a una expresi´ on que se puede poner en forma matricial x x = x”
t
Bx” con
matriz diagonal, podemos concluir que B =
t
CGC, haciendo la consideraci´ on de que cuando hacemos
un cambio de coordenadas en la expresi´on polinomial de la forma cuadr´ atica y luego volvemos a
escribir la matriz sim´etrica correspondiente, esta nueva matriz tambi´en corresponde solamente a
una forma bilineal sim´etrica que la induce. Por ello, la nueva matriz sim´etrica est´a relacionada con
la primitiva sim´etrica por una expresi´ on B

=
t
CBC donde [C[ ,= 0, aunque no ocurre lo mismo
con todas las distintas matrices no sim´etricas que podemos que le podemos hacer corresponder al
principio y al final.
Entonces, existe C matriz de cambio de base, tal que
t
CGC =
_
_
b
1
b
2
b
3
_
_
de donde se tiene b
1
b
2
b
3
= [C[
2
[G[, lo que implica b
3
> 0 por las condiciones del criterio y ser b
1
> 0,
b
2
> 0.
Con esto queda hecha la demostraci´on del criterio en un espacio vectorial de dimensi´ on 3.
Supuesta hecha la demostraci´ on cuando la dimensi´ on del espacio es n−1, se hace la demostraci´ on
cuando el espacio es de dimensi´ on n reduciendo los t´erminos de la expresi´on x x a suma de cuadrados
con coeficientes positivos en dos etapas.
Por la hip´otesis de inducci´on se pueden reducir a una tal suma de cuadrados todos los t´erminos
en los que figuran s´olo las n −1 primeras coordenadas, quedando una expresi´on:
x x = b
1
x

2
1
+b
2
x

2
2
+ +b
n−1
x

2
n−1
+ 2b
1n
x

1
x
n
+ 2b
2n
x

2
x
n
+ +g
nn
x
2
n
donde todos los b
i
son positivos, y que se puede arreglar a
x x = b
1
x
”2
1
+b
2
x
”2
2
+ +b
n−1
x
”2
n−1
+ (g
nn

b
2
1n
b
1

b
2
2n
b
2

b
2
1n−1
b
n−1
)x
2
n
Llamando b
n
al coeficiente de x
2
n
, como todos los arreglos de coordenadas corresponden a cambios
de base, tenemos, de forma an´aloga a la utilizada en dimensi´on 3:
b
1
b
2
b
n
= [C[
2
[G[
309
para la matriz C de cambio de base total, de donde resulta b
n
tambi´en positivo por serlo todos los
dem´ as n´ umeros de la expresi´ on.
As´ı queda demostrado el teorema para cualquier espacio vectorial real de dimensi´on finita.
Ser´ıa conveniente hacer los ejercicios siguientes:
Ejercicios.
9.6.1. Estudiar para qu´e valores de a, la formas cuadr´aticas siguientes son definidas positivas:
a) Q
a
(x, y, z) = x
2
+ 4y
2
+z
2
+ 2axy + 10xz + 6yz.
b) Q
a
(x, y, z) = x
2
+ 4y
2
+z
2
+ 2axy + 2ayz.
c) Q
a
(x, y, z) = 5x
2
+y
2
+az
2
+ 4xy −2xz −2yz.
d) Q
a
(x, y, z) = x
2
+ 2xy +ay
2
+ 2xz + 2ayz + 3z
2
.
e) Q
a
(x, y, z) = ax
2
+y
2
+z
2
+ 2axy + 2a
2
xz + 2ayz.
f) Q
a
(x, y, z) = x
2
+a(a −1)y
2
+ 2axy + 2xz + 4ayz.
g)Q
a
(x, y, z) = x
2
+a(a −1)y
2
+ 2axy + 2xz + 4ayz.
h) Q
a
(x, y, z) = (a + 1)x
2
+ (a + 1)y
2
+az
2
+ 2xy −2ayz.
i) Q
a
(x, y, z) = (a −1)x
2
+ 3ay
2
+az
2
+ 2(a −1)xy + 2ayz.
9.6.2. Estudiar si para algunos valores de a, las formas cuadr´aticas anteriores son definidas
negativas o indefinidas.
9.6.3. Hallar los ´ındices de inercia de las formas cuadr´ aticas anteriores para los valores de a que
las hacen degeneradas.
9.6.4. Hallar los ´ındices de inercia de las formas cuadr´ aticas anteriores para los valores de a que
las hacen indefinidas no degeneradas.
Tambi´en se pueden estudiar los ´ındices de inercia de las formas cuadr´ aticas de los ejercicios
anteriores seg´ un los valores de a, utilizando el m´etodo de Gauss, comprobando en particular los
resultados correspondientes a formas cuadr´ aticas definidas positivas.
310
Criterios para formas cuadr´ aticas degeneradas.
En cuanto a las formas cuadr´ aticas degeneradas, Smirnov afirma sin demostrar en [S] que es
necesario y suficiente para que una forma cuadr´atica sea positiva que todos los menores principales
(es decir, todos aquellos cuya diagonal est´a contenida en la diagonal principal) tengan determinante
no negativo. Esta condici´ on se traduce en la sucesi´on de signos de los coeficientes del Polinomio
Caracter´ıstico.
Aqu´ı damos otros tres criterios para decidir si una forma cuadr´ atica degenerada es definida
positiva en los que el n´ umero de los determinantes a calcular y el orden de los mismos es menor.
Los dos primeros se deben a la autora del curso y el tercero a Fernando Chamizo (1990) [CCh]. La
demostraci´ on del tercer criterio depende del segundo y ´este del primero. Tambi´en se ve que dichos
criterios son equivalentes al de Smirnov. Esta demostraci´ on es tambi´en debida a la autora.
Sea ¦e
1
, e
2
, .., e
n
¦ una base de V
n
tal que si x es un vector de V
n
con coordenadas (x
1
, ..., x
n
) en
esta base,
Q(x) = (x
1
, ..., x
n
)A
_
_
_
x
1
.
.
.
x
n
_
_
_
siendo A sim´etrica y sea f la forma bilineal asociada a Q tal que si y = y
1
e
1
+... +y
n
e
n
,
f(x, y) = (x
1
, ..., x
n
)A
_
_
_
y
1
.
.
.
y
n
_
_
_
.
Hagamos antes algunas consideraciones sobre las formas cuadr´ aticas indefinidas:
Consideremos a
ii
. Si existe alg´ un a
ii
nulo siendo a
ij
,= 0, la forma cuadr´ atica
Q [
L{e
i
,e
j
}
es indefinida por el criterio de Sylvester y por tanto Q es indefinida.
Prescindiendo de filas y columnas nulas, podemos suponer que a
ii
,= 0, ∀i.
Si existen i ,= j tales que a
ii
> 0, a
jj
< 0, Q es indefinida.
Para hacer el estudio de Q, como Q es positiva si y s´olo si −Q es negativa, cambiando el signo
de Q si es necesario podemos suponer que a
ii
> 0, ∀i.
311
Si existiera alg´ un A
ii
tal que [A
ii
[ < 0, como A
ii
es una matriz sim´etrica, A
ii
es diagonalizable
por una matriz ortogonal y [A
ii
[ = λ
1
λ
2
....λ
i
es el producto de los valores propios del endomorfismo
definido por A
ii
en /¦e
1
, ..., e
i
¦, tenemos alg´ un λ
i
= Q(u
i
, u
i
) negativo. Teniendo en cuenta que
a
11
> 0 concluir´ıamos que Q es indefinida.
Notaci´ on.
Llamaremos A
k
rr
al menor de A formado al orlar A
rr
con la fila (a
k1
...a
kr
...a
kk
) y la columna
(a
1k
...a
rk
...a
kk
)
t
donde k > r.
En una forma cuadr´ atica degenerada, [A[ = 0, por tanto cogiendo r = n − 1, k = n, tenemos
[A
n
n−1,n−1
[ = 0.
Si [A
rr
[ , = 0 y [A
k
rr
[ = 0 denotamos por U
k
r
∈ /¦e
1
, ..., e
r
, e
k
¦ el vector propio correspondiente al
valor propio nulo de A
k
rr
. Observemos que entonces la k-´esima coordenada U
k
rk
de U
k
r
es no nula.
Sea A
kj
rr
el menor obtenido de A
k
rr
al orlarlo con la fila (a
j1
a
jr
a
jk
a
jj
) y la columna
(a
1j
a
rj
a
kj
a
jj
)
t
donde j > k.
Criterios:
Sea Q una forma cuadr´atica degenerada de matriz sim´etrica A.
Supongamos ahora que [A
ss
[ > 0, ∀s ≤ m y [A
k
mm
[ = 0, ∀k > m, lo cual siempre se puede
conseguir con una reordenaci´ on de las filas y columnas de A. Decimos entonces que Q est´ a en forma
m-positiva y as´ı lo suponemos en los criterios a continuaci´ on. Entonces:
I. Q es semidefinida positiva si y s´ olo si su matriz sim´etrica puede ponerse en forma m-positiva
y cada vector U
k
m
es vector propio de A.
II. Q es semidefinida positiva si y s´ olo si su matriz sim´etrica puede ponerse en forma m-positiva
y ∀k, k

> m, [A
kk

mm
[ = 0.
III. Q es semidefinida positiva si y s´ olo si su matriz sim´etrica puede ponerse en forma m-positiva
y r(A) = m.
EJEMPLOS.
1) Estudiar la forma cuadr´ atica Q definida en R
4
por la matriz
312
A =
_
_
_
_
2 1 0 3
1 1 1 2
0 1 2 1
3 2 1 6
_
_
_
_
Como [A[ = 0, Q es degenerada.
Cogiendo los menores angulares: [A
11
[ > 0 , [A
22
[ > 0 pero [A
33
[ = 0, entonces pasamos a
[A
4
22
[ > 0 e intercambiamos tercera y cuarta filas y tercera y cuarta columnas para hacer la forma
cuadr´ atica 3 −positiva:
A =
_
_
_
_
2 1 3 0
1 1 2 1
3 2 6 1
0 1 1 2
_
_
_
_
En esta matriz [A
11
[ > 0 , [A
22
[ > 0 y [A
33
[ > 0 y [A
4
33
[ = [A[ = 0, por lo que Q es semidefinida
positiva.
2) Estudiar la forma cuadr´ atica Q definida en R
4
por la matriz
A =
_
_
_
_
1 0 1 0
0 2 0 2
1 0 1 0
0 2 0 2
_
_
_
_
Como [A[ = 0, Q es degenerada.
Empezamos cogiendo los menores angulares: [A
11
[ > 0 y [A
22
[ > 0, entonces pasamos a [A
3
22
[ = 0
y [A
4
22
[ = 0. Por tanto Q est´ a en forma 2-positiva.
Aplicando el segundo criterio en este caso, podemos concluir que la forma cuadr´ atica es semidefinida
positiva directamente ya que [A
34
22
[ = [A[ = 0.
Para aplicar el tercer criterio tendr´ıamos que calcular el menor formado por la intersecci´on de las
tres primeras filas y las columnas primera, tercera y cuarta, que tambi´en sale cero.
Para aplicar el primer criterio, hallamos U
3
2
vector propio de A
3
22
= A
33
para el valor propio nulo
de A
3
22
y lo sumergimos can´ onicamente en R
4
, por ejemplo, U
3
2
= (1, 0, −1, 0) soluci´on de
313
x
1
+x
3
= 0
2x
2
= 0
x
1
+x
3
= 0
Se ve f´ acilmente que U
3
2
es vector propio de A.
Hallamos U
4
2
vector propio de A
4
22
para el valor propio nulo de A
4
22
y lo sumergimos can´onicamente
en R
4
, por ejemplo, U
4
2
= (0, 1, 0, −1) soluci´on de
x
1
= 0
2x
2
+ 2x
4
= 0
2x
2
+ 2x
4
= 0
Se ve f´ acilmente que U
4
2
es vector propio de A.
Se puede concluir por tanto que Q es semidefinida positiva por el primer criterio.
Se puede comprobar que efectivamente Q es semidefinida positiva viendo que
1
2
_
_
_
_
2 1 0 −1
−1 0 1 0
0 −1 0 1
1 2 −1 0
_
_
_
_
t
_
_
_
_
1 0 1 0
0 2 0 2
1 0 1 0
0 2 0 2
_
_
_
_
1
2
_
_
_
_
2 1 0 −1
−1 0 1 0
0 −1 0 1
1 2 −1 0
_
_
_
_
=
_
_
_
_
1 0 0 0
0 2 0 0
0 0 0 0
0 0 0 0
_
_
_
_
3) Estudiar la forma cuadr´ atica definida en R
5
por la matriz
A =
_
_
_
_
_
_
6 8 6 2 8
8 13 8 3 11
6 8 6 2 8
2 3 2 1 3
8 11 8 3 11
_
_
_
_
_
_
.
Como [A[ = 0, Q es degenerada.
Empezamos cogiendo los menores principales superiores del ´angulo izquierdo:
[A
11
[ > 0 y [A
22
[ > 0, pero [A
33
[ = 0 aunque [A
4
22
[ > 0 entonces hacemos una reordenaci´ on de la
matriz correspondiente a una permutaci´ on de los vectores e
3
y e
4
de la base y obtenemos
314
A =
_
_
_
_
_
_
6 8 2 6 8
8 13 3 8 11
2 3 1 2 3
6 8 2 6 8
8 11 3 8 11
_
_
_
_
_
_
.
Ahora [A
11
[ = [A
11
[ > 0, [A
22
[ = [A
22
[ > 0, [A
33
[ > 0. [A
4
33
[ = 0, [A
5
33
[ = 0, luego Q est´ a en forma
2-positiva.
Aplicando el criterio II, como [A
45
33
[ = [A[ = 0, podemos concluir que Q y por tanto Q es
semidefinida positiva.
Para aplicar el criterio III tendr´ıamos que calcular el menor correspondiente a las cuatro primeras
filas y a las columnas primera, segunda, tercera y quinta, que tambi´en sale cero.
Para aplicar el criterio I, observemos que los vectores propios U
4
33
= (1, 0, 0, −1, 0) y U
5
33
=
(1, 0, 1, 0, −1) lo son de A, siendo por tanto semidefinida positiva.
Se puede comprobar que es semidefinida positiva porque
1
2
_
_
_
_
_
_
2 1 0 −1 −3
−1 0 1 0 0
0 −1 0 1 1
1 2 −1 0 −2
0 0 0 0 2
_
_
_
_
_
_
t
_
_
_
_
_
_
6 8 6 2 8
8 13 8 3 11
6 8 6 2 8
2 3 2 1 3
8 11 8 3 11
_
_
_
_
_
_
1
2
_
_
_
_
_
_
2 1 0 −1 −3
−1 0 1 0 0
0 −1 0 1 1
1 2 −1 0 −2
0 0 0 0 2
_
_
_
_
_
_
=
_
_
_
_
_
_
2 1 1 0 0
1 1 1 0 0
1 1 2 0 0
0 0 0 0 0
0 0 0 0 0
_
_
_
_
_
_
.
Demostraciones.
Damos primero dos lemas utilizados en las demostraciones de los criterios.
Lema 1: Sean U
1
, ..., U
m
los vectores propios que diagonalizan A
m,m
transform´ andola en I. Si Q
est´ a en forma m-positiva, f(U
i
, U
k
m
) = 0, ∀i, ∀m.
315
Demostraci´ on: La matriz de Q [
L{e
1
,e
2
,..,em,e
k
}
en la base ¦U
1
, ..., U
m
, U
k
m
¦, que es de la forma
_
_
_
_
_
_
_
_
b
1
I .
.
.
b
m
b
1
... b
m
0
_
_
_
_
_
_
_
_
ha de tener determinante nulo, por tanto, desarrollando por la ´ ultima columna tenemos −(b
2
1
+b
2
2
+
... +b
2
m
) = 0, de donde 0 = b
k
= f(U
i
, U
k
m
) ∀i, ∀k.
Lema 2: Si Q est´ a en forma m-positiva, Q es semidefinida positiva si y s´ olo si f(U
k
m
, U
k

m
) = 0,
∀k, k

> m.
Demostraci´ on. Los vectores ¦U
m+1
m
, ..., U
n
m
¦ son independientes entre s´ı ya que
U
k
m
∈ /¦e
1
, e
2
, ..., e
m
, e
k
¦ −/¦e
1
, .., e
m
¦. Los vectores ¦U
1
, ..., U
m
, U
m+1
m
, ..., U
n
m
¦ son base de V
n
.
Seg´ un el Lema 1, Q se expresa en esta base por
_
I
mm
0
0 C
_
donde todos los t´erminos de la diagonal principal de C son nulos. Observando que c
kk
= f(U
k
m
, U
k

m
)
tenemos demostrado el lema 2.
Demostraci´ on del Criterio I.
Ahora probamos que f(U
k
m
, U
k

m
) = 0 ∀k, k

> m si y s´ olo si los vectores U
k
m
son vectores
propios de A.
Es claro que si los vectores U
k
m
son vectores propios de A s´ olo pueden serlo para el valor propio
nulo y en este caso
_
_
U
m+1
m,1
... U
m+1
m,n
...
U
n
m,1
... U
n
m,n
_
_
A = 0
por lo que C = 0.
Rec´ıprocamente, si alg´ un U
k
m
no es vector propio de A, alguna coordenada de U
k
m
A es distinta
de cero. Sea a el valor de esta coordenada en el lugar s. Encontramos f(U
k
m
, U
s
m
) = aU
s
ms
,= 0.
Contradicci´ on.
316
Demostraci´ on del Criterio II.
La matriz de Q [
L(e
1
,...,em,e
k
,e
k
)
en la base ¦e
1
, ..., e
m
, e
k
, e
k
¦ es A
kk

m,m
. Los vectores
¦U
1
, ..., U
m
, U
k
m
, U
k

m
¦ son tambi´en una base de /¦(e
1
, ..., e
m
, e
k
, e
k
¦ luego si [A
kk

m,m
[ = 0 tambi´en
¸
¸
¸
¸
¸
¸
I 0 0
0 0 f(U
k
m
, U
k

m
)
0 f(U
k
m
, U
k

m
) 0
¸
¸
¸
¸
¸
¸
= 0
por tanto f(U
k
m
, U
k

m
) = 0. Es decir, Q es semidefinida positiva seg´ un el lema 2.
Demostraci´ on del Criterio III.
Considerando la base ¦U
1
, ..., U
m
, U
1
m
, ..., U
n
m
¦ vemos que r(A) = r(Q) = m si y s´ olo si c
kk
= 0,
es decir si y s´olo si f(U
k
m
, U
k

m
) = 0 o equivalentemente Q es semidefinida positiva.
Equivalencia entre estos Criterios y el Criterio de Smirnov.
Cada menor diagonal es la matriz de la restricci´ on de Q a un cierto subespacio engendrado por
vectores de la base, por tanto, si Q es semidefinida positiva el determinante de estos menores ha de
ser no negativo.
Rec´ıprocamente, observemos que A
kk

mm
es un menor diagonal y
[A
kk

mm
[ = −(f(U
k
m
, U
k

m
))
2
[D[
2
donde D es la matriz de cambio de base de ¦e
1
, ..., e
m
, e
k
, e
k
¦ a ¦U
1
, ..., U
m
, U
k
m
, U
k

m
¦.
Por tanto, en las hip´otesis del Criterio de Smirnov ha de ser f(U
k
m
, U
k

m
) = 0 y seg´ un nuestro lema
2, Q es semidefinida positiva.
317
Esquema. Formas cuadr´ aticas.
a) [A
ss
[ > 0 ∀s ⇔Q es definida positiva.
b) Si en alguna reordenaci´ on de A
∃k < n ¸ [A
ss
[ > 0 ∀s ≤ m y [A
k
mm
[ = 0 ∀k > m entonces
AU
k
m
= 0 ´ o
[A
kk

mm
[ = 0 ´ o
r(A) = m
_
¸
_
¸
_
⇐⇒Q es semidefinida positiva.
c) −A cumple a) ⇔Q es definida negativa.
d) −A cumple b) ⇔Q es semidefinida negativa.
e) casos restantes ⇔Q es indefinida.
318
Diagonalizaci´ on simult´anea de formas cuadr´aticas.
Este problema consiste, dadas dos formas cuadr´ aticas distintas definidas en un espacio vectorial,
en encontrar una base del espacio vectorial en la que las dos se expresen como suma de cuadrados (con
coeficientes) de las coordenadas correspondientes a esta misma base. Entonces, ambas expresiones
matriciales son diagonales. Se trata tambi´en de encontrar una base en la que las dos formas bilineales
sim´etricas de las que provienen las formas cuadr´aticas tengan una expresi´on matricial diagonal.
En F´ısica se utiliza la diagonalizaci´ on simult´ anea para expresar la energ´ıa cin´etica, (que es una
forma cuadr´ atica de las derivadas de las coordenadas) y la energ´ıa potencial, (que salvo una constante,
es una forma cuadr´atica de las coordenadas). Las ecuaciones de Lagrange y una diagonalizaci´on
simult´ anea de las dos formas cuadr´ aticas determinan entonces el movimiento. (Puede verse [B])
Pasando al problema, si una de ellas, p.ej. Q de matriz sim´etrica A, es definida positiva, podemos
hacer un razonamiento relativamente corto: Por ser Q definida positiva, Q determina un producto
escalar que admite bases ortonormales. Existe, por tanto un cambio de base de matriz C, tal que
t
CAC = I. Sea Q

otra forma cuadr´ atica de matriz sim´etrica A

; El mismo cambio de base en Q

da lugar a la matriz
t
CA

C, que es otra matriz sim´etrica.
t
CA

C se puede diagonalizar en una base
ortonormal, es decir, existe otra matriz ortogonal P tal que
t
P
t
CA

CP = D; por ser P ortogonal,
tambi´en
t
P
t
CACP = P
t
IP = I. Por tanto, la matriz CP diagonaliza simult´aneamente a las dos
matrices sim´etricas y a las dos formas cuadr´ aticas.
Para hallar la matriz CP, tenemos en cuenta que las columnas de la matriz P son los vectores
propios de
t
CA

C, soluciones de (
t
CA

C − λI)v = 0 para alg´ un λ; Pero esta ecuaci´ on se puede
escribir:
(
t
CA

C −λ
t
CAC)v = 0 ≡
t
C(A

−λA)Cv = 0 ≡ (A

−λA)Cv = 0
Entonces, los vectores columna de CP son los vectores Cv = V , que satisfacen el sistema
(A

−λA)V = 0
para los λ tales que [A

−λA[ = 0.
A pesar de que al resolver el sistema anteriormente escrito, no s´olo se obtienen los vectores Cv sino tambi´en sus
m´ ultiplos, y las soluciones que cojamos del sistema no siempre diagonalizar´an la matriz A hasta la matriz I, en cualquier
caso, la base formada por los vectores escogidos, cuya matriz de cambio de base fuera CP

sigue diagonalizando
simult´aneamente, porque los productos de filas por columnas cruzadas en
t
(CP

)ACP

y
t
(CP

)A

CP

son m´ ultiplos
de los que corresponder´ıan a la matriz
t
(CP)ACP y
t
(CP)A

CP.
319
Cuando todos los λ
i
son de multiplicidad 1, estando interesados s´olamente en la diagonalizaci´on,
no tenemos que preocuparnos de la elecci´ on que hacemos de los vectores V :
Observemos que los vectores que verifican (A

− λA)V = 0 son los mismos que los que verifican
(A
−1
A

−λI)V = 0.
Sean V
i
= (v
i1
, v
i2
...v
in
) y V
j
= (v
j1
, v
j2
...v
jn
), correspondientes a valores propios distintos λ
i
,= λ
j
,
entonces,
(v
i1
, v
i2
...v
in
)A

_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
= (v
i1
, v
i2
...v
in
)AA
−1
A

_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
=
= (v
i1
, v
i2
...v
in
)Aλ
j
_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
= λ
j
(v
i1
, v
i2
...v
in
)A
_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
Tambi´en, por ser las matrices sim´etricas,
(v
i1
, v
i2
...v
in
)A

_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
= (v
j1
, v
j2
...v
jn
)A

_
_
_
_
_
v
i1
v
i2
.
.
.
v
in
_
_
_
_
_
= (v
j1
, v
j2
...v
jn
)AA
−1
A

_
_
_
_
_
v
i1
v
i2
.
.
.
v
in
_
_
_
_
_
=
(v
j1
, v
j2
...v
jn
)Aλ
i
_
_
_
_
_
v
i1
v
i2
.
.
.
v
in
_
_
_
_
_
= λ
i
(v
j1
, v
j2
...v
jn
)A
_
_
_
_
_
v
i1
v
i2
.
.
.
v
in
_
_
_
_
_
= λ
i
(v
i1
, v
i2
...v
in
)A
_
_
_
_
_
v
j1
v
j2
.
.
.
v
jn
_
_
_
_
_
La igualdad de las dos ´ ultimas expresiones cuando λ
i
,= λ
j
, implica que V
t
i
AV
j
= 0 = V
t
i
A

V
j
.
Pero si alg´ un λ es de multiplicidad mayor que 1, tenemos que preocuparnos de coger entre los
vectores correspondientes al mismo valor propio, V
i
, V
j
, tales que
t
V
i
AV
j
=
t
V
i
A

V
j
= 0. Observemos
que los vectores que cogi´endolos de manera que
t
V
i
AV
j
= 0, tambi´en se verifica que
t
V
i
A

V
j
=
t
V
i
A(A
−1
A

)V
j
=
t
V
i
AλV
j
= λ
t
V
i
AV
j
= 0.
Veamos dos ejemplos:
320
Ejemplo 1: Sean
Q(x, y) = x
2
+ 2y
2
+ 2xy = (x, y)
_
1 1
1 2
__
x
y
_
Q

(x, y) = x
2
+ 2xy = (x, y)
_
1 1
1 0
__
x
y
_
dos formas cuadr´ aticas que queremos diagonalizar simult´ aneamente. Hallamos primero los valores
de λ tales que [A

−λA[ = 0: son λ
1
= 1, λ
2
= −1, ya que
¸
¸
¸
¸
_
1 1
1 0
_
−λ
_
1 1
1 2

¸
¸
¸
=
¸
¸
¸
¸
1 −λ 1 −λ
1 −λ −2λ
¸
¸
¸
¸
= λ
2
−1
Para λ
1
= 1, los vectores V que verifican (A

−λ
1
A)V = 0 son las soluciones del sistema:
_
0 0
0 −2
__
x
y
_
=
_
0
0
_
≡ y = 0
Para λ
2
= −1, los vectores V que verifican (A

−λ
2
A)V = 0 son las soluciones del sistema:
_
2 2
2 2
__
x
y
_
=
_
0
0
_
≡ x +y = 0
Cogiendo como V
1
= (1, 0) y como V
2
= (1, −1) tenemos la diagonalizaci´ on simult´anea:
_
1 0
1 −1
__
1 1
1 2
__
1 1
0 −1
_
=
_
1 0
0 1
_
_
1 0
1 −1
__
1 1
1 0
__
1 1
0 −1
_
=
_
1 0
0 −1
_
Cualquier otro V

1
que podamos coger es un m´ ultiplo de V
1
y cualquier otro V

2
que podamos coger
es un m´ ultiplo de V
2
. Por ello la diagonalizaci´on se sigue dando. Por ejemplo, cogiendo V

1
= (2, 0),
V

2
= (−3, 3), entonces,
_
2 0
−3 3
__
1 1
1 2
__
2 −3
0 3
_
=
_
4 0
0 9
_
_
2 0
−3 3
__
1 1
1 0
__
2 −3
0 3
_
=
_
4 0
0 −9
_
Ejemplo 2:
Diagonalizar simult´ aneamente:
321
Q(x, y, z, t) = 2x
2
+ 2y
2
+ 2z
2
+ 2t
2
+ 2xz −2yt Q

(x, y, z, t) = x
2
−y
2
+z
2
−t
2
+ 4xz + 4yt.
Escritas matricialmente:
Q(x, y, z, t) = (x, y, z, t)
_
_
_
_
2 0 1 0
0 2 0 −1
1 0 2 0
0 −1 0 2
_
_
_
_
_
_
_
_
x
y
z
t
_
_
_
_
Q

(x, y, z, t) = (x, y, z, t)
_
_
_
_
1 0 2 0
0 −1 0 2
2 0 1 0
0 2 0 −1
_
_
_
_
_
_
_
_
x
y
z
t
_
_
_
_
Entonces,
[A

−λA[ =
¸
¸
¸
¸
¸
¸
¸
¸
1 −2λ 0 2 −λ 0
0 −1 −2λ 0 2 +λ
2 −λ 0 1 −2λ 0
0 2 +λ 0 −1 −2λ
¸
¸
¸
¸
¸
¸
¸
¸
= 9(λ
2
−1)
2
,
de donde para los valores de λ iguales a 1 ´ o a −1, se pueden obtener los vectores de una base que
diagonaliza simult´ aneamente a las dos formas cuadr´ aticas.
Para λ = 1, las ecuaciones
_
_
_
_
−1 0 1 0
0 −3 0 3
1 0 −1 0
0 3 0 −3
_
_
_
_
_
_
_
_
x
y
z
t
_
_
_
_
= 0 ≡
−x +z = 0
−3y +3t = 0
_
nos permiten coger V
1
= (1, 1, 1, 1). El vector V
2
= (a, b, c, d) tiene que satisfacer esas mismas
ecuaciones y adem´as verificar:
(a, b, c, d)
_
_
_
_
2 0 1 0
0 2 0 −1
1 0 2 0
0 −1 0 2
_
_
_
_
_
_
_
_
1
1
1
1
_
_
_
_
= 0 ≡ 3a +b + 3c +d = 0
Podemos coger V
2
= (1, −3, 1 −3)
Para λ = −1, las ecuaciones
_
_
_
_
3 0 3 0
0 1 0 1
3 0 3 0
0 1 0 1
_
_
_
_
_
_
_
_
x
y
z
t
_
_
_
_
= 0 ≡
3x +3z = 0
y +t = 0
_
322
nos permiten coger V
3
= (1, 1, −1, −1). El vector V
4
= (a, b, c, d) tiene que satisfacer esas mismas
ecuaciones y adem´as verificar:
(a, b, c, d)
_
_
_
_
2 0 1 0
0 2 0 −1
1 0 2 0
0 −1 0 2
_
_
_
_
_
_
_
_
1
1
−1
−1
_
_
_
_
= 0 ≡ a + 3b −c −3d = 0
Podemos coger V
4
= (3, −1, −3, 1).
La base ¦(1, 1, 1, 1), (1, −3, 1−3), (1, 1, −1, −1), (3, −1, −3, 1)¦ diagonaliza a las dos formas cuadr´aticas
simult´ aneamente.
Ejercicios:
9.7.1. Diagonalizar simult´ aneamente las formas cuadr´ aticas:
a) Q(x, y) = x
2
+ 26y
2
+ 10xy, Q

(x, y) = x
2
+ 56y
2
+ 16xy
b) Q(x, y) = −4xy, Q

(x, y) = x
2
+ 2xy + 2y
2
.
c) Q
1
(x, y, z) = x
2
−8xy −4y
2
+10xz +4yz +2z
2
, Q
2
(x, y, z) = 6x
2
+8xy +4y
2
−2xz −4yz +2z
2
(valores de λ : −1, 2, 3).
d)Q
1
(x, y, z) = −2x
2
−4xy −2y
2
+2xz +2yz −z
2
, Q
2
(x, y, z) = 4x
2
+4xy +2y
2
−2xz −2yz +z
2
,
(valores de λ : −1, 0).
323
Bibliograf´ıa:
B] F. Brickell. Matrices and vector spaces. George Allen and Unwin Ltd, 1972.
[C] P.M. Cohn. Algebra. vol. 1. Ed. Wiley & Sons, 1982.
[CCh] L. Contreras y F. Chamizo. Actas XV Jornadas Luso-Espanholas de Matem´ atica, U. Evora
1990.
[G] L.I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir. Mosc´ u, 1980.
[S] V. Smirnov. Linear Algebra and group theory. Ed. Mc. Graw-hill, 1961.
324
Condiciones necesarias y suficientes para la diagonalizaci´on simult´anea de
formas cuadr´ aticas.
Dadas dos formas cuadr´ aticas, si una de ellas es definida positiva, se puede encontrar una base en
la que las dos diagonalizan simult´ aneamente. Se encuentra aqu´ı una condici´ on necesaria y suficiente
para que dos formas cuadr´ aticas sean diagonalizables simult´ aneamente, vi´endose que no es necesario
que una de las dos sea definida positiva, sino que es necesario y suficiente que una de las formas
cuadr´ aticas sea no degenerada y que si A es la matriz de la forma cuadr´ atica no degenerada y A

es
la matriz de la otra forma cuadr´ atica A
−1
A

ha de ser diagonalizable. Este es un trabajo original de
la autora.
Si queremos estudiar un caso m´as general en el que s´olo exigimos que una de las formas cuadr´ aticas
sea no degenerada podemos utilizar aqu´ı los conocimientos sobre el espacio dual para encontrar
condiciones necesarias y suficientes para que dos formas bilineales sim´etricas (y por tanto, las formas
cuadr´ aticas asociadas) sean diagonalizables simult´aneamente.
Recordemos que el espacio dual V
n∗
de un espacio vectorial real V
n
es el espacio vectorial de las
aplicaciones lineales definidas en ese espacio con valores reales.
Cada elemento del dual es una aplicaci´on lineal ψ : V
n
→ K a la que corresponde una matriz
1 n : (a
1
, a
2
, , a
n
), tal que
ψ(y) = (a
1
, a
2
, , a
n
)
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
K es el cuerpo del espacio vectorial (puede ser R ´ o C).
El n´ ucleo de ψ es el conjunto de vectores y que verifican: a
1
y
1
+ a
2
y
2
+ + a
n
y
n
= 0. Es de
dimensi´ on n −1 salvo que todos los a
i
sean nulos en cuyo caso la aplicaci´ on ψ es nula y su n´ ucleo es
todo el espacio.
Si ¦e
1
, e
2
, , e
n
¦ es una base de V
n
, su base dual es ¦e

1
, e

2
, , e

n
¦ en V
n∗
. Los elementos de
la base dual est´ an caracterizados por e

i
(e
j
) = 0, si i ,= j y e

i
(e
i
) = 1.
En esta base las coordenadas de la ψ anterior son (a
1
, a
2
, , a
n
).
Pasando ahora al problema que nos ocupa, si f : V
n
V
n
→R es una forma bilineal, al fijar un
vector x ∈ V
n
, la aplicaci´ on: y →f(x, y) es lineal. Vamos a escribir ϕ(x) esta aplicaci´on que es por
tanto un elemento del dual: (ϕ(x))(y) = f(x, y). (ϕ(x) ∈ V
n∗
).
325
Al mismo tiempo ϕ puede considerarse como una aplicaci´ on de V
n
en V
n∗
. Es otra aplicaci´ on
lineal. Para hallar su matriz en una base dada de V
n
y en la dual de ella en V
n∗
tendremos que
hallar las coordenadas de las im´ agenes de los vectores de la base:
Tenemos
ϕ(e
1
)(y) = (1, 0, , 0)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (a
11
, a
12
, , a
1n
)
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
lo que nos dice que las coordenadas de ϕ(e
1
) en el dual son (a
11
, a
12
, , a
1n
). (pimera fila de A).
Haciendo la misma operaci´ on para cada e
i
, tenemos:
ϕ(e
i
)(y) = (0, 0, , 1, , 0)A
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= (a
i1
, a
i2
, , a
in
)
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
lo que nos dice que las coordenadas de ϕ(e
i
) en la base dual de la considerada son (a
i1
, a
i2
, , a
in
).
(i-´esima fila de A).
Al colocar estas coordenadas en columnas obtenemos la matriz
t
A como matriz de la aplicaci´ on
ϕ.
Dadas dos formas cuadr´aticas de matrices sim´etricas A y A

donde [A[ , = 0, Condici´on necesaria
para que los vectores de una base diagonalicen simult´ aneamente a dos formas cuadr´aticas es que
dichos vectores sean vectores propios de A
−1
A

.
Demostraci´ on:
Suponiendo resuelto el problema de diagonalizaci´ on simult´ anea de las formas cuadr´aticas Q de
matriz sim´etrica A y Q

de matriz sim´etrica A

, existe una base de vectores ¦v
1
, v
2
, , v
n
¦ tales
que f(v
i
, v
j
) = 0 = f

(v
i
, v
j
) si i ,= j, o lo que es lo mismo ϕ(v
i
)(v
j
) = 0 = ϕ

(v
i
)(v
j
) si i ,= j;
dicho de otra manera: existe una base de vectores ¦v
1
, v
2
, , v
n
¦ tal que kerϕ(v
i
) ÷ v
j
si i ,= j y
kerϕ

(v
i
) ÷ v
j
si i ,= j. Para cada i estos dos n´ ucleos tienen en com´ un al menos n −1 vectores. Por
lo tanto, o son coincidentes o uno de ellos es todo el espacio V
n
.
Las ecuaciones de los n´ ucleos kerϕ(x) y kerϕ

(x) son:
326
kerϕ(v
i
) ≡ (a
1
, a
2
, , a
n
)
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= 0 donde (a
1
, a
2
, , a
n
) = (v
i1
, v
i2
, , v
in
)A
kerϕ

(v
i
) ≡ (a

1
, a

2
, , a

n
)
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
= 0 donde (a

1
, a

2
, , a

n
) = (v
i1
, v
i2
, , v
in
)A

Si los dos n´ ucleos son iguales, existe λ tal que
λ(a
1
, a
2
, , a
n
) = (a

1
, a

2
, , a

n
)
Si el segundo n´ ucleo es todo el espacio,
0(a

1
, a

2
, , a

n
) = (0, 0, , 0) = 0(a
1
, a
2
, , a
n
)
Si el primer n´ ucleo es todo el espacio,
(a
1
, a
2
, , a
n
) = (0, 0, , 0) = 0(a

1
, a

2
, , a

n
)
Los tres casos los podemos englobar en que existe λ, tal que
λ(a
1
, a
2
, , a
n
) = (a

1
, a

2
, , a

n
) ´ o (a
1
, a
2
, , a
n
) = λ(a

1
, a

2
, , a

n
)
Como
_
_
_
_
_
a
1
a
2
.
.
.
a
n
_
_
_
_
_
=
t
A
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
, y
_
_
_
_
_
a

1
a

2
.
.
.
a

n
_
_
_
_
_
= A

t
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
La igualdad anterior se expresa:
λA
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
´o A
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= λ

A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
327
Si [A[ , = 0, la matriz A es invertible por lo que el vector Av es distinto de cero siempre que v sea
distinto de cero (lo que ha de ocurrir para que est´e en una base), por lo que λ

no puede ser cero.
Entonces, dividiendo por λ

en la ´ ultima igualdad, podemos reducirla a
1
λ

A
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
similar a λA
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
que resume a las dos cuando Q es no degenerada.
Multiplicando la ´ ultima por A
−1
tenemos que
λ
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= A
−1
A

_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
el vector v est´a en una base que las diagonaliza simult´anemente, si v es vector propio
de A
−1
A

.
Es Condici´ on suficiente para que los vectores ¦v
1
, v
2
, , v
n
¦ diagonalicen simult´aneamente a Q
y a Q

cuando Q es no degenerada, es que los vectores propios de A
−1
A

correspondan a valores
propios distintos.
Demostraci´ on:
Vamos a comprobar que
f(v
i
, v
j
) = ϕ(v
i
)(v
j
) = 0 = ϕ

(v
i
)(v
j
) = f

(v
i
, v
j
)
Si v
i
, v
j
corresponden a valores propios distintos de A
−1
A


i
,= λ
j
)
Entonces, por ser las formas bilineales sim´etricas,

(v
i
))(v
j
) = (ϕ

(v
j
))(v
i
) y (ϕ(v
i
))(v
j
) = (ϕ(v
j
))(v
i
)
Tambi´en,

(v
i
))(v
j
) = (ϕ ◦ ϕ
−1

(v
i
))(v
j
) = (ϕ(ϕ
−1
◦ ϕ

)(v
i
))(v
j
) = ϕ(λ
i
v
i
)(v
j
) = λ
i
ϕ(v
i
)(v
j
)

(v
j
)(v
i
) = (ϕ ◦ ϕ
−1

(v
j
))(v
i
) = (ϕ(ϕ
−1
◦ ϕ

)(v
j
))(v
i
) = ϕ(λ
j
v
j
)(v
i
) = λ
j
ϕ(v
j
)(v
i
)
328
de donde
λ
i
ϕ(v
i
)(v
j
) = λ
j
ϕ(v
j
)(v
i
)
lo que implica 0 = ϕ(v
i
)(v
j
) = f(v
i
, v
j
) y (ϕ

(v
i
))(v
j
) = λ
i
ϕ(v
i
)(v
j
) = 0.
Seg´ un esta condici´ on podremos encontrar la base que las diagonaliza simult´aneamente si A
−1
A

es diagonalizable para valores propios distintos.
Con el fin de resolver el problema cuando hay valores propios m´ ultiples veamos que en los subes-
pacios de vectores propios correspondientes a cada valor propio, podemos encontrar vectores propios
ortogonales respecto a la forma cuadr´ atica no degenerada Q:
Si L
λ
i
es el subespacio de vectores propios de A
−1
A

para el valor propio λ
i
, la restricci´on de Q a
ese subespacio admite una matriz sim´etrica, que es diagonalizable en ese espacio, los vectores de L
λ
i
que diagonalicen esta restricci´ on son vectores propios de A
−1
A

que tambi´en verifican f(v
i
, v
j
) = 0 y
por tanto f

(v
i
, v
j
) = (ϕ

(v
i
))(v
j
) = λ
i
ϕ(v
i
)(v
j
) = 0.
Podemos concluir que si Q es una forma cuadr´atica no degenerada y Q

es otra forma
cuadr´atica cualquiera, si la matriz A
−1
A

es diagonalizable, podemos encontrar una base
de vectores propios de A
−1
A

que diagonaliza simult´aneamente a Q y a Q

.
En particular, si A
−1
A

es sim´etrica las dos formas cuadr´ aticas son diagonalizables simult´aneamente.
Y si despu´es de un cambio de base conseguimos que (
t
CAC)
−1t
CA

C sea sim´etrica, las dos formas
cuadr´ aticas son diagonalizables simult´ aneamente.
Si una de las formas cuadr´aticas p.ej. Q es definida positiva, como corresponde a un producto
escalar, siempre se puede encontrar una base en la que la matriz correspondiente sea I. Si la matriz
de Q

en la base primitiva era A

, al cambiar de base se transforma en una del tipo
t
CA

C. En esta
nueva base el endomorfismo ϕ
−1
◦ ϕ

se expresa por I
t
CA

C =
t
CA

C, matriz sim´etrica, que por
tanto es diagonalizable. Concluimos que Dos formas cuadr´aticas, una de las cuales es definida
positiva, siempre pueden diagonalizarse simult´aneamente.
C´alculo de la base que diagonaliza simult´aneamente a dos formas cuadr´aticas
Un λ es valor propio de A
−1
A

si y s´ olo si
0 = [A
−1
A

−λI[ = [A
−1
A

−λA
−1
A[ = [A
−1
[[A

−λA[ ≡ 0 = [A

−λA[
´esta es la ecuaci´ on que resolveremos para no calcular inversas.
En cuanto a los subespacios de vectores propios que las diagonalizan, tienen que satisfacer
0 = (A
−1
A

−λI)v = (A
−1
A

−λA
−1
A)v = A
−1
(A

−λA)v = 0 ≡ (A

−λA)v = 0
329
Si los valores propios son distintos y cada uno de estos espacios es de dimensi´on 1, los vectores
que los engendran son una base que diagonaliza simult´ aneamente a Q y a Q

.
Si para alg´ un valor propio λ
i
el subespacio de vectores propios correspondiente L
λ
i
es de dimensi´on
mayor tendremos que encontrar en cada uno de ellos una base que diagonalice a Q y la uni´ on de
estas bases diagonaliza simult´ aneamente a Q y a Q

.
Ejercicios:
9.9.1. Diagonalizar simult´ aneamente las formas cuadr´ aticas:
a) Q(x, y) = −4xy, Q

(x, y) = x
2
+ 4xy + 2y
2
.
b) Q(x, y) = −4xy, Q

(x, y) = x
2
+ 2xy + 2y
2
.
c) Q
1
(x, y, z) = x
2
−8xy −4y
2
+10xz +4yz +4z
2
, Q
2
(x, y, z) = 6x
2
+8xy +4y
2
−2xz −4yz +2z
2
(valores de λ : −1, 2, 3).
d)Q
1
(x, y, z) = −2x
2
−4xy −2y
2
+2xz +2yz −z
2
Q
1
(x, y, z) = 4x
2
+4xy +2y
2
−2xz −2yz +z
2
,
(valores de λ : −1, 0).
9.9.2. Comprobar que pueden diagonalizarse simult´ aneamente:
Q(x, y, z, t) = 2xy + 2xz −4yz + 4yt + 4t
2
Q

(x, y, z, t) = x
2
+ 4xt + 4y
2
+ 4yz +z
2
+ 4t
2
.
9.9.3. Comprobar que no son diagonalizables simult´ aneamente las formas cuadr´ aticas:
Q(x, y, z) = 2xy + 2xz + 2yz Q

(x, y, z) = 2xy −2xz −2yz.
9.9.4. Diagonalizar simult´ aneamente:
Q(x, y, z, t) = 2x
2
+ 2y
2
+ 2z
2
+ 2t
2
+ 2xz −2yt
Q

(x, y, z, t) = x
2
−y
2
+z
2
−t
2
+ 4xz + 4yt.
330
Bibliograf´ıa:
B] F. Brickell. Matrices and vector spaces. George Allen and Unwin Ltd, 1972.
[G] L. I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir 1974.
331
332
FORMAS DE JORDAN EN DIMENSI
´
ON 2, 3 y 4.
Introducci´ on.
Las ”formas de Jordan” son matrices relativamente sencillas correspondientes a endomorfismos
no diagonalizables. Aunque no siempre son diagonales, son casi siempre matrices m´ as sencillas que
las correspondientes a los endomorfismos en la base can´onica.
Las cajas de Jordan son matrices cuadradas que tienen iguales todos los elementos de la diagonal,
tienen 1 en todos los sitios inmediatamente encima de la diagonal y ceros en los dem´ as sitios:
La matriz:
_
_
λ 1 0
0 λ 1
0 0 λ
_
_
es una caja de Jordan de orden 3.
Una caja de Jordan de orden 1 es un n´ umero. Por lo que las matrices diagonales son yuxtaposici´ on
de cajas de Jordan de orden 1.
Se llaman formas de Jordan o matrices de Jordan a las matrices formadas por cajas de Jordan
yuxtapuestas en la diagonal.
Se llaman ”bases de Jordan” las bases en las que el endomorfismo se expresa por una forma de
Jordan.
Cuando un endomorfismo es diagonalizable, si su matriz en una base dada es A, existe una matriz
de cambio de base C tal que C
−1
AC es diagonal. Si el endomorfismo no es diagonalizable, esto no
es posible, pero llamando J a la forma de Jordan, que es bastante sencilla, existe una matriz de
cambio de base C tal que C
−1
AC = J. Hay un teorema general, que no demostraremos aqu´ı, que
afirma la equivalencia de toda matriz de n´ umeros complejos a una matriz de Jordan.
Adem´ as, a un endomorfismo dado le corresponde s´ olo una forma de Jordan salvo el orden de
las cajas. Entonces, a todas las matrices que corresponden al mismo endomorfismo en distintas
bases corresponde una sola forma de Jordan. Teni´endose por tanto, que las formas de Jordan
clasifican a las matrices y que matrices con formas de Jordan diferentes no pueden corresponder al
mismo endomorfismo ni siquiera en distintas bases. Lo cual puede servir para descartar si matrices
provenientes de distintos observadores, corresponden al mismo fen´ omeno observado.
En este cap´ıtulo se demuestran los casos particulares del teorema anterior para matrices 2 2
y 3 3 de n´ umeros reales, y para matrices 4 4 de n´ umeros complejos por m´etodos directos y
elementales.
333
La forma de Jordan de una matriz con n´ umeros reales y valores propios reales es un caso particular
de la forma de Jordan de una matriz con n´ umeros complejos. Las construcciones dadas para matrices
de n´ umeros reales sirven para las demostraciones an´ alogas para matrices de estas dimensiones de
n´ umeros complejos no diagonalizables.
Demostraciones distintas del teorema en el caso 2 2 se encuentran en Grosman [G] y en
Hern´ andez [H]. Una demostraci´ on corta, por inducci´on, de que toda matriz de orden n n tiene
una base de Jordan compleja, que es real si todos los valores propios son reales se encuentra en [S].
Demostraciones m´ as cl´ asicas de la existencia de la forma de Jordan de una matriz que incluyen la
forma de encontrar la base de Jordan se encuentran en [C] y en [H].
Consideraciones previas.
Las matrices de n´ umeros reales de /
n×n
(R) pueden considerarse tambi´en matrices de n´ umeros
complejos. Determinan endomorfismos de R
n
y de c
n
. Dada una matriz A ∈ /
n×n
(1) con n´ umeros
reales, vamos a llamar f al endomorfismo de R
n
de matriz A en la base can´onica y f al endomorfismo
de la misma matriz en c
n
, tambi´en en la base can´onica. Diremos que A es diagonalizable sobre 1
si f es diagonalizable y que A es diagonalizable sobre c si f es diagonalizable. Es obvio que si f es
diagonalizable, f lo es y que si f no es diagonalizable, f tampoco lo es.
Se deduce de lo anterior que la matriz A es diagonalizable sobre R si y s´ olo si existe una matriz de
n´ umeros reales: C, tal que C
−1
AC = D sea diagonal. En este caso se dice que A es equivalente a D
en R. Se deduce tambi´en que la matriz A es diagonalizable sobre c si y s´olo si existe una matriz de
n´ umeros complejos: C, tal que C
−1
AC = D sea diagonal. En este caso se dice que A es equivalente
a D en c. La equivalencia de A a D en c no implica la equivalencia de A a D en R .
Cuando consideramos espacios vectoriales sobre c, la suma de las multiplicidades algebraicas de
los valores propios de un endomorfismo es igual a la dimensi´ on del espacio; esto sigue siendo cierto
para endomorfismos de espacios vectoriales sobre 1 si todos sus valores propios son reales.
Cuando hablamos de los valores propios de A, hablamos indistintamente de los valores propios
de f o de f. El problema para que una matriz de n´ umeros reales sea no diagonalizable en 1, es
que tenga alg´ un valor propio complejo o que siendo todos los valores propios reales, haya alg´ un valor
propio, cuya multiplicidad geom´etrica sea menor que la multiplicidad algebraica. Si tiene alg´ un valor
propio complejo, y es diagonalizable en c, a partir de su forma de Jordan compleja se obtiene una
matriz con n´ umeros reales, equivalente a la dada, que se llama forma de Jordan real de la matriz con
valores propios complejos. Tiene otras cajas de Jordan, llamadas reales, correspondientes a matrices
334
con valores propios complejos que en R
2
y en R
3
son de la forma:
_
α β
−β α
_
.
Forma de Jordan de Matrices 2 2 de n´ umeros reales.
Sea A ∈ /
2×2
(R). Entonces, los casos que se pueden presentar son:
1) Los valores propios de A son distintos y reales. (Entonces A es diagonalizable en 1.)
2) Los valores propios de A son distintos y complejos. (Entonces A es diagonalizable en c pero
no en 1.)
3) Los valores propios de A son iguales, en cuyo caso tienen que ser reales. Llamemos λ a este
valor propio. Entonces tenemos dos subcasos:
a) dimker(f −λI) = 2, entonces A es diagonalizable.
b) dimker(f −λI) = 1, entonces A no es diagonalizable en 1 ni en c .
En el caso 2) y en el caso 3b), que no son diagonalizables, las matrices son equivalentes a las
llamadas formas de Jordan.
Caso 2). Sea A ∈ /
2×2
(R), y α +iβ un valor propio complejo de A. Entonces A no es diagona-
lizable en 1 pero s´ı es diagonalizable en c, siendo A equivalente en R a una matriz de la forma de
J:
J =
_
α β
−β α
_
.
Demostraci´on:
Los valores propios complejos de una matriz de n´ umeros reales aparecen por parejas de valores
conjugados: α+iβ y α−iβ, por ser raices del polinomio caracter´ıstico de la matriz, que tiene todos
sus coeficientes reales.
Para el valor propio complejo α + iβ , existe un vector propio de coordenadas complejas w, que
se puede descomponer w = u + iv en su parte real y su parte imaginaria. Podemos calcular f(u) y
f(v), teniendo en cuenta que:
f(w) = (α +iβ)w =⇒
f(u) +if(v) = f(u) +if(v) = f(u +iv) = (α +iβ)(u +iv) = αu −βv +i(βu +αv)
de donde, igualando partes reales y partes imaginarias:
f(u) = αu −βv , f(v) = βu +αv.
Podemos comprobar tambi´en que el vector complejo correspondiente a α −βi es w = u −iv. Ya que
335
f(u −iv) = f(u) −if(v) = f(u) −if(v) = αu −βv −i(βu + αv) = (α −βi)(u −iv).
Los vectores w = u + iv, w = u − iv son vectores linealmente independientes de C
2
por ser
vectores propios correspondientes a valores propios distintos. Por tanto engendran un plano de C
2
.
A su vez los vectores w, w son combinaci´ on lineal de los u, v y rec´ıprocamente. Entonces, el subespacio
engendrado por ¦u, v¦ es el mismo que el engendrado por ¦w, w¦, (un plano) y por tanto, los vectores
u, v son independientes en C
2
y en R
2
. Por tanto, los vectores ¦u, v¦ son una base de R
2
, llamada
base de Jordan real y f se expresa en esa base por:
_
α β
−β α
_
= J.
Que es la forma de Jordan real del endomorfismo f no diagonalizable en 1, pero s´ı diagonalizable
en c.
Ejercicios:
10.1.1. Hallar la forma de Jordan real y la base de Jordan real de las siguientes matrices:
a)
_
−1 −4
2 3
_
b)
_
4 10
−1 2
_
c)
_
2 −10
1 4
_
d)
_
8 18
−1 2
_
e)
_
−1 4
−2 3
_
f)
_
3 −4
2 −1
_
10.1.2. Escribir las matrices de los giros de R
2
de ´angulos π/4, π/3 y π/6 y comprobar que son
matrices de Jordan reales.
336
Caso 3b). Sea A ∈ /
2×2
(R), con un valor propio doble λ y dimker(f −λI) = 1(≡ r(A−λI) = 1),
entonces A es no diagonalizable en c, pero A es equivalente en R a una matriz J, donde
J =
_
λ 1
0 λ
_
.
La base de R
3
en la que f se expresa por J se llama base de Jordan de f y base de Jordan para
A. Se ver´a como se encuentra en el transcurso de la demostraci´on.
Demostraci´on:
Por ser dim(ker(f −λI)) = 1, tambi´en dim(Im(f −λI)) = 1; consideremos el espacio Im(f −λI)
(una recta). Este espacio es invariante por f: En efecto, si cogemos un vector de Im(f −λI), que es
de la forma (f −λI)v, la imagen por f de este vector es de la misma forma:
f((f −λI)v) = f(f(v) −λv) = f(f(v)) −λf(v) = (f −λI)(f(v))
Entonces, si w es un generador de Im(f −λI), el vector f(w), o es cero, o es otro generador de
Im(f −λI). En los dos casos, f(w) es un m´ ultiplo de w, por tanto w ,= 0 es un vector propio de f
(que ha de serlo para el valor propio λ).
Sea v un vector de R
2
, entonces, (f − λI)v ∈ Im(f − λI). Si (f − λI)v ,= 0, (f − λI)v = w es
un generador de Im(f −λI) y por ello un vector propio de f seg´ un lo expuesto previamente. Tal v
existe porque dimIm(f −λI) = 1.
Los vectores ¦w, v¦ (donde w ,= 0) son independientes porque uno es vector propio y el otro no.
M´ as expl´ıcitamente, se da la implicaci´ on:
α
1
w +α
2
v = 0 ⇒α
1
= 0 = α
2
En efecto,
α
1
w+α
2
v = 0 ⇒0 = (f−λI)(α
1
w+α
2
v) = α
1
(f−λI)w+α
2
(f−λI)v = α
2
(f−λI)v = α
2
w ⇒α
2
= 0
de donde, sustituyendo en la combinaci´on lineal inicial dada, obtenemos α
1
w = 0, lo cual implica
tambi´en α
1
= 0.
Los vectores ¦v, w¦ forman por tanto una base de R
2
. Como f(w) = λw y f(v) = w + λv
concluimos que f se expresa en esta base por la matriz J y que por tanto A es equivalente a J.
La base ¦w, v¦ es una base de Jordan que se ha obtenido a partir de un v / ∈ ker(f −λI) y hallando
w = (f−λI)v. (Se puede escoger el vector v a simple vista, cuidando de que (A−λI)v ,= 0). Tambi´en,
como los vectores columna de A−λI) son los vectores que engendran Im(f −λI), cualquier columna
no nula de A −λI es un vector w = (f −λI)v donde v pertenece a la base can´onica.
337
Ejercicios:
10.2.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma
de Jordan y una base de Jordan para cada una de ellas.
a)
_
0 1
−1 2
_
b)
_
3 1
−1 1
_
c)
_
5 −1
4 1
_
d)
_
4 1
−1 2
_
e)
_
3 −4
1 −1
_
f)
_
2 1
−1 0
_
10.2.2. Demostrar que
_
a 1
0 a
_
n
=
_
a
n
na
n−1
0 a
n
_
10.2.3. Hallar la potencia quinta de cada una de las matrices del ejercicio 10.2.1.
10.2.4. En un bosque hay una poblaci´on de depredadores y otra poblaci´ on de presas devoradas
por ellos. Cada medio a˜ no la poblaci´on de presas es devorada en una proporci´ on de 20 por ciento
respecto a la poblaci´ on de depredadores, se reproduce en una proporci´ on respecto a su poblaci´on
existente igual a la proporci´ on en la que muere por enfermedades. Los depredadores se reproducen
en una proporci´ on de 80 por ciento respecto a la poblaci´ on de presas y en una proporci´on de 10
por ciento respecto a la proporci´on de su poblaci´on existente, muriendo tambi´en por enfermedades
en una proporci´ on de un 90 por ciento respecto a su poblaci´ on. Si al principio hay una relaci´ on de
presas a depredadores de 3 a 1. ¿Cu´ al es esta relaci´on al cabo de 5 a˜ nos?
338
Forma de Jordan de Matrices 3 3 de n´ umeros reales.
Sea A ∈ /
3×3
(R). Entonces, los casos que se pueden presentar son:
1) A tiene alg´ un valor propio complejo no real. En este caso, como la matriz es de n´ umeros reales,
el polinomio caracter´ıstico tiene todos los coeficientes reales y sus raices complejas aparecen por
parejas conjugadas, tambi´en es valor propio de A el conjugado del valor propio complejo considerado
y como el polinomio caracter´ıstico es de grado impar, A tiene al menos un valor propio real. Entonces,
todos los valores propios de A son distintos, aunque no reales, siendo A diagonalizable en c pero no
en 1)
2) Todos los valores propios de A son distintos y reales. (En este caso, A es diagonalizable en 1).
3) Todos los valores propios son iguales. Con los siguientes subcasos:
3a) dimker(f −λI) = 3, (es diagonalizable).
3b) dimker(f −λI) = 2, (no es diagonalizable).
3c) dimker(f −λI) = 1, (no es diagonalizable).
4) Hay s´ olo dos valores propios distintos; sean ´estos λ
1
simple y λ
2
, doble. Con los siguientes
subcasos:
4a) dimker(f −λ
2
I) = 2, (es diagonalizable).
4b) dimker(f −λ
2
I) = 1, (no es diagonalizable).
Las formas de Jordan no diagonales corresponden a los casos 1), 3b), 3c) y 4b)
Caso 1.)
Sea A ∈ /
3×3
(R), y α + iβ un valor propio complejo de A. Entonces A no es diagonalizable en
1 pero s´ı es diagonalizable en c, siendo A equivalente en R a una matriz J:
J =
_
_
λ 0 0
0 α β
0 −β α
_
_
donde λ es el valor propio real de A.
En efecto, sean α+iβ, α−iβ, los valores propios complejos, y w = u+iv, w = u−iv, los vectores
propios correspondientes. Si v
1
es el vector propio correspondiente al valor propio real λ, la base
¦v
1
, w, w¦ diagonaliza al endomorfismo correspondiente de C
3
pero tiene dos vectores complejos y la
matriz de cambio de base tiene n´ umeros complejos. Sin embargo, puede verse igual que en el caso 2
de matrices 2 2 de n´ umeros reales, que en la base ¦v
1
, u, v¦ de C
3
y de R
3
, f se expresa por
_
_
λ 0 0
0 α β
0 −β α
_
_
= J,
339
de n´ umeros reales.
Es la forma de Jordan real del endomorfismo, o de la matriz, cuando hay dos valores propios
complejos conjugados.
EJEMPLO 1:
Consideremos el endomorfismo f de R
3
dado por la matriz:
A :
_
_
−1 −1 2
−1 −2 1
−1 −3 2
_
_
Vamos a ver que no es diagonalizable en R pero si es diagonalizable en C y hallaremos su forma
de Jordan real y la correspondiente base de Jordan real.
Su polinomio caracter´ıstico es
[A −λI[ =
¸
¸
¸
¸
¸
¸
−1 −λ −1 2
−1 −2 −λ 1
−1 −3 2 −λ
¸
¸
¸
¸
¸
¸
= (1 −λ)(λ
2
+ 2λ + 2).
Las raices de este polinomio son λ
1
= 1, λ
2
= −1 + i y λ
3
= −1 − i. Como s´ olo hay un valor
propio real, s´olo hay un vector propio de R
3
. Al no poder encontrar una base de vectores propios
de R
3
, este endomorfismo no es diagonalizable en R
3
. Sin embargo, considerando el endomorfismo
f de C
3
con la misma matriz, podemos tener en cuenta los valores propios complejos, que son tres
distintos a los que corresponden tres vectores propios distintos con coordenadas reales o complejas.
Para λ
1
= 1 tenemos:
ker(f −I) ≡
_
_
−2 −1 2
−1 −3 1
−1 −3 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
= 0 ≡
−2x −y +2z = 0
−x −3y +z = 0
−x −3y +z = 0
_
_
_
cuyas soluciones son los vectores m´ ultiplos de (1, 0, 1).
Para λ
2
= −1 +i tenemos:
ker(f−(−1+i)I) ≡
_
_
−i −1 2
−1 −1 −i 1
−1 −3 3 −i
_
_
_
_
z
1
z
2
z
3
_
_
=
_
_
0
0
0
_
_
= 0 ≡
−iz
1
−z
2
+ 2z
3
= 0
−z
1
−(1 +i)z
2
+z
3
= 0
−z
1
−3z
2
+ (3 −i)z
3
= 0
_
_
_
cuyas soluciones son los vectores m´ ultiplos complejos de (1, i, i).
Al valor propio λ
3
= −1−i le corresponden los vectores propios conjugados de los vectores propios
correspondientes a λ
2
, es decir, los vectores propios m´ ultiplos de (1, −i, −i).
340
El endomorfismo f de C
3
se expresa por
D :
_
_
1 0 0
0 −1 +i 0
0 0 −1 −i
_
_
en la base de vectores complejos: ¦(1, 0, 1), (1, i, i), (1, −i, −i)¦.
Si queremos una base de vectores reales en la que f se exprese de la manera m´ as f´ acil posible
podemos descomponer el vector (1, i, i) = (1, 0, 0) +i(0, 1, 1), teni´endose
f(1, 0, 0) = (−1)(1, 0, 0) −(0, 1, 1) y f(0, 1, 1) = (1, 0, 0) +(−1)(0, 1, 1); el endomorfismo f de R
3
se expresa en la base de vectores reales: ¦(1, 0, 1), (1, 0, 0), (0, 1, 1)¦ por
J :
_
_
1 0 0
0 −1 1
0 −1 −1
_
_
Ejercicios.
10.3.1. Hallar la forma de Jordan real y la base de Jordan real de las siguientes matrices:
a)
_
_
1 0 1
−1 0 1
−1 −2 3
_
_
b)
_
_
3 4 −2
−4 −5 4
−4 −6 5
_
_
c)
_
_
1 4 −2
−2 −1 2
−2 0 1
_
_
10.3.2. Escribir las matrices de las rotaciones en R
3
alrededor de cada eje coordenado de ´angulos
π/4, π/3 y π/6 y comprobar que son formas de Jordan reales.
10.3.3. Hallar la forma de Jordan real de la siguiente matriz:
_
_
_
_
0 0 −1 1
0 0 0 −1
1 1 0 0
0 1 0 0
_
_
_
_
341
Para los otros casos no diagonalizables, tenemos el
Teorema 2.
Sea A ∈ /
3×3
(R), no diagonalizable en c, entonces A es equivalente en 1 a una matriz J, siendo
J =
_
_
λ 1 0
0 λ 1
0 0 λ
_
_
´ o J =
_
_
λ
1
0 0
0 λ
2
1
0 0 λ
2
_
_
donde λ, λ
1
y λ
2
son valores propios reales de A, pudiendo ser λ
1
= λ
2
.
Las bases en las que f se expresa por J se llaman bases de Jordan de f o de A.
Supuesto demostrado el teorema y conocidos los valores propios de A, podemos decidir cu´ al es la
forma de Jordan que le corresponde de la siguiente manera:
A la matriz A corresponde la matriz J =
_
_
λ
1
0 0
0 λ
2
1
0 0 λ
2
_
_
, s´ olo si estamos en el caso 4b), es
decir, si A tiene dos valores propios distintos y la multiplicidad geom´etrica del valor propio doble es
1.
Si la matriz tiene un s´ olo valor propio, le puede corresponder
J =
_
_
λ 1 0
0 λ 1
0 0 λ
_
_
´ o J =
_
_
λ 0 0
0 λ 1
0 0 λ
_
_
;
se distinguen una de la otra calculando dimker(f − λI), que no depende de la matriz de f usada,
siendo dimker(f −λI) = 1 para la primera de ellas y dimker(f −λI) = 2 para la segunda.
Demostraci´on del teorema:
a). Caso en el que A tiene un s´olo valor propio λ.
Sea f el endomorfismo de R
3
expresado por A en la base can´ onica. Entonces, por ser A no
diagonalizable, dimker(f −λI) < 3, teni´endose dos subcasos:
3 b) dimker(f −λI) = 2 y
3 c) dimker(f −λI) = 1.
3 b) Si dimker(f −λI) = 2, tenemos dimIm(f −λI) = 1. Entonces, el subespacio Im(f −λI) es
una recta invariante por f, (puede comprobarse como en el teorema 1), por ello, un generador suyo
342
w es un vector propio de f. Este generador es de la forma (f −λI)v = w ,= 0, siendo v y w vectores
independientes. Como dim ker(f −λI) = 2, existe otro vector propio v
1
independiente de w.
Los tres vectores v
1
, w, v son independientes y por tanto forman una base de R
3
:
Se da la implicaci´ on:
α
1
v
1

2
w +α
3
v = 0 ⇒α
1
= α
2
= α
3
= 0
En efecto, an´ alogamente a como hemos hecho en el caso 2 2,
α
1
v
1

2
w +α
3
v = 0 ⇒0 = (f −λI)(α
1
v
1

2
w +α
3
v) = α
3
w ⇒α
3
= 0
Sustituyendo ahora en la combinaci´ on lineal dada, tenemos α
1
v
1
+ α
2
w = 0 donde los vectores
son independientes, (por la elecci´on de v
1
), por lo que tambi´en se tiene α
1
= α
2
= 0.
Esta base es una base de Jordan porque la matriz de f en esta base es
_
_
λ 0 0
0 λ 1
0 0 λ
_
_
Para
encontrar una base de Jordan, podemos darnos cuenta de que si A es la matriz de f en la base
can´ onica, los vectores columna de la matriz A −λI son vectores del subespacio Im(f −λI), siendo
por tanto, las columnas no nulas, vectores propios w, que a su vez son imagen por f −λI de vectores
v de la base can´onica. Completando con v
1
vector propio de f independiente de w tenemos una base
de Jordan.
Podemos hallar m´ as bases de Jordan encontrando el vector v tal que (f − λI)v ,= 0, (que no
satisfaga las ecuaciones de ker(f − λI)), hallar w = (f − λI)v y completando con v
1
vector propio
de f independiente de w.
EJEMPLO 2:
Consideremos el endomorfismo f de R
3
dado por la matriz:
A =
_
_
−5 2 2
−1 −2 1
−1 1 −2
_
_
Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan:
El polinomio caracter´ıstico es
[A −λI[ =
¸
¸
¸
¸
¸
¸
−5 −λ 2 2
−1 −2 −λ 1
−1 1 −2 −λ
¸
¸
¸
¸
¸
¸
= −(λ + 3)
3
De aqu´ı que el ´ unico valor propio de f (o de A) sea λ
1
= −3.
343
Como
ker(f + 3I) ≡
_
_
−2 2 2
−1 1 1
−1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
≡ −x +y +z = 0
la dimensi´on de ker(f + 3I) = 2 ,= 3 siendo por tanto f no diagonalizable y estando en el caso 3b).
Como dim(Im(f + 3I)) = 1 y el subespacio Im(f + 3I) es invariante por f, cualquier vector w
distinto de cero de este espacio es un vector propio de f. Uno de tales vectores es la primera columna
de A + 3I, que es (f + 3I)(1, 0, 0) ya que
_
_
−2 2 2
−1 1 1
−1 1 1
_
_
_
_
1
0
0
_
_
=
_
_
−2
−1
−1
_
_
,= 0
siendo (−2, −1, −1) un vector propio w.
Como la dimensi´ on del subespacio de vectores propios es 2, podemos encontrar otro vector propio
v
1
independiente de w, que tambi´en lo ser´a de v. Puede ser v
1
= (1, 1, 0).
As´ı tenemos una base de Jordan: ¦(1, 1, 0), (−2, −1, −1), (1, 0, 0)¦ en la que f se expresa por
J =
_
_
−3 0 0
0 −3 1
0 0 −3
_
_
.
El vector w se puede tambi´en obtener haciendo la imagen por f + 3I de cualquier vector v tal
que (f + 3I)v ,= 0. Este vector v se ha de obtener de manera que no satisfaga las ecuaciones de
ker(f + 3I) o por tanteo, de forma que (A + 3I)v ,= 0 pudiendo ser en este caso v = (1, 0, 0) y
teniendo la misma base anterior. Pero otra base se puede obtener para v = (1, 2, 0), siendo entonces
w = (2, 1, 1).
El cambio de base da lugar a la equivalencia entre A y la forma de Jordan J:
_
_
1 −2 1
1 −1 0
0 −1 0
_
_
−1
_
_
−5 2 2
−1 −2 1
−1 1 −2
_
_
_
_
1 −2 1
1 −1 0
0 −1 0
_
_
=
_
_
−3 0 0
0 −3 1
0 0 −3
_
_
.
Ejercicios:
10.4.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma
de Jordan y una base de Jordan para cada una de ellas.
344
a)
_
_
2 −1 1
0 1 0
−1 1 0
_
_
b)
_
_
1 2 −2
0 2 −1
0 1 0
_
_
c)
_
_
−1 0 −1
−1 0 −1
1 0 1
_
_
d)
_
_
1 2 −3
4 8 −12
3 6 −9
_
_
e)
_
_
−2 0 1
0 −1 0
−1 0 0
_
_
f)
_
_
2 −2 1
2 −3 2
3 −6 4
_
_
10.4.2. Hallar la potencia quinceava de cada una de las matrices del ejercicio 10.4.1.
345
3c) Si dim ker(f − λI) = 1, suponiendo demostrado que dimker(f − λI)
2
= 2 y por tanto
dimIm(f−λI)
2
= 1, vamos a encontrar la forma de Jordan y la base de Jordan y luego demostraremos
ese hecho; se puede ver que Im(f − λI)
2
es un subespacio invariante por f de la misma forma que
hemos visto que Im(f −λI) lo es en los casos anteriores; es una recta y entonces, un generador w de
este subespacio es un vector propio, que a su vez es w = (f −λI)
2
v, w ,= 0. Comprobaremos que los
vectores ¦(f −λI)
2
v, (f −λI)v, v¦ son una base de Jordan porque son independientes y la matriz de
f en esta base es:
J =
_
_
λ 1 0
0 λ 1
0 0 λ
_
_
por lo que esos vectores forman una base de Jordan de f.
Para encontrar la base de Jordan indicada en este caso, vemos que si A es la matriz de f en la base
can´ onica, cualquier vector distinto de cero de (A−λI)
2
es un vector propio w, imagen por (f −λI)
2
del vector correspondiente de la base can´onica. Teniendo as´ı directamente la base w, (f −λI)v, v.
Podemos hallar m´as bases de Jordan buscando un v / ∈ ker(f − λI)
2
y hallando los vectores
(f −λI)v, (f −λI)
2
v.
Comprobemos que ¦(f −λI)
2
v, (f −λI)v, v¦ son vectores independientes:
Veremos que se da la implicaci´ on:
α
1
w +α
2
(f −λI)v +α
3
v = 0 ⇒α
1
= α
2
= α
3
= 0.
Para ello, observemos que 0 = (f −λI)w = (f −λI)
3
v y tambi´en 0 = (f −λI)
4
v.
Ahora vemos:
0 = α
1
w +α
2
(f −λI)v +α
3
v = α
1
(f −λI)
2
v +α
2
(f −λI)v +α
3
v ⇒
0 = (f −λI)
2

1
(f −λI)
2
v +α
2
(f −λI)v +α
3
v) = α
3
w ⇒α
3
= 0
Entonces, la combinaci´ on lineal inicial es: α
1
w +α
2
(f −λI)v = 0, que implica
(f − λI)(α
1
w + α
2
(f − λI)v) = 0 ⇒ α
2
w = 0, lo que da α
2
= 0. Volviendo a la primera
combinaci´ on lineal considerada, sacamos tambi´en α
1
= 0.
Demostremos ahora que dimIm(f −λI)
2
= 1:
El espacio Im(f −λI), que es de dimensi´ on 2, es invariante por f. Los valores propios y vectores
propios de la restricci´on de f a Im(f − λI) lo son tambi´en de f y por tanto de f, que no es
diagonalizable. Entonces, f[
Im(f−λI)
tiene un ´ unico valor propio real que tiene que coincidir con
λ y un vector propio u. S´olo puede haber un vector propio independiente en Im(f − λI) por ser
dimker(f − λI) = 1, entonces, por la f´ormula de las dimensiones para la restricci´on de f − λI a
346
Im(f−λI), tenemos dimIm(f−λI) = dimker(f−λI)+dimIm(f−λI)
2
, de donde dimIm(f−λI)
2
=
1.
Otra forma de demostrar lo mismo ser´ıa viendo que dimker(f −λI)
2
= 2:
El espacio Im(f −λI), que es de dimensi´ on 2, es invariante por f. Los valores propios y vectores
propios de la restricci´on de f a Im(f − λI) lo son tambi´en de f y por tanto de f, que no es
diagonalizable. Entonces, f[
Im(f−λI)
tiene un ´ unico valor propio real que tiene que coincidir con λ
y un vector propio de la forma u = (f − λI)u

. Por tanto, u

∈ ker(f − λI)
2
. Como u

no est´ a en
ker(f −λI) y ker(f −λI) ⊂ ker(f −λI)
2
, deducimos que dim ker(f −λI)
2
≥ 2.
Para ver que dimker(f − λI)
2
< 3, consideremos que si fuera dimker(f − λI)
2
= 3, ser´ıa
ker(f − λI)
2
= R
3
, es decir, (f − λI)
2
(R
3
) = 0, siendo entonces (f − λI)[(f − λI)(R
3
)] = 0, con
lo que ker(f − λI) contendr´ıa a Im(f − λI), lo cual es imposible, porque hemos supuesto que el
primero es de dimensi´on 1, con lo cual el segundo es de dimensi´on 2. Con esto queda terminada la
demostraci´ on.
EJEMPLO 3:
Consideremos el endomorfismo f de R
3
dado por la matriz:
A =
_
_
−1 1 −1
−1 0 0
0 1 −2
_
_
Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan.
El polinomio caracter´ıstico es
[A −λI[ =
¸
¸
¸
¸
¸
¸
−1 −λ 1 −1
−1 −λ 0
0 1 −2 −λ
¸
¸
¸
¸
¸
¸
= −(λ + 1)
3
De aqu´ı que el ´ unico valor propio de f (o de A) sea λ
1
= −1.
Como
ker(f +I) ≡
_
_
0 1 −1
−1 1 0
0 1 −1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_

y −z = 0
−x +y = 0
y −z = 0
_
_
_
la dimensi´ on de ker(f +I) = 1 ,= 3 siendo por tanto f no diagonalizable y estando en el caso 3c) y
siendo por tanto su forma de Jordan:
J =
_
_
−1 1 0
0 −1 1
0 0 −1
_
_
.
347
Como dim(Im(f + I)) = 2, seg´ un se ha demostrado anteriormente, dim(Im(f + I)
2
) = 1 y al
ser este espacio invariante por f, cualquier vector distinto de cero w ∈ Im(f + I)
2
es un vector
propio. Los vectores columna distintos de cero de (A+I)
2
son este tipo de vectores, pudiendo coger
w = (−1, −1, −1) = (f +I)
2
(1, 0, 0)
_
_
0 1 −1
−1 1 0
0 1 −1
_
_
2
_
_
1
0
0
_
_
=
_
_
−1 0 1
−1 0 1
−1 0 1
_
_
_
_
1
0
0
_
_
=
_
_
−1
−1
−1
_
_
,= 0
que es vector propio.
El vector intermedio es
_
_
0 1 −1
−1 1 0
0 1 −1
_
_
_
_
1
0
0
_
_
=
_
_
0
−1
0
_
_
As´ı tenemos una base: ¦(−1, −1, −1), (0, −1, 0), (1, 0, 0)¦ que es una base de Jordan porque f se
expresa en ella por J. El cambio de base que da lugar a la equivalencia entre A y la forma de Jordan
J es:
_
_
−1 0 1
−1 −1 0
−1 0 0
_
_
−1
_
_
−1 1 −1
−1 0 0
0 1 −2
_
_
_
_
−1 0 1
−1 −1 0
−1 0 0
_
_
=
_
_
−1 1 0
0 −1 1
0 0 −1
_
_
.
El vector w se puede obtener tambi´en haciendo la imagen por (f + I)
2
de un vector v tal que
(f +I)
2
v ,= 0. Este vector v se ha de obtener de manera que no satisfaga las ecuaciones de ker(f +I)
2
o por tanteo, de forma que (A + I)
2
v ,= 0 pudiendo ser en este caso tambi´en v = (1, 0, 2) en cuyo
caso, w = (1, 1, 1) y el vector intermedio es (−2, −1, −2).
Ejercicios:
10.5.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma
de Jordan y una base de Jordan para cada una de ellas.
a)
_
_
−1 −1 −2
1 2 1
1 0 2
_
_
b)
_
_
−2 1 −1
−1 −1 0
0 1 −3
_
_
c)
_
_
2 −1 3
0 2 1
0 0 2
_
_
d)
_
_
4 −1 −2
1 −1 1
1 0 −1
_
_
e)
_
_
1 −1 −1
1 −2 0
2 −1 −2
_
_
f)
_
_
6 −2 4
7 −2 6
1 −1 2
_
_
10.5.2. Demostrar que
348
_
_
a 1 0
0 a 1
0 0 a
_
_
n
=
_
_
a
n
na
n−1
n(n−1)
2
a
n−2
0 a
n
na
n−1
0 0 a
n
_
_
10.5.3. Hallar la potencia quinceava de cada una de las matrices del ejercicio 10.5.1.
b) 4b). La matriz A tiene dos valores propios distintos λ
1
y λ
2
, siendo 2 la multiplicidad algebraica
de λ
2
y dimker(f −λ
2
I) = 1
Entonces, f es no diagonalizable y dim ker(f −λ
2
I) = 1 ⇒dim Im(f −λ
2
I) = 2. El subespacio
Im(f −λ
2
I) es invariante por f, lo cual se comprueba de la misma forma que en el teorema 1. Tiene
sentido por ello hablar de la restricci´ on f[
Im(f−λ
2
I)
, de f a Im(f − λ
2
I), cuyos valores propios y
vectores propios lo son tambi´en de f.
Si λ
2
no fuera valor propio de f[
Im(f−λ
2
I)
, ser´ıa ker(f −λ
2
I) ∩Im(f −λ
2
I) = ¦0¦. Debido a sus
dimensiones, ser´ıa tambi´en, ker(f −λ
2
I) ⊕Im(f −λ
2
I) = R
3
.
En una base ¦u
1
, u
2
, u
3
¦ donde fuera u
1
∈ ker(f − λ
2
I) y ¦u
2
, u
3
¦ ⊂ Im(f − λ
2
I), por ser este
´ ultimo espacio invariante, f se expresar´ıa por una matriz del tipo:
B =
_
_
λ
2
0 0
0 c d
0 m n
_
_
donde la matriz
_
c d
m n
_
ser´ıa la matriz de la restricci´on f[
Im(f−λ
2
I)
, en la base ¦u
2
, u
3
¦ que no tendr´ıa λ
2
como valor propio.
Tendr´ıamos:
[B −λI[ = (λ
2
−λ)
¸
¸
¸
¸
_
c d
m n
_
−λI
¸
¸
¸
¸
Como el polinomio caracter´ıstico de f es independiente de la base escogida, el valor propio λ
2
ser´ıa s´ olo valor propio simple de f, en contra de lo supuesto.
Por tanto, ha de ser ker(f −λ
2
I) ∩ Im(f −λ
2
I) ,= ¦0¦.
Si 0 ,= w ∈ ker(f − λ
2
I) ∩ Im(f − λ
2
I), se tiene: (f − λ
2
I)w = 0, siendo w = (f − λ
2
I)v para
alg´ un v. Los vectores ¦w, v¦ son independientes porque uno de ellos es vector propio para λ
2
y el
otro no. Junto a un vector v
1
propio para λ
1
, forman una base de R
3
en la que f se expresa por
J =
_
_
λ
1
0 0
0 λ
2
1
0 0 λ
2
_
_
.
349
Por ello, ¦v
1
, w, v¦ forman una base de Jordan de f o de A.
Comprobemos expl´ıcitamente que los vectores ¦v
1
, w, v¦ son independientes (v
1
y w son indepen-
dientes por ser vectores propios correspondientes a valores propios distintos):
α
1
v
1

2
w +α
3
v = 0 ⇒(f −λ
2
I)(α
1
v
1

2
w +α
3
v) = 0 ⇒
α
1
(f −λ
2
I)v
1

2
(f −λ
2
I)w +α
3
(f −λ
2
I)v) = 0 ⇒α
1

1
−λ
2
)v
1

3
w = 0 ⇒α
1
= α
3
= 0
Entonces la combinaci´ on lineal considerada se transforma en α
2
w = 0, que implica α
2
= 0.
Cualquier vector v ∈ ker(f −λ
2
I)
2
−ker(f −λ
2
I) es v´ alido para encontrar w. Estos v existen por
los razonamientos anteriores. Son los vectores v de ker(f −λ
2
I)
2
que no satisfacen las ecuaciones de
ker(f −λ
2
I) o alternativamente que verifican (f −λ
2
I)v ,= 0.
Tambi´en se puede recurrir a las matrices (A−λ
2
I)
2
y A−λ
2
I: llamando c
1
, c
2
, c
3
a las columnas
de A − λ
2
I un vector propio w de Im(f − λI) es de la forma w = α
1
c
1
+ α
2
c
2
+ α
3
c
3
,= 0, siendo
(A − λ
2
I)(α
1
c
1
+ α
2
c
2
+ α
3
c
3
) = 0, por lo que llamando d
1
, d
2
, d
3
a las columnas de (A − λ
2
I)
2
, y
encontrados α
1
, α
2
, α
3
, tales que α
1
d
1
+ α
2
d
2
+ α
3
d
3
= 0, y w = α
1
c
1
+ α
2
c
2
+ α
3
c
3
,= 0, tenemos w
y v = α
1
e
1

2
e
2

3
e
3
= (α
1
, α
2
, α
3
), donde e
1
, e
2
, e
3
son los vectores de la base can´ onica.
A la hora de encontrar una base de Jordan de f, en este caso, tenemos que a˜ nadir a los vectores
¦w = (f −λ
2
I)v, v¦ anteriores el vector propio v
1
para λ
1
.
EJEMPLO 4:
Consideremos el endomorfismo f de R
3
dado por la matriz
A =
_
_
1 0 −1
1 −1 −1
−2 3 2
_
_
Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan.
Tiene como polinomio caracter´ıstico [A−λI[ = λ
2
(−λ+2); por tanto tiene un valor propio simple
λ
1
= 2, y otro valor propio doble λ
2
= 0.
Por otra parte, dim(ker(A−0I) = dim(ker(A)) = 3 −rango(A) = 3 −2 = 1, lo cual implica que
no es diagonalizable. Por la teor´ıa demostrada en este caso, su forma de Jordan es:
J =
_
_
2 0 0
0 0 1
0 0 0
_
_
350
Para encontrar la base de Jordan buscamos v ∈ ker(f − 0I)
2
− ker(f − 0I) = kerf
2
− kerf.
Como
A
2
=
_
_
1 0 −1
1 −1 −1
−2 3 2
_
_
2
=
_
_
3 −3 −3
2 −2 −2
−3 3 3
_
_
la ecuaci´ on de ker(f
2
) es x −y −z = 0 y las ecuaciones de ker(f) son x −z = 0, x −y −z = 0. Un
v posible que satisface la primera pero no las dos segundas es v = (2, 1, 1). El vector w = Av que se
obtiene es w = (1, 0, 1), que est´ a en ker(f) siendo por tanto vector propio para el valor propio 0.
Alternativamente, se puede comprobar si un vector v que satisfaga las ecuaciones de ker(f
2
) no
est´ a en ker(f) viendo si Av ,= 0.
Para completar la base de Jordan nos falta un vector propio v
1
para el valor propio λ
1
= 2, que
ha de verificar (A −2I)v
1
= 0, es decir, las ecuaciones:
_
_
−1 0 −1
1 −3 −1
−2 3 0
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_

−x −z = 0
−2x +3y = 0
_
Puede ser el vector v
1
= (3, 2, −3).
Entonces una base de Jordan para la forma de Jordan obtenida es ¦(3, 2, −3), (1, 0, 1), (2, 1, 1)¦,
siendo
_
_
3 1 2
2 0 1
−3 1 1
_
_
−1
_
_
1 0 −1
1 −1 −1
−2 3 2
_
_
_
_
3 1 2
2 0 1
−3 1 1
_
_
=
_
_
2 0 0
0 0 1
0 0 0
_
_
.
Por el otro m´etodo, poniendo los coeficientes ¦0, 1, −1¦ a las columnas de A
2
, obtenemos el vector
nulo y poniendo los mismos coeficientes a las columnas de A, obtenemos el vector w = (1, 0, 1) =
f(0, 1, −1). Por lo que otra base de Jordan es: ¦(3, 2, −3), (1, 0, 1), (0, 1, −1)¦
Acabada la obtenci´ on de la forma de Jordan y de la base de Jordan de la matriz vamos a hacer
la aplicaci´on a obtener la potencia quinta de A:
A
5
=
_
_
1 0 −1
1 −1 −1
−2 3 2
_
_
5
=
_
_
3 1 2
2 0 1
−3 1 1
_
_
_
_
2 0 0
0 0 1
0 0 0
_
_
5
_
_
3 1 2
2 0 1
−3 1 1
_
_
−1
=
351
_
_
3 1 2
2 0 1
−3 1 1
_
_
_
_
2 0 0
0 0 0
0 0 0
_
_
1
4
_
_
1 −1 −1
5 −9 −1
−2 6 2
_
_
=
_
_
3 1 2
2 0 1
−3 1 1
_
_
1
4
_
_
2
5
−2
5
−2
5
0 0 0
0 0 0
_
_
=
1
4
_
_
3 2
5
−3 2
5
−3 2
5
2 2
5
−2 2
5
−2 2
5
−3 2
5
3 2
5
3 2
5
_
_
= 2
3
_
_
3 −3 −3
2 −2 −2
−3 3 3
_
_
Ejercicios:
10.6.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma
de Jordan y una base de Jordan para cada una de ellas.
a)
_
_
1 −1 3
0 2 1
0 0 2
_
_
b)
_
_
0 3 1
2 −1 −1
−2 −1 −1
_
_
c)
_
_
1 0 −1
1 −1 −1
−2 3 2
_
_
d)
_
_
0 0 −1
1 −2 −1
−2 3 1
_
_
e)
_
_
2 0 0
−1 1 15
3 0 1
_
_
_
_
2 −5 1
1 −1 −2
3 −3 −2
_
_
10.6.2. Hallar la potencia quinta de cada una de las matrices del ejercicio 5.1.
10.6.3. Estudiar, seg´ un los valores de los par´ ametros a y b, la forma de Jordan de las matrices
dadas a continuaci´ on cuando no son diagonalizables.
a)
_
_
−1 0 b
0 1 0
0 0 a
_
_
b)
_
_
1 −1 0
0 a 0
a 1 a
_
_
c)
_
_
1 2 b
0 a 0
1 0 b
_
_
10.6.4. Suponiendo que A es una matriz 3 3 de n´ umeros reales y conocida su forma de Jordan,
hallar la forma de Jordan de −A en todos los casos.
10.6.5. Suponiendo que A es una matriz 3 3 de n´ umeros reales y conocida su forma de Jordan,
hallar la forma de Jordan de kA en todos los casos.
10.6.6. Suponiendo que A es una matriz 3 3 de n´ umeros reales invertible y conocida su forma
de Jordan, hallar la forma de Jordan de A −kI en todos los casos.
10.6.7. Suponiendo que A es una matriz 3 3 de n´ umeros reales invertible y conocida su forma
de Jordan, hallar la forma de Jordan de A
−1
en todos los casos.
10.6.8. Suponiendo que A es una matriz 3 3 de n´ umeros reales y conocida su forma de Jordan,
hallar la forma de Jordan de A
t
en todos los casos.
352
10.6.9.
a) Hallar la matriz de jordan de J
m
para m > 0, de la matriz de jordan de un endomorfismo f
de R
3
en todos los casos posibles.
b) Hallar la matriz de jordan de f
m
, cualquiera que sea m, conocida la matriz de jordan de f,
donde f es un isomorfismo de R
3
, en todos los casos posibles.
10.6.10. Demostrar que si f es un endomorfismo de R
n
con dos valores propios distintos λ
1
y λ
2
y (f −λ
1
I)(f −λ
2
I) = 0, f es diagonaliz