You are on page 1of 38

Apuntes de Matemticas II

Grado Ingeniera Mecnica


Parte I: lgebra Lineal

M Cruz Parra
Dpto. de Matemtica Aplicada


Algebra
lineal
Previos

Matrices

Determinantes

Rango de una matriz

11

Sistemas de ecuaciones lineales

17

Espacios vectoriales

19

Aplicaciones lineales

25

Diagonalizaci
on

29

Formas bilineales y formas cuadr


aticas

33

Previos
1 Aplicaciones.
Dados dos conjuntos A y B, una aplicaci
on f de A en B es una ley o criterio que asocia a
cada elemento de A uno y solo uno de B.
Si f : A B, es una aplicacion y a 7 b = f (a), se dice que b es la imagen por f de a y que a
es una antiimagen de b, o un original de b, por f .
Se dice que una aplicacion es inyectiva si elementos de A distintos tienen imagenes distintas,
es decir: a1 , a2 A, a1 6= a2 f (a1 ) 6= f (a2 )
o, equivalentemente, a1 , a2 A tales que f (a1 ) = f (a2 ) a1 = a2 .
Se dice que una aplicacion es suprayectiva si cada elemento de B tiene por lo menos una
antiimagen, es decir: b B, a A, b = f (a).
Una aplicacion se dice biyectiva si es inyectiva y suprayectiva.
2 Relaciones binarias.
Dados dos conjuntos A y B, una relacion binaria < entre A y B es una ley que permite decir,
para todo par (a, b) A B, si a esta relacionado con b o no, mediante <.
Sea < una relacion binaria sobre un mismo conjunto A. Diremos que < verifica la propiedad
Reflexiva si a A, a<a.
Simetrica si a, b A 3 a<b b<a.
Antisimetrica si a, b A 3 a<b b<a a = b.
Transitiva si a, b, c A 3 a<b b<c a<c.
La relacion se dice de equivalencia si se cumplen las propiedades reflexiva, simetrica y transitiva
y se dice que la relacion es de orden cuando es reflexiva, antisimetrica y transitiva.
n.
3 Leyes de composicio
Sea A un conjunto. Una Ley de Composici
on Interna, abreviadamente LCI, sobre A es una
operacion que a cada par ordenado de elementos de A le asocia otro elemento de A. Es decir,
es una aplicacion de A A en A.
: A A A, (a, b) 7 a b.
Sean A y K dos conjuntos distintos. Una Ley de composici
on externa, abreviadamente LCE,
sobre A con dominio de operadores K es una operacion que a cada par de elementos, uno de A
y otro de K, le asocia un elemento de A. Es decir, es una aplicacion de K A en A.
: K A A, (k, a) 7 k a.


Matematicas II, MECANICA

4
4 Estucturas algebraicas.

Grupo. Sea G un conjunto sobre el que esta definida una LCI, . Se dice que (G, ) tiene
estructura de grupo si se verifica
es asociativa, a, b, c G, a (b c) = (a b) c.
Existe elemento neutro, e G 3 a G, a e = e a = a.
Todo elemento posee simetrico, para cada a G a
G, a a
=a
a = e.
Si ademas la operacion es conmutativa, a, b G, a b = b a, se dice que (G, ) es un grupo
abeliano o conmutativo.
Cuando la operacion sea una suma, se denota por el smbolo habitual +, el grupo (G, +)
se dice aditivo, el elemento neutro se denota por 0 y se le dice nulo o cero y al simetrico de un
elemento a lo llamaremos opuesto de a y lo denotaremos por a, es decir, a+(a) = (a)+a = 0.
Si la operacion es un producto, se suele denotar por el smbolo , el grupo (G, ) se dice multiplicativo, el elemento neutro se denota por 1 y se le dice unidad o identidad y al simetrico de un
elemento a lo llamaremos inverso de a y lo denotaremos por a1 , as, a.a1 = a1 .a = 1.
En un grupo (G, ) se puede establecer la siguiente aplicacion : GG G, (a, b) 7 x = ba,
donde b es el simetrico de b, que define una LCI sobre G a la que llamamos operaci
on inversa de
. Si el grupo es aditivo, la operacion inversa se dice sustraccion o diferencia : G G G,
(a, b) 7 x = b + a
y, si el grupo es multiplicativo, cociente / : G G G,
(a, b) 7 x = b1 a
Anillo. Sea A un conjunto sobre el que estan definidas dos operaciones + y , ambas LCI sobre
A. Se dice que (A, +, ) tiene estructura de anillo si se verifica
(A, +) es grupo abeliano.
La operacion es asociativa, a, b, c A, a (b c) = (a b) c.
La operacion es doblemente distributiva respecto de +,

a (b + c) = (a b) + (a c),
a, b, c A,
(a + b) c = (a c) + (b c).
Si ademas la operacion es conmutativa, a, b A, a b = b a, se dice que (A, +, ) es un anillo
conmutativo.
El anillo se dice unitario si existe elemento neutro para la operacion
e A 3 a A, a e = e a = a.
El anillo tiene divisores de cero si
a, b A, a 6= 0, b 6= 0 3 a b = 0,
donde 0 representa el elemento neutro para la +. Dos elementos a y b verificando la condicion
anterior, se dicen divisores de cero.
Sea (A, +, ) un anillo. Entonces, para todo a A, a 0 = 0 a = 0, donde 0 representa el
neutro de +.
Cuerpo. Llamaremos cuerpo a un anillo (IK, +, ) conmutativo, unitario y en el que todo elemento, excepto el neutro de + es simetrizable respecto de la operacion producto.
Teorema Un cuerpo no posee divisores de cero.

Matrices
SUMA
Definici
on 1. Dadas A = (aij ), B = (bij ) Mmn (IK). La matriz (aij + bij ) Mmn (IK) se dice
suma de A con B y se denota por A + B.
Propiedades
(Mmn (IK), +) es grupo abeliano. La matriz O = (0) Mmn (IK) es el elemento neutro y se dice
matriz nula de dimensiones m n. Para cada A = (aij ) Mmn (IK) la matriz A = (aij )
Mmn (IK) es su opuesta.
PRODUCTO
Definici
on 2. Sean A = (aij ) Mmn (IK)Py B = (bij ) Mnp (IK). Se llama matriz producto
de A por B, y se escribe A.B, a la matriz ( nk=1 aik bkj ) Mmp (IK)

c11 . . .
c1j
. . . c1p

.
a11 a12 . . . a1n
..
..
..
..
.
.
.
.
..
b
.
.
.
b
.
.
.
b
.
.
.
11
1j
1p
.

.
.

n
.
. b
.

.
.
.
b
.
.
.
b
2j
2p

21
.
a
b
.
.
.
c
c
.
.
.
ai1 ai2 . . . ain ..
ik
kj
ip
i1
..
..
..
.. =

.
.
.
.
.

..
..
k=1
..

.
.
..
..
..
..
bn1 . . . bnj . . . bnp
...
.
.
.
.
am1 am2 . . . amn
cm1 . . .
cmj
. . . cmp
Propiedades
Sean A Mmn (IK), B Mnp (IK) y C Mpq (IK) entonces, (AB)C = A(BC).
Sean A, B Mmn (IK) y C Mnp (IK) entonces, (A + B)C = AC + BC.
Sean A Mmn (IK) y B, C Mnp (IK) entonces, A(B + C) = AB + AC.
(Mn (IK), +, ) es anillo unitario. Para n = 1 conmutativo sin divisores de cero y para n > 1 no
conmutativo y con divisores de cero. La matriz

1 0 ... 0
0 1 ... 0

In = .. .. . . ..
. .
. .
0 0 ... 1
verifica AIn = In A = A, para toda A Mn (IK). In se dice matriz unidad o matriz identidad de
orden n.
Elementos inversibles
Definici
on 3. A Mn (IK) se dice inversible o regular si existe B Mn (IK) tal que AB = BA =
In . En este caso, la matriz B se dice inversa de A y se denota por A1 .
5


Matematicas II, MECANICA

Si A y B son dos matrices de Mn (IK) inversibles, entonces la matriz AB tambien es inversible


y (AB)1 = B 1 A1 .

PRODUCTO DE UNA MATRIZ POR UN ELEMENTO


Definici
on 4. Sean A = (aij ) Mmn (IK) y IK. A la matriz (aij ) Mmn (IK) la
llamaremos matriz producto de la matriz A por el elemento y se escribe A.
Propiedades
Distributiva respecto a la suma matricial.
IK, A, B Mmn (IK), (A + B) = A + B.
Distributiva respecto a la suma de elementos y a la suma de matrices.
, IK, A Mmn (IK), ( + )A = A + A.
Asociativa respecto al producto de elementos.
, IK, A Mmn (IK), (A) = ()A
Para toda A Mmn (IK) se verifica que 1A = A.
TRASPUESTA DE UNA MATRIZ
Definici
on 5. Sea A = (aij ) Mmn (IK). A la

a11 . . . ai1 . . .
a12 . . . ai2 . . .

a13 . . . ai3 . . .

..
..
.
.
a1n . . . ain . . .

matriz

am1
am2

am3
Mnm (IK)
..
.
amn

se le dice traspuesta de A y se representa por AT .


Propiedades
(AT )T = A.
A, B Mmn (IK), (A + B)T = AT + B T .
A Mmn (IK), B Mnp (IK), (AB)T = B T AT .
Sea A Mn (IK) inversible entonces, (A1 )T = (AT )1 .
Definici
on 6. Una matriz A se dice simetrica si cumple AT = A.
Definici
on 7. Una matriz A se dice antisimetrica si verifica AT = A.
Definici
on 8. Se dice que una matriz A Mn (IR) es ortogonal si AT A = AAT = In .

Determinantes
PERMUTACIONES
Permutaci
on de orden n es cada una de las aplicaciones biyectivas de los elementos del conjunto
An = {1, 2, . . . , n} en s mismo. Se observa que cualquier aplicacion de An en An que sea inyectiva
o suprayectiva es tambien biyectiva. Designaremos por Sn al conjunto de todas las permutaciones
de orden n. Una permutacion Sn se representa por el cuadro siguiente

1
2
3
...
n
(1) (2) (3) . . . (n)
aunque podemos referirnos y utilizar una permutacion sustituyendola por su correspondiente ordenacion (1)(2) . . . (n). El n
umero de permutaciones de orden n es n!.
Clase de una permutacion. Dada una permutacion diremos que los elementos (i), (j)
forman una inversion si (i) (j) tiene distinto signo que i j. Observando el cuadro con el
que representamos una permutacion se comprueba que los elementos de la primera fila aparecen
en orden creciente por lo que la diferencia i j entre uno de ellos i y cada j de los que tiene a su
derecha es siempre negativa, de este modo, el par (i), (j) formara una inversion si (i) (j)
es positivo. Entonces, para contar el n
umero total de inversiones que hay en una permutacion,
basta contar en la ordenacion correspondiente el n
umero de pares de elementos que no estan en
orden natural.
Se llama signatura de , y lo escribiremos (), al n
umero () = (1)I() , donde I() denota
el n
umero total de inversiones que forman los diferentes pares de elementos de . Se dice que la
permutacion es de clase par si () = 1 y de clase impar cuando esta sea 1. Para n 2, la
mitad de las permutaciones de orden n son de clase par y la otra mitad de clase impar.
DETERMINANTE DE UNA MATRIZ CUADRADA
Definici
on 9. Sea A Mn (IK), se dice determinante de A, y se denota por |A| al elemento de
IK dado por
X
(1)
|A| =
()a1(1) a2(2) . . . an(n) .
Sn

Los n! terminos de la suma (1) se dicen terminos del determinante, seg


un que la permutacion
sea par o impar el termino correspondiente se dice positivo o negativo, respectivamente. As,
para n 2, la mitad de los terminos son positivos y la otra mitad negativos.
Orden, elementos, filas, columnas, lneas de |A| son, respectivamente, el orden, los elementos,
las filas, las columnas y las lneas de A.
Desarrollo de los determinantes de orden n 3 Sea A Mn (IK).
Si n = 1, A = (a11 ) y S1 = {1}. La u
nica permutacion existente es par, y (1) queda |A| = a11 .

a11 a12
, las permutaciones de orden 2 son S2 = {12, 21} de las que P2 = {12}
Si n = 2, A =
a21 a22
es par e I2 = {21} impar. Entonces, de (1) se obtiene |A| = a11 a22 a12 a21 . Lo que se recuerda
facilmente con el siguiente esquema
7


Matematicas II, MECANICA

8
a11
@

a12

a11

a12

Termino negativo

a21 a22

a21 @a22

Termino positivo

a11 a12 a13


Si n = 3, A = a21 a22 a23 , las permutaciones de orden 3 son S3 = {123, 132, 213, 231,
a31 a32 a33
312, 321} de las que P3 = {123, 231, 312} son pares e I3 = {132, 213, 321} impares. Entonces, de
(1) se obtiene ahora
|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 ,
resultado que se recuerda con el siguiente esquema (Regla nemotecnica de Sarrus)
a11

a12 a13
@

@@
@
a
a22 @
a23
21
@ @

@ @
31@
a
a32 @a33

aH
11

Terminos positivos

a12

a13

A H
A
AHHA
H
A a
A Ha23
a
21
22
H
A
HA
H
A H
HAH
A
Aa33

a
a
31
32

Terminos negativos

Para n > 3, la expresion (1) no resulta comoda para calcular el determinante y tampoco hay
una regla facil de memorizar que nos permita obtenerlo, inconveniente que aumenta conforme lo
hace n. Para reducir el calculo de determinantes de orden superior a 3 al calculo de determinantes
de orden inferior, daremos algunas propiedades de los determinantes.
PROPIEDADES
Teorema 10. |A| = |AT |.
Como consecuencia del Teorema 10 resulta que cualquier propiedad que se enuncie para las
filas de un determinante es igualmente valida para columnas. As, por brevedad, en lo que sigue
se enunciaran u
nicamente las propiedades correspondientes a filas.
Teorema 11. Si se cambian entre s dos filas de un determinante, el determinante obtenido toma
el valor opuesto al dado.
Corolario 12. Un determinante con dos filas iguales es nulo.
Teorema 13. Si en un determinante multiplicamos todos los elementos de una fila por un mismo
elemento, el determinante queda multiplicado por ese elemento.
Corolario 14. Un determinante con dos filas proporcionales es nulo.
Teorema 15. Si los elementos de una fila son binomios, se puede descomponer el determinante en
suma de dos determinantes que tienen las restantes filas iguales y en lugar de aquella la formada
por los primeros, segundos terminos del binomio, respectivamente.
Corolario 16. Si los elementos de una fila son polinomios de r sumandos, se puede descomponer
el determinante en suma de r determinantes que tienen las restantes filas iguales y en lugar de
aquella la formada por los primeros, segundos, . . . , r-esimos sumandos, respectivamente.
Corolario 17. Un determinante no vara al sumar a los elementos de una fila los correspondientes
de otra multiplicados por un mismo elemento.

9
Corolario 18. Si una fila de un determinante es combinaci
on lineal de otras el determinante es
nulo.
MENOR COMPLEMENTARIO Y ADJUNTO DE UN ELEMENTO
Definici
on 19. Dado un determinante de orden n > 1, |A| = |aij |, si suprimimos en la matriz A
la fila que ocupa el lugar h y la columna que ocupa el lugar k, se obtiene una matriz de orden
n 1 a cuyo determinante, hk , llamamos menor complementario del elemento ahk en |A|.
Definici
on 20. Si en el desarrollo de un determinante sacamos factor com
un el elemento ahk en
todos los terminos en los que figura, aparece ese elemento multiplicado por un polinomio que se
llama adjunto de ahk y que se representa por Ahk .
Teorema 21. Ahk = (1)h+k hk .
DESARROLLO DE UN DETERMINANTE por los elementos de una lnea
Teorema 22. El desarrollo de un determinante es igual a la suma de los productos de los elementos
de una cualquiera de sus lneas por sus respectivos adjuntos.
Teorema 23. La suma de los productos de los elementos de una lnea cualquiera de un determinante por los adjuntos de los elementos correspondientes de otra paralela a ella es igual a cero.

10

Matematicas II, MECANICA

Rango de una matriz


PRIMERAS DEFINICIONES
Definici
on 24. Llamamos menor de orden h de una matriz A al determinante de la matriz
cuadrada de orden h formada por los elementos de A pertenecientes a h filas y h columnas
cualesquiera de la misma.
Definici
on 25. Rango o caracterstica de una matriz no nula es el orden maximo de sus menores
no nulos.
Puede asegurarse que el rango de una matriz es h si existe un menor de orden h no nulo y son
nulos todos los menores de orden h + 1 que pueden formarse.
Por convenio, el rango de la matriz nula es cero. El rango de una matriz A lo denotaremos
por rgA.
De las definiciones anteriores se deduce trivialmente que:
A Mmn (IK), rgA = 0 A = O.
A Mmn (IK), rgA = rgAT .
A Mn (IK), rgA = n | A |6= 0.
OPERACIONES ELEMENTALES
Son operaciones elementales por filas (columnas, respectivamente) en una matriz cada una de
las siguientes:
1. Multiplicar una fila (columna) por un elemento constante no nulo.
2. Cambiar entre s dos filas (columnas).
3. Sumar a una fila (columna) cualquier m
ultiplo de otra.
Teorema 26. El rango de una matriz no se altera al efectuar en ella cualquier operaci
on elemental.
Definici
on 27. Se dice que una matriz tiene forma escalonada por filas si se verifica:
La columna que contiene al primer elemento no nulo de cada fila no nula tiene nulos todos
los elementos siguientes a este.
El primer elemento no nulo de cada fila no nula esta a la derecha de los elementos iniciales
no nulos de las filas anteriores.
Las filas que solo tienen ceros aparecen despues de todas las filas con alg
un elemento no nulo.
Teorema 28. Toda matriz no nula puede transformarse en una matriz que tiene forma escalonada
por filas efectuando en ella operaciones elementales por filas.
11


Matematicas II, MECANICA

12

Sea A Mmn (IK). Para pasar a una matriz escalonada por filas basta seguir el siguiente
proceso: Sea j1 la primera columna de A no formada por todo ceros. Intercambiando filas, si
fuese necesario, podramos conseguir que el primer elemento de esa columna, a1 , sea no nulo. Los
restantes elementos de la columna j1 se hacen cero sin mas que sumar sucesivamente un m
ultiplo
apropiado de la primera fila a cada una de las restantes filas. Procedemos de igual forma con la
matriz resultante de prescindir en la anterior de su primera fila. Continuando con este proceso,
hasta agotar las filas u obtener una matriz nula, se obtiene una matriz que tiene forma escalonada
por filas.
Teorema 29. El rango de una matriz que tiene forma escalonada por filas es igual al n
umero de
filas no nulas que posee.

MATRICES ELEMENTALES
Asociaremos a continuacion una matriz a cada una de las operaciones elementales se
naladas
anteriormente.
Matriz elemental de primer genero y orden n. Sea i {1, . . . , n} y sea 0 6= IK. Denotamos por Pi () la matriz obtenida al efectuar en In la siguiente operacion elemental: multiplicar
la fila i por , es decir,

1 0 ... 0 ... 0
0 1 ... 0 ... 0
. .
..
. . . . . ..

.
.
. .
Pi () =
.
0 0 ... ... 0
. .
.. . . ..
.. ..
. .
.
0 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en In
hubiera sido multiplicar por la columna i.

f ila
In multiplicar la
i por Pi ().
columna
Esta matriz cumple las siguientes propiedades:
1. Es simetrica pues PiT () = Pi ().
2. Su determinante es no nulo ya que |Pi ()| = |In | = .
3. Si A Mnm (IK), la matriz Pi ()A tiene sus filas iguales a las de A salvo la iesima que ha
quedado multiplicada por .
4. Si A Mmn (IK), la matriz APi () tiene sus columnas iguales a las de A salvo la iesima
que ha quedado multiplicada por .
5. Si A Mn (IK),
|Pi ()A| = |A| = |Pi ()||A|,
|APi ()| = |A| = |A| = |A||P i()|.
6. Es inversible pues Pi ()Pi (1/) = Pi (1/)Pi () = In y as, su inversa es Pi ()1 = Pi (1/).

13
Matriz elemental de segundo genero y orden n. Sean i, j {1, . . . , n}, i 6= j. Denotamos por
Pij la matriz obtenida al efectuar en In la siguiente operacion elemental: cambiar entre s las filas
i y j, es decir,

1 0 ... 0 ... 0 ... 0


0 1 ... 0 ... 0 ... 0

..
..
.. .. . . ..
.
. .
.
.
.

0 0 ... 0 ... 1 ... 0


Pij =
.
.. . . ..
..
... ...
.
.
.
.

0 0 ... 1 ... 0 ... 0

. .

.
.
.
.
..
.. . . ..
.. ..
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en In
hubiera sido cambiar entre s las columnas i y j.

f ilas
In intercambiar las
i y j Pij .
columnas
Esta matriz cumple las siguientes propiedades:
1. Es simetrica, es decir, PijT = Pij .
2. Su determinante es no nulo, pues |Pij | = |In | = 1.
3. Si A Mnm (IK), la matriz Pij A tiene sus filas iguales a las de A salvo la iesima y la
jesima que han cambiado entre s.
4. Si A Mmn (IK), la matriz APij tiene sus columnas iguales a las de A salvo la iesima y
la jesima que han cambiado entre s.
5. Si A Mn (IK),
|Pij A| = 1|A| = |Pij ||A|,
|APij | = 1|A| = |A|(1) = |A||Pij |.
6. Es inversible pues Pij Pij = In y as, su inversa es ella misma, Pij1 = Pij .
Matriz elemental de tercer genero y orden n. Sean i, j {1, . . . , n}, i 6= j y sea IK. Denotamos por Pij () la matriz obtenida al efectuar en In la siguiente operacion elemental: sumar a
la fila i la j multiplicada por , es decir,

1 0 ... 0 ... 0 ... 0


0 1 ... 0 ... 0 ... 0

..
..
.. .. . . ..
. .
. .
.
.

0 0 ... 1 ... ... 0

.
Pij () = .. ..
.. . . ..
..
.
.
.
.

. .
0 0 ... 0 ... 1 ... 0

. .
..
.. . . ..
.. ..
. .
.
.
0 0 ... 0 ... 0 ... 1
Esta misma matriz se hubiera obtenido igualmente si la operacion elemental efectuada en In
hubiera sido sumar a la columna j la columna i multiplicada por .

f ila i
f ila j
In sumar a la
la
multiplicada por Pij ().
columna j
columna i
Esta matriz cumple las siguientes propiedades:


Matematicas II, MECANICA

14

1. Su traspuesta es otra matriz elemental del mismo genero, Pij ()T = Pji ().
2. Su determinante es no nulo, pues |Pij ()| = |In | = 1.
3. Si A Mnm (IK), la matriz Pij ()A tiene sus filas iguales a las de A salvo la iesima a la
que se le ha sumado la jesima multiplicada por .
4. Si A Mmn (IK), la matriz APij () tiene sus columnas iguales a las de A salvo la jesima
a la que se le ha sumado la iesima multiplicada por .
5. Si A Mn (IK),
|Pij ()A| = |A| = |Pij ()||A|,
|APij ()| = |A| = |A||Pij ()|.
6. Es inversible pues Pij ()Pij () = Pij ()Pij () = In , es decir, Pij ()1 = Pij ().
En resumen, las matrices elementales verifican las siguientes propiedades: La traspuesta es tambien
una matriz elemental y del mismo genero. Tienen determinante distinto de 0. Multiplicar a la
izquierda/derecha de una matriz A por una matriz elemental equivale a efectuar en A una operacion elemental por filas/columnas (la misma que haya sido necesario hacer en las filas/columnas de
la identidad para pasar a esa matriz elemental) y, por ello, no se altera el rango de A. El determinante del producto de una matriz cuadrada por una elemental es el producto de los determinantes.
Es inversible siendo su inversa otra matriz elemental del mismo genero.

MATRIZ CANONICA
de dimensiones m n y rango h
Definici
on 30. Se dice matriz can
onica de dimensiones m n y rango h a la matriz

Ih 0
0 0

Mmn (IK).

Se observa que si h = m = n la matriz anterior es In .


Teorema 31. De toda matriz no nula se puede pasar, efectuando operaciones elementales, a la
matriz can
onica de las mismas dimensiones y el mismo rango.
La matriz canonica resulta de efectuar un producto de la forma Pr . . . P2 P1 AQ1 Q2 . . . Qs donde Pi
son matrices elementales de orden m y Qi son matrices elementales de orden n. De aqu resulta
que,

Ih 0
1
1
1
A = P1 . . . Pr
Q1
s . . . Q1 .
0 0
En el caso particular en el que A es cuadrada de orden n y rango n, se obtendra que
1
A = P11 . . . Pr1 In Q1
s . . . Q1 ,

por lo que A es producto de matrices elementales, es decir:


Teorema 32. Toda matriz cuadrada, con determinante distinto de 0 puede ponerse como producto
de matrices elementales.

15
Ademas, teniendo en cuenta que Q1 . . . Qs Pr . . . P1 A = In , se observa que en este caso, se
puede pasar de A a su canonica efectuando u
nicamente operaciones elementales por filas. En la
practica, el metodo mas sencillo y breve para pasar de A a In es el siguiente: En primer lugar,
operando con filas, presentaremos ceros en todos los elementos de cada columna que estan por
debajo de la diagonal principal, comenzando por la primera columna. Luego (operando siempre
con filas) presentaremos ceros por encima de la diagonal principal comenzando por la u
ltima
columna. Finalmente en la matriz diagonal obtenida, multiplicando cada fila por un elemento
adecuado, haremos 1 los elementos diagonales.
Rango y Determinante del producto
Teorema 33. Sean A Mmn (IK), B Mnp (IK). Entonces, rg(AB) rgA y rg(AB) rgB.
Teorema 34. Sean A, B Mn (IK). Entonces, |AB| = |A||B| .
MATRICES INVERSIBLES
Teorema 35. La condici
on necesaria y suficiente para que una matriz cuadrada sea inversible es
que su determinante sea distinto de cero.
Ademas, si A es inversible, |A1 | = |A|1 .
Sabemos ya que si A es inversible, existen matrices elementales P1 , . . . , Ps , tales que Ps . . . P1 A = In
por lo que la matriz Ps . . . P1 In es la inversa de A. Es decir, la sucesion de operaciones elementales
por filas que transforman la matriz A en la matriz In es la misma sucesion que transforma la matriz
In en A1 . Este es el fundamento para el calculo de la inversa por el metodo de GaussJordan.
Teorema 36. Elementos de la matriz inversa. Si A = (aij ) Mn (IK) es una matriz inversible,
A1 = (Aji /|A|).
MATRICES ORTOGONALES
Proposici
on 37. Una condici
on necesaria para una matriz A sea ortogonal es que |A| = 1.
Como consecuencia de la Definicion 8 y del Teorema 35 se verifica trivialmente que
A es ortogonal A Mn (IR), AT A = AAT = In
(2)

A Mn (IR), AT A = In
m

(3)

A Mn (IR), AAT = In .

Por otra parte, la condicion


(2) equivale a

i, j = 1, . . . , n, aij IR,

i, j = 1, . . . , n, i 6= j,
aki akj = 0,
(4)
k=1

i = 1, . . . , n,

a2ki = 1.

k=1


Matematicas II, MECANICA

16

mientras que la condicion (3) equivale a

i, j = 1, . . . , n, aij IR,

i, j = 1, . . . , n, i 6= j,
aik ajk = 0,
(5)
k=1

a2ik = 1.

i = 1, . . . , n,
k=1

Siendo (2) y (3) condiciones equivalentes, tambien lo son las condiciones (4) y (5).

Sistemas de ecuaciones lineales


PRIMERAS DEFINICIONES
Definici
on 38. Se llama ecuaci
on lineal en IK a toda ecuacion del tipo
(6)

a1 x1 + a2 x2 + . . . + an xn = b,

en la que a1 , a2 , . . . , an , b son elementos determinados de IK y x1 , . . . , xn , son variables (incognitas


o indeterminadas). Los elementos a1 , a2 , . . . , an reciben el nombre de coeficientes de las incognitas
y b el de termino independiente de las mismas. La ecuacion (6) se dice homogenea si b = 0.
Definici
on 39. Si al reemplazar en la igualdad formal (6) las variables x1 , x2 , . . . , xn , respectivamente, por los elementos de IK, c1 , c2 , . . . , cn , resulta cierta la igualdad, esto es, a1 c1 + a2 c2 +
. . . + an cn = b, diremos que (c1 , c2 , . . . , cn ) es soluci
on de (6).
Definici
on 40. Sistema de ecuaciones lineales es todo conjunto no vaco de ecuaciones lineales.
Soluci
on de un sistema de ecuaciones lineales es toda solucion com
un a todas las ecuaciones que
lo forman. Un sistema de ecuaciones se dice homogeneo si los terminos independientes de todas
las ecuaciones que lo forman son nulos.
Designaremos por S al conjunto formado por todas las soluciones del sistema E. Entonces,
el sistema E se dice incompatible si carece de solucion, es decir, si S = . Cuando S 6= el
sistema se dice compatible y, en este caso, seg
un que el cardinal de S sea 1 o mayor que 1, se dira
determinado o indeterminado.
Definici
on 41. Estudiar un sistema es resolverlo, es decir, hallar todas sus soluciones.
MATRICIAL ASOCIADA
ECUACION
Dado un sistema E, formado por m ecuaciones lineales con n incognitas

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


(7)
,
.......................................................................

am1 x1 + am2 x2 + . . . + amn xn = bm


le asociamos la ecuacion matricial

a11 a12 . . . a1n


a21 a22 . . . a2n

(8)
..
..
..
.
.
.
am1 am2 . . . amn

x1
x2
..
.
xn

b1
b2
..
.

bm

en la que X es una matriz indeterminada, es decir, sus elementos son variables. Entonces,
(c1 , c2 , . . . , cn ) es solucion de (7) si y solo si la matriz C = (ci ) Mn1 (IK) es solucion de (8). En
consecuencia, estudiar el sistema E es equivalente a estudiar la ecuacion matricial asociada.
17


Matematicas II, MECANICA

18

La matriz A = (aij ) Mmn (IK), se dice matriz de coeficientes y B = (bi ) Mm1 (IK) matriz
de terminos independientes. La matriz de coeficientes y la matriz IB Mmn+1 (IK), que resulta
de ampliar la anterior con la columna que forman los terminos independientes de las incognitas,

a11 a12 . . . a1n b1


a21 a22 . . . a2n b2

IB = (A|B) = ..
..
..
..
.
.
.
.
am1 am2 . . . amn bm
reciben el nombre de matrices asociadas a E.
SISTEMAS EQUIVALENTES
Definici
on 42. Se dice que el sistema de ecuaciones E2 es equivalente al E1 si E2 tiene las mismas
soluciones que E1 .
Se consideran operaciones elementales con las ecuaciones de un sistema las siguientes:
1- Multiplicar por un elemento no nulo los dos miembros de una ecuacion,
2- Intercambiar dos ecuaciones,
3- Sumar miembro a miembro a una ecuacion otra previamente multiplicada por un elemento.
Se observa que efectuar operaciones elementales con las ecuaciones de E es equivalente a realizar
la correspondiente operacion elemental en las filas de las matrices A y B, es decir, en IB.
Teorema 43. Al efectuar operaciones elementales con las ecuaciones de un sistema se obtiene
otro equivalente al dado.
Teorema 44. Si en un sistema hay una ecuaci
on que es combinaci
on lineal de otras al suprimirla
obtenemos un sistema equivalente.
`

TEOREMA DE ROUCHEFR
OBENIUS
Teorema 45. La condici
on necesaria y suficiente para que un sistema de ecuaciones lineales
sea compatible es que sus matrices asociadas tengan igual rango y, en este caso, seg
un que el
rango com
un de las matrices sea igual o menor que el n
umero de incognitas sera determinado o
indeterminado, respectivamente.
En resumen, este teorema clasifica los sistemas, seg
un los rangos de sus matrices asociadas:

rgA 6= rgIB,
S. Incompatible

S. Compatible Indeterminado
h<n

rgA = rgIB =

h=n
S. Compatible Determinado
donde n es el n
umero de incognitas del sistema. En el caso de sistema compatible indeterminado,
se obtiene la solucion de h variables, llamadas principales, en funcion de las n h restantes que
hacen el papel de parametros.
Sistemas homogeneos. En el caso particular en el que el sistema sea homogeneo, es decir con
B = 0, siempre es rgA = rgIB y por tanto compatible. La solucion trivial es (0, 0, . . . 0), pudiendo
tener otras o no seg
un sea indeterminado o determinado.
REGLA DE CRAMER
Teorema 46. Un sistema formado por tantas ecuaciones lineales como incognitas tenga, en el caso
de ser no nulo el determinante de la matriz de coeficientes, es compatible determinado. El valor
de la incognita iesima se obtiene dividiendo por ese determinante el que se obtiene al sustituir
en el la columna i-esima por la que forman los terminos independientes de las incognitas.
Para la Factorizaci
on LU ver la Practica 2 y para M
etodos iterativos la Practica 3.

Espacios vectoriales

DEFINICION.
PRIMERAS PROPIEDADES
Definici
on 47. Se dice que un conjunto E, a cuyos elementos llamaremos vectores, es un espacio
vectorial sobre el cuerpo (IK, +, ), cuyos elementos llamaremos escalares, si sobre E estan definidas
dos operaciones tales que
I) Una de ellas es una LCI sobre E, llamada suma de vectores y denotada por el signo +, de
modo que (E, +) es un grupo abeliano, es decir, que verifica las propiedades:
I-a) Asociativa, a, b, c E, a + (b + c) = (a + b) + c.
I-b) Conmutativa, a, b E, a + b = b + a.
I-c) Existe elemento neutro, 0 E, a E, a + 0 = 0 + a = a. El elemento neutro recibe
el nombre de vector nulo.
I-d) Todo vector tiene opuesto, para cada a E, b E, a + b = b + a = 0. El elemento b
se dice opuesto de a y se denota por a.
II) La otra operacion es una LCE sobre E con el dominio de operadores IK, llamada producto
de un vector por un escalar y denotada por el signo , que verifica las siguientes propiedades:
II-a) Asociativa respecto del producto de escalares,
a E, , IK, () a = ( a).
II-b) Distributiva respecto de la suma de vectores,
a, b E, IK, (a + b) = a + b.
II-c) Distributiva respecto de la suma de escalares y la suma de vectores,
a E, , IK, ( + ) a = a + a.
II-d) Para todo a E, 1 a = a.
La estructura algebraica de espacio vectorial (en adelante E .V .) se representa por (E, +, IK ).
Primeras propiedades. Dado un E .V . (E, +, IK ), se verifica:
1 a E, 0 a = 0.
2 IK, 0 = 0.
3 IK, a E, ( a) = () a = (a).
4 a E, a = (1) a.
5 IK, a, b E, a b = (a b).
6 , IK, a E, a a = ( ) a.
7 IK, a E tales que a = 0, entonces = 0 o a = 0.
8 0 6= IK, a, b E tales que a = b, entonces a = b.
9 , IK, 0 6= a E tales que a = a, entonces = .

19


Matematicas II, MECANICA

20

SISTEMAS DE VECTORES. COMBINACIONES LINEALES


Definici
on 48. Sistema de vectores de un E .V . E es todo subconjunto no vaco de E.
Si A es un sistema de vectores de E, todo subconjunto 6= B A se dice subsistema de A y
todo conjunto C E tal que A C, decimos que es una ampliacion de A.
Llamaremos orden de un sistema finito al n
umero de vectores que lo forman y, cuando este no
sea finito, diremos que es de orden infinito.
Definici
on 49. Se dice que un vector a es combinacion lineal de los vectores del sistema A =
{a1 , a2 , . . . , an } si existen unos escalares 1 , 2 , . . . , n IK tales que
a = 1 a1 + 2 a2 + . . . + n an .
Los escalares 1 , 2 , . . . , n reciben el nombre de coeficientes de la combinacion.
Proposici
on 50. Si un vector es combinaci
on lineal de los vectores de un sistema A, tambien es
combinaci
on lineal de los vectores de cualquier ampliacion de A.
Proposici
on 51. Si un vector a es combinaci
on lineal de los vectores de un sistema A y, a su vez,
cada vector de A es combinaci
on lineal de los vectores un sistema B entonces, a es combinaci
on
lineal de los vectores de B.
VECTORES LINEALMENTE DEPENDIENTES
Definici
on 52. Se dice que el sistema A = {a1 , a2 , . . . , an } es ligado o que sus vectores son
linealmente dependientes si existen unos escalares no todos nulos 1 , 2 , . . . , n , tales que
1 a1 + 2 a2 + . . . + n an = 0.
Es decir, si se puede formar una combinacion lineal nula con los vectores de A sin ser nulos todos
los coeficientes.
Proposici
on 53. Todo sistema que contiene al vector nulo es ligado.
Proposici
on 54. Toda ampliacion de un sistema ligado es tambien un sistema ligado.
Proposici
on 55. La condici
on necesaria y suficiente para que un sistema de orden mayor que
uno sea ligado es que, al menos, uno de sus vectores sea combinaci
on lineal de los demas.
Proposici
on 56. La condici
on necesaria y suficiente para que un sistema de orden 1 sea ligado
es que el u
nico vector que lo forma sea el nulo.
VECTORES LINEALMENTE INDEPENDIENTES
Definici
on 57. Se dice que el sistema A = {a1 , a2 , . . . , an } es libre o que sus vectores son linealmente independientes si A no es ligado o, equivalentemente, si los vectores de A no son linealmente
dependientes. Es decir, la u
nica combinacion lineal nula que puede formarse con los vectores de
este sistema es la que tiene nulos todos sus coeficientes.
Proposici
on 58. Si a 6= 0, A = {a} es libre.
Proposici
on 59. Todo vector perteneciente a un sistema libre es no nulo.
Proposici
on 60. Todo subsistema de uno libre es tambien libre.

21
Proposici
on 61. Si al ampliar un sistema libre con un nuevo vector se obtiene un sistema ligado,
el vector a
nadido es combinaci
on lineal de los restantes.
ESPACIOS VECTORIALES DE TIPO FINITO
Sistemas generadores
Definici
on 62. Se dice que un E .V . es de tipo finito si existe en el un sistema finito de vectores
tal que cada vector del espacio es una combinacion lineal de los vectores de ese sistema. Todo
sistema que verifique esta condicion se dice sistema generador del E .V .
De esta definicion se sigue que, decir que A es un sistema generador de E, equivale a decir que
E es el conjunto formado por todas las combinaciones lineales de los vectores de A.
Proposici
on 63. Toda ampliacion con vectores de E de un sistema generador del espacio vectorial
E es tambien un sistema generador de E.
Proposici
on 64. Si en un sistema generador hay un vector que es combinaci
on lineal de los
dem
as, al suprimirlo se obtiene otro sistema generador.
Proposici
on 65. Si en un sistema generador sustituimos uno de sus vectores por una combinaci
on
lineal de todos los del sistema tal que el coeficiente que acompa
na al vector sustituido sea no nulo,
entonces se obtiene otro sistema generador.
Proposici
on 66. El orden de un sistema libre no supera al de un sistema generador.
Base de un espacio vectorial
Definici
on 67. Base de un espacio vectorial es, si existe, un sistema de vectores de ese espacio
que sea generador, libre y este ordenado.
En lo que sigue, cuando supongamos que un sistema de vectores A = {a1 , . . . , an } esta ordenado
lo denotaremos por A = (a1 , . . . , an ).
Si un espacio vectorial se reduce al vector nulo, E = {0}, el u
nico sistema posible es ligado
por lo que no existe base.
Teorema 68. De un sistema generador de un E .V . de tipo finito no nulo siempre se puede extraer
una base.
Al limitar nuestro estudio a un E .V . de tipo finito si E 6= {0}, siempre existe un sistema
generador finito y, por la proposicion anterior, de el podemos extraer una base por lo que siempre
existe una base.
Teorema 69. Todas las bases de un mismo E .V . E 6= {0} tienen el mismo orden.
Definici
on 70. Dimensi
on de un espacio vectorial de tipo finito, no nulo, es el orden de una
cualquiera de sus bases. Se conviene en decir que un E .V . nulo tiene dimension 0.
En lo que sigue, escribiremos En para indicar que el E .V . E tiene dimension n.
Rango de un sistema de vectores
Definici
on 71. Rango de un sistema de vectores que no se reduce u
nicamente al vector nulo es
el orden maximo de sus subsistemas libres. Se conviene en que el sistema {0} tenga rango 0.


Matematicas II, MECANICA

22

De esta definicion resulta obvio que para {0} 6= A = {a1 , a2 , . . . , an } es 1 rgA n as como
que rgA = 0 si y solo si A = {0}.
Proposici
on 72. La dimension de un E .V . coincide con su rango.
Corolario 73. En un E .V . de dimension n 6= 0, todo sistema libre de orden n, ordenado, es una
base.
Corolario 74. En un E .V . de dimension n 6= 0, todo sistema generador de orden n, ordenado,
es una base.
Teorema 75. Teorema de la base incompleta. En un espacio vectorial de dimension n 6= 0, todo
sistema libre de orden inferior a n es parte de una base.
Coordenadas Sea En un espacio vectorial y sea BE = (u1 , . . . , un ) una base de E. Por ser BE
sistema generador de E, cada vector x E se puede poner como combinacion lineal de los vectores
de BE , es decir, existen x1 , . . . , xn IK tales que
x = x 1 u1 + . . . + x n u n .
Si tambien fuera x = y1 u1 + . . . + yn un , para algunos y1 , . . . , yn IK, se verificara que
x = x 1 u1 + . . . + x n u n = y 1 u1 + . . . + y n un
de donde
(x1 y1 )u1 + . . . + (xn yn )un = 0
y, por ser BE libre, necesariamente xi = yi , i = 1, . . . , n. De lo anterior resulta que cada vector
de E se puede poner de forma u
nica como combinacion lineal de los vectores de la base BE . Los
coeficientes (x1 , . . . , xn ) de esta u
nica combinacion se dicen coordenadas de x en BE .
Si a cada vector de E le asociamos la ntupla formada por sus coordenadas respecto de BE
queda definida una aplicacion : E IK n , x 7 (x1 , . . . , xn ) que es biyectiva. As, para
referirnos a un vector de E podemos referirnos a sus correspondientes coordenadas respecto de la
base fijada en E.
Cambio de base Sea En un espacio vectorial y sean BE = (u1 , . . . , un ) y BE = (u1 , . . . , un ) dos
bases de E, siendo

u1 = 11 u1 + 21 u2 + . . . + n1 un

u2 = 12 u1 + 22 u2 + . . . + n2 un
.
(9)
.....................................................

un = 1n u1 + 2n u2 + . . . + nn un
Si x E tiene por coordenadas (x1 , . . . , xn ) en BE y (x1 , . . . , xn ) respecto de BE se verificara
x = x1 u1 + . . . + xn un = x1 u1 + . . . + xn un =
y por (9)
= x1 (11 u1 + 21 u2 + . . . + n1 un ) + x2 (12 u1 + 22 u2 + . . . + n2 un ) + . . . + xn (1n u1 + 2n u2 +
. . . + nn un ) = (11 x1 + 12 x2 + . . . + 1n xn )u1 + (21 x1 + 22 x2 + . . . + 2n xn )u2 + . . . + (n1 x1 +
n2 x2 + . . . + nn xn )un .
De donde, por la unicidad de coordenadas respecto de una base, queda

x1 = 11 x1 + 12 x2 + . . . + 1n xn

x2 = 21 x1 + 22 x2 + . . . + 2n xn
(10)
.....................................................

xn = n1 x1 + n2 x2 + . . . + nn xn

23
que en forma matricial puede escribirse


x1
11 12
x2 21 22


(11)
.. = ..
..
. .
.
n1 n2
xn

. . . 1n
. . . 2n
.
. . . ..

. . . nn

x1
x2
..
.

xn

y denotando por X = (xi ) Mn1 (IK), X = (xi ) Mn1 (IK) y A = (ij ) Mn (IK) queda
X = AX .
Se observa que la columna iesima de la matriz de cambio de base A esta formada por las coordenadas respecto de BE del iesimo vector de BE . Analogamente se puede obtener X = BX, donde
la matriz B tiene la columna iesima formada por las coordenadas respecto de BE del iesimo
vector de BE .

X = AX = A(BX) = (AB)X
In X = (AB)X
Seg
un hemos visto
de donde se obtiene

X = BX = B(AX ) = (BA)X
In X = (BA)X

X
AB = In
. Es decir, B = A1 .
Mn1 (IK), lo que implica que
para todo
BA = In
X
Subespacios vectoriales Sea (E, +, IK ) un espacio vectorial.
Definici
on 76. Se dice que un subconjunto no vaco de E, S es un subespacio vectorial si es
estable respecto de las operaciones de E y con las restricciones de esas operaciones es tambien un
espacio vectorial.
Aunque por definicion, se exige que se verifiquen las propiedades:
[i] 6= S E,
[ii] a1 , a2 S, a1 + a2 S,
[iii] IK, a S, a S,
[iv] (S, +, IK ) es un E .V .
la cuarta es consecuencia de las tres anteriores y as, la condici
on necesaria y suficiente para que
un conjunto 6= S E, sea subespacio vectorial es que verifique las condiciones

1. a1 , a2 S, a1 + a2 S,

(12)
2. IK, a S, a S,
equivalentes a la condicion
(13)

1 , 2 IK, a1 , a2 S, 1 a1 + 2 a2 S.

Por lo anterior, la condici


on necesaria y suficiente para que un conjunto 6= S E, sea subespacio
vectorial es que toda combinaci
on lineal de vectores de S pertenezca a S.
Lo que hemos visto hasta ahora de subespacios es independiente de si E es de tipo finito o
no. Si ademas E es de tipo finito, el subespacio S tambien y dim S dim E, dandose la igualdad
u
nicamente si E y S coinciden.
Clausura lineal de un sistema Sea E un E .V . y sea A un sistema de vectores de E.
Definici
on 77. Llamamos clausura lineal de A al conjunto formado por todas las combinaciones
lineales de vectores de A. Lo designaremos por K[A] o L [A].
Proposici
on 78. L [A] es un subespacio vectorial de E y A es un sistema generador de L [A].


Matematicas II, MECANICA

24
Teorema 79. dim L [A] = rgA.

Suma e intersecci
on de subespacios Sean S1 , S2 subespacios vectoriales de E.
Definici
on 80. Llamaremos suma de S1 y S2 al conjunto de todas las posibles sumas de un vector
de S1 con uno de S2 , denotandose por S1 + S2 , es decir,
S1 + S2 = {v = a + b | a S1 , b S2 }.
Definici
on 81. Llamaremos intersecci
on de los subespacios S1 y S2 a la interseccion de estos dos
conjuntos, denotandose tambien por S1 S2 , es decir,
S1 S2 = {v E | v S1 , v S2 }.
Proposici
on 82. S1 + S2 y S1 S2 son subespacios vectoriales de E.
Teorema 83. dim(S1 + S2 ) = dim S1 + dim S2 dim(S1 S2 ).
La union de un sistema generador de S1 con uno de S2 nos proporciona un sistema generador
de S1 + S2 . Si S1 S2 = {0} la suma de S1 y S2 se dice suma directa y se denota por S1 S2 . En
este caso, obviamente, dim(S1 S2 ) = dim S1 + dim S2 y la union de una base de S1 con una base
de S2 es base de S1 S2 .
Rango de una matriz por filas y columnas Sea A = (aij ) Mmn (IK).
Sea En un E .V . sobre IK y sea BE = (u1 , u2 , . . . , un ) una base cualquiera de E. Consideramos
el sistema de vectores de E, Af = {af1 , . . . , afm } en el que
af1 = a11 u1 + a12 u2 + . . . + a1n un ,
af2 = a21 u1 + a22 u2 + . . . + a2n un ,
...................................................
afm = am1 u1 + am2 u2 + . . . + amn un .
Entonces, se define el rango por filas de A, se denota por rgf A, como el rango del sistema Af .
Sea F un E .V . sobre IK de dimension m y sea BF = (v1 , v2 , . . . , vm ) una base de F. Consideramos los vectores de F
ac1 = a11 v1 + a21 v2 + . . . + am1 vm ,
ac2 = a12 v1 + a22 v2 + . . . + am2 vm ,
...................................................
acn = a1n v1 + a2n v2 + . . . + amn vm .
Entonces, se define el rango por columnas de A, se denota por rgc A, como el rango del sistema de
vectores Ac = {ac1 , . . . , acn }.
Proposici
on 84. rgf A = rgA = rgc A.
Observaci
on Sea BE = (u1 , . . . , un ) una base de En , espacio vectorial sobre IK, y sea P
Mn (IK) una matriz regular. Entonces, existe un base de E, BE , tal que la ecuacion del cambio de
base es X = P X .
En efecto pues, recordando que en tal caso la columna iesima de P estara formada por las
coordenadas respecto de BE del iesimo vector de BE , si consideramos los vectores de E

u1 = p11 u1 + p21 u2 + . . . + pn1 un

u2 = p12 u1 + p22 u2 + . . . + pn2 un


(14)
.....................................................

un = p1n u1 + p2n u2 + . . . + pnn un


y el sistema BE = (u1 , . . . , un ), de la definicion de rango por columnas, resulta que
rgBE = rgc P = rgP = n
con lo que BE es libre y, por ello, una base de E.

Aplicaciones lineales

DEFINICION.
PRIMERAS PROPIEDADES
Sean E y F dos espacios vectoriales sobre el mismo cuerpo IK.
Definici
on 85. Aplicaci
on lineal de E en F es toda aplicacion f : E F que verifique las
propiedades:
a, b E, f (a + b) = f (a) + f (b) ,
IK, a E, f (a) = f (a) .
Teorema 86. Caracterizaci
on de una aplicaci
on lineal. La condici
on necesaria y suficiente para
que una aplicaci
on f : E F sea lineal es que verifique la siguiente propiedad
, IK, a1 , a2 E, f (a1 + a2 ) = f (a1 ) + f (a2 ) .
Denotaremos por LIK (E, F ) el conjunto de todas las aplicaciones lineales de E en F y por
LIK (E) el de las aplicaciones lineales de E en E.
Primeras propiedades Sea f LIK (E, F ), entonces se verifica:
1. f (0E ) = 0F .
2. a E, f (a) = f (a).
3. a1 , a2 E, f (a1 a2 ) = f (a1 ) f (a2 ).
4. 1 , 2 IK, a1 , a2 , E, f (1 a1 2 a2 ) = 1 f (a1 ) 2 f (a2 )
5. Si el sistema {a1 , a2 , . . . , ap } E es ligado tambien lo es {f (a1 ), f (a2 ), . . . , f (ap )} F .
6. Si {f (a1 ), f (a2 ), . . . , f (ap )} F es libre tambien lo es el sistema {a1 , a2 , . . . , ap } E.
LINEAL
IMAGEN DE UN SUBESPACIO. RANGO DE UNA APLICACION
Sea f LIK (E, F ) y sea S es un subespacio vectorial de E. Denotamos por f (S) el conjunto
formado por todos los vectores de F que son imagen por f de alg
un vector de S.
Teorema 87. f (S) es un subespacio vectorial de F .
Teorema 88. Si A = {a1 , a2 , . . . , an } es un sistema generador de S entonces, el sistema f (A) =
{f (a1 ), f (a2 ), . . . , f (an )} es un sistema generador de f (S).
Observemos que, en particular, para todo sistema A de vectores de E se verifica f (L (A)) =
L (f (A)).
Imagen de una aplicaci
on lineal. El Teorema 87 en el caso particular S = E dice que f (E) es
un subespacio vectorial de F . Este subespacio recibe el nombre de imagen de la aplicacion lineal
y se denota por Imf . A su dimension la llamamos rango de f y, evidentemente, se cumple que
rgf = dim Imf dim F .
25


Matematicas II, MECANICA

26

LINEAL
IMAGEN RECIPROCA. NUCLEO
DE UNA APLICACION
Sea f LIK (E, F ) y sea T es un subespacio vectorial de F . Denotamos por f 1 (T ) el conjunto
formado por todos los vectores de E que son origen por f de alg
un vector de T , es decir, a la
imagen recproca de T por f .
Teorema 89. f 1 (T ) es un subespacio vectorial de E.
N
ucleo de una aplicaci
on lineal. La aplicacion del Teorema 89 al caso particular T = {0} dice
que f 1 ({0}) es un subespacio vectorial de E. Este subespacio, formado por todos los vectores
de E cuya imagen por f es el vector nulo de F , recibe el nombre de n
ucleo de la aplicacion lineal
y se denota por Kerf . A su dimension la llamamos nulidad de f y, evidentemente, N ulf =
dim Kerf dim E.
Teorema 90. Una condici
on necesaria y suficiente para que la aplicaci
on lineal f sea inyectiva
es que Kerf = {0}.
Originales de un elemento. Dado b F , denotamos por f 1 ({b}) el conjunto formado por sus
originales. Obviamente, si b Imf
/
se tendra que f 1 ({b}) = . Supongamos pues que b Imf y
as, existe a E tal que f (a) = b, entonces, f 1 (b) = {a + c | c Kerf }.
LINEAL
ECUACIONES DE UNA APLICACION
Sea f LIK (En , Fm ) y sean BE = (u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm ) bases de E y F ,
respectivamente. Supongamos ademas que

f (u1 ) = 11 v1 + 21 v2 + . . . + m1 vm

f (u2 ) = 12 v1 + 22 v2 + . . . + m2 vm
(15)
...........................................................

f (un ) = 1n v1 + 2n v2 + . . . + mn vm
Sea x = x1 u1 + x2 u2 + . . . + xn un E y sea y = f (x) = y1 v1 + y2 v2 + . . . + ym vm F. Entonces,
y = f (x) = f (x1 u1 + x2 u2 + . . . + xn un ) = x1 f (u1 ) + x2 f (u2 ) + . . . + xn f (un )
y teniendo en cuenta las igualdades (15)
y = x1 (11 v1 + . . . + m1 vm ) + x2 (12 v1 + . . . + m2 vm ) + . . . + xn (1n v1 + . . . + mn vm )
lo que, sin mas que operar, puede escribirse como
y = (11 x1 + . . . + 1n xn )v1 + (21 x1 + . . . + 2n xn )v2 + . . . + (m1 x1 + . . . + mn xn )vm .
Finalmente, recordando la unicidad de coordenadas de un vector respecto de una determinada
base, resulta

y1 = 11 x1 + 12 x2 + . . . + 1n xn

y2 = 21 x1 + 22 x2 + . . . + 2n xn
(16)
.....................................................

ym = m1 x1 + m2 x2 + . . . + mn xn
que son las llamadas ecuaciones coordenadas de la
BF . En forma matricial, (16) puede escribirse

11 12
y1
y2 21 22

(17)
.. = ..
..
. .
.
m1 m2
ym

aplicaci
on lineal f respecto de las bases BE y
. . . 1n
. . . 2n
..
...
.
. . . mn

x1
x2
..
.
xn

27
y denotando por Y = (yi ) Mm1 (IK), X = (xi ) Mn1 (IK), A = (ij ) Mmn (IK), escribiremos
Y = AX
que es la llamada expresi
on coordenada def respecto de las bases BE y BF . La matriz A recibe
el nombre de matriz coordenada de f respecto de las bases BE y BF . Se observa que la matriz
coordenada tiene dimensiones m n = dim F dim E y, recordando las igualdades (15), que la
columna iesima de A esta formada por las coordenadas en BF de la imagen por f del iesimo
vector de BE .
Si se suponen fijas las bases BE y BF , puede probarse que la correspondencia que a cada
elemento de LIK (En , Fm ) le asocia en Mmn (IK) su matriz coordenada respecto de BE y BF es
una aplicacion biyectiva.
SUMA DE APLICACIONES LINEALES
Sean f, g LIK (E, F ) y sea h la correspondencia de E en F dada por a E, h(a) =
f (a) + g(a) es, evidentemente una aplicacion y puede probarse facilmente que es lineal. Esta
aplicacion se dice suma de f y g y se denota por f + g, es decir,
a E, (f + g)(a) = f (a) + g(a).
As, resulta que la suma de aplicaciones lineales es una LCI sobre LIK (E, F ) y puede probarse
que (LIK (E, F ), +) es un grupo abeliano. Si A1 , A2 son las matrices coordenadas de f, g, respectivamente, respecto de las bases BE y BF . Entonces, la matriz coordenada de f + g, respecto de
BE y BF , es A1 + A2 .
LINEAL POR UN ELEMENTO
PRODUCTO DE UNA APLICACION
Sean IK, f LIK (E, F ) y sea h la correspondencia de E en F dada por a E, h(a) =
f (a) es, evidentemente una aplicacion y puede probarse facilmente que es lineal. Esta aplicacion
se dice producto de f por el elemento y se denota por f, es decir,
a E, (f )(a) = f (a).
As, el producto de una aplicacion lineal por un elemento es una LCE sobre LIK (E, F ) con dominio
de operadores IK y puede probarse que (LIK (E, F ), +, IK ) es un espacio vectorial de dimension
m n. Si A es la matriz coordenada de f , respecto de las bases BE y BF . Entonces, la matriz
coordenada de f, respecto de BE y BF , es A.
COMPUESTA O PRODUCTO
APLICACION
Sean En , Fm y Gp tres espacios vectoriales sobre IK y sean f LIK (En , Fm ), g LIK (Fm , Gp ).
Para cada x En , f (x) = y F por lo que z = g(y) = g(f (x)) esta bien definido. Consideramos
la correspondencia h de E en G dada por a E, h(a) = g(f (a)) que es, evidentemente, una
aplicacion y puede probarse facilmente que es lineal. Esta aplicacion se dice composici
on o producto
de f y g y se denota por g f, es decir,
a E, (g f )(a) = g(f (a)).
En el caso particular E = F = G, el producto de aplicaciones lineales es una LCI sobre LIK (E)
y puede probarse que (LIK (E, F ), +, ) es un anillo unitario. Si A Mmn (IK), B Mpm (IK)
son las matrices coordenadas de f y g, respecto de las bases BE , BF y BF , BG , respectivamente,
la matriz coordenada de g f, respecto de BE y BG , es BA.


Matematicas II, MECANICA

28

CAMBIO DE BASES Seg


un hemos dicho, cada aplicacion lineal tiene una u
nica matriz coordenada respecto de dos bases dadas pero al cambiar las bases de los espacios vectoriales la matriz
puede variar. En esta seccion se vera la relacion existente entre las distintas matrices coordenadas
de la misma aplicacion lineal.
Sea f LIK (En , Fm ) la aplicacion lineal cuya matriz coordenada respecto de las bases BE =
(u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm ) es A = (aij ) Mmn (IK). Como ya sabemos, esto significa
que para x = x1 u1 + x2 u2 + . . . + xn un E, y = f (x) = y1 v1 + y2 v2 + . . . + ym vm F, se verifica
Y = AX.
Supongamos ahora que se toman dos nuevas bases de los espacios vectoriales En y Fm , BE =

(u1 , u2 , . . . , un ) y BF = (v1 , v2 , . . . , vm
), respectivamente. En este caso, siendo x, y de la forma

vm y escribiendo Y = (yi ) Mm1 (IK)
x = x1 u1 + x2 u2 + . . . + xn un y = y1 v1 + y2 v2 + . . . + ym
y X = (xi ) Mn1 (IK), se tendra que la expresion coordenada de f respecto de estas bases es
Y = BX
con B Mmn (IK). Por ser BE y BE bases del mismo E .V . existe una matriz P Mn (IK),
regular, tal que X = P X es la ecuacion del cambio de base en E. Analogamente sera Y = QY
con Q Mm (IK) regular. Entonces,
Y = QY = Q(AX) = QA(P X ) = (QAP )X
y, por la unicidad de la expresion coordenada respecto de dos bases dadas, resulta que
B = QAP
por lo que, cualquier otra matriz coordenada de f es de la forma QAP con P y Q matrices
regulares. Recprocamente, si P Mn (IK) y Q Mm (IK) son matrices regulares, la matriz QAP
es matriz coordenada de f respecto de algunas bases. Efectivamente, basta tomar en E la base
BE tal que la ecuacion del cambio sea X = P X y en F la base BF cuya ecuacion de cambio es
Y = QY y entonces, repitiendo el razonamiento anterior, resulta que QAP es matriz coordenada
de f de respecto de BE y BF .
De lo anterior se deduce que el conjunto formado por todas las matrices coordenadas de f es
{QAP | P Mn (IK), |P | 6= 0, Q Mm (IK), |Q| 6= 0}.
Una vez que hemos visto como son las distintas matrices coordenadas de una misma aplicacion,
pasaremos a dar algunas de sus propiedades.
Matrices equivalentes
Definici
on 91. Sean A, B Mmn (IK). Se dice que A es equivalente a B si existen P1
Mm (IK), P2 Mn (IK), regulares, tales que A = P1 BP2 .
Seg
un hemos visto con el cambio de bases, dos matrices son equivalentes si y solo si son matrices
coordenadas de una misma aplicacion lineal.
Teorema 92. Dos matrices son equivalentes si y solo si se puede pasar de una a otra mediante
operaciones elementales.
Teorema 93. Una condici
on necesaria y suficiente para que dos matrices sean equivalentes es
que tengan las mismas dimensiones y el mismo rango.
Propiedades del rango de una aplicacion lineal
Teorema 94. El rango de una aplicaci
on lineal coincide con el rango por columnas de su matriz
coordenada.
Teorema 95. Sea f LIK (En , Fm ). Entonces, dim Kerf + dim Imf = dim E.

Diagonalizaci
on
PRIMERAS DEFINICIONES
Sea (E, +, IK ) un espacio vectorial de dimension n. Endomorfismo sobre E es toda aplicacion
lineal de E en E. En todo lo que sigue, cuando convenga el uso de coordenadas fijaremos una base
BE de E y tanto las coordenadas del vector x E como las de su imagen por el endomorfismo
f , y = f (x) E, seran las relativas a esa base. Denotamos por End(E) el conjunto de todos los
endomorfismos sobre E.
Definici
on 96. Sea f End(E). Se dice que el elemento IK es un valor propio de f , si existe
un vector no nulo x E tal que f (x) = x. En este caso, decimos que x es un vector propio
asociado al valor propio .
Definici
on 97. Sea A Mn (IK). Se dice que el elemento IK es un valor propio de A, si existe
un vector no nulo (x1 , . . . , xn ) IK n tal que AX = X, donde X = (x1 . . . xn )T Mn1 (IK). En
este caso, decimos que x es un vector propio asociado al valor propio .
EQUIVALENCIA DEL PROBLEMA CON ENDOMORFISMOS Y MATRICES
Sea f End(En ). Fijamos una base cualquiera BE = (u1 , u2 , . . . , un ) de E y sea A Mn (IK)
la matriz coordenada de f respecto de BE . Si el vector de x E de coordenadas (x1 , x2 , . . . , xn )
en BE es un vector propio de f asociado al valor propio , entonces el vector (x1 , x2 , . . . , xn ) IK n
es un vector propio de A asociado tambien al valor propio .
Sea A Mn (IK). Consideramos un espacio vectorial sobre IK, E, de dimension n y fijamos
una base BE = (u1 , u2 , . . . , un ) de E. Sea f End(E) el endomorfismo cuya matriz coordenada
respecto de BE es A Mn (IK). Si el vector (x1 , x2 , . . . , xn ) IK n es un vector propio de A
asociado al valor propio , entonces el vector de E que tiene en BE coordenadas (x1 , x2 , . . . , xn )
es un vector propio de f asociado tambien al valor propio .
De lo anterior se deduce que
Proposici
on 98. Los valores propios de un endomorfismo coinciden con los valores propios de
su matriz coordenada, respecto de cualquier base.
Proposici
on 99. Todas las matrices coordenadas de un endomorfismo tienen los mismos valores
propios.
PROPIEDADES DE VALORES Y VECTORES PROPIOS
I Condici
on Necesaria y Suficiente para que un elemento sea valor propio. Polinomio caracterstico. Subespacios fundamentales
Sea f End(En ) y sea A Mn (IK) su matriz coordenada en BE = (u1 , . . . , un ) Para cada IK
se define V () = {x E | f (x) = x}. Teniendo en cuenta las equivalencias x V () f (x) =
x AX = X AX X = 0 AX In X = 0 (A In )X = 0

x1
a11
a12
...
a1n

a21
a22 . . .
a2n
x2

(18)
.. = 0

..
..
..
..
.

.
.
.
.
xn
an1
an2
. . . ann
29


Matematicas II, MECANICA

30

resulta que V () es un subespacio vectorial, de dimension n rg(A In ), que esta formado por
los vectores de En cuyas coordenadas en BE son solucion de (18). Si este subespacio es el nulo, el
sistema (18) solo tiene la solucion trivial y no es valor propio de f. En cambio, si el subespacio
no es el nulo, el sistema (18) tiene solucion distinta de la trivial y s es valor propio de f.
En consecuencia, el elemento IK es valor propio de f si y solo si rg(A In ) < n, es decir,
si y solo si |A In | = 0 o, lo que es lo mismo, si y solo si es raz del polinomio |A xIn | que
recibe el nombre de polinomio caracterstico de f (respecto de BE .
Definici
on 100. Si es raz del polinomio caracterstico de multiplicidad h se dice que el valor
propio de f tiene multiplicidad algebraica h (respecto de BE )
Definici
on 101. Cuando es un valor propio de f, el subespacio V () de E recibe el nombre de
subespacio fundamental. La dimension de este subespacio se dice multiplicidad geometrica de .
La multiplicidad geometrica de un valor propio es siempre 1. Seg
un hemos dicho en la seccion
anterior, los valores propios de un endomorfismo coinciden con los valores propios de cualquiera
de sus matrices coordenadas. Ademas, tambien coinciden sus multiplicidades geometricas. Por
tanto, las matrices coordenadas de un mismo endomorfismo tienen los mismos valores propios y
con las mismas multiplicidades geometricas. Los vectores propios de f asociados al valor propio
son los vectores no nulos del subespacio V (). En el caso particular en el que la matriz sea
diagonal, es inmediato verificar que los valores propios coinciden con los elementos diagonales.
II Si 1 6= 2 V (1 ) V (2 ) = {0}.
III Vectores propios asociados a valores propios diferentes entre s son linealmente independientes.
IV Si B1 , B2 , . . . , Bm son bases de los subespacios fundamentales V (1 ), V (2 ), . . . , V (m ),
respectivamente, correspondientes a valores propios diferentes entre s, 1 , 2 , . . . , m , entonces
B1 B2 . . . Bm es base de V (1 ) + V (2 ) + . . . + V (m ).
CAMBIO DE BASE Sea f End(En ) y sea A Mn (IK) su matriz coordenada respecto de la
base BE . Sea BE una nueva base de En . El cambio de base en endomorfismos es un caso particular
del ya visto en Aplicaciones Lineales, basta tomar en el caso anterior: F = E, BF = BE y
BF = BE . As, por ser BE y BE bases del mismo E .V . existe una matriz P Mn (IK), regular,
tal que X = P X es la ecuacion del cambio de base, con lo que tambien sera Y = P Y . Entonces,
Y = P 1 Y = P 1 (AX) = P 1 A(P X ) = (P 1 AP )X
con lo que la matriz coordenada de f respecto de BE es B = P 1 AP. As, el conjunto formado
por todas las matrices coordenadas de f es
{P 1 AP | P Mn (IK), |P | 6= 0}.
Matrices semejantes
Definici
on 102. Sean A, B Mn (IK). Se dice que B es semejante a A si existe P Mn (IK)
regular tal que B = P 1 AP.
Se comprueba trivialmente que la relacion definida es una relacion binaria de equivalencia
logica sobre Mn (IK). Ademas, dos matrices son semejantes si y solo si son matrices coordenadas
de un mismo endomorfismo.
Teorema 103. Dos matrices semejantes tienen el mismo polinomio caracterstico.

31
Corolario 104. Dos matrices semejantes tienen los mismos valores propios con identicas multiplicidades.
Corolario 105. El polinomio caracterstico y la multiplicidad algebraica de los valores propios de
un endomorfismo no dependen de la base que se considere.
Corolario 106. Un endomorfismo tiene los mismos valores propios y con identicas multiplicidades
(algebraica y geometrica) que una cualquiera de sus matrices coordenadas.
Relacion entre las multiplicidades
Teorema 107. La multiplicidad geometrica de un valor propio nunca supera a la algebraica.

DIAGONALIZACION
Definici
on 108. Se dice que un endomorfismo f End(En ) es diagonalizable si existe una base
de En en la que la matriz coordenada de f es diagonal.
Definici
on 109. Se dice que una matriz A Mn (IK) es diagonalizable si es semejante a una
matriz diagonal.
Sea f End(En ) y sea A Mn (IK) su matriz coordenada respecto de cierta base de En .
Entonces, de las definiciones anteriores resulta que f es diagonalizable si y solo si alguna de sus
matrices coordenadas es diagonal, es decir, si y solo si alguna de las matrices semejantes a A
es diagonal, esto es, si y solo si A es diagonalizable. Es decir, un endomorfismo es diagonalizable si y solo si su matriz coordenada es diagonalizable y, analogamente, una matriz cuadrada
es diagonalizable si y solo si es diagonalizable cualquier endomorfismo que la tenga por matriz
coordenada.
Dada la equivalencia entre el problema de diagonalizacion de matrices y el de endomorfismos, daremos u
nicamente condiciones de diagonalizacion para endomorfismos. Posteriormente, se
indicara lo correspondiente para matrices.
Condiciones necesarias y suficientes Sea f End(En ).
Teorema 110. Una CN y S para que f sea diagonalizable es que exista una base de E formada
por vectores propios de f .
Teorema 111. Una CN y S para que f sea diagonalizable es que su polinomio caracterstico tenga
en IK n races (contando cada una seg
un su correspondiente multiplicidad) y, para cada una de
ellas, coincidan sus multiplicidades algebraica y geometrica.
La CN y S dada en el Teorema 110 es de escasa utilidad practica pues no nos dice cuando
existe la base de vectores propios ni, en su caso, como obtenerla. La CN y S enunciada mediante
el Teorema 111 nos resuelve ambas cuestiones. La base existira si el polinomio caracterstico de
f tiene en IK n races (no necesariamente diferentes) y, para cada una de ellas, coinciden sus
multiplicidades. Suponiendo que somos capaces de hallar las races del polinomio caracterstico,
es facil comprobar si estas condiciones se cumplen, en ese caso, tomamos de cada uno de los
subespacios fundamentales una base y su union es la base de E formada por vectores propios.
En esa base, la matriz coordenada de f sera diagonal, los elementos diagonales seran los valores
propios de f y, cada uno de ellos, figura tantas veces como indique su multiplicidad.
Teorema 112. Una condici
on suficiente para que f sea diagonalizable es que su polinomio caracterstico tenga en IK n races simples.


Matematicas II, MECANICA

32

Diagonalizacion de matrices Sea A Mn (IK). Se toma un IKE .V . cualquiera de dimension n,


En , se fija una base de En , BE , y se considera el endomorfismo f End(En ) cuya matriz coordenada respecto de BE sea A. Sabemos que A es diagonalizable si y solo si lo es f . Estudiamos las
condiciones de diagonalizacion dadas para endomorfismos en la subseccion anterior y, si determinamos que f es diagonalizable, obtenemos una base de E, BE , formada por vectores propios de
f . Respecto de BE la matriz coordenada de f es una diagonal D. Entonces, si la ecuacion del
cambio de base en E es X = P X , quedara que
D = P 1 AP
donde, recordemos que P es la matriz cuadrada de orden n, regular, cuya columna iesima esta
formada por las coordenadas en BE del iesimo vector de BE .
Una vez obtenidas las matrices P y D, tenemos la matriz diagonal semejante a A y la matriz
regular que nos permite el paso de A a D, siendo indiferentes el espacio E y la base BE considerados. Por ello, lo habitual es tomar E = IK n y como base la canonica de este espacio, no siendo
necesario especificarlo.

Formas bilineales y formas cuadr


aticas
FORMAS BILINEALES Sea En un E .V . sobre IR.
Definici
on 113. Se dice forma bilineal sobre E a toda aplicacion de E E en IR que verifique
las propiedades:
, IR, u1 , u2 , v E f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) ,
, IR, u, v1 , v2 E f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ) .
h
k
h X
k
X
X
X
De la definicion se sigue que f (
k uk ,
l vl ) =
k l f (uk , vl ).
k=1

l=1

k=1 l=1

Expresi
on matricial asociada
Sea BE = (u1 , u2 , . . . , un ) una base de E. Dados u = x1 u1 + . . . + xn un , v = y1 u1 + . . . + yn un E,

f (u1 , u1 ) f (u1 , u2 ) . . . f (u1 , un )


y1
n
n X
f (u2 , u1 ) f (u2 , u2 ) . . . f (u2 , un ) y2
X

xk yl f (uk , ul ) = (x1 . . . xn )
f (u, v) =
..
..
..
..

.
.
...
.
.
k=1 l=1
f (un , u1 ) f (un , u2 ) . . . f (un , un )
yn
y denotando por X = (xi ), Y = (yi ) Mn1 (IR) y A = (f (ui , uj )) Mn (IR), escribiremos
f (u, v) = X T AY.
A se dice matriz de la forma bilineal f respecto de BE .

FORMAS CUADRATICAS
Sea f una forma bilineal sobre E, se dice que f es simetrica si
u, v E, f (u, v) = f (v, u).
Si f es simetrica, su matriz asociada respecto de cualquier base sera simetrica.
Dada una forma bilineal simetrica sobre E, le podemos asociar la siguiente aplicacion fc de E
en IK
fc (u) = f (u, u)
que se dice forma cuadratica. La forma bilineal f se dice forma polar de la forma cuadratica fc .
Dada la forma cuadratica, la forma polar asociada queda unvocamente determinada por
f (u, v) =

1
(fc (u + v) fc (u) fc (v)) .
2

Sea BE = (u1 , u2 , . . . , un ) una base de E y sea A la matriz asociada a f en esta base. Para
u = x1 u1 + . . . + xn un E se tiene que
fc (u) = f (u, u) = X T AX.
33


Matematicas II, MECANICA

34

Si ahora se toma una nueva base de E, BE = (u1 , u2 , . . . , un ), existe una matriz P Mn (IR),
regular, tal que X = P X es la ecuacion del cambio de base. Entonces,
fc (u) = f (u, u) = X T AX = (P X )T AP X = X T (P T AP )X ,
as, la matriz asociada a fc respecto de la nueva base es
B = P T AP Mn (IR),
las matrices A, B para las que existe una matriz regular P verificando que B = P T AP se dicen
congruentes. Tomando determinantes resulta |B| = |P |2 |A| y, por ser |P | 6= 0, si |A| = 0 tambien
sera |B| = 0 y si |A| 6= 0 tambien |B| 6= 0. Cuando el determinante de sus matrices asociadas es 0
la forma cuadratica se dice degenerada y en otro caso se dice ordinaria. Seg
un acabamos de ver,
esto es independiente de la base considerada. Ademas, por ser P regular, A y B tienen el mismo
rango, este valor se dice rango de la forma cuadratica.
DE FORMAS CUADRATICAS

DIAGONALIZACION
Diagonalizar una forma cuadratica consiste en encontrar una base en la que la matriz asociada
sea diagonal. La expresion asociada cuando la matriz es diagonal sera del tipo
fc (u) = 1 x21 + 2 x22 + . . . + n x2n .
Si denotamos por p el n
umero de elementos i que son positivos y por q el n
umero de ellos que son
negativos, se dice signatura de la forma cuadratica al par (p, q). La forma cuadratica fc se dice
1. definida positiva cuando signaturafc = (n, 0),
2. semidefinida positiva cuando signaturafc = (p, 0) con p < n,
3. definida negativa cuando signaturafc = (0, n),
4. semidefinida negativa cuando signaturafc = (0, q) con q < n,
en cualquier otro caso se dice no definida.
Supongamos que, en cierta base de E, la matriz asociada es la diagonal cuya diagonal principal es
(1 , . . . , p , p+1 , . . . , p+q , 0, . . . , 0)
con 1 , . . . , p > 0 y p+1 , . . . , p+q < 0. Entonces, considerando el cambio de coordenadas
X = P X,
con P la matriz diagonal cuya diagonal principal es
p
p p
p
( 1 , . . . , p , p+1 , . . . , p+q , 1, . . . , 1)
resulta que la matriz asociada a la forma cuadratica es la diagonal con diagonal principal
(1, . . . , 1, 1, . . . , 1, 0, . . . , 0)
por lo que, la expresion de la forma cuadratica queda
fc = 1 x21 + . . . + p x2p + p+1 x2p+1 + . . . + p+q x2p+q = x 21 + . . . + x 2p x 2p+1 . . . x 2p+q

35
esta expresion se dice ecuaci
on reducida.
Diagonalizaci
on ortogonal
Toda matriz simetrica sobre IR puede diagonalizarse y sabemos que, si A es diagonalizable, existe
una matriz regular P tal que P 1 AP es diagonal. Nuestro cambio ahora tiene que ser de la forma
P T AP por lo que tendremos el problema resuelto si conseguimos que P sea ortogonal, es decir,
que las columnas de P verifiquen las condiciones (4). En este caso, la matriz diagonal estara
formada por los valores propios de A.
Vamos a ver, con un ejemplo, como se pueden obtener matrices, P ortogonal y D diagonal, tales
que P T AP = D. Sea fc la forma cuadratica sobre IR3 cuya matriz asociada respecto de la base
canonica es

3 1 1
A = 1 3 1 .
1 1 3
Se obtienen los valores propios de A y los subespacios fundamentales. El polinomio caracterstico
es |A xI3 | = x3 + 9x2
24x + 20 = (x 2)2 (x 5).

2 1
1 0
1
1
2
0
V=5 (A 5I3 )X = 0 1 2 1 0
x1 = x2 = x3
0 1 1 0
1 2
0
1
1 1 1 0

V=2 (A 2I3 )X = 0 1 1 1 0 1 1 1 0 x1 = x2 x3
0
1 1 1

5 0 0
Si tomamos la matriz diagonal D = 0 2 0 , el primer vector de la base debera ser de V5 ,
0 0 2
por tanto de la forma (x, x, x), y sus coordenadas nos proporcionaran la primera columna de P.
Por las condiciones (4) se sabe que deberan cumplir x2 + x2 + x2 = 1 con lo que x2 = 1/3. Si
tomamos, por ejemplo, x = 13 se obtiene
1 1 1
u1 = ( , , )
3 3 3
Los otros dos vectores, seran de V2 , por tanto de la forma (y z, y, z). Vamos a fijar el primero
de esos vectores, cuyas coordenadas nos proporcionaran la segunda columna de P. De (4) se sigue
que

(y z)2 + y 2 + z 2 = 1
1 (y z) + 1 y + 1 z = 0
3
3
3
y siendo la segunda expresion una identidad, el sistema queda reducido a la condicion
2yz + 2y 2 + 2z 2 = 1
en la que si tomamos, por ejemplo, y = 0 se obtiene z 2 =

1
2

y podemos tomar z =

1
1
u2 = ( , 0, ).
2
2
Para la tercera columna, el vector de la forma (y z, y, z) debe verificar

(y z)2 + y 2 + z 2 = 1
1 (y z) + 1 y + 1 z = 0
3
3
3

12 (y z) + 12 z = 0

1
2

con lo que


Matematicas II, MECANICA

36

de estas condiciones, la segunda es una identidad. Por lo que resulta

1
2y 2 + 2z 2 + 2yz = 1
y = 2z
z2 =
y + 2z = 0
8z 2 + 2z 2 4z 2 = 1
6
as, podemos tomar z =

1
6

con lo que y =

,
6

x = y z =

1
6

1 2 1
u3 = ( , , ).
6 6 6
As,


1/3 1/ 2
1/6
P = 1/3
0
2/6
1/ 3 1/ 2
1/ 6

y P T AP = D.
Las condiciones dadas en (4) sobre el producto de elementos de dos columnas distintas,
i, j = 1, . . . , n, i 6= j,

n
X

pki pkj = 0,

k=1

se reducen a una identidad cuando esas columnas corresponden a vectores de distintos subespacios
fundamentales. As pues, aunque aqu las hemos escrito, no es necesario plantearlas. Es decir,
para fijar los vectores de cada subespacio fundamental no es necesario tener en cuenta los vectores
que corresponden a otros subespacios fundamentales. Por el modo en el que hemos resuelto el
problema, queda claro que no hay unicidad, pudiendo elegir el orden de aparicion de los elementos
en la diagonal de D as como distintas bases de los subespacios fundamentales, para las columnas
de P .
Diagonalizaci
on completando cuadrados
Sea fc la forma cuadratica sobre IR3 cuya matriz

1
A=
1

asociada respecto de la base canonica es

1 1
2 3 ,
3 5

con lo que
fc ((x, y, z)) = x2 + 2xy + 2xz + 2y 2 + 6yz + 5z 2 .
Se trata de escribir esta expresion como sumas o diferencias de cuadrados. Para ello, agruparemos
en un primer cuadrado todos los terminos en los que aparece x
x2 + 2xy + 2xz = (x + y + z)2 y 2 z 2 2yz
con lo que
fc ((x, y, z)) = (x + y + z)2 y 2 z 2 2yz + 2y 2 + 6yz + 5z 2 = (x + y + z)2 + y 2 + 4yz + 4z 2
procediendo del mismo modo, agrupamos ahora todos los terminos en los que aparece y, exceptuando el que ya hemos arreglado como un cuadrado,
y 2 + 4yz = (y + 2z)2 4z 2

37
y as,
fc ((x, y, z)) = (x + y + z)2 + (y + 2z)2 4z 2 + 4z 2 = (x + y + z)2 + (y + 2z)2
o lo que es lo mismo
fc ((x, y, z)) = (x + y + z)2 + (y + 2z)2 + 0z 2



x
x = x + y + z
x
1 1 1

y resulta que
0 1 2
y
=
Entonces, escribiendo y = y + 2z
, es decir,

0 0 1
z
z
z =z
fc ((x, y, z)) = (x )2 + (y )2
y, en esa base, la matriz asociada es

1 0 0
B = 0 1 0 .
0 0 0

El cambio de base que se ha hecho es X = QX y seg


un hemos visto antes necesitamos el cambio
1
inverso, as calculamos P = Q obteniendo

1 1
1
1 2
P = 0
0
0
1
que es la matriz regular tal que P T AP = B. Es obvio que la matriz obtenida ahora no es ortogonal.
Vamos a considerar una forma cuadratica sobre IR3 en cuya expresion no aparece ning
un termino
de segundo grado. Para ello, la matriz asociada debe tener nulos todos sus elementos diagonales

0 1 1
A = 1 0 1 ,
1 1 0
con lo que
fc ((x, y, z)) = 2xy + 2xz + 2yz
para escribir esta expresion como sumas o diferencias de cuadrados, haremos dos cambios de
variable, el primero para introducir cuadrados
en la expresion y el otro similar al realizado en el
x = x + y
ejemplo anterior. Escribiendo y = x y
resulta fc ((x, y, z)) = 2(
x + y)(
x y) + 2(
x + y)
z+

z = z

2
2
x + 22 z)2 2
z 2 2
y2
2(
x y)
z = 2
x 2
y + 2
xz + 2
y z + 2
xz 2
y z = 2
x2 + 4
xz 2
y 2 = ( 2


x = 2
x + 2
z
con lo que escribiendo y = 2
queda
y

z = 2
z
fc ((x, y, z)) = x2 y2 z2
yX
= RX
con lo que
Los cambios de variable han sido X = QX

= QR1 X
X = QX


Matematicas II, MECANICA

38
con lo que

1



2 0
2
1/ 2
0 1/ 2
1
1 0
1
1 0
P = 1 1 0 0
2 0 = 1 1 0 0
1/ 2
0 =
0
0 1
0
0 1
0
0
2
0
0
1/ 2


1/2
1/2 1/2
1/ 2 1/ 2 1/ 2

0
0
1/ 2

1
0
0
0 .
y P T AP = 0 1
0
0 1

You might also like