You are on page 1of 137

Conceptos B

asicos de Algebra Lineal


y Geometra Multidimensional
Alvaro Cofre
Duvan Henao

ii

Indice general
1. Sistemas de ecuaciones lineales
1.1. El metodo de eliminacion de Gauss
1.2. Determinantes . . . . . . . . . . .
1.3. Propiedades del determinante . . .
1.4. Teorema de Laplace . . . . . . . .
1.5. La regla de Cramer . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

1
. 3
. 8
. 12
. 19
. 25

2. Relaciones de dependencia lineal


2.1. El espacio vectorial Rn . . . . . . . . . . . . . . . . .
2.2. Dependencia lineal . . . . . . . . . . . . . . . . . . .
2.3. Dimension del espacio vectorial Rn . . . . . . . . . .
2.4. Rango de un sistema de vectores . . . . . . . . . . .
2.5. Rango de matrices y dependencia lineal . . . . . . .
2.6. Equivalencia de matrices . . . . . . . . . . . . . . . .
2.7. Soluciones de sistemas de ecuaciones lineales . . . .
2.7.1. Compatibilidad para sistemas no homogeneos
2.7.2. Sistemas homogeneos . . . . . . . . . . . . .
2.7.3. Soluciones para sistemas arbitrarios . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

29
29
30
31
35
37
42
46
46
51
53

3. Algebra
de matrices
3.1. Producto de matrices . . . . . . . . . . . .
3.2. Matrices inversas . . . . . . . . . . . . . .
3.3. Representacion matricial de un sistema de
3.4. Rango de un producto de matrices . . . .

. . . . . . .
. . . . . . .
ecuaciones .
. . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

55
56
59
60
61

4. Vectores en Rn
4.1. Propiedades . . . . . . . . . . .
4.2. Subespacios de vectores en Rn
4.3. Variedades lineales . . . . . . .
4.4. Subespacios de soluciones . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

63
63
65
71
79

.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

5. Distancia y Volumen en Rn
83
5.1. Metrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Vol
umenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85
6. Sistemas de coordenadas
91
6.1. Transformacion de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Vol
umenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97
iii

INDICE GENERAL

iv

6.4. Deformacion continua de sistemas de coordenadas . . . . . . . . . . . . 100


6.5. Construccion de sistemas ortonormales . . . . . . . . . . . . . . . . . . . 104
6.6. Distancia y Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . 105
7. Movimientos Rgidos
111
7.1. Movimientos rgidos en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.2. Movimientos rgidos en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8. Problemas propuestos

125

Captulo 1

Sistemas de ecuaciones
lineales
Nota: La palabra n
umero designa a un elemento de un campo K. En nuestro caso
K es el campo de los n
umeros reales o bien el de los complejos.
Definici
on 1.1 Llamaremos ecuacion lineal con n incognitas a una ecuaci
on del tipo
a1 x1 + a2 x2 + an xn = b

(1.1)

Los n
umeros a1 , . . . , an se llaman coeficientes de las inc
ognitas, al n
umero b se le
llama termino libre . Diremos que la colecci
on ordenada de n
umeros (k1 , k2 , . . . , kn )
es una solucion de la ecuacion si
a1 k1 + a2 k2 + + an kn = b
Si b = 0 la ecuaci
on se dice homogenea .
Puesto que alguno de los coeficientes ai en (1.1) debe ser distinto de cero, podemos
suponer que a1 6= 0. Asignemos valores arbitrarios k2 , k3 , . . . , kn a las incognitas x2 ,
x3 , . . . , xn , entonces
b a2 k2 a3 k3 an kn
.
a1

n kn
Claramente, la coleccion ordenada ba2 k2 a
,
k
,
k
,
.
.
.
,
k
es una posible solu2
3
n
a1
cion de la ecuacion. Puesto que esta es solucion independientemente de cuales son los
valores de k concluimos que (1.1) tiene infinitas soluciones.
x1 =

Definici
on 1.2 Sean
a1 x1 + + an xn

c1

(1.2)

b1 x1 + + bn xn

c2

(1.3)

Sean , n
umeros arbitrarios. Diremos que la ecuaci
on
(a1 x1 + + an xn ) + (b1 x1 + + bn xn ) = c1 + c2
es combinacion lineal de las ecuaciones (1.2) y (1.3).
1

(1.4)

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Sea (k1 , k2 , . . . , kn ) una solucion com


un de (1.2) y (1.3). Entonces
(a1 k1 + + an kn ) + (b1 k1 + + bn kn ) = c1 + c2
y (k1 , k2 , . . . , kn ) es solucion de (1.4).
Se concluye que si una ecuacion es combinacion lineal de dos o mas ecuaciones lineales
entonces toda solucion com
un de las ecuaciones que participan en la combinacion lineal
es solucion de la ecuacion.
Nota: A una coleccion ordenada del tipo (k1 , k2 , . . . , kn ) la llamaremos n-tupla.
Definici
on 1.3 Consideremos el sistema de ecuaciones lineales de m ecuaciones con
n inc
ognitas
a11 x1 + + a1n xn
an1 x1 + + amn xn

=
..
.
=

c1
cm

Diremos que la n-tupla (k1 , k2 , . . . , kn ) es soluci


on del sistema si es soluci
on de cada
una de las m ecuaciones del sistema. Si c1 = c2 = = cm = 0 diremos que el sistema
es homogeneo .
Definici
on 1.4 Sean
a11 x1 + + a1n xn
am1 x1 + + amn xn

= c1
..
.
= cm
(1.5)

b11 x1 + + b1n xn

=
..
.

d1

bm1 x1 + + bmn xn

dm
(1.6)

Supongamos que cada ecuaci


on del sistema (1.5) es combinaci
on lineal de las ecuaciones del sistema (1.6) y viceversa. Diremos que los sistemas (1.5) y (1.6) son equivalentes .
Teorema 1.5 Dos sistemas equivalentes tienen exactamente las mismas soluciones.
Demostraci
on: Sea (k1 , . . . , kn ) solucion de (1.5). Considere la primera ecuacion de
(1.6). Ella es una combinacion lineal de las ecuaciones del primer sistema. Puesto que
(k1 , k2 , . . . , kn ) es una solucion com
un entonces es solucion de la primera ecuacion del
sistema (1.6).
Razonando analogamente para cada una de las ecuaciones del sistema (1.6) hemos
demostrado que cada solucion del sistema (1.5) es solucion del sistema (1.6). El mismo
argumento permite demostrar que toda solucion de (1.6) es solucion de (1.5).
Supongamos ahora que (1.6) no tiene solucion. Entonces (1.5) tampoco puede tenerla
y viceversa. Se concluye que (1.5) y (1.6) tienen exactamente las mismas soluciones.
Definici
on 1.6 Si un sistema de ecuaciones lineales tiene soluci
on diremos que es
compatible . Si tiene exactamente una soluci
on diremos que es compatible determinado , si tiene m
as de una soluci
on diremos que es compatible indeterminado . Si no
tiene soluci
on diremos que es incompatible .


DE GAUSS
1.1. EL METODO
DE ELIMINACION

1.1.

El m
etodo de eliminaci
on de Gauss

Consideremos el sistema
a11 x1 + + a1n xn
am1 x1 + + amn xn

=
..
.

b1

bm

(1.7)

Caso 1: El coeficiente de x1 es distinto de cero en alguna de las ecuaciones. En tal


caso podemos suponer que a11 6= 0 (si es necesario reordenamos las ecuaciones).
Caso 2: Si aij = 0, j = 1, . . . , m simplemente tenemos un sistema de m ecuaciones con
n 1 incognitas.
Supongamos entonces que a11 6= 0. Reemplacemos el sistema (1.7) por un nuevo sistema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).
Denotemos por ECi a la i-esima ecuacion del sistema (1.7). Construyamos el nuevo
sistema definiendo sus ecuaciones de la manera siguiente:
Ecuacion 1 =

EC1

Ecuacion 2 =

EC2

Ecuacion 3

Ecuacion m

a21
EC1
a11
a31
EC3
EC1
a11

..
.
am1
= ECm
EC1
a11

Obtenemos as un nuevo sistema equivalente a (1.7)


a11 x1 + a12 x2 + + a1n xn
a022 x2 + + a02n xn
a032 x2 + + a03n xn

=
=
=
..
.

b1
b02
b03

a0m2 x2 + + a0mn xn

b0m

(1.8)

Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir facilmente como
combinacion lineal de las ecuaciones de (1.8), es por esto que son equivalentes.
Caso 1: El coeficiente de x2 es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.
Caso 2: Si a02j = 0 j = 2, 3, . . . , m, procedemos a la eliminacion de la incognita x3 .
Supongamos entonces que a022 6= 0, hacemos lo mismo en (1.8). Denotemos por ECi0 a la
ecuacion i-esima del sistema, y por ECi00 a la ecuacion i-esima del sistema a construir.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Definimos entonces al nuevo sistema por


EC100
EC200

=
=

EC300

EC400

EC10
EC20
a032
EC20
a022
a0
EC20
EC40 42
a022
EC30

..
.
00
ECm

0
ECm

a0m2
EC20
a022

Obtenemos as un sistema equivalente a (1.8) (y por lo tanto equivalente a (1.7))


a11 x1 + a12 x2 + a13 x3 + + a1n xn
a022 x2 + a023 x3 + + a02n xn
a0033 x3 + + a003n xn

=
=
=
..
.

b1
b02
b003

a00m3 x3 + + a0mn xn

b00m

Nota: Si en alguna parte del proceso alguna ecuacion tiene todos los coeficientes y el
termino libre iguales a cero, podemos suprimirla puesto que la ecuacion
0 x1 + 0 x2 + + 0 xn = 0
es satisfecha por cualquier n-tupla (k1 , k2 , . . . , kn ).
Sin en alguna parte del proceso alguna ecuacion tiene todos los coeficientes iguales a
cero y el termino libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse solo dos
situaciones:
i) Despues de k 1 etapas, las incognitas xk+1 , xk+2 , . . . , xn quedan todas eliminadas producto de suprimir ecuaciones del tipo 0 x1 + + 0 xn = 0. En tal
caso el sistema queda con forma trapezoidal
a11 x1 + a12 x2 + a13 x3 + + a1k xk + a1n xn
a022 x2 + a023 x3 + + a02k xk + + a02n xn
a0033 x3 + + a003k xk + + a003n xn
(k1)

akk
(k1)

(k1)

xk + + akn

xn

= b1
= b02
= b003
..
.
(k1)

= bk

,
(k1)

con a11 6= 0, a022 6= 0, , akk


6= 0, donde k < m y k < n. Como akk
6= 0
podemos asignar valores arbitrarios a xk+1 , xk+2 , . . . , xn en la u
ltima ecuacion y
despejar xk . Luego reemplazamos en la pen
ultima ecuacion y despejamos xk1
y as sucesivamente hasta llegar hasta x1 . Hemos obtenido as una solucion que
depende de n (k 1) parametros arbitrarios (nadie afirma que sea la u
nica), el


DE GAUSS
1.1. EL METODO
DE ELIMINACION

sistema es compatible indeterminado .


Ejemplo:
x1 x2 + 2x3 + x4
x1 + 2x2 x3 x4

= 1
= 0

3x1 + 0 x2 + 3x3 + x4
2x1 2x2 + 4x3 + 2x4

= 2
= 2

Eliminemos x1 :
x1 x2 + 2x3 + x4
3x2 3x3 2x4
3x2 3x3 2x4
0 x2 + 0 x3 + 0 x4

=
=
=
=

1
1
1
0

Eliminemos x2 :
x1 x2 + 2x3 x4
3x2 3x3 2x4
0 x3 + 0 x4

= 1
= 1
= 0

Tenemos k = 3. Tenemos una solucion que depende de 4 (3 1) parametros


arbitrarios. En la segunda ecuacion sea x3 = , x4 = entonces x2 = 13 [3 + 2
1]. Reemplazando en la primera se tiene
1
5
2
[3 + 2 1] 2 + + 1 = + +
3
3
3

Obtenemos as una solucion + 35 + 23 , + 23 13 , , donde y son


n
umeros arbitrarios. Tenemos entonces infinitas soluciones, una para cada par de
valores de y .
x1 =

ii) Si k = n el sistema tiene forma triangular


a11 x1 + a12 x2 + + a1n xn
a022 x2 + + a02n xn
a(n1)
xn
nn

= b1
= b02
..
.
= b(n1)
n

Es claro que en este caso el sistema tiene exactamente una solucion puesto que la
u
ltima ecuacion determina el valor de xn en forma u
nica y la pen
ultima determina
el valor de xn1 en forma u
nica, etc.
Ejemplo:
x1 + x2 + x3
2x1 + 2x2 x3

= 0
= 1

x1 + x2 3x3

= 1

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

6
Eliminemos x1 :

x1 + x2 + x3
3x3
2x2 2x3

= 0
= 1
= 1

x1 + x2 + x3
2x2 2x3
3x3

= 0
= 1
= 1

Reordenemos las ecuaciones:

Luego x3 = 13 , 2x2 = 2( 13 ) + 1 x2 = 16 , x1 = 16 +

1
3

= 16 .

Si el sistema es homogeneo, puesto que (0, 0, . . . , 0) es siempre solucion tenemos solo


las alternativas de compatible determinado si k = n y compatible indeterminado si
k < n. Tenemos as:
Todo sistema homogeneo de m ecuaciones con n inc
ognitas con m < n es compatible
indeterminado (s
olo puede ser reducido a la forma trapezoidal).
Llamaremos matriz del sistema al cuadro rectangular

a11 a12 a1n


a21 a22 a2n

..
..
..
..
.
.
.
.
am1

am2

de m n n
umeros

amn

y matriz ampliada del sistema a

a11
a21

..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

b1
b2
..
.

am1

am2

amn

bm

Estas definiciones permiten escribir un sistema en forma sintetica.


Ejemplo: El sistema

puede escribirse como

x1 + 2x2 + 5x3
x1 x2 + 3x3

= 9
= 2

3x1 6x2 x3

= 25

9
2
25

1
1
3

2
1
6

5
3
1

y pueden hacerse las mismas transformaciones que realizaramos con las ecuaciones
del sistema con las filas de la matriz ampliada, as eliminando x1 obtenemos

1
2
5
9
0 3 2 11
0 12 16 52


DE GAUSS
1.1. EL METODO
DE ELIMINACION
Eliminando x2 :

1
0
0

9
11
8

2
5
3 2
0 8

luego x1 = 2, x2 = 3, x3 = 1.
Ejemplo: Resolver el sistema

1
3

1
0
Eliminamos x1 :

5 8
1 3
0 7
11 20

1 5
0 16

0 5
0 11

8
21
1
20

1
5
2
9

3
1

5
2

1
8
1
9

3
8

8
2

Antes de eliminar x2 , restemos la segunda ecuacion a la cuarta

1 5 8
0 16 21

0 5
1
0 5 1

1
8
1
1

3
8

8
10

Podemos ver de inmediato que el sistema es incompatible.


Ejemplo: Resolver el sistema

4
2
1

1
3
2

3
1
2

1
5
3

0
0
0

Puesto que el sistema es homogeneo, omitimos la columna de los terminos libres y


permutamos la primera y la tercera ecuacion:

1
2
4

2
3
1

2
1
3

3
1
5 0
1
0

2
7
9

2
5
5

1
3
11 0
13
0

Tomemos x4 = arbitrario entonces x3 = 45 luego


7x2 + 4 11 = 0

x2 =

y
8
3
x1 = 2 + 3 =
5
5

2
7
0

2
5
10
7

3
11
8
7

1.2.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Determinantes

El metodo de Gauss nos permite resolver un sistema de ecuaciones pero no proporciona un criterio de compatibilidad en terminos de los coeficientes de las incognitas y
los terminos libres, menos a
un una formula que permita encontrar los valores de las
incognitas. Sin embargo, una modificacion de dicho metodo aplicado a sistemas de dos
ecuaciones con dos incognitas y tres ecuaciones con tres incognitas permite deducir
la llamada regla de Cramer, previa introduccion de un nuevo ente matematico: el
determinante . Primero nos abocaremos a la tarea de introducir esta nueva nocion
para lo cual necesitamos algunos conceptos auxiliares.
Sea M un conjunto finito formado por n elementos a los cuales ponemos etiquetas
distintas con los n
umeros 1, 2, . . . , n. Podemos llamar i1 al objeto que tiene la etiqueta
con el n
umero 1, i2 al objeto que tiene la etiqueta con el n
umero 2, . . . , in al objeto que
tiene la etiqueta con el n
umero n. Decimos que i1 , i2 , . . . , in constituyen un conjunto
de n smbolos y como la naturaleza de los objetos no va a jugar papel alguno en lo
que sigue supondremos simplemente que el conjunto de n smbolos esta formado por
los n
umeros 1, 2, . . . , n. Dichos smbolos pueden ser ordenados en una fila de diversas
maneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:
1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .
En general, si tenemos n smbolos, el primero de una fila puede ser elegido de n
maneras. Por cada una de ellas tenemos n 1 maneras de elegir el segundo. Por cada
una de las n(n 1) maneras de elegir los dos primeros tenemos n 2 maneras de
elegir el tercero, as para elegir los tres primeros tenemos n(n 1)(n 2) maneras.
Continuando la argumentacion hasta agotar los recursos tenemos que con n smbolos
podemos formar
n(n 1)(n 2) (n (n 2))(n (n 1)) = n!
filas distintas. A cada una de las filas la llamaremos una permutaci
on de ellos y a la
fila 1 2 3 n que sigue el orden natural la llamaremos permutaci
on natural.
Definici
on 1.7 Si en una permutaci
on cualquiera intercambiamos dos smbolos cualesquiera (no necesariamente contiguos) dejando todos los dem
as en su sitio obtenemos
una nueva permutaci
on. Decimos que esta nueva permutaci
on ha sido obtenida de la
original mediante una trasposicion.
Por ejemplo, si n = 5, 5 2 3 4 1 se obtiene de la permutacion natural intercambiando 1
y 5.
Teorema 1.8 Consideremos las n! permutaciones de n smbolos. Ellas pueden ser
escritas en una lista tal que cada permutaci
on que aparece en la lista puede ser obtenida
de la anterior mediante una trasposici
on, y la lista puede empezar con cualquiera de
ellas.
Demostraci
on: El teorema es cierto para n = 2. Supongamos que ha sido demostrado
para n = k y consideremos todas las permutaciones de k + 1 smbolos. Empecemos la
lista con una cualquiera de ellas, digamos
i1 i2 i3 ik ik+1

1.2. DETERMINANTES

y a continuacion escribamos todas aquellas que empiezan con i1 las cuales son k!. Como
el smbolo i1 queda fijo, cada una de ellas puede ser considerada como una permutacion
de k smbolos y por lo tanto, por la hipotesis de induccion, pueden ser escritas en una
lista en que cada una difiere de la anterior en una trasposicion llevada a cabo en los
smbolos i2 , i3 , . . . , ik+1 y empezando precisamente con i1 i2 i3 ik ik+1 .
Veamos la u
ltima de esta lista preliminar. En ella transpongamos i1 con i2 y repitamos
el proceso. Por este metodo construmos una lista de permutaciones donde hay k!
permutaciones que empiezan con i1 , k! que empiezan con i2 , . . . , k! que empiezan con
ik+1 ; en total k!(k + 1) = (k + 1)! permutaciones distintas en que cada una difiere de
la anterior en una trasposicion.
Corolario 1.9 Dada una permutaci
on de n smbolos, a partir de ella es posible obtener
otra cualquiera mediante una sucesi
on de transposiciones.
on cualquiera. Diremos que los smbolos
Definici
on 1.10 Sea i1 i2 in una permutaci
is e it forman una inversi
on si is > it pero s < t.
Por ejemplo, si n = 5 en
32415
i1 = 3, i2 = 2, i3 = 4, i4 = 1, i5 = 5.
Entonces i1 e i2 forman una inversion: i1 > i2 pero s = 1 < t = 2. i3 e i4 forman una
inversion: i3 > i4 pero s = 3 < t = 4.
Definici
on 1.11 Una permutaci
on se dice par si sus smbolos forman un n
umero par
de inversiones, impar si forman un n
umero impar de inversiones.
Por ejemplo, si n = 6, 3 2 1 6 4 5 es impar, 3 2 1 4 6 5 es par.
Teorema 1.12 Una trasposici
on cambia la paridad de una permutaci
on.
Demostraci
on: Supongamos que los smbolos a trasponer son contiguos
i1 i2 k l in
Al trasponer obtenemos i1 i2 l k in donde la disposicion de k y l con respecto a
los restantes n 2 smbolos no ha cambiado luego al pasar de k l a l k quitamos una
inversion o agregamos una.
Supongamos ahora que entre k y l hay s smbolos
k ir ir+1 ir+s1 l
Pasamos a ir ir+1 ir+s1 l k mediante s+1 trasposiciones y luego a l ir ir+1 ir+s1 k
mediante s trasposiciones mas. En total para obtener la u
ltima permutacion de la
primera realizamos 2s + 1 trasposiciones de terminos contiguos, cada una de las cuales
cambio la paridad de la permutacion (primera parte de la demostracion) luego si era
par ahora es impar y viceversa.

10

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Corolario 1.13 El n
umero de permutaciones pares es igual al n
umero de permutaciones impares.
Demostraci
on: Hagamos una lista en que cada una difiere de la anterior por una
trasposicion. Como para n 2 n! es par hay n!
2 de cada tipo.
Definici
on 1.14 Sea M el conjunto de n smbolos, sea f : M M 1-1 y sobre.
Diremos que f es una sustitucion de grado n.
Sean i1 i2 in y i1 i2 in dos permutaciones de M , sea A el cuadro

i1
i2 in
i1 i2 in

(1.9)

Podemos interpretar el cuadro de la siguiente manera: la primera fila es el dominio


M de una funcion f : M M y la segunda fila es su recorrido de modo tal que
f (ij ) = ij , j = 1, 2, . . . , n. A la inversa, cada funcion f : M M que sea 1-1 y sobre
puede ser representada por uno de estos cuadros. Es claro que podemos identificar al
conjunto de estos cuadros con el de las sustituciones de grado n; tambien es claro que
cada sustitucion admite diversas representaciones, por ejemplo

3 1 2
1 2 3
,
1 3 2
3 2 1
representan la misma sustitucion de grado 3. En general, lo que define a (1.9) es la
asignacion f (ij ) = ij luego siempre es posible obtener, mediante trasposiciones de
columnas, una representacion de la forma

1
2
3 n
(1.10)
1 2 3 n
Lo que no se puede hacer es intercambiar el orden de las dos filas porque ellas juegan
distintos papeles, as

2 1 4 3
4 3 1 2
y
4 3 1 2
2 1 4 3
son distintas sustituciones de grado 4, en la primera f (2) = 4 en tanto que en la segunda f (2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.
Volvamos a (1.9) y consideremos la paridad de ambas filas. Cualquier trasposicion
de dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas filas, si
ellas tienen la misma paridad en una representacion ellas tendran la misma paridad
en cualquier otra, analogamente para el caso de paridad opuesta. Se concluye que el
que ambas filas tengan la misma paridad o paridad opuesta no depende de la representacion de la sustitucion luego podemos definir

on de grado n es par si en alguna repreDefinici


on 1.15 Diremos que una sustituci
sentaci
on ambas filas tienen la misma paridad y diremos que es impar si en alguna
representaci
on ambas tienen paridad opuesta.

1.2. DETERMINANTES
Nota: La sustitucion identidad

11

1 2
1 2

3
3

n
n

se considera par.
n!
De (1.10) se concluye que hay n!
2 sustituciones pares y 2 sustituciones impares (n 2).
Tambien es claro que si una sustitucion de grado n es par la suma del n
umero de
inversiones de ambas filas es par y si es impar dica suma tambien es impar. Se concluye
que para juzgar la paridad de una sustitucion de grado n es conveniente favorecer la
representacion

1
2
3 n
.
1 2 3 n

Puesto que la primera fila tiene 0 inversiones, la paridad de la sustitucion esta determinada por el n
umero de inversiones de la permutacion 1 2 n .

3 1 4 5 2
1 2 3 4 5
Ejemplo:
es la misma sustitucion de grado 5 que
.
2 5 4 3 1
5 1 2 4 3
Puesto que la permutacion 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitucion dada es impar.
Estamos listos para introducir el concepto de determinante . Sea

a11 a12 a1n


a21 a22 a2n

(aij ) .
..
..
..
..
.
.
.
an1 an2 ann
una matriz cuadrada de orden n. Consideremos todos los productos posibles de n
elementos de (aij ) donde cada producto contiene exactamente un elemento de cada
fila y uno de cada columna, esto es, todos los productos de la forma
a11 a22 ann

(1.11)

donde 1 2 n es una permutacion de los ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera fila de (aij ), a saber a11 ,
luego uno de la segunda fila, a saber a22 (donde a22 no puede estar en la columna
1 , esto es, 1 6= 2 ), luego uno de la tercera fila a saber a3 3 (donde a33 no puede
estar en las columnas 1 o 2 , esto es 1 6= 2 6= 3 ) y as continuamos hasta la fila
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ndices fila
siempre pueden escribirse en el orden natural.
Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitucion

1
2
3 n
1 2 3 n
es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.
A la suma algebraica de estos n! productos de la forma (1.11) con los signos adjudicados mediante la regla recien enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (aij ). Si n = 1 diremos que a11 es el determinante de

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

12

orden 1 de la matriz (a11 ).


Al determinante de la matriz (aij ) lo

det(aij )

Ejemplo: Sea

denotaremos por
a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

an1

an2

ann

a11
(aij ) = a21
a31

a12
a22
a32

a13
a23
a33

Hay 6 productos de la forma (1.11)


a11 a22 a33
donde debemos rellenar 1 , 2 , 3 con todas las permutaciones posibles de los ndices
1,2,3. Los 6 productos posibles son
a11 a22 a33
a12 a23 a31
a13 a21 a32

correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellos


mantienen su signo. Los otros 3 son

a12 a21 a33


a11 a23 a32
a13 a22 a31

correspondientes a las permutaciones impares 2 1 3, 1 3 2, 3 2 1,


ellos deben ser multiplicados por -1. Luego

det(aij ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a12 a21 a33 a11 a23 a32 a13 a22 a31

1.3.

Propiedades del determinante

Definici
on 1.16 Sea (aij ) una matriz cuadrada de orden n. A la matriz cuadrada
de orden n (bij ), donde bij = aji i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos la
traspuesta de (aij ), se anota
(bij ) = (aij )t
Es claro que (bij ) se obtiene de (aij ) poniendo las filas de aij como columnas de bij .
Ejemplo:

1 3
(aij ) = 2 1
1 1
En general si

(aij ) =

5
4
1

a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

an1

an2

ann

1
(aij )t = 3
5

(aij )t =

2
1
4

1
1
1

a11
a12
..
.

a21
a22
..
.

..
.

an1
an2
..
.

a1n

a2n

ann

1.3. PROPIEDADES DEL DETERMINANTE

13

Nota: Cada producto a11 a22 ann se llama un termino del determinante.
Propiedad 1: det(aij ) = det(aij )t
Es evidente que ambos determinantes tienen los mismos terminos, hay que demostrar
que el mismo termino tiene el mismo signo en det(aij ) y en det(aij )t . Sea
a11 a22 ann
un termino de det(aij ). Si llamamos (bij ) = (aij )t tal termino es en det(bij )
b1 1 b2 2 bn n .
Si reordenaramos los factores de modo que el producto quede en
b11 b22 bnn esto sera lo mismo que llevar la sustitucion

1 2 n
1 2 3
a la forma
1
2 n
1 2 3

1 2 n
Pero esta u
ltima tiene la misma paridad que
1
2 n

1
2
3 n
tiene la misma paridad que
(la suma
1 2 3 n
versiones es la misma).

la forma canonica

n
.
n

la cual a su vez
del n
umero de in-

Se concluye que a11 a22 ann tiene el mismo signo considerado como termino de
det(bij ).
De la propiedad 1 se deduce que cualquier afirmacion sobre las filas del determinante
es validad para sus columnas y viceversa, por esta razon las propiedades que siguen
solo se demostraran para las filas del determinante.
Propiedad 2: Si para alg
un i, 1 i n, aij = 0 j = 1, 2, . . . , n entonces
det(aij ) = 0.
En efecto, cada termino contiene un factor de la i-esima fila (definicion de determinante) luego todos los terminos son iguales a cero.
Propiedad 3: Si un determinante se obtiene de otro permutando dos filas todos los
terminos del primer determinante ser
an terminos del segundo pero con signos contrarios, es decir, al permutar dos filas el determinante s
olo cambia de signo.
Supongamos que permutamos las filas i y j, i < j. Sea (bij ) la matriz que se obtiene
al permutar las filas.
Consideremos un termino cualquiera del determinante original,
a11 a22 aii ajj ann
y su signo esta determinado por la paridad de

1
2 i
1 2 i

j
j

n
n

14

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

En el nuevo determinante el es
b11 b22 bji bij bnn
(aii pasa a la fila j pero permanece en la columna i , analogamente para ajj ) y su
signo esta determinado por la paridad de

1
2 j
i n
1 2 i j n
Puesto que 1 2 j i n se obtiene de 1 2 i j n mediante una trasposicion, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustituciones tienen paridad contraria.
Se concluye que a11 a22 ann aparece en el nuevo determinante con signo opuesto
al que tena en el determinante original.
Propiedad 4: Un determinante con dos filas iguales es igual a cero.
Supongamos que det(aij ) = d y supongamos que las filas i, j son iguales. Entonces al
intercambiar las filas i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = d d = 0.
Propiedad 5: Si se multiplican todos los elementos de una fila del determinante por
un n
umero k, el determinante queda multiplicado por k.
Supongamos que multiplicamos todos los elementos de la fila i por k. Por la definicion
de determinante cada termino queda multiplicado por k.
Nota: El factor com
un de todos los elementos de una fila puede ser extrado como
un factor del determinante.
Ejemplo:

2 4

a b

d e

6
c
f

1 2

= 2 a b

d e

3
c
f

Propiedad 6: Un determinante con dos filas proporcionales es igual a cero.


Supongamos que air = kajr r = 1, 2, . . . , n. Por la propiedad 5 es posible extraer factor
com
un de la fila j, queda as un determinante con dos filas iguales.
Propiedad 7: Escribamos la i-esima fila de det(aij ) como
aij = bj + cj

j = 1, 2, . . . , n.

Entonces det(aij ) es igual a la suma de dos determinantes cuyas filas son, salvo la fila
i, las mismas que las del original, y la fila i del primer sumando es b1 b2 bn y la fila
i del segundo sumando es c1 c2 cn .

1.3. PROPIEDADES DEL DETERMINANTE

15

En efecto,
a11 a22 ann

=
=

a11 a22 (bj + cj ) ann


a11 bj ann + a11 cj ann

Pero el primer sumando es un termino del determinante original salvo que su fila i ha
sido reemplazada por b1 b2 bn , analogamente para el segundo sumando.
Ejemplo:

3 3

a b

d e

3
c
f


1+2

= a

d

2+1
b
e

0+3
c
f


1 2

= a b

d e

0
c
f


2 1

+ a b

d e

3
c
f

Definici
on 1.17 Diremos que la i-esima fila de det(aij ) es combinaci
on lineal de las
dem
as filas del determinante si hay constantes k1 , k2 , . . . , ki1 , ki+1 , . . . , kn tales
que
i1
n
X
X
aij =
kr arj +
kr arj j = 1, 2, . . . , n
r=1

r=i+1

Ejemplo: Consideremos el determinante

a1
a2

b
b2
1

a1 + 2b1 a2 + 2b2

a3
b3
a3 + 2b3

La tercera fila es combinacion lineal de las filas 1 y 2, k1 = 1, k2 = 2, entonces


a3j =

2
X

br arj

j = 1, 2, 3.

r=1

Nota: Es posible que algunos de los kr sean iguales a cero. En tal caso la fila i es
combinacion lineal de algunas de las restantes filas pero con la argucia de tomar los
restantes kr como iguales a cero podemos fingir que es combinacion lineal de todas
las filas. En el caso en que todos los kr menos uno sean iguales a cero, por ejemplo
kj 6= 0, obtenemos que la fila i, i 6= j es combinacion lineal de la fila j, esto es, la fila
i es proporcional a la fila j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinacion lineal.
Propiedad 8: Si una de las filas del determinante es combinaci
on lineal de las dem
as,
el determinante es igual a cero.
Supongamos que la i-esima fila es combinacion lineal de las demas filas. Descompongamos el determinante en una suma de determinantes cuyas filas son todas iguales a las
del determinante original salvo la i-esima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una fila de ceros, o bien tiene dos filas proporcionales, en
ambos casos el sumando en cuestion es igual a cero.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

16

Propiedad 9: El determinante no cambia si a los elementos de una fila se agregan


los elementos de otra fila multiplicados por un mismo n
umero.
Supongamos que a la i-esima fila se le agrega la j-esima multiplicada por k. Obtenemos
un determinante cuya i-esima fila es air + kajr , r = 1, 2, . . . , n. Tal como antes usamos
la propiedad 7.
Nota: Es claro que el determinante no cambia si a una fila se le agrega una combinacion lineal de las demas.
Ejemplo: Calcule

am + bp an + bq
=
cm + dp cn + dq

usando la propiedad 7.

am
an
bp
bq

=
+

am + dp cn + dq
cm + dp cn + dq

am an am an bp bq bp bq

=
+
+
+
cm cn dp dq cm cn dp dq

m n
p q

+ 0 usando la propiedad 3
= 0 + ad
+ bc
p q
m n

p q
p q

= ad
+ bc
m n
m n

p q

= (bc ad)
m n
Ejemplo: Calcule

Por la propiedad 5

2
5
2
2
7

0
3
5
0
8

6
2
7
9
4

0
2
5
2
2

4
7
5
7
1

= 2

1
5
2
2
7

0
3
5
0
8

3
2
7
9
4

0
2
5
2
2

2
7
5
7
1

aplicando la propiedad 9 las filas 2, 3,

= 2 0
0

4, 5 tenemos:
0
3
5
0
8

3
0
13 2
1
5
3
2
17 2

2
3
1
3
13

1.3. PROPIEDADES DEL DETERMINANTE

17

Por definicion de determinante, todos los terminos deben contener exactamente un


elemento de la primera columna, luego sobreviven solo aquellos sumandos que contienen a a11 = 1 y exactamente un elemento de las filas 2, 3, 4, 5 y un elemento de las
columnas 2, 3, 4, 5. Entonces un termino tpico del desarrollo es de la forma
1 a22 a33 a44 a55
cuyo signo esta dado por la sutitucion

1 2
1 2

3
3

4
4

5
5

la cual tiene la misma paridad que la sustitucion de grado 4

2
3
4
5
2 3 4 5
(el conjunto M de smbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversion con
los restantes smbolos. Se concluye que

3 13 2 3
3 13 2
3

5
5
1
5
1
1
5
1
= 2
= 2

3
2
3
3
2
3
0
0
8 17 2 13
0 5 5 11

15 65 10 15
15 65 10 15

2 0
2 15
3
15
3
68
5
18
=
=
3
2
3 15 0
3
2
3
15 0
0 5 5 11
0 5 5 11

68
63 5
5
18
18

2
3 = 2 1
2
3
= 2 3
5 5 11
0 5 11

1
1
2
3
2
3

18 = 2 0 121 171
= 2 63 5
0 5 11
0 5
11

121 171

= 2 1 93
= 2

5
11
5 11

1 93
= 2 476 = 952
= 2
0 476

Ejemplo: Encuentre las races de

1
1

1 2 x2

2
3

2
3

2
3
2
3
1
5
1 9 x2

=0

Para x = 1 y para x = 1 las dos primeras filas quedan iguales luego el polinomio es
divisible por (x 1)(x + 1). Analogamente para las filas 3 y 4 con x = 2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x2 4)(x2 1), nos

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

18

falta el valor de c. Haciendo x = 0 tenemos


1 1 2 3


1 2 2 3
=
4c =

2 3 1 5
2 3 1 9

1
0
2
0

1
1
3
0

2
0
1
0

3
0
5
4

Utilizando la misma argumentacion que en el ejercicio anterior vemos que un termino


tpico del determinante es a11 a22 a33 a44 , (a44 = 4) luego

1 1 2
1 1 2
1 0

4c = 4 0 1 0 = 4 0 1 0 = 4
1 3
0 1 3
2 3 1
luego c = 3.
Ejemplo: Calcule el determinante de la matriz de n n dada por

a si i 6= j
aij =
x si i = j
Sumando a la primera columna todas las demas queda el siguiente determinante:
ai1
a1j
aij
aii

=
=
=
=

x + (n 1)a , i = 1, 2, . . . , n
a , j = 2, 3, . . . , n
a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
x , i = 2, 3, . . . , n

Luego el determinante es igual a [x + (n 1)a], donde es el determinante dado por


ai1
a1j
aij
aii

=
=
=
=

1,
a,
a,
x,

i = 1, 2, . . . , n
j = 2, 3, . . . , n
i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
i = 2, 3, . . . , n

Restemos la primera fila a todas las demas filas, aplicamos la misma argumentaci
on
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n 1)a]d
donde d es un determinante de orden (n 1) dado por

0
i 6= j
aij =
x a i = j, i = 2, 3, . . . , n
El u
nico termino distinto de cero de dicho determinante es (x a)(x a) (x a)
(n 1 veces) y su signo esta dado por

2 3 n
2 3 n
luego el determinante pedido vale [x + (n 1)a](x a)n1 .
Ejemplo: Calcule el determinante de Vandermonde

1
1

a1
a

a
2
n

a22

a2n
= a1
..
..
..
..
.
.
.
.
n1
n1
n1
a
a

a
n
1
2

1.4. TEOREMA DE LAPLACE

19

En forma sucesiva restamos a la fila k la fila k 1 multiplicada por a1 , k = n, n


1, n 2, . . . , 2. Entonces

1
1
1

0
a2 a1
a3 1

an a1

0
a2 (a2 a1 )
a3 (a3 a1 )

an (an a1 )
=
..

..
..
..
..

.
.
.
.
.

0 an2 (a2 a1 ) an2 (a3 a1 ) an2 (an a1 )


n
2
3
= (a2 a1 )(a3 a1 ) (an a1 )d
donde d es un determinante de Vandermonde de orden n 1.
Por demostrar: El determinante de Vandermonde es igual al producto de todas las
diferencias posibles ai aj , 1 j < i n.
La afirmacion es verdadera para n = 2 y acabamos de demostrar que si es valida para
n 1 tambien es valida para n.

1.4.

Teorema de Laplace

Puesto que es difcil calcular un determinante usando directamente la definicion, buscaremos un teorema que reduzca el calculo de un determinante de orden n a uno de
n 1, lo cual permite, en principio, remontarse al calculo de determinantes de orden
2.
Definici
on 1.18 Sea d un determinante de orden n, sea k entero, 1 k n 1. En
la matriz (aij ) elegimos arbitrariamente k filas y k columnas. Consideremos la matriz
formada por los elementos que est
an en las intersecciones de las k filas y k columnas
elegidas. Al determinante de orden k de esta matriz se le llama menor de orden k
del determinante d (es el determinante que se obtiene de borrar n k filas y n k
columnas de d).
Ejemplo: Sea

d =

a11
a21
a31
a41

a12
a22
a32
a42

a13
a23
a33
a43

a14
a24
a34
a44

Un menor de orden 1 se obtiene escogiendo la fila 2 y la columna 3, el menor es


|a23 | = a23 .
Un menor de
a
a24
es 22
a32 a34

orden
2 se obtiene escogiendo las filas 2,3 y las columnas 2, 4, el menor

Si borramos la fila 1 y la columna 1 obtenemos el

a22 a23 a24

a32 a33 a34

a42 a43 a44

menor de orden 3 dado por

20

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Definici
on 1.19 Sea M un menor de orden k de d, 1 k n 1. Suprimamos las k
filas y las k columnas en cuyas intersecciones se encuentra M . Las restantes (n k)
filas y (n k) columnas forman un menor M 0 llamado el menor complementario de
M .

a
a11 a13
a24

En el ejemplo previo, el menor complementario de 22


es
a41 a43 .
a32 a34
Definici
on 1.20 Supongamos que el menor M de orden k se encuentra en las filas
i1 , i2 , . . . , ik y en las columnas j1 , j2 , . . . , jk , sea M 0 su menor complementario. Si
SM = i1 + i2 + + ik + j1 + j2 + + jk ,
llamaremos adjunto de M a (1)SM M 0 .

a
En el ejemplo previo, el adjunto de 22
a32

a24
es
a34

a
a13
(1)2+3+2+4 11
a41 a43

Lema 1.21 Sea d un determinante de orden n, sea M un menor de orden k, sea M 0


su menor complementario. Sea A un termino de M (con el signo que tiene en M ),
sea B un termino de M 0 (con el signo que tiene en M 0 ). Entonces (1)SM AB es un
termino de d (con el signo que le corresponde en d)
Demostraci
on: Supongamos que M 0 esta formado por las primeras k filas y primeras
k columnas. Como SM = 2(1 + 2 + + k), (1)SM = 1. Sea A = a11 a22 akk ,
su signo esta determinado por la sustitucion

1
2
3 k
,
1 2 3 k
sea l su n
umero de inversiones. Un termino cualquiera de M 0 es
B = a(k+1)k+1 a(k+2)k+2 ann ,
su signo en M 0 esta dado por

k+1
k+1

k+2
k+2

n
n

sea l0 su n
umero de inversiones.
AB tiene exactamente un factor de cada fila y cada columna de d luego es un termino
0
de d. El signo de AB en el producto M M 0 esta determinado por (1)l+l , su signo en
d esta determinado por la sustitucion

1
2 k k + 1 k + 2 n
.
1 2 k k+1 k+2 n
Pero como los no pueden formar inversion con los , ella tiene l + l0 inversiones, su
0
signo en d tambien esta determinado por (1)l+l .

1.4. TEOREMA DE LAPLACE

21

Supongamos ahora que M 0 esta formado por las filas i1 < i2 < < ik y las columnas
j1 < j2 < < jk . Llevemos el menor M al angulo superior izquierdo, esto es, mediante
trasposiciones de filas y trasposiciones de columnas formamos un nuevo determinante
cuyas primeras k filas y primeras k columnas son las k filas y k columnas de M . Para
esto llevamos a cabo
(i1 1) + (i2 2) + + (ik k) = i1 + i2 + + ik

k(k + 1)
2

trasposiciones de filas y
(j1 1) + (j2 2) + + (jk k) = j1 + j2 + + jk

k(k + 1)
2

trasposiciones de columnas, el nuevo determinante d0 es igual a


(1)i1 +i2 ++ik +j1 +j2 ++jk k(k+1) d ,
pero k(k + 1) es par luego d0 = (1)SM d.
Puesto que en el proceso indicado no cambian ni las filas ni las columnas que constituyen a M 0 ni tampoco su orden relativo, M 0 sigue siendo el menor complementario de
M en d0 . Sea A un termino de M , B un termino de M 0 . Como el orden relativo de las
filas y columnas de M no ha cambiado, A sigue teniendo el mismo signo como termino
de M en la nueva posicion de M , analogamente para B. Entonces, por la primera
parte de la demostracion, AB es un termino de d0 . Pero todos los terminos de d0 son
terminos de d si los multiplicamos por (1)SM puesto que (1)SM d0 = (1)2SM d = d
luego (1)SM AB es un termino de d.
El lema nos permite reducir el calculo de un determinante de orden n a un determinante de orden n 1.
Notaci
on: Sea M = |aij | un menor de 1 1 del determinante d. Su menor complementario es de orden (n 1) y lo designaremos por Mij . Designaremos por Aij =
(1)i+j Mij al adjunto de M .
Teorema 1.22 Sea i una fila cualquiera de d. Entonces
d=

n
X

aij Aij

j=1

Demostraci
on: Por el lema, cada termino del desarrollo aij Aij es un termino de d
con el signo que le corresponde en d. Sea A un termino del desarrollo air Air , si j 6= r,
A no puede ser un termino del desarrollo aij Aij puesto que A contiene al elemento air
de la i-esima fila en tanto que aij Aij contiene al elemento aij de la i-esima fila, j 6= r.
El desarrollo aij Aij contiene (n 1)! terminos de d con el signo que les corresponde en
n
X
d,
aij Aij contiene n(n 1)! terminos distintos de d con el signo que les corresponde
j=1

en d y puesto que d consta de n! terminos se tiene que

n
X
j=1

aij Aij es d.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

22
Notaci
on: Diremos que

n
X

aij Aij es el desarrollo del determinante por los adjuntos

j=1

de la i-esima fila.
Es obvio que tambien es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.
Ejemplo: Desarrollar

d =

por los adjuntos de la tercera fila.

d =

1 1 2
3

3 4 + (1)3+2 0 5
(1)3+1 2 1
5 3 3
1

1
2

+(1)3+3 1 5 1 4 + (1)3+4 (1)


1 5 3

1
3
3

2
4
3

3
5
1

1
1
5

1
3
3

Del ejemplo se concluye que mientras mas ceros tiene la fila, mas facil es el desarrollo.
As, usando sistematicamente las propiedades del determinante es posible transformarlo de modo que quede una fila que tiene un 1 y (n 1) ceros, as el calculo de un
determinante de orden n se reduce al calculo de un solo determinante de orden n 1.
Ejemplo: Sea

d =

2
1
3
2
0

5
0
1
6
3

0
3
0
4
1

1
7
5
1
2

3
2
5
2
3

Realice las siguientes transformaciones:


Sume a la segunda fila tres veces la quinta fila.
Reste a la cuarta fila cuatro veces la quinta fila.
Luego desarrolle por los adjuntos de la tercera

2 5

1 9
d = (1)
3 1
2
18

columna, se obtiene

1
3
13
7
5
5
7 10

En este u
ltimo determinante realice las siguientes transformaciones:

1.4. TEOREMA DE LAPLACE

23

Sume a la primera fila dos veces la segunda fila.


Reste a la tercera fila tres veces la segunda fila.
Reste a la cuarta fila dos veces la segunda fila.
Luego desarrolle por los adjuntos de la primera columna,

13 25
17
17 13 25

16
8
d = 26 34 26 = 0
36 33 24 36 33 24

13 25

17
2

2
1 = 8 13
= 8 0
33
24
36 33 24
=

se obtiene

+ 36 25
2

17
1

8{13(48 + 33) + 36(25 34)} = 8{195 324} = 8 129 = 1032

Corolario 1.23 Sea i 6= j, entonces

n
X

aik Ajk = 0.

k=1

Demostraci
on:

n
X

aij Ajk puede interpretarse como el desarrollo por los adjuntos

k=1

de la j-esima fila de un determinante igual al original salvo que la j-esima fila es


bjk = aik k = 1, 2, . . . , n. Pero este es un determinante cuya i-esima fila y j-esima fila
son iguales luego vale cero.
Definici
on 1.24 Una matriz

a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

an1

an2

ann

se dice triangular superior si aij = 0 siempre que i > j, o bien triangular inferior si
aij = 0 siempre que i < j.
Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igual
al producto de los elementos en su diagonal.
Demostraci
on: Claramente el teorema es cierto si n = 1. Sea d el determinante de
la matriz (aij ). Supongamos que la matriz es triangular superior y desarrollemos por
los adjuntos de la primera columna, obtenemos
d=

n
X

ai1 Ai1 = a11 A11 ,

i=1

pero A11 es el determinante de la matriz que resulta de eliminar la primera fila y


la primera columna, que es tambien triangular superior. Luego si suponemos cierto el
teorema para matrices de n1 filas y n1 columnas tenemos que A11 = a22 a33 ann ,
de donde se tiene que el teorema es cierto por induccion.
Si la matriz es triangular inferior, su traspuesta es triangular superior y los elementos
de su diagonal permanecen invariantes.

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

24

Teorema 1.26 (Laplace) Sea d un determinante de orden n, sea 1 k n 1.


Elijamos k filas (o k columnas) del determinante y consideremos todos los menores
de orden k que se pueden formar con dichas k filas (o k columnas). La suma de los
productos de dichos menores por sus respectivos adjuntos es d.
Antes de dar la demostracion veamos un ejemplo. Sea

d =

4
0
2
1
0

1
3
3
1
4

2
0
1
3
0

2
1
3
1
2

1
5
1
0
5

Desarrollamos por los menores de la primera y tercera columnas ( esto es k = 2 y


elegimos las columnas 1 y 3).

3 3 1

3
1 5

4
2
1 1 0 + (1)1+3+1+3

2 1 1 1 0
4

2 5
4
2
5

3
1 5
1 5

4 2
1+5+1+3 4 2

3
3
1
3
3
1
+
(1)

0 0
1 3
1 1 0
4
2
5

1 2 1

1 2 1

0 0
0
0
3 3 1
1 1 0 + (1)2+4+1+3

2 1
1
3
4
4
2 5
2 5

1 2 1

1 2 1

0 0
2
1
3 1 5
3 3 1 + (1)3+4+1+3

0 0
1
3
4 2
1 1 0
5

1 2 1

1 2 1

2 1
1
3
3
3
1 5 + (1)4+5+1+3
1 5

0 0
0
0
3 3 1
1 1 0

1+2+1+3 4
= (1)
0

1+4+1+3
+(1)

2+3+1+3

2+5+1+3

3+5+1+3

+(1)

+(1)

+(1)

2
0

Demostraci
on: Sean i1 , i2 , . . . , ik las filas escogidas, sea A = a11 a22 ann un
termino cualquiera del determinante d. En A hay exactamente un elemento de cada
una de las filas i1 , i2 , . . . , ik . Supongamos que ellos estan en las columnas i1 , i2 , . . . ,
ik . Consideremos el producto B = ai1 i1 ai2 i2 aik ik . B contiene exactamente un
elemento de cada fila y un elemento de cada columna del menor M formado por las filas
i1 , i2 , . . . , ik y las columnas i1 , i2 , . . . , ik . El producto de los restantes factores de
A contiene exactamente un elemento de cada fila y un elemento de cada columna del
menor complementario M 0 de M . Se concluye que, al menos en valor absoluto, A es un
termino del desarrollo indicado
en el enunciado del teorema. El n
umero de terminos

de dicho desarrollo es nk k!(n k)! = n! y seg
un el lema, cada uno es un termino
de d. Pero solo hay uno que contiene los mismos factores que A, si difiriese en signo
con A entonces no sera termino de d. Hemos demostrado que todos los terminos de d
aparecen entre los indicados en el enunciado del teorema y que estos son exactamente
n!, esto prueba el teorema propuesto.

1.5. LA REGLA DE CRAMER

1.5.

25

La regla de Cramer

Consideremos un sistema de n ecuaciones lineales con n incognitas:


a11 x1 + a12 x2 + + a1n xn
a21 x1 + a22 x2 + + a2n xn

=
=
..
.

b1
b2

an1 x1 + an2 x2 + + ann xn

bn

(1.12)

Sea d el determinante de la matriz del sistema, supondremos que d 6= 0. Si (1.12) es


compatible, sea (1 , 2 , . . . , n ) una solucion. Entonces
a11 1 + a12 2 + + a1n n
a21 1 + a22 2 + + a2n n

=
=
..
.

b1
b2

an1 1 + an2 2 + + ann n

bn

(1.13)

Sea j arbitrario, 1 j n, multipliquemos la primera igualdad de (1.13) por A1j (el


adjunto de a1j ), la segunda por A2j , . . . , la enesima por Anj y sumandolas se obtiene
n
!
n
!
n
!
n
X
X
X
X
ai1 Aij 1 +
ai2 Aij + 2 + +
ain Aij n =
bi Aij
i=1
n
X

aij Aij = d y si r 6= j,

i=1

i=1
n
X

i=1

i=1

air Aij = 0, luego

i=1

dj =

n
X

bi Aij

i=1

Pero

n
X

bi Aij es el desarrollo de un determinante identico a d salvo por su j-esima

i=1

columna que es reemplazada por la solumna de los terminos libres b1 , b2 , . . . , bn . Si


n
X
dj
bi Aij entonces
i=1

j =

dj
d

1jn

(1.14)

Se concluye que si d 6= 0 y el sistema es compatible entonces la solucion es u


nica y
esta dada por (1.14).
A la inversa, supongamos que d 6= 0 y reemplacemos la n-tupla ( dd1 , dd2 , . . . , ddn ) en el
lado izquierdo de (1.12). Veamos que sucede en la i-esima ecuacion:
" n
#
n
n
n
n
X
X
X
1X
dr
1X
=
air
air
bs Asr =
air Asr bs
d
d r=1
d r=1
r=1
s=1
s=1
Pero

1X
air Asr =
d r=1

0
d
d

si i 6= s
si i = s

26

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES


d

luego la ecuacion se satisface para 1 i n. Se concluye que j = dj 1 j n es


una solucion del sistema de ecuaciones y por lo tanto si d 6= 0 el sistema es compatible,
tenemos as la regla de Cramer:

Teorema 1.27 Si el determinante d de la matriz de un sistema de ecuaciones lineales


d
es distinto de cero, el sistema tiene soluci
on u
nica dada por (1 , 2 , . . . , n ), j = dj
1 j n donde dj es identico al determinante d salvo por la j-esima columna que se
reemplaza por la columna de los terminos libres.
Nota: Todo sistema homogeneo es compatible (admite siempre la solucion trivial
(0, 0, . . . , 0), si d 6= 0 esta es la u
nica solucion. Se concluye que si un sistema lineal
homogeneo de n ecuaciones con n incognitas tiene soluciones distintas de la trivial
necesariamente su determinante d es igual a cero.
Estamos en condiciones de demostrar que si un determinante d es igual a cero al menos
una de sus filas es combinacion lineal de las demas. Para esto consideremos el sistema
homogeneo de n ecuaciones con n incognitas cuya matriz (aij ) es aquella cuyas filas
son las filas del determinante d. Si aplicamos el metodo de Gauss obtenemos un sistema cuyo determinante es igual a cero, puesto que el metodo de eliminacion de Gauss
consiste esencialmente en restar a una ecuacion ciertas combinaciones lineales de las
ecuaciones que la preceden y mediante estas operaciones el valor del determinante del
sistema no cambia. Esto significa que dicho sistema solo puede ser reducido a un sistema trapezoidal, esto es, alguna de las ecuaciones debe haber sido eliminada, pues
de lo contrario habra sido obtenido un sistema triangular, cuya matriz tendra un
determinante distinto de cero pues sera el producto de los elementos en la diagonal,
que seran todos distintos de cero. Pero para que eso suceda, al menos una de las
ecuaciones debe ser combinacion lineal de las demas precisamente porque el metodo
de eliminacion consiste en restar a una ecuacion ciertas combinaciones lineales de las
ecuaciones que la preceden.
La afirmacion tambien es verdadera para las columnas de d puesto que el sistema cuya
matriz es la traspuesta de (aij ) tambien tiene determinante igual a cero.
Puesto que un sistema homogeneo que se puede llevar mediante el metodo de Gauss
a un sistema trapezoidal admite soluciones no triviales, se concluye tambien que si el
determinante de un sistema homogeneo es igual a cero dicho sistema tiene soluciones
distintas de la trivial.
Ejemplo: Resolver el sistema

2
1

0
1

d =

1
3
2
4
2
1
0
1

1
3
2
4

5
0
1
7
5
0
1
7

1
6
2
6
1
6
2
6

8
9

5
0

= 27

1.5. LA REGLA DE CRAMER

d1 =

d3 =

8
9
5
0

1
3
2
4

2 1
1 3
0 2
1 4

27

1
6
= 81
2
6

8
1
9 6
= 27
5 2
0
6

d2 =

d4 =

5
0
1
7

1 = 3

Ejemplo: Dado el sistema

2 = 4

2
1
0
1

8
9
5
0

5
0
1
7

1
6
2
6

2
1
0
1

1
3
2
4

5
0
1
7

8
9
5
0

3 = 1

= 108

= 27

4 = 1

encuentre los valores de para los cuales el sistema admite una soluci
on no trivial.
Necesariamente

Entonces

0

1


1 1

1
0
1

2
1

=0

2
=0,

( + 2) = 0

luego para cualquier valor de el sistema admite solo la solucion trivial.

28

CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Captulo 2

Relaciones de dependencia
lineal
2.1.

El espacio vectorial Rn

Para construir la teora general de los sistemas de ecuaciones lineales introduciremos


un objeto algebraico auxiliar. Sea n un natural arbitrario, llamaremos espacio vectorial n-dimensional y lo designaremos por Rn a la siguiente estructura algebraica:
sus elementos seran todas las n-tuplas = (a1 , a2 , . . . , an ) de n
umeros reales. Diremos
que dichas n-tuplas son vectores de Rn , nos referiremos a ellas como vectores a secas.
Por ejemplo, R2 es el conjunto de los pares ordenados de n
umeros reales, R3 es el conjunto de los tros ordenados de n
umeros reales. Los n
umeros a1 , a2 , . . . , an se llaman
las componentes de la n-tupla.
Diremos que = (a1 , a2 , . . . , an ), = (b1 , b2 , . . . , bn ) son iguales si y solo si ai = bi
i = 1, 2, . . . , n.
En Rn definimos las siguientes operaciones:
Sean = (a1 , a2 , . . . , an ), = (b1 , b2 , . . . , bn ), llamaremos suma de los vectores y
al vector
+ = (a1 + b1 , a2 + b2 , . . . , an + bn )
De la definicion de suma y de la conmutatividad y asociatividad de la suma de n
umeros
vemos que la suma de vectores es conmutativa y asociativa:
+ = + , , Rn
+ ( + ) = ( + ) + , , , Rn
Llamaremos vector nulo a 0 = (0, 0, . . . , 0), es claro que es el u
nico vector de Rn que
tiene la siguiente propiedad:
+0=

Rn

Llamaremos inverso aditivo del vector = (a1 , a2 , . . . , an ) a


= (a1 , a2 , . . . , an )
29

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

30

y es el u
nico vector tal que + () = 0. Al vector
+ () = (a1 b1 , a2 b2 , . . . , an bn )
lo llamaremos la diferencia de los vectores y , se anota simplemente como .
Sea Rn , k un n
umero real, llamaremos producto del vector por el n
umero real k
al vector
k k = (ka1 , ka2 , . . . , kan )
Es evidente que la operacion tiene las siguientes propiedades:
i.- 1 =

Rn

ii.- k( + ) = k + k

, Rn , k R

iii.- (k1 + k2 ) = k1 + k2
iv.- k1 (k2 ) = (k1 k2 )

Rn , k1 , k2 R

Rn , k1 , k2 R

El lector puede verificar que 0 = 0, (1) = para todo Rn , y si k = 0


entonces k = 0 o = 0.

2.2.

Dependencia lineal

Definici
on 2.1 Sean 1 , 2 , . . . , s Rn . Diremos que el vector es combinacion
lineal de los vectores 1 , 2 , . . . , s si existen n
umeros reales l1 , l2 , . . . , ls tales que
=

s
X

li i

i=1

Definici
on 2.2 Diremos que los vectores 1 , 2 , . . . , s son linealmente dependientes
si hay n
umeros reales k1 , k2 , . . . , ks no todos nulos tales que
s
X

ki i = 0

i=1

En caso contrario diremos que los vectores 1 , 2 , . . . , s son linealmente independientes.


El conjunto de vectores es linealmente independiente si y solo si la u
nica combinaci
on
lineal de ellos que es igual a cero es la trivial, esto es,
0 1 + 0 2 + + 0 n
(aquella en que todos los ki son cero).
Vemos que todo conjunto de vectores que contiene al vector cero es linealmente dependiente, si i = 0 tomemos kj = 0 si j 6= i, ki 6= 0 y se tiene
0 1 + 0 2 + + ki i + + 0 n = 0

DEL ESPACIO VECTORIAL RN


2.3. DIMENSION

31

Teorema 2.3 El conjunto de vectores 1 , 2 , . . . , s , s 2 es linealmente dependiente si y s


olo si al menos uno de ellos es combinaci
on lineal de los otros.
Demostraci
on: Supongamos que hay k1 , k2 , . . . , ks no todos nulos tales que

s
X

0. Sin perdida de generalidad podemos suponer que k1 6= 0. Entonces


1 =

s
X
ki
i=2

k1

ki i =

i=1

i .

A la inversa, supongamos que hay l2 , l3 , . . . , ls tales que 1 =

s
X

l2 2 . Entonces

i=2

s
X

l2 2 = 0 ,

i=2

tome k1 = 1, ki = li , i = 2, 3, . . . , s.
Ejemplo: En R3 sean
1 = (5, 2, 1)

2 = (1, 3, 3)

3 = (9, 7, 5)

4 = (3, 8, 7)

Es facil ver que 41 2 33 + 24 = 0, el sistema de cuatro vectores es linealmente


dependiente. . Tambien 21 + 2 3 = 0 luego 1 , 2 , 3 tambien son linealmente
dependientes como tambien lo son 2 , 3 , 4 .
Nota: Supongamos que de los s vectores 1 , 2 , . . . , s hay r de ellos linealmente
dependientes, r < s, entonces el conjunto 1 , 2 , . . . , s es linealmente dependiente. En
efecto, sin perdida de generalidad podemos suponer que 1 , 2 , . . . , r son linealmente
dependientes y por lo tanto hay k1 , k2 , . . . , kr no todos nulos tales que
k1 1 + + kr r = 0 .
Elija kr+1 = kr+2 = = ks = 0.
Es obvio que si un conjunto de vectores es linealmente independiente, todo subconjunto
de el es linealmente independiente.
Notaci
on: Cuando un sistema de vectores es linealmente dependiente diremos que es
l.d., si es linealmente independiente diremos que es l.i.

2.3.

Dimensi
on del espacio vectorial Rn

Es claro que en Rn hay sistemas de n vectores que son l.i., considere el sistema
e1

= (1, 0, 0, . . . , 0)

e2

= (0, 1, 0, . . . , 0)
..
.

en

= (0, 0, 0, . . . , 1)

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

32

n
X

ki ei = 0

(k1 , k2 , . . . , kn ) = 0 = (0, 0, . . . , 0)

i=1

luego ki = 0, i = 1, 2, . . . , n.
Teorema 2.4 Sean 1 , 2 , . . . , s Rn , s > n. Entonces el conjunto es l.d.
Demostraci
on: Sean i = (ai1 , ai2 , . . . , ain ), i = 1, 2, . . . , s y supongamos que
s
X
ki i = 0. Entonces
i=1
s
X
(ki ai1 , ki ai2 , . . . , ki ain ) =

(k1 a11 , k1 a12 , . . . , k1 a1n ) +

i=1

(k2 a21 , k2 a22 , . . . , k2 a2n ) +


..
.
(ks as1 , k2 as2 , . . . , ks asn )
s
!
s
s
X
X
X
ki ai1 ,
ki ai2 , . . . ,
ki ain = 0
i=1

i=1

i=1

Obtenemos as un sistema lineal homogeneo


s
X

aij ki = 0

j = 1, 2, . . . , n

(2.1)

i=1

para las variables k1 , k2 , . . . , ks .


Sabemos que (2.1) es compatible, como el n
umero de incognitas es mayor que el n
umero
de ecuaciones (s > n), al aplicar el metodo de Gauss el sistema queda reducido a la
forma trapezoidal y por lo tanto tiene soluciones no triviales.
Del teorema se concluye que un sistema l.i. de vectores en Rn consta a lo mas de n
vectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).
Definici
on 2.5 Sean 1 , 2 , . . . , r un sistema de vectores l.i. en Rn . Diremos que
el sistema es linealmente independiente maximal si al agregar a el cualquier Rn ,
el nuevo sistema 1 , 2 , . . . , r , es l.d.
De lo dicho anteriormente se concluye que todo sistema l.i. en Rn que consta de n
vectores es linealmente independiente maximal.
Sea 1 , 2 , . . . , n l.i. en Rn , sea Rn arbitrario. Puesto que 1 , 2 , . . . , n es
maximal, hay constantes k1 , k2 , . . . , kn+1 , no todas nulas, tales que
n
X

ki i + kn+1 = 0

i=1

Si kn+1 = 0 entonces al menos uno entre k1 , k2 , . . . , kn es distinto de cero lo cual es


contradiccion. Se concluye que kn+1 6= 0 y es combinacion lineal de los vectores 1 ,
2 , . . . , n . Se concluye que

DEL ESPACIO VECTORIAL RN


2.3. DIMENSION

33

Si 1 , 2 , . . . , n es l.i. todo vector de Rn puede expresarse como combinaci


on
lineal de ellos. Decimos que el sistema de vectores 1 , 2 , . . . , n genera a Rn .
Por ejemplo, el sistema de vectores
e1
e2

en

= (1, 0, 0, . . . , 0)
= (0, 1, 0, . . . , 0)
..
.
= (0, 0, 0, . . . , 1)

genera a Rn .
Si = (a1 , a2 , . . . , an ) entonces =

n
X

a i ei .

i=1

Sea 1 , 2 , . . . , r l.i., y supongamos que no es maximal. Entonces hay r+1 Rn tal


que 1 , 2 , . . . , r , r+1 es l.i. Si no es maximal, hay r+2 Rn tal que 1 , 2 , . . . ,
r , r+1 , r+2 es l.i. Sabemos que el proceso debe terminar porque a lo mas pueden
completarse n vectores l.i. Entonces todo sistema l.i. esta contenido en un sistema
maximal, en particular un vector distinto de cero esta contenido en un sistema linealmente independiente maximal. Se concluye que hay infinitos sistemas linealmente
independientes maximales en Rn .
Hay sistemas linealmente independientes maximales que constan de menos de n vectores ? La respuesta es negativa, todos constan exactamente de n vectores. Nos abocaremos a responder la pregunta recien formulada.
Definici
on 2.6 Diremos que el vector se expresa linealmente mediante el sistema
de vectores 1 , 2 , . . . , r si es combinaci
on lineal de ellos.
Es claro que si se expresa linealmente mediante un subsistema 1 , 2 , . . . , r tambien se expresa linealmente mediante 1 , 2 , . . . , r .
Definici
on 2.7 Diremos que el sistema de vectores 1 , 2 , . . . , s se expresa linealmente mediante el sistema de vectores 1 , 2 , . . . , r si cada uno de los vectores 1 ,
2 , . . . , s es combinaci
on lineal de ellos.
Teorema 2.8 Supongamos que el sistema de vectores 1 , 2 , . . . , s se expresa linealmente mediante el sistema de vectores 1 , 2 , . . . , r y que el sistema de vectores
1 , 2 , . . . , t se expresa linealmente mediante el sistema de vectores 1 , 2 , . . . , s .
Entonces el sistema 1 , 2 , . . . , t se expresa linealmente mediante el sistema 1 , 2 ,
. . . , r .
Demostraci
on: Sea
s
X
j =
lji i
i
j

=
=

i=1
r
X
k=1
s
X
i=1

ik k
lji

r
X
k=1

j = 1, 2, . . . , t
i = 1, 2, . . . , s
ik k =

s
r
X
X
k=1

i=1

entonces
!
lji ik

j = 1, 2, . . . , t

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

34

Definici
on 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresa
linealmente mediante el otro.
Del teorema y la definicion se tiene que si dos sistemas son equivalentes y un vector
se expresa linealmente mediante uno de ellos entonces tambien se expresa linealmente
mediante el otro.
Teorema 2.10 Sea 1 , 2 , . . . , r un sistema de vectores l.i. en Rn y supongamos
que se expresa linealmente mediante el sistema de vectores 1 , 2 , . . . , s . Entonces
r s.
Demostraci
on: Supongamos que r > s. Por hipotesis
i =

s
X

aij j

i = 1, 2, . . . , r

j=1

En Rs definimos los vectores


1
2

= (a11 , a12 , . . . , a1s )


= (a21 , a22 , . . . , a2s )
..
.
= (ar1 , ar2 , . . . , ars )

Como r > s el conjunto de vectores 1 , 2 , . . . , r es l.d. y por lo tanto hay k1 , k2 ,


. . . , kr no todos nulos tales que
r
X
kl l = 0
l=1

Igualando las componentes a cero tenemos que


r
X

ki aij = 0

j = 1, 2, . . . , s

i=1

Pero

r
X
i=1

ki i =

r
X
i=1

ki

s
X
j=1

aij j =

r
s
X
X
j=1

!
ki aij

j = 0

i=1

lo cual es contradiccion luego r s.


Corolario 2.11 Sean 1 , 2 , . . . , r y 1 , 2 , . . . , s sistemas equivalentes en Rn
ambos l.i. Entonces r = s.
Por definicion se tiene que si 1 , 2 , . . . , r y 1 , 2 , . . . , s son sistemas linealmente
independientes maximales en Rn entonces ellos son equivalentes y por el corolario se
tiene que r = s. Como hay sistemas maximales de n vectores se tiene que r = s = n.
Todos los sistemas l.i. maximales en Rn constan de n vectores y hay infinitos de ellos.
Diremos que un sistema l.i. maximal en Rn es una base de Rn y el que todas las bases
de Rn constan del mismo n
umero n de vectores se expresa diciendo que Rn tiene dimensi
on n.

2.4. RANGO DE UN SISTEMA DE VECTORES

2.4.

35

Rango de un sistema de vectores

Sea 1 , 2 , . . . , n una base de Rn , sea = (a1 , a2 , . . . , an ). Entonces hay c1 , c2 , . . . ,


n
X
cn tales que =
ci i . Los n
umeros ci se llaman las componentes del vector con
i=1

respecto a la base 1 , 2 , . . . , n . Si
1
2

n
entonces

n
X

ck k =

k=1

n
X

= (b11 , . . . , b1n )
= (b21 , . . . , b2n )
..
.
= (bn1 , . . . , bnn )

ck (bk1 , bk2 , . . . , bkn ) = (a1 , a2 , . . . , an )

k=1

es equivalente a

n
X

ck bkj = aj

j = 1, 2, . . . , n

(2.2)

k=1

luego para encontrar las componentes del vector con respecto a la base 1 , 2 , . . . ,
n debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es u
nico. En efecto, si
=

n
X

ci i =

i=1

n
X

c0i i

i=1

n
X

(ci c0i )i = 0

i=1

entonces ci = c0i porque los 1 , 2 , . . . , n son l.i.


Notese que si queremos encontrar las componentes del vector 0 en la base 1 , 2 , . . . ,
n tenemos que resolver el sistema
n
X

ck bkj = 0

j = 1, 2, . . . , n

(2.3)

k=1

Puesto que se espera que (2.3) solo tenga la solucion trivial necesariamente debe tenerse
que det(bij ) 6= 0. A la inversa, si det(bij ) 6= 0 entonces (2.3) solo tiene la solucion trivial
y
n
X
ck k = 0
k=1

implica ck = 0, k = 1, 2, . . . , n. Esto demuestra que


olo si det(bij ) 6= 0.
Teorema 2.12 El conjunto de vectores 1 , 2 , . . . , n es l.i. si y s
La base e1 , e2 , . . . , en se llama la base est
andar de Rn , en ella
=

n
X
k=1

a k ek

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

36

esto es, las componentes del vector con respecto a la base estandar coinciden con
las componentes de la n-tupla (a1 , a2 , . . . , an ). Esta es la u
nica base para la cual esto
sucede. Si hubiese una base para la cual ck = ak , k = 1, 2, . . . , n para todos los vectores
de Rn , esto debera ser cierto en particular para e1 , e2 , . . . , en .
Definamos el siguiente smbolo llamado delta de Kronecker

1 si i = j
ij =
0 si i 6= j
Entonces
n
X

ck k =

k=1

n
X

ck (bk1 , bk2 , . . . , bkn ) = ei = (i1 , i2 , . . . , in )

k=1

Pero queremos que ck = ik para k = 1, 2, . . . , n luego


n
X

ik (bk1 , bk2 , . . . , bkn ) = (i1 , i2 , . . . , in ) .

k=1

En el miembro izquierdo ik = 0 si k 6= i, ii = 1 luego


(bi1 , bi2 , . . . , bin ) = (i1 , i2 , . . . , in )
luego i = ei , i = 1, 2, . . . , n.
Definici
on 2.13 Sea 1 , 2 , . . . , r un sistema de vectores en Rn . Diremos que
el subsistema i1 , i2 , . . . , is , s < r (aij {1 , 2 , . . . , r }, j = 1, 2, . . . , s) es
linealmente independiente maximal con respecto al sistema 1 , 2 , . . . , r si el sistema
i1 , i2 , . . . , is , con 6= ij j = 1, 2, . . . , s, {1 , 2 , . . . , n } es l.d.
Nota: Si 1 , 2 , . . . , r es l.i. tambien lo consideramos como un subsistema linealmente independiente maximal.
Dos subsistemas como los recien definidos tienen el mismo n
umero de vectores. En
efecto, sea 1 , 2 , . . . , r un sistema l.d. Podemos suponer sin perdida de generalidad que 1 , 2 , . . . , s es subsistema linealmente independiente maximal. Queremos
demostrar que
1 , 2 , . . . , r
(2.4)
y
1 , 2 , . . . , s

(2.5)

son equivalentes. Vemos que s+1 , s+2 , . . . , r se expresan linealmente mediante


(2.5) porque (2.5) es maximal y i con 1 i s es
i = 0 1 + 0 2 + + 1 i + + 0 s
as que tambien se expresa linealmente mediante (2.5) y por lo misma razon (2.5) se
expresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sus
subsistemas linealmente independientes y por transitividad ellos son equivalentes entre
s. Por teorema previo ellos tienen el mismo n
umero de vectores.

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL

37

Definici
on 2.14 Sea 1 , 2 , . . . , r un sistema de vectores en Rn . Al n
umero de
vectores de un subsistema linealmente independiente maximal cualquiera se le llama
rango del sistema 1 , 2 , . . . , r .
Teorema 2.15 Sean
1 , 2 , . . . , r

(2.6)

1 , 2 , . . . , s

(2.7)

y
n

dos sistemas de vectores en R . Sea k el rango el primer sistema y l el rango del segundo. Si (2.6) es expresa linealmente mediante (2.7) entonces k l y si son equivalentes,
k = l.
Demostraci
on: Sea
i1 , i2 , . . . , ik

(2.8)

linealmente independiente maximal en (2.6) y sea


j1 , j2 , . . . , jl

(2.9)

linealmente independiente maximal en (2.7).


Tenemos que (2.8) y (2.6) son equivalentes y tambien (2.9) y (2.7). Como (2.6) se
expresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante
(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)
es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teorema
previo, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),
esto es, k l. Si (2.6) y (2.7) son equivalentes entonces l k luego k = l.

2.5.

Rango de matrices y dependencia lineal

El problema de discernir la dependencia o independencia lineal de un sistema de vectores en Rn , sean ellos


i = (ai1 , ai2 , . . . , ain )

i = 1, 2, . . . , r

se reduce a resolver la ecuacion vectorial


r
X

ki (ai1 , ai2 , . . . , ain ) = (0, 0, . . . , 0)

i=1

la cual escrita en componentes se reduce al siguiente sistema lineal homogeneo:


r
X

ki aij = 0

j = 1, 2, . . . , n

(2.10)

i=1

Entonces el sistema 1 , 2 , . . . , r es l.d. si y solo si (2.10) tiene soluciones no triviales.


Ejemplo: En R4 sean
1
2

= (0, 1, 1, 1)
= (2, 1, 1, 0)

= (1, 1, 1, 1)

38

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Entonces
k1 (0, 1, 1, 1) + k2 (2, 1, 1, 0) + k3 (1, 1, 1, 1) = (0, 0, 0, 0)
es equivalente al sistema
k1
k1
k1

+
+
+

2k2
k2
k2

+ k3
+ k3
+ k3
k3

=
=
=
=

0
0
0
0

De la segunda y tercera ecuacion se tiene 2k1 = 0, de la cuarta k3 = 0 y de la primera


k2 = 0 luego el sistema tiene solo la solucion trivial. 1 , 2 , 3 son l.i.
Abordaremos el mismo problema por otro metodo. Sea A = (aij ) una matriz de s filas
y n columnas (matriz de s n). Consideremos los vectores
i = (a1i , a2i , . . . , asi )

i = 1, 2, . . . , n

Este sistema de vectores son las columnas de A miradas como vectores en Rs . Llamaremos rango de la matriz A al rango del sistema 1 , 2 , . . . , n .
Es natural pensar que podramos haber usado las filas de A para dar la misma definicion, que en justicia deberamos hablar del rango fila de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o filas de A para dar la definicion de rango de A.
Sea k natural, sea k mn(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k mn(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r mn(s, n) son iguales a cero. Por ejemplo, si

1 2 1 0
0 1 1 2

A=
0 3 2 1 ,
0 2 2 4
es claro que det A = 0 luego k < 4.
Consideremos el menor

1 2 1

0 1 1

0 3 2


1 1
=
3 2

= 2 3 = 5

luego k = 3.
Notese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j
mn(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.
Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rango
de A.

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL

39

Demostraci
on: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplificar la
notacion) que el menor formado por las r primeras filas y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de Rs . Sea
i = (a1i , a2i , . . . , asi ) ,
y supongamos que

r
X

i = 1, 2, . . . , r

ki i = 0, esto es,

j=1
r
X

ki (a1i , a2i , . . . , asi ) = (0, 0, . . . , 0) .

i=1

En componentes se tiene
r
X

ki aji = 0

j = 1, 2, . . . , n

(2.11)

j=1

Supongamos que el sistema (2.11) tiene solucion no trivial. Entonces el sistema


r
X

ki aji = 0

j = 1, 2, . . . , r

i=1

tiene solucion no trivial y por lo tanto su determinante es distinto de cero. Pero su


determinante es D luego hemos demostrado que las r primeras columnas de A son l.i.
En general, hemos demostrado que si Mr es un menor de orden r de la matriz, las r
columnas de la matriz que pasan por el menor A son l.i.
Sea i el siguiente menor de orden r + 1 de la matriz

a11 a12 a1r

a21 a22 a2r

..
..
..
i = ...
.
.
.

ar1 ar2 arr

ai1 ai2 air

A
a1l
a2l
..
.
arl
ail

i se llama un menor orlado de D y se obtiene pegando a D los r primeros


elementos de la elesima columna, r < l n, los r primeros elementos de una fila i
cualquiera, 1 i s y el elemento ail .
Si se tiene que 1 i r, i tiene dos filas iguales y por lo tanto vale cero y si
r < i s, i es un menor de orden r + 1 de la matriz A y por hipotesis vale cero.
Luego i = 0 para todo i. Desarrollando i por los adjuntos de la u
ltima fila se tiene
r
X

aij Aij + ail Ail = 0

j=1

pero Aij no incluye a la u


ltima fila de i luego es independiente de i en magnitud y
su signo en i esta dado por (1)(r+1)+j y tampoco depende de i. Para enfatizar esto
anotaremos Aj = Aij , en particular Ail = D, luego
ai1 A1 + ai2 A2 + + air Ar + ail D = 0

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

40

y como D 6= 0 entonces
ail =

r
X

kj aij ,

kj =

j=1

Aj
,
D

j = 1, 2, . . . , r

(2.12)

Pero (2.12) es verdadero para cualquier i, 1 i s y k1 , k2 , . . . , kr son independientes


de i. Luego (2.12) dice que la i-esima columna de la matriz A es combinacion lineal de
las r primeras columnas de A. Se concluye que las r primeras columnas de A forman
un sistema linealmente independiente maximal del sistema de columnas de A miradas
como vectores de Rs . Por definicion, se tiene que el rango de A es igual a r.
Nota: Debemos hacer notar que en la demostracion anterior no usamos que todos los
menores de orden r + 1 son cero, sino que los menores orlados de orden r + 1 de D son
cero, esta observacion simplifica el calculo del rango de A.
Para calcular el rango de una matriz A de s n tenemos que desarrollar el siguiente
proceso:
un elemento aij 6= 0, su rango es por lo menos 1. Si todos
i.- Si la matriz tiene alg
los menores orlados de orden 2 del menor |aij | son cero entonces su rango es 1.
ii.- Si alg
un menor orlado de orden 2 de |aij | es distinto de cero, sea D2 este menor,
calculamos todos los menores orlados de orden 3 de D2 , si todos valen cero, el
rango de la matriz es 2.
iii.- Si alg
un menor orlado de orden 3 de D2 es distinto de cero, sea D3 dicho menor,
procedemos a los menores orlados de orden 4 de D3 , . . .
iv.- El proceso termina cuando encontramos un menor Dk de orden k distinto de cero
y tal que todos sus menores orlados de orden k + 1 valen cero.
Ejemplo:

2
1
A=
0
4

4
2
1
7

3
1
1
4

1
4
3
4

0
2

1
5

s = 4, n = 5, luego el rango de A puede ser a lo mas 4.

2 4

. D = 0, pero esto no significa que A tenga rango 1,


a11 = 2 6= 0, sea D2 =
1 2 2

2 3

= 1 6= 0. Sea
podemos tomar por ejemplo D2 =
1 1

2 3
1

D3 = 1 1 4 = 12 6= 0
0 1 3
Calculemos los orlados de D3 .

2 3

1 1
O1 =
0 1
4 4

Ellos son

1 4
4 2
3
1
4 7

O2 =

2
1
0
4

3
1
1
4

1 0
4 2
3 1
4 5

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL

41

Pero O1 = O2 = 0 luego el rango de la matriz es 3 y las tres primeras columnas forman


un sistema linealmente independiente maximal del sistema de columnas de A.
Nota: Si en la demostracion del teorema anterior el menor D no consistiera en las
primeras r filas y las primeras r columnas sino que de r filas y r columnas cualesquiera,
el menor orlado 1 podra no ser un menor del determinante puesto que la columna
i-esima que se coloca al final podra no ser la u
ltima de las columnas, es decir, las
columnas podran quedar en un orden distinto al orden que tienen en la matriz A
(como el menor orlado O1 en el ejemplo anterior). Lo mismo puede suceder con la fila
i-esima. Sin embargo, el orden de las columnas en el determinante no puede alterar su
magnitud sino que u
nicamente su signo, de modo que si todos los menores de orden
r + 1 son cero, el menor orlado i debe ser cero tambien.
Ejemplo: Sean 1 = (2, 2, 4), 2 = (1, 9, 3), 3 = (2, 4, 1), 4 = (3, 7, 1).
Buscamos un subsistema linealmente independiente maximal del sistema 1 , 2 , 3 ,
4 . Para ello, formemos una matriz de 3 4 cuyas columnas son estos vectores

2 1 2 3
A = 2 9 4 7
4 3 1 1

2 1
6= 0. Sus orlados son
y calculamos su rango. Claramente
2 9

O1

O2

2 1
2 9
4 3
2 1
2 9
4 3




=



3
7 =
1
2
4
1

0
2
0

10
9
15

0
2
0

10
9
15

= 2 10 6 = 0

15 9

10
10
10

7 = 2
=0
15 15
15
6
4
9

luego el rango de A es 2 y 1 , 2 forman un subsistema linealmente independiente


maximal.
Teorema 2.17 Sea A una matriz de sn. El m
aximo n
umero de filas l.i. de A miradas
como vectores en Rn es igual al m
aximo n
umero de columnas l.i. de A miradas como
vectores en Rs .
Demostraci
on: Consideremos At (la matriz traspuesta de A). Puesto que el valor de
un determinante no cambia cuando se traspone se tiene que rango A = rango At . Pero
rango fila de A = rango columna de At = rango At = rango A = rango columna de A

Ejemplo: Consideremos el sistema homogeneo

1 2
1
3
4 1 5 6

1 3 4 7
2 1 1 0

0
0

0
0

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

42

Queremos
saber si tiene soluciones distintas de la

1 2
=
D2 =
6 0. Sea
4 1


1 2
1 1

O1 = 4 1 5 = 0
1 3 4 0
Consideremos el

1 2

4 1

1 3

2 1

u
nico orlado de

1
3
5 6
=
4 7
1 0

O1 :

2
9
5
5

1
1
5
3

trivial. Sea A la matriz del sistema,

2
9
5

1
1
5

6= 0


9 1 18


= 5 5 10


0
2
4

9 1 18
18

0
2 = 10 1 0
0 1
2
2
3
18
10
6

9 1

= 10 1 1
0 1

1 18
= 200 6= 0
= 10
1
2

Luego el rango fila de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el metodo de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene solo la solucion trivial.
Nota: Podramos haber calculado directamente el determinante del sistema y haber
verificado que era distinto de 0 y por teorema previo, cuya demostracion depende de
la regla de Cramer, haber dicho de inmediato que tena solo la solucion trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.

2.6.

Equivalencia de matrices

Si A es una matriz de n n tal que su determinante d es igual a cero, el rango maximo


de A puede ser (n 1) luego las n filas de la matriz son l.d. Luego si un determinante
d vale cero, entre sus filas (columnas) existe una relacion de dependencia lineal. Esto
ya lo sabamos, pero el metodo del rango nos permite decir cuantas y cuales filas son l.i.
Existe otro metodo mas simple para calcular el rango de una matriz.
Definici
on 2.18 Se llaman transformaciones elementales de una matriz A a las siguientes:
a) La trasposici
on de dos filas (o columnas)
on de una fila (o una columna) por un n
umero distinto de cero.
b) La multiplicaci
c) La suma a una fila (o a una columna) de otra fila (o columna) multiplicada por un
n
umero.
Teorema 2.19 Las transformaciones elementales de una matriz no alteran su rango.
Demostraci
on:

2.6. EQUIVALENCIA DE MATRICES

43

a) El orden en el cual se consideren las filas no altera su dependencia lineal.


b) Sea 1 , 2 , . . . , r un sistema linealmente independiente maximal de filas. Sean
c1 , c2 , . . . , cr r n
umeros arbitrarios distintos de cero. Supongamos que los vectores
i = ci i i = 1, 2, . . . , r son l.d. Entonces hay constantes ki i = 1, 2, . . . , r no todas
r
X
nulas tales que
ki i = 0, esto es,
i=1
r
X

(ki ci )i = 0

i=1

lo cual es una contradiccion.


Sea una fila cualquiera, entonces
r
X

r
X
li
=
li i =
i
c
i=1
i=1 i

luego el sistema 1 , 2 , . . . , r es maximal.


c) Sean 1 , 2 , . . . , s las filas de la matriz, sean
1 , 2 , . . . , i + kj , i+1 , . . . , j , . . . , s
las filas de la nueva matriz. Es claro que las filas de la matriz anterior y de la nueva
matriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.

Definici
on 2.20 Diremos que dos matrices A y B son equivalentes si B proviene de
A a traves de una sucesi
on de transformaciones elementales.
Es evidente que una transformacion elemental es invertible, luego si B proviene de A
a traves de una sucesion de transformaciones elementales, entonces A proviene de B
a traves de una sucesion de transformaciones elementales. Es claro que dos matrices
equivalentes tienen el mismo rango.

Definici
on 2.21 Sea A matriz de s n. Diremos que A tiene la forma diagonal si
a11 = a22 = = arr = 1 (para alg
un r tal que 0 r mn(s, n)) y todos los dem
as
elementos son cero.
Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.

Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesi
on de transformaciones elementales.

44

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Demostraci
on: Si aij = 0 i, j ella tiene la forma diagonal. Si no es as, sin perdida
de generalidad podemos suponer que a11 = 1; en forma analoga al metodo de Gauss
aplicado a la primera columna llevamos la matriz A a la forma

A0 =

1
0
..
.

a12
a022
..
.

a13
a023
..
.

..
.

a1n
a02n
..
.

a0s2

a0s3

a0sn

luego, aplicando el metodo a la primera fila, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera fila,
llevamos A0 a la forma

A00 =

1 0
0 a0022
..
..
.
.
0 a00s2

0
a0023
..
.

..
.

0
a002n
..
.

a00s3

a00sn

Si todos los a00ij son cero, A00 tiene la forma diagonal. Si alg
un a00ij es distinto de cero
00
aplicamos el metodo a la columna 2 y a la fila 2 de A . Es claro que el proceso termina
despues de un n
umero finito de pasos.
Se concluye que para calcular el rango de una matriz basta contar el n
umero de unos
que hay en su diagonal principal.

Ejemplo: Calcular el rango de

A=

0
1
3
0
2

2
4
1
5
3

4
5
7
10
0

2.6. EQUIVALENCIA DE MATRICES

A1 =

1
0

A3 =
0
0
0

1
0

A5 =
0
0
0

A7 =

1
3
2
0
0

4
1
3
1
1

5
7
0
2
2

4
11
5
1
0

5
22
10
2
0

4
1
0
0
0

5
2
0
0
0

1
0
0
0
0

0
1
0
0
0

0
0
0
0
0

45

A2 =

A4 =

1
3
2
0
0

4
1
3
1
0

1
0
0
0
0

4
1
1
1
0

1
0

A6 =
0
0
0

5
7
0
2
0

5
2

2
0

0 0
1 2

0 0

0 0
0 0

rango A = 2.
Ejemplo: Calcular el rango de

A=

A1 =

1
1
1
1
2
1

A3 =

1
2
2 1
3
1
1 0
1 2
2 2
1
0
0
0
0
0

1
1
4
1
1
1

2
1
3
1
2
0

1
2
3
1
1
2

6
0
1
2
7
5

2
5
8
4
3
1

6
2
5
2
5
1

2
1
6
1
1
3

2
1
1
0
2
2

6
0
1
2
7
5

2
5
8
4
3
1

A2 =

A4 =

1
1
1
1
2
1

1
0
0
0
0
0

1
3
4
2
1
1

2
3
3
2
2
0

1
0
0
0
0
0

1
1
4
1
1
0

2 6
1 2
3 5
2 5
0 1
0 0

6
6
5
4
5
1
2
1
6
1
3
0

2
3
6
2
1
3

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

46

1
0

0
A5 =
0

0
0

1
0

0
A7 =
0

0
0

A9 =

0
1
4
1
1
0

0
1
3
2
0
0

0
2
5
5
1
0

0
1
6
1
3
0

0
1
0
0
0
0

0
1
1
0
0
0

0
2
3
0
0
0

0
1
2
0
0
0

1
0
0
0
0
0

0
1
0
0
0
0

0
0
1
0
0
0

0
0
0
0
0
0

0
0
0
0
0
0

A6 =

A8 =

1
0
0
0
0
0

0
1
0
0
0
0

0
1
1
1
1
0

1
0
0
0
0
0

0
1
0
0
0
0

0
0
1
0
0
0

0
2
3
3
3
0
0
0
3
0
0
0

0
0
2
0
0
0

0
1
2
2
2
0

rango A = 3.

2.7.
2.7.1.

Soluciones de sistemas de ecuaciones lineales


Compatibilidad para sistemas no homog
eneos

Teorema 2.23 El sistema de s ecuaciones lineales con n inc


ognitas
a11 x1 + a12 x2 + + a1n xn
a21 x1 + a22 x2 + + a2n xn

=
=
..
.

b1
b2

as1 x1 + as2 x2 + + asn xn

bs

(2.13)

es compatible si y s
olo si el rango de la matriz A del sistema es igual al rango de la
matriz ampliada A del sistema.
Demostraci
on: Supongamos que el sistema es compatible, sea (k1 , k2 , . . . , kn ) una
solucion. Reemplazando en (2.13) se tiene
n
X

air kr = bi

i = 1, 2, . . . , s

(2.14)

r=1

Interpretemos las columnas de A y la u


ltima columna de A como vectores en Rs , sean
j

= (a1j , a2j , . . . , asj )


=

(b1 , b2 , . . . , bs )

j = 1, 2, . . . , n

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES

47

Entonces
n
X

ki i

i=1

k1 (a11 , a21 , . . . , as1 ) + k2 (a12 , a22 , a32 , . . . , as2 ) + + kn (a1n , a2n , . . . , asn )

n
X

a1r kr ,

r=1

n
X

a2r kr , . . . ,

r=1

n
X

!
asr kr

r=1

Se concluye que (2.14) es equivalente a


n
X

ki i =

i=1

luego la u
ltima columna de A se expresa linealmente mediante las columnas de A (es
obvio que las demas tambien). Es claro que toda columna de A se expresa linealmente
Entonces ambos sistemas de columnas son equivalentes
mediante las columnas de A.
y por lo tanto tienen el mismo rango.
Si el rango de A es igual al de A cualquier sistema linealmente independiente maximal
de columnas de A es linealmente independiente maximal mirado como parte del sistema
Entonces la u
de columnas de A.
ltima columna de A se expresa linealmente mediante
un sistema linealmente independiente maximal de columnas de A y por lo tanto es
combinacion lineal de las columnas de A. Entonces hay n
umeros k1 , k2 , . . . , kn tales
que
n
X
ki i =
i=1

o sea, (k1 , k2 , . . . , kn ) es solucion del sistema.


Supongamos que el sistema es compatible y que el rango de A es igual a r. Sin perdida
de generalidad podemos suponer que las r primeras filas de A son l.i. (basta reordenar las ecuaciones). Supongamos que las r primeras filas de A son l.d. Entonces hay
n
umeros 1 , 2 , . . . , n no todos nulos tales que
r
X

i (ai1 , ai2 , . . . , air , i ) = 0

i=1

lo cual implica que

r
X

i aij = 0

j = 1, 2, . . . , n ,

i=1
r
X

r
X

i i = 0

i=1

i (ai1 , ai2 , . . . , ain ) = 0, contradiccion. Las r primeras filas de

i=1

A son entonces l.i. y forman un sistema linealmente independiente maximal de filas


Se deduce que las ecuaciones r + 1, r + 2, . . . , s son combinaciones lineales de
de A.
las r primeras ecuaciones. Toda solucion de las r primeras es por lo tanto solucion de
todo el sistema y viceversa, el sistema (2.13) es equivalente al sistema formado por las
r primeras ecuaciones. Basta entonces resolver el sistema
a11 x1 + a12 x2 + + a1n xn
a21 x1 + a22 x2 + + a2n xn

=
=
..
.

b1
b2

ar1 x1 + ar2 x2 + + arn xn

br

Como r mn(s, n) entonces r n.

(2.15)

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

48

Caso 1: r = n. Entonces el menor M formado por los coeficientes de las r primeras


incognitas es distinto de cero (las r primeras filas de A son l.i.), (2.15) es un sistema
de r = n ecuaciones con n incognitas y determinante M 6= 0, por la regla de Cramer
tiene solucion u
nica.
Caso 2: r < n. Llamaremos incognitas independientes a xr+1 , xr+2 , . . . , xn . Asignemos
a ellas valores arbitrarios cr+1 , cr+2 , . . . , cn y reescribamos (2.15) como
a11 x1 + + a1r xr
a21 x1 + + a2r xr

=
=
..
.

b1 a1(r+1) cr+1 a1(r+2) cr+2 a1n cn


b2 a2(r+1) cr+1 a2(r+2) cr+2 a2n cn

ar1 x1 + + arr xr

br ar(r+1) cr+1 ar(r+2) cr+2 arr cn

(2.16)

Este es un sistema de r ecuaciones con r incognitas con determinante M 6= 0 y para


cada juego de valores cr+1 , cr+2 , . . . , cn hay una solucion u
nica (c1 , c2 , . . . , cr ) (la cual
se calcula mediante la regla de Cramer). Es claro que
(c1 , c2 , . . . , cr , cr+1 , . . . , cn )
es una solucion del sistema (2.15), y como ella depende de n r parametros arbitrarios
se tiene que el sistema original tiene infinitas soluciones.
Son estas todas las soluciones del sistema? Sea (k1 , k2 , . . . , kn ) una solucion arbitraria
de (2.15). Reemplazando en (2.15) y escribiendo las r identidades resultantes en la forma (2.16) podemos interpretar as:
(k1 , k2 , . . . , kr ) es la u
nica solucion de (2.16) que se obtiene asignado los valores kr+1 ,
kr+2 , . . . , kn a las incognitas independientes. Luego (k1 , k2 , . . . , kn ) se puede obtener
por el metodo recien descrito, dicho metodo entrega todas las soluciones del sistema
original.
Nota: Un sistema lineal compatible tiene solucion u
nica si y solo si el rango de la
matriz del sistema es igual al n
umero de incognitas.
Ejemplo: Resolver

5
2
1

5 1

=
Notese que
6 0,
2 1


5 1 2 1 3


2 1
4 = 2 1

1 3 6 1 3

6
4
6

1
1
3

2
4
6

= 0,

1
2
5

7
1
0

1
1
3

luego el rango de A es 2, sin embargo



5 1 7 1 3 5 0



2 1 1 = 2 1 1 = 2



1 3 0 1 3 0 1
luego el rango de A es 3, el sistema es incompatible.

1
2
5


1

= 2

1

3
1
3

0 5
1 1 =
6 0
3 0

5
2
5

=0

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES


Ejemplo: Resolver

7 3
1 2
4 9

7
Notese que
1

49

2
3
11

3
6 0 luego el rango de A es 2.
=
2

3
2
9


4

= 1

4

2
3
11

9
2
9

= 0,

11
3
11

el rango de A es 2, el sistema es compatible, las dos primeras ecuaciones son l.i.,


r = n = 2, la solucion es u
nica y se obtiene resolviendo
7x1 + 3x2
x1 2x2
Ejemplo: Resolver

1
Notese que
3

=
=

2
3

1
3
1

1
1
5

2
1
9

x1 =

1 1
4 3
8 1

5
,
17

x2 =

23
17

1
4
0

1
6 0 pero
=
1

1
3
1
1
3
1


1 1 2

= 0 4 7

0 4 7

1 1 1 1 1
1 4 = 0 4 7
5 8 0 4 7

1 1 1 1 1 1
3 1 3 = 0 4 0
1 5 1 0 4 0
1
1
5

2
1
9

luego el rango de A es 2.

1 1 1

3 1 4

1 5 0


1

= 0

0

1
4
4

1
1
1

= 0

= 0

= 0

= 0,

rango A = 2, el sistema es compatible.


Como las dos primeras filas de A son l.i. el sistema se reduce a las dos primeras
ecuaciones, elijamos x3 , x4 , x5 como incognitas independientes
x1 + x2

1 + 2x3 + x4 x5

3x1 x2

4 x3 4x4 3x5

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

50
Luego

x1

x2

Ejemplo: Resolver

1
(5 + x3 3x4 4x5 )
4
1
(1 7x3 7x4 )
4

4
1

2
3
Notese que

pero

4
1
2
3

1
2
5
3

2
1
0
1

1
2
1
3

1
2
5
3

1
2
5

2
1
0

2
1
0
1

1
2
1
3


2

= 1

2


2 1 1
1 2 = 4
0 1 4

3
2

1
1

5
2
5
2
3
2

0
1
0
1
0
0

=0

6= 0

4
1 2 1
7 4 3

7 4 3 0
2
= 2 4

2 4
2 0
15
6 7
15
6 7 0

15 12 11
15 12 11

2 = 2 4 2
= 2 4
15
0
6 7
18 4

15 12 11
0 18 4

2 1 = 4 1 2 1 = 0 ,
= 4 1
0
0
9
2
9
2

se concluye que rango A = 3. El


det A que ya vimos que es cero)


1 2 1
3

2 1 2
2

=
5
0
1 1

3 1 3 1

u
nico menor orlado de 4 4 en A es (el otro es el
1 2
0 5
0 10
0 5

1
4
4
6

3
8
16
8


5

= 10

5

4
4
6

8
16
8

=0

pues las columnas 1 y 3 son proporcionales; el rango de A es 3 luego el sistema es


compatible.
Notese que no es posible usar la regla de Cramer, que la incognita independiente es
x1 , que las tres primeras filas de A son l.i., despues de estos considerandos tenemos:
x2 2x3 + x4
2x2 x3 + 2x4
5x2 + x4

=
=
=

3 4x1
2 x1
1 2x1

x2 2x3 + x4
5x3 + x4
10x3 4x4

= 3 4x1
= 8 9x1
= 16 + 18x1

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES

51

Sumando las dos u


ltimas tenemos 5x3 = 8+9x1 , reemplazando en la segunda tenemos
x4 = 0. Al reemplazar en la primera ecuacion se obtiene
5x2 2(8 + 9x1 ) = 15 20x1

2.7.2.

x2 =

1
(1 2x1 )
5

Sistemas homog
eneos

En este caso rango A = rango A luego son siempre compatibles. Si r = n, la u


nica
solucion del sistema es la trivial, si r < n el sistema tiene infinitas soluciones. En
particular, si el n
umero de ecuaciones es igual al n
umero de incognitas el sistema tiene
soluciones distintas de la trivial si y solo si det A = 0 (r < n).
Sean

= (a1 , a2 , . . . , an )
= (b1 , b2 , . . . , bn )

soluciones de un sistema homogeneo. Entonces cualquier combinacion lineal de ellas


es tambien solucion, esto es, si , son n
umeros arbitrarios, + es solucion del
sistema (lo cual no es cierto para sistemas no homogeneos).
Puesto que las soluciones pueden ser interpretadas como vectores en Rn , un conjunto
de soluciones linealmente independiente maximal con respecto al conjunto de todas las
soluciones del sistema puede constar a lo mas de n soluciones, entonces existe un conjunto finito de soluciones del cual todas las demas son combinaciones lineales. Dicho
conjunto se llamara un sistema fundamental de soluciones. Por un teorema previo, todos los conjuntos fundamentales de soluciones constan del mismo n
umero de soluciones.
Teorema 2.24 Sea A la matriz de un sistema homogeneo de s ecuaciones con n
inc
ognitas, sea r igual al rango de A. Entonces un conjunto fundamental de soluciones
consta de n r soluciones.
Demostraci
on: Sin perdida de generalidad podemos suponer que las incognitas independientes son xr+1 , xr+2 , . . . , xn . Sea d un determinante arbitrario de (n r) (n r)
distinto de cero. Sea

c1(r+1)
c1(r+2 )

c1n

c2(r+1)
c2(r+2)

c2n

d=

..
..
..
.
..

.
.
.

c(nr)(r+1) c(nr)(r+2) c(nr)n


Adoptemos como valores para las incognitas independientes los elementos de la i-esima
fila de d, esto es,
xr+1 = ci(r+1) ,

xr+2 = ci(r+2) ,

xn = cin ,

sea i = (ci1 , ci2 , , cir , ci(r+1) , , cin ) la solucion del sistema obtenida para dichos
valores de las incognitas independientes, 1 i n r.

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

52

Si formamos la matriz de (n r) n cuyas filas son 1 , 2 , . . . , nr ella tiene un


menor de (n r) (n r) que es distinto de cero (es precisamente d) luego el rango
de dicha matriz es n r. Se concluye que 1 , 2 , . . . , nr son l.i.
Sea = (b1 , b2 , . . . , bn ) una solucion arbitraria del sistema. Designemos por i0 , 0 a
i0
0

(ci(r+1) , ci(r+2) , . . . , cin )

(br+1 , br+2 , . . . , bn )

i = 1, 2, . . . , n r

0
Es claro que 10 , 20 , . . . , nr
son un sistema l.i. de vectores en Rnr y que en Rnr
0
0
0
el sistema 1 , 2 , . . . , nr , 0 es l.d., entonces hay n
umeros k1 , k2 , . . . , knr tales
que
0
0 = k1 10 + k2 20 + + knr nr

En Rn , sea
=

nr
X

ki i .

i=1

Puesto que es combinacion lineal de soluciones del sistema, el mismo tambien es


solucion del sistema. Pero tiene sus u
ltimas n r componentes iguales a cero, luego
es la solucion obtenida cuando xr+1 = xr+2 = = xn = 0. Como el sistema es
homogeneo esta es precisamente la solucion trivial luego = 0 y
=

nr
X

ki i .

i=1

El sistema 1 , 2 , . . . , nr es maximal.
Ejemplo: Encuentre un sistema fundamental de

3 1
8
2
2 2 3
7

1 11 12 34
1 5
2
16

soluciones para

1 0
2 0

5 0
3 0

En la matriz A del sistema hagamos las siguientes transformaciones elementales:


A la tercera fila restamos dos veces la primera, sumamos
vez la cuarta, obtenemos

3 1 8
2
1
2 2 3 7 2
A1 =
0 0
0
0
0
1 5 2 16 3
En A1 permutamos la tercera fila y la cuarta:

3 1 8
2 2 3
A2 =
1 5 2
0 0
0

2
7
16
0

dos veces la segunda y una

1
2

3
0

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES


luego

1
2
A3 =
1
0

5
2
5
0

2 16
3 7
2 16
0
0

3
2

3
0

1
2

A4 =
0
0

5
2
0
0

2
3
0
0

53

16
7
0
0

3
2

0
0

Es claro que rango A = 2 y que podemos elegir x3 , x4 , x5 como incognitas independientes.


x1 + 5x2
2x1 2x2

=
=

2x3 16x4 + 3x5


3x3 + 7x4 2x5

8x2

x2

7x3 25x4 + 4x5


1
(7x3 25x4 + 4x5 )
8

1
2x1 (7x3 25x4 + 4x5 ) = 3x3 + 7x4 2x5
4
8x1 7x3 + 25x4 4x5 = 12x3 + 28x4 8x5
1
x1 =
(19x3 + 3x4 4x5 )
8
Tomemos d como

1 0 0

d = 0 1 0
0 0 1
Obtenemos

2.7.3.

19 7
, , 1, 0, 0)
8 8
3 25
( , , 0, 1, 0)
8
8
1 1
( , , 0, 0, 1)
2 2
(

Soluciones para sistemas arbitrarios

Una manera de escribir las soluciones de un sistema lineal arbitrario es la siguiente.


Supongamos que por alg
un metodo se ha encontrado una solucion de el. La llaramemos
una solucion particular del sistema y la designaremos por p . Sea una solucion
cualquiera del sistema, sea 1 , 2 , . . . , nr un sistema fundamental de soluciones del
correspondiente sistema homogeneo. Como p es solucion del sistema homogeneo,
hay n
umeros k1 , k2 , . . . , knr tales que
p =

nr
X

ki i .

i=1

Se concluye que , conocida una solucion del sistema, basta resolver el correspondiente
sistema homogeneo, ya que todas las soluciones del sistema original son de la forma
= solucion particular + una solucion del sistema homogeneo .

54

CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Captulo 3

Algebra
de matrices
Definici
on 3.1 Sean A = (aij ), B = (bij ) matrices de m n. A y B se dicen iguales
si
aij = bij
1im
1jn
Dos matrices son iguales si y solo si sus elementos correspondientes son iguales.
Definici
on 3.2 Sean A = (aij ), B = (bij ) matrices de m n. Llamaremos matriz
suma de A y B a la matriz de m n
A + B = (aij + bij )
Es trivial que la operacion suma de matrices tiene las siguientes propiedades:
i.- A + B = B + A
ii.- A + (B + C) = (A + B) + C
iii.- Existe una u
nica matriz de m n, la matriz 0 = (0ij ) donde 0ij = 0 para todo
1 i m, 1 j n, tal que A + 0 = A para toda matriz A de m n.
iv.- Dada una matriz A = (aij ) de m n, existe una u
nica matriz de m n
A = (aij )
tal que A + (A) = 0.
Definici
on 3.3 Sea A = (aij ) matriz de m n, k un n
umero arbitrario. Llamaremos
matriz producto de A por el n
umero k a
kA = (kaij )
Es trivial que la operacion multiplicacion de una matriz por un n
umero k tiene las
siguientes propiedades:
i.- 1 A = A
ii.- k1 (k2 A) = (k1 k2 )A
iii.- k(A1 + A2 ) = kA1 + kA2
iv.- (k1 + k2 )A = k1 A + k2 A
55


CAPITULO 3. ALGEBRA
DE MATRICES

56

3.1.

Producto de matrices

Definici
on 3.4 Sea A = (aij ) matriz de mn, B = (bij ) matriz de nq. Llamaremos
matriz producto de A y B a la matriz de m q
AB = (cij )
donde cij =

n
X

aik bkj

1 i m,

1 j q.

k=1

a11
Ejemplo: Sea A = a21
a31

a12
b11
a22 , B =
. Entonces
b21
a32

a11 b11 + a12 b21


AB = a21 b11 + a22 b21 .
a31 b11 + a32 b21

Nota: De la definicion se ve que en general el producto de matrices no es conmutativo,


pues el n
umero de filas y columnas de la matriz producto cambia si se altera el orden
de los factores, salvo si se multiplican matrices cuadradas del mismo orden. Pero a
un
cuando A y B sean ambas de n n el producto en general no es conmutativo, por
ejemplo, si

1 2
1 2
3 4
1 4
A=
, B=
AB =
, BA =
0 1
1 1
1 1
1 3
La operacion multiplicacion de matrices tiene las siguientes propiedades:
i.- Si k es un n
umero, A una matriz de m n, B matriz de n q, entonces
(kA)B = A(kB) = kAB
ii.- Si A es una matriz de m n, B y C son matrices de n q, entonces
A(B + C) = AB + AC
y si B y C son matrices de m n y A es matriz de n q, entonces
(B + C)A = BA + CA .
iii.- El producto de matrices es asociativo. Sean A = (aij ) de m n, B = (bij ) de
n q, C = (cij ) de q r, entonces
q
! q " n
# !
X
X X
(AB)C =
(AB)ik ckj =
ail blk ckj
k=1

n
X
l=1

ail

q
X
k=1

!
blk ckj

k=1

l=1
n
X

ail (BC)lj

l=1

!
= A(BC)

3.1. PRODUCTO DE MATRICES

57

Teorema 3.5 Sean A y B matrices de n n. Entonces det AB = det A det B.

Demostraci
on: Sea A = (aij ), B = (bij ). Sea el determinante auxiliar de 2n 2n

a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

0
0
..
.

0
0
..
.

..
.

an1
1
0
..
.

an2
0
1
..
.

..
.

ann
0
0
..
.

0
b11
b21
..
.

0
b12
b22
..
.

..
.

bn1

bn2

0
b1n
b2n
..
.
bnn
0
0
..
.

Aplicando el desarrollo de Laplace por menores de n n de las n primeras filas y n


primeras columnas se tiene que = det A det B.
Llamemos Ci a la i-esima columna de , 1 i 2n. En hagamos las siguientes
transformaciones: a la columna (n + 1) sumemos
b11 C1 + b21 C2 + + bn1 Cn

La columna (n + 1) de queda as:


n
X
k=1
n
X
k=1
n
X
k=1

a1k bk1
a2k bk1
..
.
ank bk1
0
0
..
.
0

Luego a la columna n + 2 sumamos


b12 C1 + b22 C2 + + bn2 Cn


CAPITULO 3. ALGEBRA
DE MATRICES

58
La columna n + 2 de queda as:

n
X
k=1
n
X

a1k bk2
a2k bk2

k=1
n
X

..
.
ank bk2

k=1

0
0
..
.
0

Despues de n etapas se

a
11 a12

a
21 a22

..
..
.
.

=
a
n1 an2

1
0

0
1

..
..
.
.

0
0

tiene

..

a1n
a2n
..
.

ann

..
.

0
0
..
.

n
X
k=1
n
X
k=1
n
X
k=1

a1k bk1
a2k bk1
..
.
ank bk1
0
0
..
.

n
X
k=1
n
X

a1k bk2
a2k bk2

k=1
n
X

..
.

..

ank bk2

k=1

n
X
k=1
n
X
k=1

0
0
..
.

..
.

n
X
k=1

a1k bkn
a2k bkn
..
.
ank bkn
0
0
..
.
0

donde los elementos cij que estan en las filas 1,2,. . . , n y las columnas n + 1, n + 2,
. . . , 2n son de la forma
cij =

n
X

aik bkj

1 i n,

1jn

k=1

esto es, ellos son los elementos de la matriz AB. Desarrollando por Laplace pero
ahora por los menores de n n de las u
ltimas filas se tiene
= (1)n+1+n+2++n+n+1+2++n (1)n det AB
Pero
(n + 1 + n + 2 + + n + n + 1 + 2 + + n) + n = n2 + 2

n(n + 1)
+ n = 2n2 + 2n
2

es par luego = det AB y tambien = det A det B.


Definici
on 3.6 Sea A matriz de n n. Diremos que A es singular si det A = 0.

3.2. MATRICES INVERSAS

59

Del teorema se deduce que si A es singular o B es singular entonces AB es singular.


Recordemos que el smbolo ij (delta de Kronecker) se define como ij = 0 si i 6= j y
ii = 1.
Llamaremos matriz identidad de n n a la matriz I de n n tal que I = (ij ). Si A
es cualquier matriz de n n y A = (aij ) entonces
n
!
X
AI =
aik kj = (aij ) = A ,
k=1

analogamente IA = A.
Notese que I es u
nica. Si hubiese otra matriz I 0 de n n tal que AI 0 = I 0 A = A A
entonces
I
I0

= II 0 = I 0 I
= II 0 = I 0 I

Notese que det I = 1.

3.2.

Matrices inversas

Resolvamos ahora el siguiente problema: dada una matriz A de n n buscamos una


matriz B de n n tal que AB = BA = I.
Puesto que det AB = det A det B = 1, para que B pueda existir A debe ser no singular.
Nota: Recordemos que la matriz traspuesta de A = (aij ) es la matriz At = (bij )
donde bij = aji .
Definici
on 3.7 Sea A = (aij ) matriz de n n. Llamaremos matriz adjunta de A a
la matriz de n n A = (bij ), donde bij = Aji , esto es, el elemento que est
a en la
intersecci
on d ela fila i y la columna j de A es el adjunto del elemento correspondiente
de At

A11 A21 An1


A12 A22 An2

A = (Aji ) = .
..
..
..
..
.
.
.
A1n

A2n

Ann

1 0 1
Ejemplo: Sea A = 2 1 0 .
0 1 2

1 0
2

A11 =
= 2 A12 =

1 2
0

0 1
1
=1
A21 =
A22 =
1 2
0

0 1
1
= 1 A32 =
A31 =
2
1 0

0
= 4
2

1
=2
2

1
=2
0

A13
A23
A33

2 1

=2
=
0 1

1 0

= 1
=
0 1

1 0

=1
=
2 1


CAPITULO 3. ALGEBRA
DE MATRICES

60
Entonces

2
A = 4
2

Notese que

1 0 1
2 1 0
0 1 2

2
1 1
4 2
2
2 1 1

AA

A A

1
2
1

1
2
1


4
2
1 1
4 2
2 = 0
0
2 1 1

4
1 0 1
2 1 0 = 0
0 1 2
0

0
4
0
0
4
0

0
0
4

0
0
4

Sea A no singular, sea d = det A, entonces


n
! n
!
X
X

AA =
aik (A )kj =
aik Ajk
k=1

Si i = j,
mente,

n
X

aik Aik = d, si i 6= j,

k=1

k=1

n
X

aij Ajk = 0, luego AA = (dij ) = dI. Analoga-

k=1

A A=

n
X

!
Aki akj

k=1

n1

Se tiene que det AA = dn luego det A = d


singular.

= dI

, si A es no singular, A tambien es no

Sea B = d1 A , entonces AB = BA = I. Diremos que B es una matriz inversa de A.


Sea B 0 otra matriz inversa de A, entonces AB 0 = B 0 A = I luego (B 0 A)B = B y
B 0 (AB) = B 0 , entonces B 0 = B. Se concluye que una matriz no singular A tiene una
inversa u
nica. La designaremos por A1 y A1 = ( d1 Aji ) donde Aji es el adjunto de aji .

3.3.

Representaci
on matricial de un sistema de ecuaciones

Sea A = (aij ) la matriz de s n de los coeficientes de un sistema lineal de s ecuaciones


con n incognitas, sea

x1
x2

X= .
..
xn
la matriz de n 1 de las incognitas, sea

B=

b1
b2
..
.
bs

3.4. RANGO DE UN PRODUCTO DE MATRICES

61

la matriz de s 1 de los terminos libres. Aprovechando las definiciones de producto


de matrices e igualdad de matrices podemos escribr matricialmente el sistema como
AX = B.
Supongamos que s = n y A es no singular, entonces X = A1 B. Puesto que si d 6= 0, de
la regla de Cramer sabemos que la solucion X es u
nica, dicho resultado debe coincidir
con aquel entregado por la regla de Cramer. En efecto,

X = (xi1 ) = (xi ) = A1 B = (A1 B)i1


!
n
n
! n
!
X
X1
1 X
di
1
Aki bk1 =
=
(A )ik Bk1 =
bk Aki = ( )
d
d
d
k=1

3.4.

k=1

k=1

Rango de un producto de matrices

Sea A = (aij ) matriz de mn, B = (bij ) matriz de np. Sea C = AB matriz de mp.
Teorema 3.8 rango C rango A, rango C rango B.
Demostraci
on: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 y
rango C = 0, el teorema se cumple.
Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
n
umero de columnas de C se tiene rango C rango B.
Sea rango B = r, 0 < r < p. Para simplificar la notacion en la demostracion supongamos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hay
1 , 2 , . . . , r tales que

b1k
b11
b12
b1r
b2k
b21
b22
b2r

.. = 1 .. + 2 .. + + r ..
.
.
.
.
bnk

bn1

esto es,
bjk =

r
X

bn2

s bjs

bnr

j = 1, 2, . . . , n .

s=1

Puesto que cik =

n
X

aij bjk se tiene que

j=1

cik =

n
X

aij

j=1

esto es

c1k
c2k
..
.
cmk

r
X

s bjs =

s=1

r
X

s=1

= 1

c11
c21
..
.
cm1

n
X

aij bjs =

+ 2

s cis

1 i m,

s=1

j=1

n
X

c12
c22
..
.
cm2

+ + r

c1r
c2r
..
.
cmr


CAPITULO 3. ALGEBRA
DE MATRICES

62

luego en C la columna k, k > r, es combinacion lineal de las r primeras columnas, se


concluye que el rango de C es menor o igual que r.
Nota: (AB)t = (ij ) donde
ij = (AB)ji =

n
X

ajk bki =

k=1

n
X

(B t )ik (At )kj

k=1

luego (AB)t = B t At .
Entonces C t = B t At luego rango C t rango At pero rango C t = rango C, rango At =
rango A luego rango C rango A.
Corolario 3.9 Sea A matriz de m n, B matriz no singular de n n, D matriz no
singular de m m. Entonces rango AB = rango A y rango DA = rango A.
Demostraci
on: rango AB rango A, pero A = A(BB 1 ) = (AB)B 1 luego rango A
rango AB. Analogamente para D.
El rango se preserva bajo multiplicacion por una matriz no singular.
Nota: En la demostracion del teorema no es necesario recurrir a la matriz traspuesta.
n
X
De la definicion del producto de matrices se tiene que cik =
aij bjk , i = 1, 2, . . . , n.
j=1

Por otra parte

bjk

j=1

n
X

a1j
a2j
..
.
amj

bjk a1j

j=1

n
c1k

X
bjk a2j
c2k

=
j=1
.

..
..

.
cmk

b a
n
X

jk mj

j=1

Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C rango A.
Por otra parte, sea i fijo, entonces cij =

n
X

aik bkj , 1 i n. Consideremos

k=1
n
X
k=1

aik (bk1 , bk2 , . . . , bkp ) =

n
X
k=1

aik bk1 ,

n
X
k=1

aik bk2 , ,

n
X

!
aik bkp

= (ci1 , ci2 , . . . , cip )

k=1

Luego, en general, al pre - multiplicar una matriz B por una matriz A las filas de
AB son combinaciones lineales de las filas de B, el sistema de filas de C se expresa
linealmente mediante el sistema de filas de B luego rango AB rango B.

Captulo 4

Vectores en Rn
4.1.

Propiedades

Con el fin de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por Rn . Por el momento nos olvidaremos de
las operaciones de suma y multiplicacion por un n
umero y focalizaremos nuestro interes en el conjunto Rn a cuyos elementos llamaremos puntos.
Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn , llamaremos recta por P
y Q al siguiente conjunto de puntos de Rn :
{(z1 , z2 , . . . , zn ) : zi = xi + (yi xi ), i = 1, 2, . . . , n , < < }
Llamaremos segmento P Q a la totalidad de los puntos de la recta por P y Q para los
cuales 0 1.
Los puntos P y Q del segmento P Q se llaman los puntos extremos del segmento. El
segmento P Q se dice dirigido si a uno de los puntos extremos P , Q lo llamamos punto
inicial y al otro, punto final. Si el punto inicial es P el segmento dirigido se designa

por P Q, si el punto inicial es Q se designa por QP . A los segmentos dirigidos los


llamaremos vectores en Rn , a las n diferencias yi xi , i = 1, 2, . . . , n, las llamaremos

las componentes del vector P Q. Seg


un esta definicion xi yi , i = 1, 2, . . . , n, son las

componentes del vector QP . Dos vectores se dicen iguales si y solo si sus componentes
correspondientes son iguales. De acuerdo a esta definicion de igualdad de vectores,
dos vectores que difieren tanto en su punto inicial como en su punto final pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x1 , x2 , . . . , xn ), si
a1 , a2 , . . . , an son las componentes del vector, su punto final Q = (y1 , y2 , . . . , yn )
queda u
nicamente determinado por las ecuaciones
yi = xi + ai

i = 1, 2, . . . , n

Si un vector tiene componentes a1 , a2 , . . . , an lo designaremos por {a1 , a2 , . . . , an } ~a.


La expresion {0, 0, . . . , 0}, la cual no recibe significado de las definiciones anteriores se
llama vector nulo y se designa por ~0.

63

CAPITULO 4. VECTORES EN RN

64

Sean ~a = {a1 , a2 , . . . , an }, ~b = {b1 , b2 , . . . , bn } dos vectores, queremos definir la suma


de ellos, la cual se designara por ~a + ~b:
Elijamos arbitrariamente el punto inicial P de ~a, sea Q su punto final. Elegimos como punto inicial de ~b a Q, sea R su punto final. Llamaremos vector suma de ~a y ~b


al vector P R cuyo punto inicial es P y cuyo punto final es R. Entonces P Q+ QR = P R.
Sea P = (x1 , x2 , . . . , xn ) entonces Q = (y1 , y2 , . . . , yn ) esta dado por
yi = xi + ai

i = 1, 2, . . . , n

y R = (z1 , z2 , . . . , zn ) esta dado por


zi = yi + bi

i = 1, 2, . . . , n .

Entonces zi = xi + ai + bi luego P R es el vector cuyas componentes son a1 + b1 , a2 +


b2 , . . . , an + bn . As se tiene que
{a1 , a2 , . . . , an } + {b1 , b2 , . . . , bn } = {a1 + b1 , a2 + b2 , . . . , an + bn }
Es claro que la suma es conmutativa, asociativa, tiene una identidad u
nica que es el
vector nulo y cada vector tiene un u
nico inverso aditivo.
Definimos el producto del vector ~a = {a1 , a2 , . . . , an } por el n
umero real como el
vector
~a ~a = {a1 , a2 , , an },
operacion que tiene las siguientes propiedades:
i.- 1 ~a = ~a
ii.- (~a) = ~a
iii.- (~a + ~b) = ~a + ~b
iv.- ( + )~a = ~a + ~a
Tambien se tiene que
~a = ~0

=0

o ~a = ~0

Sean ~a = {a1 , a2 , . . . , an }, ~b = {b1 , b2 , . . . , bn }. Al n


umero real
producto escalar de ~a y ~b, lo designaremos por ~a ~b.
Es claro que
~a ~b = ~b ~a
(~a ~b) = (~a) ~b = ~a (b)
~a (~b + ~c) = ~a ~b + ~a ~c

n
X
i=1

ai bi lo llamaremos

4.2. SUBESPACIOS DE VECTORES EN RN

65

y que ~a ~b = 0 no implica necesariamente ~a = ~0 o ~b = ~0. Si ~a ~b = 0 decimos que ~a y ~b


son mutuamente ortogonales.
Diremos que los p vectores ~a1 , ~a2 , . . . , ~ap son l.d. si hay reales no todos nulos 1 , 2 ,
. . . , p tales que
p
X
i~ai = ~0 ,
i=1

esto es, si existe una combinacion lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relacion de dependencia
o independencia lineal entre vectores son analogas a las definidas en Rn por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.
Notaci
on: Llamaremos V al conjunto de los vectores en Rn premunido de las operaciones de suma y multiplicaci
on por un n
umero.
A los vectores ~e1 = {1, 0, . . . , 0}, ~e2 = {0, 1, . . . , 0}, . . . , ~en = {0, 0, . . . , 1} los llamaremos la base estandar de V . Ellos son claramente l.i.

4.2.

Subespacios de vectores en Rn

Definici
on 4.1 Sea L V , L 6= . Diremos que L es un subespacio de V si
i.- cada que ~a L y es un n
umero real arbitrario entonces ~a L.
ii.- cada que ~a, ~b L (~a y ~b no necesariamente distintos) entonces ~a + ~b L.
Nota: Si L es un subespacio, ~0 L.
Sean ~a1 , ~a2 , . . . , ~ap vectores en V . Sea
L = {~a : ~a =

p
X

i~ai , i R i = 1, 2, . . . , p} ,

i=1

esto es, el conjunto de todas las combinaciones lineales de los vectores ~a1 , ~a2 , . . . , ~ap .
Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que ~a1 , ~a2 , . . . , ~ap
n
X
H entonces
i~ai H luego L H. Se concluye que L es el subespacio mas peque
no
i=1

que contiene a los vectores ~a1 , ~a2 , ~a3 , . . . , ~ap . Diremos que L es el subespacio generado
por los vectores ~a1 , ~a2 , . . . , ~ap .

Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean ~a1 , ~a2 , . . . , ~ap vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean ~b1 , ~b2 , . . . , ~bq q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto ~a1 , ~a2 , . . . , ~ap
tal que el conjunto de los vectores restantes unido al conjunto ~b1 , ~b2 , . . . , ~bq tambien
genera a L.

CAPITULO 4. VECTORES EN RN

66

Demostraci
on: Demostraremos el teorema por induccion. Si ning
un vector ~b1 , ~b2 ,
~
. . . , bq se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y que
el teorema ha sido demostrado para los primeros q 1 vectores ~bi . Supongamos que
numeramos los vectores ~a1 , ~a2 , . . . , ~ap de manera tal que los vectores reemplazados
son ~a1 , ~a2 , . . . , ~aq1 , esto es, de modo tal que L sea generado por ~b1 , ~b2 , . . . , ~bq1 , ~aq ,
. . . , ~ap . Como ~bq L
q1
p
X
X
~bq =
i~bi +
i~ai
i=1

i=q

donde q , q+1 , . . . , p no pueden ser todos nulos. Supongamos que q 6= 0, entonces


~aq =

q1
p
q1
p
X
X
1~
1 X ~
1 X
1
i ~
i
bq
i b i
i~ai = ~bq
bi
~ai
q
q i=1
q i=q+1
q

q
i=1
i=q+1 q

Sea ~c L arbitrario, por la hipotesis de induccion


~c =

q1
X

i~bi +

i=1

p
X

i~ai ,

i=q

sustituyendo ~aq se tiene


~c =

q1
X

(i q

i=1

p
X
i
i ~
q
(i q )~ai .
)bi + ~bq +
q
q

q
i=q+1

Esto demuestra que ~b1 , ~b2 , . . . , ~bq , ~aq+1 , . . . , ~ap generan a L.


Nota: Sean ~b1 , ~b2 , . . . , ~bq , q > p, vectores arbitrarios en L. Si ellos fuesen l.i. podramos aplicar el teorema anterior y reemplazar ~a1 , ~a2 , . . . , ~ap por ~b1 , ~b2 , . . . , ~bp de
modo que ~b1 , ~b2 , . . . , ~bp generan a L y por lo tanto ~bp+1 , . . . , ~bq son combinaciones
lineales de ellos, lo cual es contradiccion.
Se concluye que en L un conjunto l.i. de vectores no puede tener mas de p vectores y
por lo tanto se tiene que en V cualquier conjunto de mas de p combinaciones lineales
de p vectores dados es siempre l.d.
Si ~a = {a1 , a2 , . . . , an }, ~a =

n
X

ai~ei . Se tiene que V es generado por el conjunto l.i.

i=1

~e1 , ~e2 , . . . , ~en . Aplicando la observacion anterior tomando a ~e1 , ~e2 , . . . , ~en como los
vectores dados, p = n, conclumos que cualquier conjunto de mas de n vectores en V
es l.d.; un conjunto l.i. de vectores en V puede contener a lo mas n vectores.
Esta observacion permite dar la siguiente
Definici
on 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay p
vectores l.i., 0 p n, y que cualquier conjunto de m
as de p vectores en L es l.d.
Diremos que L tiene dimension p. Si p = 0 entonces L = {0}.
Supongamos que L tiene dimension p > 0, sean ~a1 , ~a2 , . . . , ~ap vectores l.i. en L. Si
~b L, el conjunto ~a1 , ~a2 , . . . , ~ap , ~b es l.d., hay 1 , 2 , . . . , p , p+1 no todos nulos
tales que
p
X
i~ai + p+1~b = 0 .
i=1

4.2. SUBESPACIOS DE VECTORES EN RN

67

Si p+1 = 0 obtenemos una contradiccion, luego p+1 6= 0 y ~b es una combinacion


lineal de ~a1 , ~a2 , . . . , ~ap ; cualquier conjunto l.i. de p vectores en L genera a L.
Si L tiene dimension p, diremos que cualquier conjunto l.i. de p vectores en L es una
base de L.
Sea ~a1 , ~a2 , . . . , ~ap una base de L, sea ~b L arbitrario, supongamos que ~b puede
representarse de dos maneras distintas como combinacion lineal de los vectores ~a1 , ~a2 ,
. . . , ~ap , esto es,
n
n
X
X
~b =
i~ai =
i~ai ,
i=1

i=1

entonces i = i , i = 1, 2, . . . , n (los vectores ~a1 , ~a2 , . . . , ~ap son l.i.). Cada ~b L tiene
una u
nica representacion en terminos de una base.
Teorema 4.4 Sea L el subespacio generado por los vectores ~a1 , ~a2 , . . . , ~aq . La dimensi
on de L es igual al n
umero m
aximo de vectores l.i. que hay entre los vectores ~a1 ,
~a2 , . . . , ~aq .
Demostraci
on: Sea p dicho n
umero maximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
~a1 , ~a2 , . . . , ~ap , ~ap+k , con 1 k q p, es l.d. luego ap+k es una combinacion lineal
de ~a1 , ~a2 , . . . , ~ap
p
X
(k)
i ~ai ; k = 1, 2, . . . , q p
(4.1)
~ap+k =
i=1

Sea ~b L, entonces ~b =

q
X

i~ai , reemplazando ~ap+1 , ~ap+2 , . . . , ~aq por sus expresiones

i=1

(4.1) vemos que ~b es una combinacion lineal de ~a1 , ~a2 , . . . , ~ap .


Entonces L es subconjunto del subespacio generado por ~a1 , ~a2 , . . . , ~ap y es trivial que
el subespacio generado por ~a1 , ~a2 , . . . , ~ap es subconjunto de L luego ambos son iguales
y la dimension de L es p.
Nota: Sea L un subespacio en V . Sea L otro subespacio de V contenido en L, supongamos que la dimension de L es p y que la dimension de L es igual a la de L.
Entonces si ~a1 , ~a2 , . . . , ~ap es una base de L , tambien lo es de L luego el conjunto de
las combinaciones lineales de ~a1 , ~a2 , . . . , ~ap es igual a L y a L, entonces L = L.
Luego si L esta propiamente contenido en L, necesariamente la dimension de L es
menor que la de L.
on p, sean ~b1 , ~b2 , . . . , ~bk un conjunto
Teorema 4.5 Sea L un subespacio de dimensi
arbitrario de vectores l.i. en L, k p. Entonces ~b1 , ~b2 , . . . , ~bk puede ser extendido a
una base de L agregando de manera ordenada p k vectores ~ak+1 , ~ak+2 , . . . , ~ap (de
modo que ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap sea un conjunto l.i.).
Demostraci
on: Sea ~a1 , ~a2 , . . . , ~ap una base de L. Por el teorema de Steinitz (podemos
suponer los ~a1 , ~a2 , . . . , ~ap adecuadamente ordenados) podemos reemplazar ~a1 , ~a2 , . . . ,

CAPITULO 4. VECTORES EN RN

68

~ak por ~b1 , ~b2 , . . . , ~bk de modo que el conjunto ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap tambien
genera a L. Pero dim L = p luego, por el teorema anterior, ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . ,
~ap es l.i.
Nota: Dados dos subespacios L1 , L2 , L1 L2 es siempre no vaco puesto que ~0
L1 L2 . Es claro que si ~a L1 L2 , ~a L1 y ~a L2 luego ~a L1 L2 y si
~a, ~b L1 L2 , ~a + ~b L1 y ~a + ~b L2 luego ~a + ~b L1 L2 . Conclumos que la
interseccion de dos subespacios es un subespacio.
Definici
on 4.6 Sean L1 , L2 subespacios de V . Llamaremos suma de L1 y L2 a
L = {~c : ~c = ~a + ~b, ~a L1 , ~b L2 }
Claramente ~0 = ~0 + ~0 luego L 6= .
Si ~c L, hay ~a L1 , ~b L2 tales que ~c = ~a + ~b. Pero ~a L1 , ~b L2 , y por
definicion ~c = ~a + ~b L.
Analogamente, si ~c1 y ~c2 L, hay ~a1 , ~a2 L1 , y ~b1 , ~b2 L2 tales que ~c1 = ~a1 + ~b1 ,
~c2 = ~a2 + ~b2 , entonces
~c1 + ~c2 = (~a1 + ~a2 ) + (~b1 + ~b2 ) ,
~a1 + ~a2 L1 , ~b1 + ~b2 L2 luego ~c1 + ~c2 L.
Se concluye que L es un subespacio en V llamado el subespacio suma de L1 y L2 , y se
denota por L = L1 + L2 .
Teorema 4.7 Sean L1 y L2 subespacios de V , dim L1 = p1 , dim L2 = p2 . Sea D =
L1 L2 , dim D = d. Sea S = L1 + L2 , dim S = s. Entonces p1 + p2 = d + s.
Demostraci
on: Sea ~a1 , ~a2 , . . . , ~ad una base de D. Extendemos esta base a una base
de L1 agregando vectores ~b1 , ~b2 , . . . , ~bq donde q = p1 d, y tambien la extendemos a
una base de L2 agregando ~c1 , ~c2 , . . . , ~cr donde r = p2 d.
Si ~a1 L1 entonces
~a1 =

d
X

i~ai +

q
X

i=1

i=1

d
X

r
X

i~bi

y si ~a2 L2 entonces
~a2 =

i~ai +

i=1

i~ci

i=1

Puesto que todo vector de S es de la forma ~a1 + ~a2 , todo vector de S es una combinacion lineal del conjunto de vectores ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr .
Queremos demostrar que esta coleccion es l.i. Supongamos que
d
X
i=1

i~ai +

q
X
i=1

i~bi +

r
X
i=1

i~ci = ~0

4.2. SUBESPACIOS DE VECTORES EN RN


Entonces
r
X
i=1

r
X

i~ci =

i~ci L1 y como

i=1
d
X

r
X

69

i~ci L2 se tiene que

i=1

r
X

i~ci D y por lo tanto

i=1

i~ai . Por construccion la coleccion ~a1 , ~a2 , . . . , ~ad , ~c1 , ~c2 , . . . , ~cr es l.i.

i=1

luego i = 0, i = 1, 2, . . . , r y i = 0, i = 1, 2, . . . , d y por lo tanto


d
X

i~ai +

i=1

q
X

i~bi = ~0

i=1

Por identicas razones i = 0, i = 1, 2, . . . , d y i = 0, i = 1, 2, . . . , q. Se concluye que la


coleccion ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr es l.i. y genera a S, por definicion
dim S = s = d + q + r = d + p1 d + p2 d .

Nota: Es claro que para cada natural n hay un Rn y por lo tanto un V . Para n = 2,
V es lo que llamamos los vectores geometricos en el plano y para n = 3, V es lo
que llamamos los vectores geometricos en el espacio. De ahora en adelante a V lo
designaremos por V n .
Ejemplo: En V 4 sean
~a1
~a2
~a3
~a4

=
=
=
=

{3, 1, 1, 2}
{4, 1, 2, 3}
{10, 3, 0, 7}
{1, 1, 7, 0}

Sea L1 el subespacio generado por ~a1 , ~a2 , ~a3 , ~a4 . Sean


~b1
~b2

{2, 4, 3, 7}

{5, 2, 2, 1}

Sea L2 el subespacio generado por ~b1 , ~b2 . Encontrar las dimensiones de L1 , L2 , L1 L2 ,


L1 + L2 .
Consideremos el sistema de vectores ~a1 , ~a2 , ~a3 , ~a4 y supongamos que ~a1 + ~a2 +
~a3 + ~a4 = ~0, entonces
3

2
Sea

+ 4

2
+ 3

10
3

3
1
A=
1
2

4
1
2
3


+
7

10
3
0
7

=
=
=
=

1
1

7
0

0
0
0
0

CAPITULO 4. VECTORES EN RN

70

la matriz del sistema. Puesto que la cuarta fila es suma de las dos primeras ella tiene
el mismo rango que

3
4
10 1
1 1 3 1

A1 =
1 2 0 7
0
0
0
0
la cual tiene el mismo rango que

0
1
A2 =
0
0

1
1
3
0

2
1

6
0

1
3
3
0

3
la cual tiene rango 2, luego rango A = 2 y como
1
columnas de A son l.i.

4
6 0 las dos primeras
=
1

Se concluye que ~a1 , ~a2 es un sistema linealmente independiente maximal de la coleccion ~a1 , ~a2 , ~a3 , ~a4 , dim L1 = 2.
Supongamos que ~b1 + b2 = ~0
2 + 5
4 + 2
3 + 2
7

=
=
=
=

0
0
0
0

Sumando las tres u


ltimas se tiene que necesariamente = 0 luego el sistema tiene solo
la solucion trivial, dim L2 = 2.
Todo vector de L1 es de la forma ~a1 + ~a2 , todo vector de L2 es de la forma ~b1 + ~b2 .
Se concluye que S = L1 + L2 es el subespacio generado por ~a1 , ~a2 , ~b1 , ~b2 . Supongamos
que
~a1 + ~a2 + ~b1 + ~b2 = ~0
La matriz del sistema es

3
1
A=
1
2
la cual tiene el mismo rango que

0
1
A1 =
0
0
la cual tiene el mismo rango que

5
2

2
1

4
1
2
3

2
4
3
7

1
1
3
1

10 11
4 2

7 4
1 3

1 1
0 1
A2 =
0 3
0 1

4
10
7
1

2
11

4
3

4.3. VARIEDADES LINEALES

71

y esta a su vez el mismo rango que

1
0
A3 =
0
0

y que

1
0
A4 =
0
0
y que

1
0
A5 =
0
0
y trabajando por columnas

1 1
0 1
A6 =
0 0
0 0

2
1
0
1

1
1
0
0

4
10
37
9

2
11

37
8

1
1
0
0

4
10
1
9

2
11

1
8

1
1
0
0

4
10
1
0

2
11

1
1

2
11
,
1
1

1
0
A7 =
0
0

1
1
0
0

2
1
1
0


1 1
=
0 1

=1

2
11

1
1

El determinante de A7 es

det A7 = 0
0

1
1
0

11
1
1

luego rango A = 4 luego la dimension de S es igual a 4.


Se concluye que como dim L1 + dim L2 = dim L1 L2 + dim L1 + L2 entonces la
dimension de L1 L2 es 0.

4.3.

Variedades lineales

Habamos definido la recta por los puntos P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) de


Rn como el conjunto de los puntos (z1 , z2 , . . . , zn ) Rn tales que
zi = xi + (yi xi )

i = 1, 2, . . . , n ,

< < .

Sea ~a = P Q = {y1 x1 , y2 x2 , . . . , yn xn }, entonces ~a V n . Llamaremos R =


(z1 , z2 , . . . , zn ). De la definicion de recta y de la definicion de igualdad de vectores
tenemos que

P R = P Q.
Como para cada valor de obtenemos un punto R de la recta, obtenemos el punto R

correspondiente al valor copiando al vector P Q con punto inicial P . Pero la totalidad de los vectores ~a es un subespacio de L de V n de dimension 1, luego podemos
pensar la recta como la totalidad de los puntos R obtenidos de copiar o aplicar el

CAPITULO 4. VECTORES EN RN

72

subespacio L a partir de P . Es motiva la siguiente definicion:


Llamaremos variedad lineal de dimension p a la totalidad de los puntos R Rn
obtenidos de copiar los vectores de un subespacio L de V n a partir de un punto fijo
P Rn . Decimos que los puntos R de la variedad se obtienen aplicando el subespacio L en P . En otras palabras, los puntos R de la variedad son los extremos finales de
los vectores de L representados como segmentos dirigidos cuyo punto inicial es P .
Ejemplo: Sea L un subespacio de dimension 2 de V 3 , donde interpretamos R3 como
el espacio fsico ordinario. Sea ~a, ~b una base de L, sea P un punto fijo del espacio.
Copiamos ~a y ~b con punto inicial P , sean Q y R sus puntos finales respectivamente.
Como ~a y ~b son l.i., P , Q, R determinan un plano en el espacio. Afirmamos que
la variedad lineal de dimension 2 obtenida de aplicar L en P es el plano del espacio fsico ordinario. En efecto, el punto S obtenido de aplicar ~a en P esta en y
analogamente el punto T obtenido de aplicar
Q
~b en P tambien esta en . Puesto que un
vector arbitrario de L es de la forma ~a + ~b,
Z
S
sea Z el punto obtenido de aplicar ~a + ~b en
P . Por definicion de suma de vectores, para
obtener ~a + ~b copiamos arbitrariamente ~a
a partir de P y luego copiamos ~b a partir de
P
R
T
S (o podemos aplicar ~b en P y luego ~a en
T ), es claro que Z . A la inversa, dado Z , trazando paralelas por Z a ~a y ~b
podemos encontrar S y T (o sea y ) luego todo punto Z puede ser encontrado
por este metodo.
Nota: Una variedad lineal de dimension 0 se obtiene aplicando L = {~0} en P , o
sea es simplemente un punto. Una variedad lineal de dimension 1 es una recta, una
variedad lineal de dimension 2 es un plano, una variedad lineal de dimension n 1 es
un hiperplano. Todos los puntos de una variedad lineal son equivalentes en el siguiente
sentido: si tomamos otro punto Q de la variedad y aplicamos L en Q obtenemos la
misma variedad, en efecto, sea Q otro punto de la variedad, sea Z un punto arbitrario

de ella. Entonces hay ~z L tal que ~z = P Z. Tambien hay ~q L tal que ~q = P Q. Pero

P Q + QZ = P Z luego ~q + QZ = ~z, QZ = ~z ~q. Pero ~z ~q L luego Z se obtiene


aplicando ~z ~q en Q.
Nota: En Rn consideremos el punto O = (0, 0, . . . , 0). Si P = (x1 , x2 , . . . , xn ) es otro
punto cualquiera de Rn , podemos obtener P aplicando el vector {x1 , x2 , . . . , xn } de
V n en O. Como V n es un subespacio de s mismo, podemos concluir que Rn es una
variedad lineal de dimension n.
Sea M la variedad lineal obtenida aplicando el subespacio L de dimension p > 0. Sea

P0 M , sea ~a1 , ~a2 , . . . , ~ap una base de L. Sea P M , entonces P0 P L y hay


n
umeros reales y1 , y2 , . . . , yp tales que
p

X
P0 P =
yi~ai .
i=1

Es claro que como P0 P tiene una u


nica expresion en la base ~a1 , ~a2 , . . . , ~ap , el juego
de n
umeros reales y1 , y2 , . . . , yp es u
nico.

4.3. VARIEDADES LINEALES

73

Definici
on 4.8 Diremos que el punto P0 y la base ~a1 , ~a2 , . . . , ~ap de L constituyen un
sistema afn de coordenadas en M cuyo origen es P0 y tal que las direcciones de los
ejes coordenados est
an dadas por ~a1 , ~a2 , . . . , ~ap . Lo anotaremos por (P0 , ~a1 , ~a2 , . . . , ~ap ).
Diremos que el juego de n
umeros y1 , y2 , . . . , yp son las coordenadas del punto P M
con respecto al sistema de coordenadas (P0 , ~a1 , ~a2 , . . . , ~ap ).
Es as como cada punto P M puede ser representado por una p-tupla (y1 , y2 , . . . , yp )
de n
umeros reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P0 , o la base de L
o ambos, el mismo punto P M esta representado por otra p-tupla de n
umeros reales.
Teorema 4.9 Sean P0 , P1 , . . . , Pp puntos en Rn tales que ellos no est
an todos en
ninguna variedad lineal de dimensi
on menor que p. Entonces existe una u
nica variedad
lineal M de dimensi
on p que los contiene.
(k)

(k)

(k)

Demostraci
on: Sean Pk = (x1 , x2 , . . . , xn ), k = 0, 1, . . . , p, tales que no estan

todos en ninguna variedad lineal de dimension menor que p. Sean


~ k = P0 P , k =
1, 2, . . . , p. Si ellos fuesen l.d. el subespacio L generado por ellos tendra dimension
menor que p. Al aplicar L en P0 obtendramos una variedad lineal M de dimension
menor que p que los contiene a todos, luego ellos son l.i. y por lo tanto el subespacio
L generado por ellos tiene dimension p.
Al aplicar L en P0 obtenemos una variedad lineal M de dimension p que contiene a
P0 , P1 , . . . , Pp . Sea M 0 otra variedad lineal de dimension p que los contiene a todos.
Entonces ella se obtiene aplicando un cierto subespacio L0 de dimension p en cualquiera
de sus puntos, por ejemplo P0 . Se concluye que
~ 1,
~ 2, . . . ,
~ k pertenecen a L0 , como
0
0
ellos son l.i. y dim L = dim L = p entonces L = L y por lo tanto M = M 0 .
Diremos que M es la variedad lineal determinada por los p + 1 puntos P0 , P1 , . . . , Pp .
Sea P = (x1 , x2 , . . . , xn ) un punto arbitrario de ella. Entonces

P0 P =

~k

p
X

(0)

(0)

k
~ k = {x1 x1 , x2 x2 , . . . , xn x(0)
n }

k=1
(k)
{x1

(0)

(0)

(k)

(0)
x1 , x2 x2 , . . . , x(k)
n xn }

k = 1, 2, . . . , p

luego
(0)

(0)

{x1 x1 , x2 x2 , . . . , xn x(0)
n }

p
X

(k)

(0)

(k)

k=1
p
X

(
=

(0)

(0)
k {x1 x1 , x2 x2 , . . . , x(k)
n xn }

(k)
k (x1

(0)
x1 ), . . . ,

k=1

p
X
k=1

Aplicando la definicion de igualdad de vectores se tiene que


(0)

xi xi

xi

=
=

p
X
k=1
p
X
k=1

(k)

(0)

k (xi

xi )

(k)
k xi

(0)
xi

i = 1, 2, . . . , n

p
X
k=1

!
k

)
k (x(k)
n

x(0)
n )

CAPITULO 4. VECTORES EN RN

74
Llamamos 0 = 1

n
X

k entonces

k=1

p
X

k = 1 y

k=0

xi =

p
X

(k)

k xi

i = 1, 2, . . . , n

(4.2)

k=0

Si P M , existen n
umeros reales 0 , 1 , . . . , p tales que

p
X

k = 1 y las coordenadas

k=0

de P pueden ser representadas en la forma (4.2). Como la expresion del vector P0 P


en la base
~ 1,
~ 2, . . . ,
~ p es u
nica, el juego 0 , 1 , . . . , p es u
nico.
A la inversa, dados 0 , 1 , . . . , p tales que

p
X

k = 1, entonces el punto P cuyas

k=0

coordenadas estan dadas por (4.2) esta en la variedad M porque el punto determinado
por
p
X
k
~k
P0 P =
k=0

esta en M .
Se concluye que los puntos de M estan determinados por (4.2) de modo que a cada
p
X
k = 1 le corresponde exactamente un
juego de n
umeros 0 , 1 , . . . , p tales que
punto de M .

k=0

Nota: Sean M y M 0 dos variedades lineales en Rn , sean L y L0 subespacios que las


generan. Sea D = M M 0 . Si D 6= , sea P0 D. Si D = {P0 } entonces necesariamente
L L0 = {~0}. Supongamos que
~ L L0 y
~ 6= ~0, entonces
~ L y el punto P tal

0
que P0 P =
~ esta en M , por razon analoga esta en M luego P D. A la inversa,

supongamos que D tiene mas de un punto, sea P D, P0 P L L0 luego el punto P


se obtiene aplicando un vector de L L0 en P0 . Entonces D = M M 0 es la variedad
lineal obtenida aplicando el subespacio LL0 en un punto cualquiera de la interseccion.

Definici
on 4.10 Sean M y M 0 dos variedades lineales, sean L y L0 dos subespacios
que las generan. Diremos que M y M 0 son mutuamente paralelas si L L0 o bien
L0 L.
Teorema 4.11 Sean M y M 0 variedades lineales mutuamente paralelas. Entonces M
M 0 = o bien M M 0 o M 0 M .
Demostraci
on: Supongamos que M M 0 6= , sea L L0 , entonces L L0 = L luego
0
M M es la variedad lineal obtenida aplicando L en un punto de la interseccion.
Como todos los puntos de M son equivalentes, M M 0 = M luego M M 0 .
Ejemplo: Demuestre que tres vectores en V 3 son l.d. si y s
olo si ellos son paralelos
a un mismo plano.

4.3. VARIEDADES LINEALES

75

~ ~ V 3 , sea M un plano en R3 generado por el subespacio L de dimension


Sean
~ , ,
dos aplicado en un punto P0 R3 . Diremos que
~ es paralelo al plano M si para alg
un

~ ~ son paralelos a M . Entonces hay


P M se tiene P0 P =
~ . Supongamos que
~ , ,
~

~ ~ son l.i. entonces M


P, Q, R M tales que
~ = P0 P ,
= P0 Q, ~ = P0 R. Si
~ , ,
~
tiene dimension tres, luego
~ , , ~ son l.d.
~ ~ vectores en V 3 , sean ellos l.d. Entonces hay , , no todos nulos tales
Sean
~ , ,
que
~
+ ~ + ~ = ~0 .
Supongamos que 6= 0 entonces
~ = ~ ~ .

~ sea P0 R3 arbitrario. Sea P R3 tal que


~ Sea Q
Caso 1: Si ~ = ,
P0 P = .

tal que P0 P , P0 Q son l.i. Entonces P0 , P , Q determinan un plano M . Sea R tal que

~ R esta en M , entonces ,
~ ~ son paralelos a M . Por otro lado
P0 R = .
~ es de la
forma
~ = , en forma analoga a ~ , tambien
~ es paralelo a M .
~y
Caso 2: Si ~ y ~ son l.i., sea P0 R3 arbitrario, sea L el subespacio generado por
~y
~ . Sea M el plano obtenido de aplicar L en P0 . Como
~ es combinacion lineal de
~ ~ son paralelos a M .
~ ,
~ L, luego
~ , ,
Ejemplo: Sea M una variedad lineal en Rn , sean P , Q puntos de M . Demuestre que
la recta por P y Q est
a contenida en M . A la inversa, sea M tal que si R y S pertenecen
a M , la recta por R y S est
a contenida en M . Demuestre que M es una variedad lineal.
Sea P = (x1 , x2 , . . . , xn ), sea Q = (y1 , y2 , . . . , yn ), sea L el subespacio que genera a M .

Un punto R esta sobre la recta si y solo si P R = P Q para alg


un . Supongamos que

M se genera aplicando L en M , por hipotesis P Q L luego P Q L, por definicion,


R M.
A la inversa, sea M Rn con esta propiedad, sea P0 M . Sea L el conjunto de los
vectores de V n tales que de su aplicacion en P0 se obtienen puntos en M , esto es,

L = {~
Vn :
~ = P0 P , P M }

L es no vaco pues ~0 = P0 P0 L. Sea


~ L, sea un n
umero cualquiera. Sea P M

tal que
~ = P0 P . El punto que resulta de aplicar ~
en P0 esta en la recta por P0 y
P , luego por hipotesis esta en M . Por lo tanto ~
L.
~

~ L, sean P, Q M tales que


Sean
~,
~ = P0 P ,
= P0 Q. Sea ~ = ~
+ ~ una
combinacion lineal de ellos dos. Si
~ , ~ son l.d., ~ puede expresarse como combinacion
lineal de solo uno de ellos y ya se demostro que en tal caso ~ esta en L. Supongamos
entonces que son l.i. Consideremos dos casos.

~ sea R el punto dado por


Caso 1: Si es de la forma ~ = (~
)
P0 R = P0 Q.
Puesto que R esta en la recta por Q y por P0 , R esta en M . Sea S el punto dado

por P S = 21 P R, punto que esta en la recta por P y R y que por lo tanto esta en M .

Finalmente sea T tal que P0 T = 2P0 S. T esta en la recta que une P0 con S luego
esta en M , y ademas

1 1
~ = ~
P0 T = 2(P0 P + P S) = 2( P0 P + (P0 P + P R)) = (~
+ P0 R) = (~
)
2
2

CAPITULO 4. VECTORES EN RN

76
luego ~ L.

Caso 2: El caso + = 0 es el caso anterior, luego supongamos que + 6= 0. Sea R


un punto en la recta que une a P con Q dado por


PR =
PQ.
+

Sea S en la recta por P0 y R dado por P0 S = ( + )P0 R. S M y

P0 S =
=
=


(P P0 + P0 Q)
+
( + )~
~
+
~
~
+ = ~

( + )P0 P +

luego ~ L.
Por lo tanto, L es un subespacio de V n y M es una variedad lineal de Rn .
Ejemplo: Sea M una variedad lineal en Rn de dimensi
on menor que n, sea P0 un
punto fuera de M . Sea N el conjunto de los puntos de Rn que est
an sobre alguna recta
que une un punto de M con P0 . ? Es N una variedad lineal?
Sea p = dim M , p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es la
recta que une ese punto con P0 , luego N es una variedad lineal.
No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M , L0 el subespacio que genera a
N . Sea R0 un punto arbitrario de M , podemos pensar en M como la variedad que
resulta de aplicar L en R0 . Como p > 0 es posible encontrar un punto R M , tal que

~=
R 6= R0 . Hay entonces un vector ~ L tal que
R0 R. Claramente M N luego

~ estan en L0 . Sea S un punto en M dado por


~ y

~ = P0 R0 y P0 R =
~ +
R0 S = ,
sea T dado por


~
P0 T = P0 S = (P0 R0 + R0 S) = ~
+
~ L0 . Como
T esta en la recta que pasa por P0 y S luego T N , entonces ~
+

~ esta tambien en L0 se tiene que 2~ L0 , esto es, el punto Q dado por


~

~ +
P 0 Q = 2
esta en N . Luego Q esta en la recta que une a P con un punto Z M y como R0 6= R

necesariamente 6= 0, por lo tanto, para alg


un real se tiene que P0 Z = P0 Q. Pero
en tal caso se tiene que

R0 P0 = R0 Z + ZP0 = R0 Z 2 L
luego P0 M y esto no puede ser.
Sea N 0 el conjunto que resulta de unir N con la variedad lineal que resulta de aplicar
L en P0 . N 0 , a diferencia de N , s es una variedad lineal. En efecto, sea
~ 1,
~ 2, . . . ,
~p

una base de L, sea


~ 0 = P0 R0 . Por hipotesis
~0
/ L luego
~ 0,
~ 1,
~ 2, . . . ,
~ p son l.i.
Si Q N hay R M tal que Q esta sobre la recta que une P0 con R y por lo tanto,


para alg
un real se tiene que P0 Q = P0 R. Pero P0 R0 + R0 R = P0 R. Como

!
p
p
X
X

R0 R =
ai
~i ,
P0 Q =
~0 +
ai
~i
i=1

i=1

4.3. VARIEDADES LINEALES

77

p
X
luego P0 Q =
bi
~ i . Sea L0 el subespacio de dimension p + 1 generado por
~ 0,
~ 1,
i=0

~ 2, . . . ,
~ p . Entonces Q se obtiene aplicando un vector de L0 en P0 .
~ =
A la inversa, sea

p
X

~ en P0 y sea
bi
~ i un vector cualquiera de L0 , apliquemos

i=0

~=
Q Rn tal que
P0 Q. Consideremos la recta por P0 y Q. Sea R un punto arbitrario


~=
de dicha recta, entonces P0 R =
P0 R0 + R0 R luego
p

i=0

i=1

X
X
R0 R =
bi
~i
~ 0 = (b0 1)~
0 +
bi
~i .
~ L, luego Q esta en la variedad que resulta de copiar L en P0 y por lo
Si b0 = 0,
tanto esta en N 0 . Si b0 6= 0, para = b10 se tiene que R M luego Q N .
Ejemplo: Sea M una variedad lineal en Rn de dimensi
on menor que n, sea P0 un
punto fuera de M , sea un real fijo. Sea N Rn tal que S N si y s
olo si hay

Q M tal que P0 S = P0 Q. Es N una variedad lineal?


Si = 0 N consiste en el punto P0 y por ende es una variedad lineal. Supongamos
entonces que 6= 0.
Sea S0 un punto fijo de N , S un punto arbitrario de n. Sean Q0 , Q M tales que

P0 S0 = P0 Q0 , P0 S = P0 Q. Sea L el subespacio que genera a M . Entonces




P0 S P0 S0 = (P0 Q P0 Q0 )

luego S0 S = Q0 Q. Pero Q0 Q L luego S se obtiene aplicando un vector de L en S0 .


A la inversa, sea
~ L, queremos demostrar que al aplicar
~ en S0 obtenemos un
punto S N . En efecto, si Q es el punto que resulta de copiar 1
~ en Q0 (punto que
esta en M ) tenemos que

P0 Q = (P0 Q0 + Q0 Q) = P0 S0 +
~

luego P0 S = P0 Q y S N .
Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S0 .
Ejemplo: Sean L1 y L2 rectas distintas en Rn . Sean P y Q puntos arbitrarios de L1
y L2 respectivamente. Sea L la recta por P y Q. Considere la uni
on M de todas las
rectas L (consideradas como conjuntos de puntos en Rn ). Es M una variedad lineal?
~ la direccion de L2 . Supongamos que
Caso 1: L1 L2 6= . Sea
~ la direccion de L1 y
hay mas de un punto en la interseccion, por ejemplo O1 y O2 . Entonces hay 1 , 2 ,
1 y 2 tales que

P0 O1 = 1
~

Q0 O1 = 1 ~

P0 O2 = 2
~

~
Q0 O2 = 2

O1 O2 = (2 1 )~

~
O1 O2 = (2 1 )

CAPITULO 4. VECTORES EN RN

78

~ son l.i. entonces 1 = 2 , 1 = 2 , luego no puede haber mas que un punto


Pero
~,
en L1 L2 .
Sea entonces O el punto de interseccion de L1 y L2 . Sea R M , entonces para alg
un

P L1 y alg
un Q L2 se tiene P R = rP Q. Como P L1 y Q L2 hay y tales

~ entonces
que OP = ~
y OQ = ,

OR =

OR + rOP =

OR =

OP + P R = ~
+ rP Q

~
~
+ rOP + rP Q = ~
+ r
~
~
r~
+ r~ = (1 r)~
+ r

~ Entonces R se obtiene aplicando un vector


Sea H el subespacio generado por
~ y .
de H en O.

A la inversa, sea ~ = ~
+ ~ y apliquemos ~ en O. Sea R tal que OR = ~ . Si ~ = 0,
R = O y entonces R M (O pertenece a la recta que lo une con alg
un punto de L1
distinto de el, considerando O como punto de L2 ). Si = 0 pero 6= 0, R mismo
esta en L1 , y esta en la recta que lo une con O, lo cual demuestra que R M (considerando O como punto de L2 ).

Si 6= 0 sea P L1 , P 6= O, y tal que OP 6= ~


. Hay p tal que OP = p
~ . Si Z es
un punto arbitrario de la recta que pasa por P y R se tiene que

~ p
OZ = OP + P Z = ~
+ tP R = ~
+ t(~ p
~ ) = ~
+ t[~
+
~]
Z L2 si y solo si + t( p ) = 0 luego hay un u
nico Z0 en la recta por P y R que
esta sobre L2 . Se concluye que R esta sobre la recta por P y Z0 , esto es, R M . Por
lo tanto, M es la variedad lineal obtenida aplicando H en O.
~ Sean O1 L1 , O2 L2 puntos fijos de L1 y L2
Caso 2: L1 y L2 son paralelas,
~ = .

respectivamente. Sea ~ = O1 O2 , sea P L1 , Q L2 , sea R un punto cualquiera de la

recta por P y Q. Entonces P R = rP Q. Ademas O1 P = ~


y O2 Q = ~
para alg
un

par de valores de y . Entonces ~ + ~


= ~
+ P Q luego P Q = ~ + ( )~
y como


O1 P + P R = O1 R se tiene que ~
+ rP Q = O1 R,

O1 R = ~
+ r{~ + ( )~
} ,
si H es el subespacio generado por
~ y ~ , R se obtiene aplicando un vector de H en O1 .
Analogamente al primer caso, al aplicar un vector ~ H en O1 obtenemos un punto
de M . M es la variedad lineal obtenida de aplicar H en O1 .
Caso 3: L1 y L2 se cruzan. Si M fuese una variedad de dimension dos, ella es un
plano que contiene a L1 y L2 . Entonces L1 y L2 seran coplanares y no paralelos luego
tendran un punto com
un, as que M no puede ser una variedad de dimension dos. Sea

~ la direccion de L1 , la de L2 . Sea O1 L1 , sea O2 L2 , sea ~ = O1 O2 . Entonces


~,
~ ~ son l.i. Sea H el subespacio generado por
~ ~ . Si copiamos H a partir de O1
,
~ , ,
generamos una variedad lineal M 0 y podemos verificar tal como en el segundo caso que
M M 0 . Pero los puntos que estan sobre un plano por L1 y paralelo a L2 claramente
estan en M 0 pero no en M luego M 6= M 0 . Pero cualquier variedad de dimension tres

4.4. SUBESPACIOS DE SOLUCIONES

79

~ y ~ luego
que contenga a M debe tener un subespacio generador que contenga a
~,
0
0
0
ella necesariamente debe ser M . Si M M y M 6= M ella no puede tener dimension
tres. Es obvio que M no puede tener dimension mayor que tres porque M M 0 . Se
concluye que M no es una variedad lineal.

4.4.

Subespacios de soluciones

Consideremos un sistema homogeneo de s ecuaciones lineales con n incognitas, sea r el


rango de la matriz del sistema. Entonces sus soluciones constituyen un subespacio de
V n . Puesto que hay n r soluciones fundamentales ellas son una base del subespacio
el cual tiene entonces dimension n r.
Puesto que las soluciones de un sistema no homogeneo se obtienen sumando a una
solucion dada del sistema todas las soluciones del correspondiente sistema homogeneo,
podemos reeinterpretar este resultado en lenguaje geometrico de la siguiente manera:
Sea (x1 , x2 , . . . , xn ) una solucion del sistema no homogeneo. La interpretaremos como
un punto P Rn . Sea
~ = {y1 , y2 , . . . , yn } una solucion del correspondiente sistema

homogeneo, sabemos que hay Q Rn tal que


~ = P Q. Si O Rn esta dado por

O = (0, 0, . . . , 0) entonces OP = {x1 , x2 , . . . , xn } es una solucion vectorial del sistema.


Pero

OP + P Q = OQ = {x1 + y1 , x2 + y2 , . . . , xn + yn } ,
luego el punto Q = (x1 + y1 , x2 + y2 , . . . , xn + yn ) es una solucion del sistema no
homogeneo. Se concluye lo siguiente:
Sea L el subespacio de soluciones del correspondiente sistema homogeneo, sea M Rn
formado por todas las soluciones del sistema no homogeneo. Si P M , aplicando un
vector
~ L en P obtenemos un punto Q M .
A la inversa, sea Q = (z1 , z2 , . . . , zn ) M , si ~ = {z1 , z2 , . . . , zn },
~ = {x1 , x2 , . . . , xn }
entonces
~

~ = {z1 x1 , z2 x2 , . . . , zn xn } L .
~

~
Pero
~ + (
~ ) = OQ y

~ = P Q luego el punto Q M se obtiene aplicando


~

~ en P .
M es la variedad lineal de dimension n r obtenida aplicando L en una solucion
P Rn arbitraria del sistema no homogeneo.
Teorema 4.12 Sea L un subespacio de V n . Entonces existe un sistema lineal homogeneo con n inc
ognitas tal que L es su espacio de soluciones.
Demostraci
on: Sea p = dim L. Sea
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , p una base
de L, sea ~x = {x1 , x2 , . . . , xn }. Considere el sistema

~ i ~x =

n
X
j=1

aij xi = 0

i = 1, 2, . . . , p

(4.3)

CAPITULO 4. VECTORES EN RN

80
La matriz de (4.3) tiene rango p. Sea

p
X

j
~ j L, sea ~x una solucion de (4.3).

j=1

Entonces
~x

p
X

j
~j =

j=1

p
X

j (~x
~ j) = 0 ,

j=1

si ~x es solucion de (4.3) entonces ~x es ortogonal a todos los vectores de L. A la inversa,


si ~x es ortogonal a todos los vectores de L, ~x es solucion de (4.3).
Notese que si ~x1 , ~x2 son ortogonales a L, ~x1 + ~x2 es ortogonal a L luego L0 , el
conjunto de los vectores de V n que son ortogonales a L es un subespacio de V n , que
coincide con el espacio de soluciones de (4.3) luego dim L0 = n p.
Busquemos los vectores ortogonales a L0 . Sea ~i , i = 1, 2, . . . , n p una base de L0 . Un
vector ~y = {y1 , y2 , . . . , yn } es ortogonal a L0 si y solo si
~i ~yi = 0

i = 1, 2, . . . , n p

(4.4)

~2 , . . . ,
~np son en particular ortogonales a
Pero ~1 ,
~ 1,
~ 2, . . . ,
~ p luego
~1

~i = 0 ,

~2
~i = 0 ,

... ,

~np

~i = 0

i = 1, 2, . . . , p

(4.4) es un sistema homogeneo cuyas soluciones son todos los vectores ortogonales a
L0 luego su espacio de soluciones tiene dimension p. Como
~ 1,
~ 2, . . . ,
~ p son l.i. y
estan en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.
Para resumir: Sea L un subespacio de V n de dimension p, sea L0 el subespacio de V n
~1 ,
~2 ,
que consta de todos los vectores ortogonales a L. L0 tiene dimension n p. Si
~np es una base de L0 vemos que el sistema
...,
~i ~y = 0

i = 1, 2, . . . , n p ,

~y = {y1 , y2 , . . . , yn }

tiene como espacio de soluciones a L.


Teorema 4.13 Sea M una variedad lineal en Rn . Entonces existe un sistema lineal
con n inc
ognitas tal que el conjunto de sus soluciones es M .
Demostraci
on: Sea L el subespacio que genera a M , sea p = dim L. Por el teorema
anterior, existe un sistema lineal homogeneo
a11 x1 + a12 x2 + + a1n xn
a21 x1 + a22 x2 + + a2n xn

=
=
..
.

0
0

am1 x1 + am2 x2 + + amn xn

cuyo espacio de soluciones es L.

(4.5)

4.4. SUBESPACIOS DE SOLUCIONES

81

Supongamos que M se obtiene aplicando L en P = (1 , 2 , . . . , n ). Definimos bi =


n
X
aik k , consideremos el sistema
k=1

a11 x1 + a12 x2 + + a1n xn


a21 x1 + a22 x2 + + a2n xn
am1 x1 + am2 x2 + + amn xn

= b1
= b2
..
.

(4.6)

= bm

Entonces las soluciones de (4.6) se obtienen aplicando el espacio de soluciones de (4.5)


en P . Notese que podemos encontrar un sistema (4.5) en que m = n p de modo que
(4.6) tenga exactamente n p ecuaciones.

82

CAPITULO 4. VECTORES EN RN

Captulo 5

Consideraciones sobre
distancia y volumen en Rn
5.1.

M
etrica euclidiana

Definici
on 5.1 Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn . Llamaremos distancia entre P y Q a
"
PQ =

n
X

# 12
(yi xi )2

i=1

Es claro que P Q 0 y que P Q = 0 sii P = Q.


Notaci
on: Si a Rn adjuntamos esta notacion de distancia, al producto obtenido lo
llamaremos espacio euclidiano n-dimensional.
Definici
on 5.2 Dada la recta por P y Q
zi = xi + (yi xi )

i = 1, 2, . . . , n

<<

llamaremos longitud del segmento P Q (0 1) a la distancia entre P y Q.

Nota: Sea
~ = P Q = {y1 x1 , y2 x2 , . . . , yn xn }. La longitud del segmento dirigido

P Q que es una representacion posible de


~ es P Q. Esto motiva la siguiente definicion:

Definici
on 5.3 Sea
~ = {a1 , a2 , . . . , an } un vector de V n . Llamaremos longitud del
vector
~ a
n
! 12
X
,
k~
k =
a2i
i=1

k~
k se llama la norma de
~.
Notese que k~
k = 0 sii sus puntos extremos coinciden, esto es, k~
k = 0 sii
~ = ~0.

83

CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

84

~ k~
~
Teorema 5.4 (Desigualdad de Cauchy-Schwarz) |~
|
kkk
~ = 1. Como
Demostraci
on: Supongamos primero que k~
k = kk
~ V n se tiene
2
k~
k =
~
~ 0, entonces
~
~
~
~ 2 2~
~ + k~
k
~ k2 = (
~ ) (
~ ) = kk

k2 0
luego

~ ~ 1

(5.1)

~
Hay igualdad en (5.1) sii
~ = .

~
Sean
~ , ~ vectores arbitrarios distintos de ~0, por (5.1)

k~
k

1 luego
~
kk

~ k~
~

~
kkk

(5.2)

~ es ~0, luego (5.2) es cierto para


~ cualquiera.
Es claro que (5.2) es verdadera si
~ o
~ y
~
En particular es cierta para ~
y luego
~
(~
) ~ k
~ kkk

~
Si
~ y
entonces
igualdad

~ k~
~
(~
)
kkk


~
~

~
~
~
~
son tales que |~
| = k~
kkk entonces

=1
= 1. Si
~
~
k~

k kk
k~
k kk
~

~
~

~
~
(~
)

~
~
=
, si

= 1,

= 1 y
=
. Hay
~
~
~
~
k~
k
k~
k kk
k~
k kk
k~
k
kk
kk
k~
k ~
sii
~ =
.
~
kk

Teorema 5.5 (Desigualdad triangular) Sean P , Q, R tres puntos cualesquiera en


el espacio euclidiano Rn . Entonces
P R P Q + QR

~

Demostraci
on: Sean P Q =
~ , QR = ,
entonces P R = P Q + QR luego
PR

PR

~ 2 = (~
~ (~
~ = k~
~ + kk
~ 2
= k~
+ k
+ )
+ )
k2 + 2~

~ + kk
~ 2 = (k~
~ 2
k~
k2 + 2k~
kkk
k + kk)
~ = P Q + QR
k~
k + kk

~ V n entonces
Nota: Hemos demostrado mas que eso, si
~,
~ k~
~
k~
+ k
k + kk
Cuando se produce igualdad?
Supongamos que Q pertenece al segmento P R. Sea P = (x1 , x2 , . . . , xn ), R = (z1 , z2 , . . . , zn ).
Entonces Q = (y1 , y2 , . . . , yn ) es tal que
yi = xi + (zi xi )

i = 1, 2, . . . , n

01


5.2. VOLUMENES
Y DETERMINANTES

85

Pero
zi yi = zi xi (yi xi ) = (1 )(zi xi )
i = 1, 2, . . . , n
n
! 12
n
! 12
X
X
2
2
P Q + QR = ||
(zi xi )
+ |1 |
(zi xi )
= PR
i=1

i=1

porque 0 1 entonces || = , |1 | = 1 .

A la inversa, si hay igualdad y alguno entre P Q y QR es el vector cero, entonces P = Q

o Q = R y Q esta en el segmento. Supongamos entonces que P Q 6= ~0 y QR 6= ~0. Hay




igualdad si P Q QR = kP QkkQRk luego

PQ
QR
=

kP Qk
kQRk

luego P Q = QR, > 0,


yi xi

yi

yi

(zi yi )
i = 1, 2, . . . , n
xi + zi
i = 1, 2, . . . , n
1+

xi +
(zi xi )
0<=
< 1,
+1
+1

Q esta en el interior del segmento P R.


~ distintos de ~0. Llamaremos angulo entre
~,
~ y ~ , se
Definici
on 5.6 Sean
~ al
designa por (~
, ),
angulo tal que 0 definido por
cos =

~
.
~
k~
kkk

Nota: La desigualdad de Cauhy-Schwarz garantiza que la definicion es correcta.


~ distintos de cero. Entonces cos = 0 sii
~ = 0. Decimos que
Nota: Sean
~,
~
~ y
~ son ortogonales. En Rn euclideo, los vectores ~ei de la base estandar son mutuamente

ortogonales.

5.2.

Vol
umenes y determinantes

C
P

Queremos describir el parelogramo ABCD analticamente. Sea P un punto interior al paralelogramo o


bien sobre alguno de sus lados. Por P tracemos paralelas a AB y AD respectivamente, sean E, F los
puntos de interseccion en AB y AD respectivamente.

AP = AE + EP = AE + AF

Pero

AE = 1 AB

AF = 2 AD

0 1 1
0 2 1

86

CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

Luego AP = 1 AB + 2 AD, 0 1 , 2 1.

A la inversa, si al aplicar el vector 1 AB + 2 AD en A para llevarlo al punto O, tal


punto P pertenece al paralelogramo si 0 1 , 2 1.
Sean
~ 1,
~ 2 vectores l.i. en V 2 , sea A un punto fijo en R2 . Llamaremos paralel
ogramo
al conjunto de los puntos P R2 en los cuales es transformado el punto A al aplicar
todos los vectores de la forma 1
~ 1 + 2
~ 2 , 0 1 , 2 1 en A. Diremos que
~ 1,
~2
son los lados del paralelogramo.
Podemos realizar una construccion analoga en R3 : Sean
~ 1,
~ 2,
~ 3 vectores l.i. en
V 3 , sea A un punto fijo de R3 . Llamaremos paraleleppedo al conjunto de los puntos
P R3 en los cuales es transformado el punto A al aplicar todos los vectores de la
forma 1
~ 1 + 2
~ 2 + 3
~ 3 , 0 1 , 2 , 3 1 en A. Diremos que
~ 1,
~ 2,
~ 3 son las
aristas del paraleleppedo.
Definici
on 5.7 Sean
~ 1,
~ 2, . . . ,
~ n vectores l.i. en V n , sea A un punto fijo de Rn .
Llamaremos paralelotopo n-dimensional al conjunto de los puntos P Rn en los
n
X
cuales es transformado el punto A al aplicar todos los vectores de la forma
i
~ i,
i=1

0 i 1, i = 1, 2, . . . , n en A. Diremos que
~ 1,
~ 2, . . . ,
~ n son las aristas del
paralelotopo.
Nuestro objetivo es definir el volumen de un paralelotopo n-dimensional, para esto
revisamos las propiedades esenciales que la nocion tiene en dos y tres dimensiones.
En primer lugar, debe ser invariante a traslaciones; por definicion, el paralelogramo
y el paraleleppedo son generados trasladando el punto fijo A mediante los vectores
1
~ 1 + 2
~ 2 , 1
~ 1 + 2
~ 2 + 3
~ 3 . Pedir que el volumen del paralelotopo sea invariante a traslaciones es, en otras palabras, que area y volumen deben ser independientes
de la eleccion del punto A. Si elegimos otro punto, digamos B, el paralelogramo (paraleleppedo) resultante debe tener la misma area (volumen). Paralelogramos que tienen
los mismos lados deben tener la misma area, paraleleppedos con las mismas aristas
deben tener el mismo volumen.
El volumen del paralelotopo n-dimensional debe ser solo una funcion de las aristas, lo
anotaremos como V (~
1 ,
~ 2, . . . ,
~ n ).
Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estandar le asignaremos el volumen 1, esto es
V (~e1 , ~e2 , . . . , ~en ) = 1
En Rn eucldeo, los vectores ~e1 , ~e2 , . . . , ~en tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma longitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.
Es claro que debemos exigir V (~
1 ,
~ 2, . . . ,
~ n ) 0.
Paralelogramos equivalentes (bases de igual longitud y misma altura) tienen la misma
area, paralelelpedos equivalentes (bases de igual area y misma altura) tienen el mismo


5.2. VOLUMENES
Y DETERMINANTES

87

volumen. Veamos el significado de esto en terminos de las aristas:

a
a+

E
ABCD y ABEC son equivalentes. Los paralelogramos cuyas aristas son
~ 1,
~2 y
~ 1,

~1 +
~ 2 tienen la misma area.

a2
A

a1
H

Puesto que estas combinaciones se pueden


hacer con cualquier par de aristas (cualquier
cara puede ser elegida como base) probaremos
lo siguiente:

a3

a1

+a

a2
A

Los
paraleleppedos
ABCDEF GH
y
ABCDF KLG son equivalentes. Los paraleppedos cuyas aristas son
~ 1,
~ 2,
~3 y
~ 1,

~ 2,
~1 +
~ 3 tienen el mismo volumen.

a1

V (~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = V (~
1 ,
~ 2, . . . ,
~i +
~ k, . . . ,
~ n)
donde k 6= i, 1 k n.
Si en un paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ n reemplazamos la arista
~ i, 1 i n
por
~i +
~ k , 1 k n, k 6= i, el nuevo paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ i +~
k ,
...,
~ n tiene el mismo volumen que el original.

Consideremos los paralelogramos ABCD y ABEF de aristas


~ 1,
~2 y
~ 1 , ~
2 , real.

la2
D

Pedimos entonces que

a2
A

Area ABCD
AD
k~
2 k
1
=
=
=
Area ABEF
k~
2 k
||
AF

a1

V (~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = ||V (~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n)

Si en un paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ n reemplazamos la arista
~ i por ~
i el
volumen queda multiplicado por ||.
En resumen, definiremos el volumen de un paralelotopo n-dimensional de aristas
~ 1,

~ 2, . . . ,
~ n como una funcion real V (~
1 ,
~ 2, . . . ,
~ n ) tal que
i.- V (~
1 ,
~ 2, . . . ,
~ n) 0
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = V (~
1 ,
~ 2, . . . ,
~i +
~ k, . . . ,
~ n)
ii.- V (~

i 6= k

iii.- V (~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = ||V (~
1 ,
~ 2, . . . ,
~ n)
iv.- V (~e1 , ~e2 , . . . , ~en ) = 1
Queremos demostrar que tal funcion existe y es u
nica. Quitemos la restriccion de que
los vectores
~ 1,
~ 2, . . . ,
~ n deben ser l.i. y permitamos que cualquier n-tupla de vectores de V n pueda ser argumento de la funcion V (~
1 ,
~ 2, . . . ,
~ n ). Con este proposito

CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

88

introducimos una nueva funcion real D(~


1 ,
~ 2, . . . ,
~ n ) donde (~
1 ,
~ 2, . . . ,
~ n ) es una
n-tupla de vectores de V n (no necesariamente l.i) y que satisface las propiedades siguientes:
i.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~i +
~ k, . . . ,
~ n)

i 6= k

ii.- D(~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n)
iii.- D(~e1 , ~e2 , . . . , ~en ) = 1
Sean
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sea A a matriz de n n cuyas filas son los
vectores
~ i . No es difcil demostrar, usando i), ii) y iii) que D(~
1 ,
~ 2, . . . ,
~ n ) goza de
las mismas propiedades que las de las filas (columnas) de det A, a saber:
i.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ i + ~
k , . . . ,
~ n)
ii.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~i +

n
X

i 6= k, real.

k
~ k, . . . ,
~ n ).

k=1,k6=i

iii.- Si
~ i = 0, 1 i n, D(~
1 ,
~ 2, . . . ,
~ n ) = 0.
~ 1,
~ 2, . . . ,
~ n son l.d., D(~
1 ,
~ 2, . . . ,
~ n ) = 0.
iv.- Si
v.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ k, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ k, . . . ,
~ i, . . . ,
~ n ).
~ + ~ ,
~
vi.- D(
~ 2, . . . ,
~ n ) = D(,
~ 2, . . . ,
~ n ) + D(~ ,
~ 2, . . . ,
~ n ).
vii.- Sea
~i =

r
X

ik , i = 1, 2, . . . , n

k=1

D(~
1 ,
~ 2, . . . ,
~ n) =

r
X

D(11 , 22 , 33 , . . . , nn ) .

1 ,...,n =1

~ 1,
~ 2, . . . ,
~ n son l.i., D(~
1 ,
~ 2, . . . ,
~ n ) 6= 0.
viii.- Si
Tenemos que demostrar que existe una funcion que satisface las propiedades i), ii) y
iii) y que es u
nica. La demostracion se hace por induccion y no la entregaremos porque
excede el ambito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:
Si existe un funcion D(~
1 ,
~ 2, . . . ,
~ n ) que satisface i), ii), iii) ella debe tener una
cierta forma, luego se verifica que la funcion de la forma obtenida satisface i), ii), iii)
lo cual prueba la existencia de D(~
1 ,
~ 2, . . . ,
~ n ). Finalmente, usando vii) y viii) se
obtiene una expresion explcita de D(~
1 ,
~ 2, . . . ,
~ n ) la cual coincide con la definicion
de det A. Entonces D(~
1 ,
~ 2, . . . ,
~ n ) = det A. A D(~
1 ,
~ 2, . . . ,
~ n ) la llamaremos funcion determinante.
Esto u
ltimo prueba que si H(~
1 ,
~ 2, . . . ,
~ n ) es otra funcion que satisface i), ii), iii)
entonces ella tiene necesariamente la misma forma que D(~
1 ,
~ 2, . . . ,
~ n ) y como satisface las propiedades vii), viii), H(~
1 ,
~ 2, . . . ,
~ n ) = det A.
Definamos V (~
1 ,
~ 2, . . . ,
~ n ) = |D(~
1 ,
~ 2, . . . ,
~ n )|.


5.2. VOLUMENES
Y DETERMINANTES

89

Es claro que se satisfacen las 4 propiedades que le exigimos al volumen. Queremos


demostrar que es la u
nica que las satisface.
Sea la funcion sgn D definida por

1 si D > 0
0 si D = 0
sgn D =

1 si D < 0
Consideremos V (~
1 ,
~ 2, . . . ,
~ n )sgn D(~
1 ,
~ 2, . . . ,
~ n ). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la funcion determinante.
Ni V (~
1 ,
~ 2, . . . ,
~ n ) ni sgn D(~
1 ,
~ 2, . . . ,
~ n ) cambian cuando se reemplaza
~ i por

~i +
~ k luego satisface i).
Como (sgn a)(sgn b) = sgn (ab), al reemplazar
~ i por ~
i la funcion queda multiplicada por ||sgn = luego satisface ii). Es claro que satisface iii). Entonces
V (~
1 ,
~ 2, . . . ,
~ n )sgn D(~
1 ,
~ 2, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ n)
Si D(~
1 ,
~ 2, . . . ,
~ n ) 6= 0,
V (~
1 ,
~ 2, . . . ,
~ n )(sgn D(~
1 ,
~ 2, . . . ,
~ n ))2

sgn D(~
1 ,
~ 2, . . . ,
~ n )D(~
1 ,
~ 2, . . . ,
~ n)

|D(~
1 ,
~ 2, . . . ,
~ n )| ,

luego observe que si D 6= 0, (sgn D)2 = 1. Si D(~


1 ,
~ 2, . . . ,
~ n ) = 0, la propiedad
viii) de la funcion determinante nos permite concluir que los vectores
~ 1,
~ 2, . . . ,

~ n son l.d., pero cualquier funcion que satisface las propiedades ii) y iii) de la funcion determinante es 0 si los vectores
~ 1,
~ 2, . . . ,
~ n son l.d. Como V (~
1 ,
~ 2, . . . ,
~ n)
las satisface, V (~
1 ,
~ 2, . . . ,
~ n ) = 0 si los vectores
~ 1,
~ 2, . . . ,
~ n son l.d. Entonces
|D(~
1 ,
~ 2, . . . ,
~ n )| es la u
nica funcion que satisface las propiedades i), ii), iii), iv)
exigidas al volumen.
Definici
on 5.8 Definimos como volumen de un paralelotopo n-dimensional en Rn
eucldeo a
V (~
1 ,
~ 2, . . . ,
~ n ) = |D(~
1 ,
~ 2, . . . ,
~ n )|

90

CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

Captulo 6

Sistemas de coordenadas
Recordemos la definicion (4.8). Sea M una variedad lineal, P0 un punto de M y L el
subespacio que la genera, supongamos L tiene dimension p > 0. Si
~ 1,
~ 2, . . . ,
~ p es
una base de L y P un punto arbitrario de M , podemos escribir (de manera u
nica)
p

X
yi
~i
P0 P =
i=1

Decimos que y1 , y2 , . . . , yp son las coordenadas del punto P con respecto al sistema de
coordenadas [P0 ;
~ 1,
~ 2, . . . ,
~ p ]. Puesto que Rn es una variedad lineal n-dimensional,
~n es una base de V n y Q Rn , para cada P Rn podemos escribir
si ~1 , ~2 , . . . ,
(de manera u
nica)
n
X ~
QP =
x i
i

i=1

Decimos que x1 , x2 , . . . , xn son las coordenadas del punto P en el sistema de coorde~2 , . . . ,


~n ], el punto Q tiene coordenadas 0,0,. . . , 0.
nadas [Q; ~1 ,
Elijamos como origen el punto O = (0, 0, . . . , 0) y como base de V n la base estandar
~e1 , ~e2 , . . . , ~en . Sea P = (x1 , x2 , . . . , xn ) un punto arbitrario de Rn . Entonces

OP =
=
=

{x1 0, x2 0, . . . , xn 0} = {x1 , x2 , . . . , xn }
x1 {1, 0, . . . , 0} + x2 {0, 1, . . . , 0} + + xn {0, 0, . . . , 1}
n
X
xi~ei .
i=1

Con respecto al sistema de coordenadas [O; ~e1 , ~e2 , . . . , ~en ], las coordenadas de P coinciden con los elementos de la n-tupla (x1 , x2 , . . . , xn ).
~2 , . . . , ~n ] un sistema de coordenadas en Rn , sea
Definici
on 6.1 Sea [Q; ~1 ,
~ =
n
X
~i (en forma u
{a1 , a2 , . . . , an } un vector de V n . Entonces
~ =
ai
nica). Direi=1

mos que a1 , a2 , . . . , an son las componentes de


~ en el sistema de coordenadas
~1 ,
~2 , . . . ,
~n ], o bien, las componentes del vector con respecto a la base ~1 ,
~2 ,
[Q;
~
. . . , n .
91

CAPITULO 6. SISTEMAS DE COORDENADAS

92

Es claro que las componentes del vector


~ son independientes de la eleccion del origen
Q.
Notaci
on: De ahora en adelante escribiremos P = (x1 , x2 , . . . , xn ) solo si x1 , x2 , . . . ,
xn son las coordenadas de P en [O; ~e1 , ~e2 , . . . , ~en ] y escribimos
~ = {a1 , a2 , . . . , an }
solo si a1 , a2 , . . . , an son las componentes de
~ con respecto a la base ~e1 , ~e2 , . . . , ~en .
~2 , . . . , ~n ] un sistema de coordenadas en Rn , sea P Rn de coordenadas
Sea [Q; ~1 ,

x1 , x2 , . . . , xn , sea R Rn de coordenadas y1 , y2 , . . . , yn . Entonces


n

i=1

i=1

i=1

X
X
X

~i +
~i =
P R = P Q + QR =
xi
yi
(yi xi )~i

~ =
luego P R tiene componentes (yi xi ), i = 1, 2, . . . , n en el sistema dado. Si
n
n
X
X
~i luego ~
ai ~i , ~
=
(ai )
tiene componentes ai , i = 1, 2, . . . , n en el
i=1

i=1

~=
sistema dado. Si

n
X

~i entonces
bi

i=1

~ + ~ =

n
X

(ai + bi )~i ,

i=1

~ + ~ tiene componentes ai + bi , i = 1, 2, . . . , n en el sistema dado.


Sean
~ 1,
~ 2, . . . ,
~ n n vectores en V n , sea
~i =

n
X

aik ~k , sea

k=1

(aik ) =

a11
a21
..
.

a12
a22
..
.

..
.

a1n
a2n
..
.

am1

am2

amn

Llamamos
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n y supongamos que
Entonces

m
X

m
X

i
~ i = ~0.

i=1

i aik

= ~0, k = 1, 2, . . . , n y por lo tanto

i=1
m
X

i
~i =

i=1

m
X

i=1

n
X

!
~k
aik

k=1

m
n
X
X
k=1

!
i aik

~k = ~0 .

i=1

Luego si las filas de (aik ) son l.d. entonces


~ 1,
~ 2, . . . ,
~ n son l.d. con exactamente la
misma relacion lineal.
A la inversa, supongamos que

m
X

i
~ i = 0, entonces

i=1

m
n
X
X
k=1

i=1

!
i aik

~k = 0

m
X
i=1

i aik = 0

k = 1, 2, . . . , n

DE COORDENADAS
6.1. TRANSFORMACION

93

luego si los vectores


~ 1,
~ 2, . . . ,
~ n son l.d. las filas de (aik ) son l.d. con la misma
relacion lineal.
Se concluye que el n
umero de vcetores l.i. que contiene un sistema linealmente independiente maximal del conjunto
~ 1,
~ 2, . . . ,
~ m es igual al n
umero de vectores que
contiene un sistema linealmente independiente maximal del conjunto de filas de la
matriz (aik ) y es por lo tanto igual al rango de dicha matriz.

6.1.

Transformaci
on de coordenadas

~1 , ~2 , . . . ,
~n ], y [Q00 ; ~1 , ~2 , . . . , ~n ] dos sistemas de coordenadas
Problema: Sean [Q0 ;
n
n
en R . Sea P R y supongamos que se conocen las coordenadas de P en el primer
sistema. Se piden las coordenadas de P en el segundo sistema.
Sean
n
X
0
~i
Q Q00 =
si

n
000 X
Q Q =
ti~i

i=1

~k =

n
X

i=1

vik~i

~k =

i=1

n
X

uik ~i

k = 1, 2, . . . , n

i=1

Sean x1 , x2 , . . . , xn las coordenadas de P en el primer sistema, y1 , y2 , . . . , yn las


coordenadas de P en el segundo sistema. Entonces
n
0 X
QP =
xi ~i

X
Q00 P =
yi~i

i=1

i=1


Pero Q00 P = Q00 Q0 + Q0 P luego
n
X

yi~i =

i=1

yi
xi

= ti +
= si +

n
X
k=1
n
X

n
X
i=1

ti~i +

n
X

xk ~k =

k=1

n
X
i=1

ti~i +

n
n
X
X
i=1

!
vik xk ~i

k=1

vik xk


i = 1, 2, . . . , n . Analogamente, Q0 P = Q0 Q00 + Q00 P luego

uik yk

i = 1, 2, . . . , n

k=1

(6.1)
Decimos que (6.1) es una transformacion de coordenadas del primer sistema al segundo
o viceversa.
Problema: C
omo cambian las componentes de un vector frente a una transformaci
on
de coordenadas?
Sea
~ V n con componentes a1 , a2 , . . . , an con respecto al primer sistema y componentes b1 , b2 , . . . , bn con respecto al segundo sistema.

CAPITULO 6. SISTEMAS DE COORDENADAS

94

~
n
X

bi~i

n
X

k=1
n
n
X
X

i=1

bi

~k =
ak

i=1
n
X

n
X

bk~k

k=1

vik ak ~i

k=1

vik ak

i = 1, 2, . . . , n

i=1

Analogamente
n
X

ai ~i

i=1

ai

n
n
X
X
i=1
n
X

!
uik bk

~i

k=1

uik bk

i = 1, 2, . . . , n

k=1

Analicemos con mayor detencion las expresiones


~k
~k

=
=

n
X
i=1
n
X

vik~i
k = 1, 2, . . . , n
uik ~i

i=1

~2 , . . . , ~n son l.i., el rango de (vik ) es igual a n. Como ~1 , ~2 , . . . , ~n son


Como ~1 ,
l.i., el rango de (uik ) es igual a n. Se concluye que det(vik ) y det(uik ) son distintos de
cero.
~1 , ~2 , . . . ,
~n ] es dado y que tambien el sistema
Problema: Supongamos que s
olo [Q0 ;
de ecuaciones
n
X
yi = ti +
vik xk
i = 1, 2, . . . , n
k=1

con det(vik ) 6= 0 es dado. Este sistema de ecuaciones le asigna a un punto P de co~1 , ~2 , . . . ,


~n ] una n-tupla de
ordenadas x1 , x2 , . . . , xn con respecto al sistema [Q0 ;
n
umeros y1 , y2 , . . . , yn . Existe un sistema de coordenadas donde las coordenadas de
P son precisamente y1 , y2 , . . . , yn ?
Sea Vik el adjunto de vik en det(vik ). Revisando la demostracion de la regla de Cramer
se obtiene que
n
X
(yi ti )Vik
xk =
Llamemos

n
X

sk =

i=1

det(vik )

ti Vik

i=1

det(vik )

uki =

k = 1, 2, . . . , n

Vik
det(vik )

k = 1, 2, . . . , n

6.2. VARIEDADES LINEALES Y SISTEMAS DE ECUACIONES

95

Obtenemos as el sistema
xk = sk +

n
X

uki yi

k = 1, 2, . . . , n

i=1
n
X
Sea Q00 el punto tal que Q0 Q00 =
si ~i y definamos ~1 , ~2 , . . . , ~n por
i=1

~k =

n
X

~i .
uik

i=1

El analisis previo nos dice que ~1 , ~2 , . . . , ~n son l.i. entonces [Q00 ; ~1 , ~2 , . . . , ~n ] es el


sistema de coordenadas pedido.
~1 ,
~2 , . . . , ~n y el sistema de ecuaciones
Analogamente, dada una base
bi =

n
X

vik ak

i = 1, 2, . . . , n

det(vik ) 6= 0

i=1

podemos encontrar una segunda base ~1 , ~2 , . . . , ~n tal que estas ecuaciones representan las ecuaciones de transicion para las componentes de un vector al pasar de la base
~1 ,
~2 , . . . , ~n a la base ~1 , ~2 , . . . , ~n .

6.2.

Variedades lineales y sistemas de ecuaciones

En otro captulo demostramos que toda variedad lineal es representable mediante un


sistema lineal de ecuaciones en el sentido que M consiste precisamente de aquellos
puntos que son las soluciones del sistema de ecuaciones, pero en la deduccion esta implcito que el sistema de coordenadas es [O; ~e1 , ~e2 , . . . , ~en ]. Cual es la situacion cuando
el sistema de coordenadas es arbitrario?
~1 , ~2 , . . . ,
~n ] un sistema de coordenadas en el cual toda variedad lineal de
Sea [Q0 ;
dimension p es representable por un sistema lineal de ecuaciones cuya matriz tiene
rango n p y tal que, a la inversa, todo sistema de esa naturaleza representa una
variedad lineal de dimension p. Existen sistemas de coordenadas as, [O; ~e1 , ~e2 , . . . , ~en ]
es uno.
Supongamos que la variedad lineal M de dimension p esta dada por el sistema de
ecuaciones
n
X
aik xk = bi
i = 1, 2, . . . , m
(6.2)
k=1

donde el rango de (aik ) es n p.


Sea [Q00 ; ~1 , ~2 , . . . , ~n ] otro sistema de coordenadas y supongamos que las ecuaciones
~1 ,
~2 , . . . , ~n ]
de transicion para pasar del sistema [Q00 ; ~1 , ~2 , . . . , ~n ] al sistema [Q0 ;
son
n
X
xi = si +
uik yk
i = 1, 2, . . . , n
k=1

CAPITULO 6. SISTEMAS DE COORDENADAS

96
Llamemos
~i
~y

= {ui1 , ui2 , . . . , uin }


= {y1 , y2 , . . . , yn }

i = 1, 2, . . . , n

Entonces xi = si + ~i ~y , sustituyendo en (6.2) se tiene


n
X

aik (sk + ~k ~y ) =

k=1

n
X

bi

!
aik ~k

~y

bi

k=1

n
X

aik sk

i = 1, 2, . . . , n

(6.3)

k=1

~1 ,
~2 , . . . ,
~n ],
Sea P M , sean x1 , x2 , . . . , xn sus coordenadas con respecto a [Q0 ;
00
sean y1 , y2 , . . . , yn con respecto a [Q ; ~1 , ~2 , . . . , ~n ]. Por hipotesis las coordenadas
x1 , x2 , . . . , xn satisfacen las ecuaciones (6.2), como xi = si + ~i ~y , al reemplazar las
xi en (6.2), obtenemos que las yi satisfacen el sistema (6.3).
A la inversa, sean y1 , y2 , . . . , yn las coordenadas de un punto P en Rn con respecto
a [Q00 ; ~1 , ~2 , . . . , ~n ] y supongamos que satisfacen (6.3). Entonces sus coordenadas x1 ,
~2 , . . . , ~n ] satisfacen xi = si + ~i ~y , i = 1, 2, . . . , n
x2 , . . . , xn con respecto a [Q0 ; ~1 ,
n
X
y por (6.3)
aik (sk + ~k ~y ) = bi luego
k=1
n
X

aik xk = bi

i = 1, 2, . . . , n

k=1

y por lo tanto P M y (6.3) representa a M en [Q00 ; ~1 , ~2 , . . . , ~n ].


Consideremos la matriz de coeficientes del sistema (6.3), llamemos

~i =

n
X

aik ~k

i = 1, 2, . . . , n

k=1

a sus vectores fila.


Los vectores ~1 , ~2 , . . . , ~n son l.i., luego, por un teorema previo, el n
umero de vectores de cualquier subconjunto linealmente independiente maximal de
~ 1,
~ 2, . . . ,
~n
es igual al rango de (aik ) el cual es n p, de modo que la matriz del sistema (6.3) tiene
rango n p.
Nota: Todo sistema lineal de ecuaciones en las variables y1 , y2 , . . . , yn y con matriz
de rango n p representa una variedad lineal de dimension p en cualquier sistema de
coordenadas [Q00 ; ~1 , ~2 , . . . , ~n ]. Basta usar las ecuaciones
yi = ti +

n
X

vik xk

i = 1, 2, . . . , n

k=1

y el sistema transforma a un sistema en las variables x1 , x2 , . . . , xn con matriz de


~1 ,
~2 , . . . , ~n ] donde por hipotesis
rango np y referido al sistema de coordenadas [Q0 ;


6.3. VOLUMENES
Y SISTEMAS DE COORDENADAS CARTESIANAS

97

un tal sistema representa a una variedad lineal de dimension p.


Si en (6.2) hacemos bi = 0, i = 1, 2, . . . , n, entonces xi = ~i ~y , i = 1, 2, . . . , n y por lo
tanto (6.3) es homogeneo; por teoremas previos se tiene entonces:
Un subespacio de dimensi
on p se representa en cualquier sistema de coordenadas por
un sistema homogeneo de ecuaciones cuya matriz tiene rango n p; a la inversa,
cualquier sistema lineal homogeneo cuya matriz tiene rango n p representa a un
subespacio de dimensi
on p.

6.3.

Vol
umenes y sistemas de coordenadas cartesianas

Problema: Sean
~ 1,
~ 2, . . . ,
~ n n vectores cuyas componentes est
an dadas en el sis~n ]. Se pide el volumen del paralelotopo de aristas
tema de coordenadas [Q; ~1 , ~2 , . . . ,

~ 1,
~ 2, . . . ,
~ n.
Sean
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sean ai1 , ai2 , . . . , ain las componentes de
~n , se tiene

~ i con respecto a la base ~1 , ~2 , . . . ,

~i =

n
X

~
ai

=1

~i con respecto a la base estandar,


Sean vi1 , vi2 , . . . , vin las componentes del vector
se tiene
n
X
~i = {vi1 , vi2 , . . . , vin } =

vik~ek
k=1

Puesto que
~i =

n
X

aik~ek tenemos que

k=1
n
X
k=1

aik~ek =

n
X

ai

=1

luego
aik =

n
X

n
X

!
vk~ek

k=1

ai vk

n
n
X
X
k=1

!
ai vk ~ek

=1

i, k = 1, 2, . . . , n

=1

esto es, la matriz (aik ) resulta de multiplicar las matrices (aik ) y (vik ), luego
det(aik ) = det(aik ) det(vik )

(6.4)

donde el volumen pedido es | det(aik )|. La ecuacion (6.4) dice que tal volumen puede
~1 ,
~2 , . . . , ~n ]
ser calculado conociendo las componentes de las aristas en el sistema [Q;
~
y las expresiones de los vectores i en la base estandar.
Problema: C
omo se comporta el producto escalar en un sistema de coordenadas
~1 ,
~2 , . . . ,
~n ]?
[Q;

CAPITULO 6. SISTEMAS DE COORDENADAS

98
Sean
~a =

{a1 , a2 , . . . , an }

~a =

n
X

ai ~i

i=1

~b =

{b1 , b2 , . . . , bn }

~b =

n
X

bi ~i

i=1

~a ~b =
=

n
X

ai bi
i=1
n X
n
X

n
X

~i
ai

i=1

! n
!
X
~

bk k
i=1

~k )
ai bk (~i

i=1 k=1

Vemos que la formula no es analoga a la original en que las componentes estan dadas
~k = 0 i 6= k,
~i
~k = 1 si i = k entonces
con respecto a la base estandar. Si ~i
~a ~b =

n
X

ai bi

(6.5)

i=1

~k = ik es necesaria para que se cumpla (6.5).


Demostremos que la condicion ~i
~
~
~
Tomemos ~a = i , b = k , entonces aj = 0 si j 6= i, ai = 1, analogamente para bi ,
~i ~k = ik .
luego
~ 1,
~ 2, . . . ,
~ p forman un sistema ortonormal de vecDefinici
on 6.2 Diremos que
tores si
~i
~ k = ik , i, k = 1, 2, . . . , p
Si

p
X
i=1

i
~ i = 0 entonces

p
X

i (~
i
~ k ) = 0; esto nos dice que todos los k son cero,

i=1

luego todo sistema ortonormal de vectores consta de vectores l.i.


~n ] es tal que
~1 ,
~2 , . . . ,
~n es ortonormal diremos
Definici
on 6.3 Si [Q; ~1 , ~2 , . . . ,
~2 , . . . ,
~n ] es un sistema de coordenadas cartesianas.
que [Q; ~1 ,
Vemos que [Q; ~e1 , ~e2 , . . . , ~en ] es un sistema de coordenadas cartesianas luego no hay
problema con su existencia.
~1 ,
~2 , . . . ,
~n ], [Q00 ; ~1 , ~2 , . . . , ~n ] cartesianos, sean
Sean [Q0 ;
~k
~k

=
=

n
X
i=1
n
X

vik~i
k = 1, 2, . . . , n
uik ~i

i=1

~k ~j = vjk , ~k
~j = ujk , 1 j, k n. Luego si en la segunda ecuacion
Entonces
intercambiamos k por j se tiene que
vjk = ukj

1 j, k n


6.3. VOLUMENES
Y SISTEMAS DE COORDENADAS CARTESIANAS
de donde
~k =

n
X

~i
vki

99

(6.6)

i=1

Como ~1 , ~2 , . . . , ~n es ortonormal
~j =
~k

n
X

vik vij = kj

k, j = 1, 2, . . . , n

vki vji = kj

k, j = 1, 2, . . . , n

i=1

Analogamente se tiene
~k ~j =

n
X
i=1

Tenemos entonces que las filas y las columnas de (vik ) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
En

n
X

vik vij = kj multipliquemos por Vhj donde Vhj es el adjunto de vhj en det(vkj ),

i=1

donde h es un entero fijo entre 1 y n, luego sumamos las n ecuaciones resultantes:


n
!
n
n
X
X
X
vik vij Vhj
=
kj Vhj
j=1

i=1

n
n
X
X

vij Vhj vik


i=1

j=1

Vhk

Vhk

j=1

n
X

(ih det(vik ))vik

i=1

vhk det(vik )

= Vhk

Como det(vik ) 6= 0 se tiene


vhk =

Vhk
det(vik )

1 h n,

1kn

Estas relaciones caracterizan a una matriz ortogonal, en efecto


n
X

vik vij

n
X

i=1

i=1

n
X

n
X

vki vji

i=1

i=1

vik

Vij
= kj
det(vik )

vki

Vji
= kj
det(vik )

Notese que las relaciones (6.7) provienen exclusivamente de


~k
~j =

n
X

vik vij = kj

i=1

pero las relaciones


~k ~j =

n
X
i=1

vki vji = kj

(6.7)

CAPITULO 6. SISTEMAS DE COORDENADAS

100

pueden ser deducidas de las relaciones (6.7), se concluye:


Si las columnas de una matriz forman un sistema ortonormal, sus filas tambien forman
un sistema ortonormal.
Por otra parte, si las filas de una matriz forman un sistema ortonormal, las columnas
de la traspuesta forman un sistema ortonormal y por lo tanto las filas de la traspuesta
tambien, luego si las filas de una matriz forman un sistema ortonormal, sus columnas
tambien forman un sistema ortonormal.
Sea (vik ) ortogonal, entonces
(det(vik ))2

= det(vik ) det(aik ) , donde (aik ) = (vik )t


n
!
n
!
X
X
= det
vi ak = det
vi vk = 1
=1

=1

| det(vik )| = 1

Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas


~ 1,
~ 2,
~1 ,
~2 , . . . , ~n ].
...,
~ n est
an en un sistema cartesiano [Q;
Si
~i =
es

n
X
k=1

~k y ~i =
aik

n
X

vik~ek como det(ak ) = det(aik ) det(vik ) el volumen pedido

k=1

| det(aik )| = | det(aik )|| det(vik )| ,


como ~1 , ~2 , . . . , ~n es ortonormal entonces | det(vik )| = 1 luego el volumen pedido
es | det(aik )|. Se concluye que la formula para el volumen es la misma para todos los
sistemas cartesianos.

6.4.

Deformaci
on continua de sistemas de coordenadas

~1 ,
~2 , . . . ,
~n son l.i., D(
~1 ,
~2 , . . . , ~n ) 6= 0. Puesto que
Nota: Sabemos que si
~
~
~
~
~
~
D(1 , 2 , . . . , n ) = D(1 , 2 , . . . , n ), si r es un real arbitrario distinto de cero,
~1 , ~2 , . . . ,
~n donde D(
~1 ,
~2 , . . . , ~n ) = r. En efecto, sea ~1 ,
siempre existe una base
~2 , . . . , ~n una base cualquiera, sea D(~1 , ~2 , . . . , ~n ) = d 6= 0,
r
r
D( ~1 , ~2 , . . . , ~n ) = D(~1 , ~2 , . . . , ~n ) = r ,
d
d
llame ~1 = dr ~1 , ~i = ~i , i = 2, 3, . . . , n.
Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va~1 ,
~2 , . . . , ~n ) es positivo y aquellos para los cuales D(
~1 ,
~2 , . . . , ~n ) < 0.
lor de D(
Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con~2 , . . . ,
~n ) adopte el valor 0 durante el
tinuamente el uno en el otro sin que D(~1 ,
proceso de deformacion y que esto no es posible para dos sistemas de distinta clase.
Intuitivamente, esto significa que dos n-edros de la misma clase pueden hacerse coincidir mediante un cambio suave de sus angulos y longitudes, piense por ejemplo en

CONTINUA DE SISTEMAS DE COORDENADAS


6.4. DEFORMACION

101

dos trpodes en R3 . Tratemos de precisar estas ideas.


~ = {v1 , v2 , . . . , vn }, ~ = {u1 , u2 , . . . , un }, sean fi (t), i = 1, 2, . . . , n funciones
Sean
continuas definidas en c t d tales que fi (c) = vi , fi (d) = ui , i = 1, 2, . . . , n.
~ {f1 (d), f2 (d), . . . , fn (d)} = ~ , la funcion vectoEntonces {f1 (c), f2 (c), . . . , fn (c)} = ,
rial
f~(t) = {f1 (t), f2 (t), . . . , fn (t)}
~ es deformado
es una funcion continua de t en c t d. Decimos que el vector
continuamente en el vector ~ .
El intervalo [c, d] es irrelevante. Sea [c0 , d0 ] otro intervalo, sea
t=

(c d)t0 + dc0 cd0


c0 d0

Si t0 vara de c0 a d0 , t recorre (c, d) de c a d, entonces

(c d)t0 + dc0 cd0


fi
, i = 1, 2, . . . , n
c0 d0
~ ~g (d0 ) = ~ luego ~g (t0 ) cumple
definidas en [c0 , d0 ] son funciones gi (t)0 tales que ~g (c0 ) = ,
~
con el mismo proposito de f (t).
~1 , ~2 , . . . ,
~n ], [Q ; ~1 , ~2 , . . . , ~n ] dos sistemas de coordenadas, sea Q =
Sean [Q;

(x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ), tomemos


fi (t) = xi + t(yi xi )

0t1,

i = 1, 2, . . . , n .

Entonces el punto Q es deformado continuamente en el punto Q a lo largo del segmento QQ .


~1 , ~2 , . . . ,
~n puede ser deforTenemos que demostrar que el sistema de vectores
mado continuamente en el sistema de vectores ~1 , ~2 , . . . , ~n de modo que la independencia lineal se preserve en todo momento del proceso de deformacion, esto es, si
~i = {vi1 , vi2 , . . . , vin }, ~i = {ui1 , ui2 , . . . , uin }, i = 1, 2, . . . , n tenemos que encontrar

n2 funciones continuas fik (t) definidas en c t d tales que fik (c) = vik , fik (d) = uik
y tales que para todo t con c t d se tiene que det(fik (t)) 6= 0. Esto no puede
~1 ,
~2 , . . . , ~n ) = det(vik ) y D(~1 , ~2 , . . . , ~n ) = det(uik ) tienen signos
suceder si D(
opuestos, puesto que det(fik (t)) es una funcion continua de t en c t d luego para
al menos un t0 [c, d] debera tenerse que det(fik (t0 )) = 0. Supondremos entonces
que det(vik ) y det(uik ) tienen el mismo signo. Podemos elegir un representativo de
la clase con determinante positivo, por ejemplo, ~e1 , ~e2 , . . . , ~en y un representativo
de la clase con determinante negativo, digamos ~e1 , ~e2 , . . . , -~en . Demostraremos que
cada sistema en una clase puede ser deformado continuamente en su correspondiente
~n ; ~1 , ~2 , . . . , ~n estan en la clase con determinante
representativo. Si ~1 , ~2 , . . . ,
positivo y ambos pueden ser deformados continuamente en ~e1 , ~e2 , . . . , ~en entonces, de
~1 ,
~2 , . . . ,
manera analoga, podemos deformar ~e1 , ~e2 , . . . , ~en en ~1 , ~2 , . . . , ~n y as
~
n puede ser deformado en ~1 , ~2 , . . . , ~n va ~e1 , ~e2 , . . . , ~en . Analogamente para el
caso con determinante negativo.

CAPITULO 6. SISTEMAS DE COORDENADAS

102

~1 , ~2 , . . . ,
~n un sistema de vectores tales que D(~1 , ~2 , . . . ,
~n ) >
Teorema 6.4 Sea
~1 ,
~2 , . . . , ~n puede ser deformado continuamente en ~e1 , ~e2 , . . . , ~en
0. Entonces
sin que el determinante del sistema de vectores se anule en ninguna etapa del proce~1 , ~2 , . . . ,
~n puede ser deformado en ~e1 , ~e2 , . . . , ~en s
so. An
alogamente,
olo si
~1 ,
~2 , . . . , ~n ) < 0.
D(
~1 = {v}, det(v) = v. Si v > 0, sea f (t) = v+t(1v),
Demostraci
on: Para n = 1, sea
0 t 1; si v < 0 sea f (t) = v + t(1 v), 0 t 1. Para n = 1 el teorema es
verdadero, supongamos que es verdadero para n 1.

~1 , ~2 , . . . ,
~n puede ser deformado continuamente en ~1 ,
~2 , . . . ,
~i , ~,
Lema 6.5
~i +
~k , i 6= k, real, de modo que el determinante permanece
~i+1 , . . . , ~n donde ~ =
constante durante el proceso de deformaci
on.
Demostraci
on: Sean fis (t) las n2 funciones determinadas en 0 t por:
~i + t
~k , 0 t ;
f~i (t) =

~j , j 6= i, 0 t
fj (t) =

esto es,
fis (t) =
fjs (t) =

vis + tvks
vjs

0 t , s = 1, 2, . . . , n
0 t , s = 1, 2, . . . , n, j 6= i

~1 ,
~2 , . . . , ~n ) = D(
~1 ,
~2 , . . . , ~i + t~k , . . . ,
~n ) el determinante perDado que D(
manece constante.
~1 ,
~2 , . . . , ~n puede ser continuamente deformado
Lema 6.6 El sistema de vectores
sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
el por un cambio simult
aneo del signo de dos vectores, digamos, sustituyendo ~i , ~k
~i ,
~k .
por
Demostraci
on: Consideremos la operacion del primer lema como una del siguiente
tipo:
~j permanece igual.
Si j 6= i, j 6= k,
~i + ~k , se anota ~i
~i +
~k .
~i se reemplaza por
7
~k
~k se reemplaza por ~k , se anota
7 ~k .
Apliquemos en forma sucesiva esta nueva forma del primer lema:

~i

~
k

~i + 2
~k
~k
7
~ + 2
, luego i
~
~
7

k
k

~i + 2~k
~i + 2
~k
7

, luego
~
~
~
~
7

i k
i k

~i
7 ~i ~k

CONTINUA DE SISTEMAS DE COORDENADAS


6.4. DEFORMACION
y por u
ltimo

~i

~k
~i

7
7

103

~i

~k .

~i debe tener vik 6= 0, si no es as, det(vik ) = 0. Si vnn = 0, hay


~i
Al menos un vector
~n , luego podemos
con vin 6= 0 y por el primer lema podemos reemplazar ~n por ~i +
~1 v1n
~n , la u
suponer que vnn 6= 0. Luego ~1 7

ltima
componente
de este vector es
vnn
vin ~
~
~
cero. En general, hacemos i 7 i
n , 1 i n 1 entonces
vnn

b11

b21

..
det(vik ) =
.

b(n1)1

vn1

b12
b22
..
.

..
.

b1(n1)
b2(n1)
..
.

0
0
..
.

b(n1)2
vn2

b(n1)(n1)
vn(n1)

0
vnn

Apliquemos el primer lema al sistema de columnas de este u


ltimo determinante:
(i-esima columna)

(i-esima columna)

vni
(n-esima columna)
vnn

(esto implica una deformacion continua del sistema de filas de la nueva matriz las
cuales son en realidad los nuevos vectores ~i , esto es porque al deformar continuamente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n2 funciones gik (t) que produjesen la deformacion. Para interpretarlas como deformaciones continuas de los nuevos ~i basta considerarlas en el orden adecuado).
El nuevo determinante adopta la forma

b11
b12

b1(n1)
0

b21
b

b
0
22
2(n2)

..
..
.
..
.
..
..

.
.
.

b(n1)1 b(n1)2 b(n1)(n1)


0

0
0

0
vnn

b11

b21

= vnn
..

b(n1)1

b12
b22
..
.

..
.

b1(n1)
b2(n1)
..
.

b(n1)2

b(n1)(n1)

luego el determinande de (n 1) (n 1), det(bik ) es distinto de cero puesto que


vnn 6= 0. Sea ~e01 , ~e02 , . . . , ~e0n1 los vectores de la base estandar de Rn1 . Por la hipotesis
de induccion, el sistema de filas de (bik ) puede ser deformado continuamente en ~e01 , ~e02 ,
. . . , ~e0n1 o bien en ~e01 , ~e02 , . . . , ~e0n1 sin que el determinante cambie de signo; det(bk )
queda en la forma

1 0
0

0 1
0

.. .. . .
..
. .
.
.

0 0 1
y por lo tanto el determinante original queda en la forma

1 0
0
0

0 1
0
0

.. .. . .
..
..
. .
.
.
.

0 0 1
0

0 0
0 vnn

CAPITULO 6. SISTEMAS DE COORDENADAS

104

Finalmente, si vnn > 0, transformemos vnn continuamente a 1, si vnn < 0 transformemos vnn continuamente a 1. Si el elemento (n 1)(n 1) de la matriz es +1,
el teorema esta demostrado, si es 1, aplicamos el segundo lema y el determinante
queda en la forma

1 0 0 0

0 1 0 0

.. .. . .
..
..

. .
.
.
.

0 0 1 0

0 0 0 1
Este determinante vale 1 si el elemento nn vale 1 y vale 1 si el elemento nn vale 1
y esto depende de si det(vik ) > 0 o bien det(vik ) < 0, el teorema queda demostrado.

6.5.

Construcci
on de sistemas ortonormales

Sea L un subespacio de V n , dim L = p, tiene L una base ortonormal?


~1 = ~ 1 constituye un tal sistema.
Sea
~ 1,
~ 2, . . . ,
~ p una base de L. Si p = 1,
k~
1 k
Supongamos que todos los subespacios de dimension p 1 tienen una base ortonormal,
sea L0 el subespacio generado por
~ 1,
~ 2, . . . ,
~ p1 . Por hipotesis, L0 tiene una base
~p1 . El sistema
~1 , ~2 , . . . ,
~p1 ,
~p
ortonormal ~1 , ~2 , . . . ,
~ p es l.i. luego un vector
~
~
~
~
con kp k = 1 y ortogonal a 1 , 2 , . . . , p1 debe ser de la forma
~p =

n1
X

i ~i + p
~p .

i=1

Haciendo producto punto con ~i , 1 i p 1, se obtiene


~i )
0 = i + p (~
p

~i )
i = p (~
p

1ip1

!
~
~
~1 ,
~2 , . . . , ~p1 ,

~p
(~
p i )i . Como k~p k = 1 y
~ p es l.i.
i=1

p1

~i )~i
podemos concluir que
(~
p
~p
6= 0 y

~p = p
luego

p1
X

i=1

p =
p1

~i
~p
(~
p ~i )

i=1

~1 ,
~2 , . . . , ~p con
luego

~p

p1
X
~i
(~
p ~i )

i=1
~p =

p1

~i
~p
(~
p ~i )

i=1

6.6. DISTANCIA Y VARIEDADES LINEALES

105

es una base ortonormal de L.


~i , basta tomar
Esta formula proporciona un metodo recursivo para determinar los

~1
~
1 = k~1 k entonces
~1 )
~1
~ 2 (~
2
~2 =

,
~1 )
~1 k
k~
2 (~
2
~3 , etc.
luego tenemos ~1 y ~2 y usamos la formula para determinar

6.6.

Distancia y Variedades lineales

~n ] un sistema de coordenadas cartesiandas en Rn . Si


Sea [Q; ~1 , ~2 , . . . ,
~ =

~i
ai

i=1

~
entonces
~ ~i = ai , 1 i n luego
2

n
X

k~
k =
~
~=

n
X

a2i

i=1

n
X

(~
~i )2

i=1

Problema: Sea M una variedad lineal, P


/ M , M 6= Rn , M contiene m
as de un punto. Sea dim M = p, 0 < p < n, sea L el subespacio generador. Queremos determinar
la perperdicular bajada de P a M .
~1 ,
~2 , . . . ,
~p una base ortonormal de L, la extendemos a una base ortonormal de
Sea
n
~p+1 ,
~p+1 , . . . , ~n . Es claro que todo
V , llamaremos L0 al subespacio generado por
vector de L0 es ortogonal a todo vector de L y si
~ L L0 entonces

~=

p
X

n
X

i ~i =

i=1

i ~i

i=p+1

luego i = 0, i = 1, 2, . . . , n, y
~ = 0.
Sea
~ un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
n
X
~i y a1 = a2 = = ap = 0 luego

~ =
ai
~ L0 . Se concluye que el conjuni=1

to de todos los vectores ortogonales a L es el subespacio L0 .

Sea Q = (y1 , y2 , . . . , yn ) tal que Q


/ M . Existe un punto P M tal que P Q es
ortogonal a todos los vectores de L?
Sea P0 M arbitrario,

X ~
P0 Q =
i i
i=1

~=
y llamemos

p
X

~i , al aplicar
~ en P0 , P0 se transforma en P , esto es,
i
P0 P = ~ y

i=1

n
X

~i ,
como ~ L entonces P M . Pero P0 Q = P0 P + P Q luego P Q =
i
P Q L0 ,
i=p+1

CAPITULO 6. SISTEMAS DE COORDENADAS

106

luego P es uno de los puntos buscados. Queremos demostrar que P es u


nico. Sea P 0
n
X
~

otro. P 0 Q =
i ~i y P 0 Q
i = 0, i = 1, 2, . . . , p luego i = 0, i = 1, 2, . . . , p
i=1

0 0
P Q = P P + PQ

n
X
0 0
~i
(i i )
P P = P Q PQ =
i=p+1

luego P 0 P L0 y como P 0 , P M entonces P 0 P L. Como L L0 = {0} se sigue que


P = P 0.

Llamaremos al segmento P Q (o al vector P Q) la perpendicular de Q a M , P se llama


el pie de la perpendicular.
v
v
u X
u X
u n
u n
~ 2
PQ = t
2i = t
[(P0 Q
i )]
i=p+1

i=p+1

donde P0 es un punto arbitrario de M . Pero


v
u n
uX
P0 Q = t [(P0 Q ~i )]2
i=1

luego P0 Q P Q.
p
X

~
[(P0 Q ~i )]2 = 0, esto es solo si P0 Q
Hay igualdad solo si
i = 0, i = 1, 2, . . . , p, y
i=1

esto se da solo si P0 = P .
P Q es la distancia mas corta de un punto Q a la variedad M . A la inversa, si P0 M
y P0 Q es la distancia mas corta de Q a M entonces P0 Q = P Q es la perpendicular de
Q a M.
Problema: Supongamos que M esta dada por el sistema lineal
n
X

aik xk = bi

i = 1, 2, . . . , r

k=1

Queremos encontrar la perpendicular de Q a M . Suponemos que la matriz del sistema


tiene rango r, o sea que las r ecuaciones son independientes.
El subespacio L generador de M tiene dimension p = n r y esta representado por el
correspondiente sistema homogeneo
n
X

aik xk = 0

i = 1, 2, . . . , r

k=1

y esta compuesto por todas las soluciones vectoriales de tal sistema. Si ~x = {x1 , x2 , . . . , xn }
es una solucion vectorial y
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , r es un vector fila de
la matriz del sistema se tiene que
~ i ~x = 0, i = 1, 2, . . . , r luego ellos son todos ortogonales a L. Sea L0 el subespacio de todos los vectores ortogonales a L, sabemos que L0

6.6. DISTANCIA Y VARIEDADES LINEALES

107

tiene dimension n p = r; como


~ 1,
~ 2, . . . ,
~ r son l.i. y estan en L0 , ellos constituyen
0
una base para L . Por el metodo de ortonormalizacion, podemos obtener una base
ortonormal para L0 a partir de
~ 1,
~ 2, . . . ,
~ r . Recordando que n p = r, refiramonos
~p+1 ,
~p+2 , . . . , ~n . Sea
~p+1 = {vi1 , vi2 , . . . , vin },
a esta base ortonormal de L0 por
i = 1, 2, . . . , r y elijamos P0 M arbitrario pero fijo. Consideremos el sistema lineal
de ecuaciones
n
X

vik xk =

k=1

n
X

vik zk

i = 1, 2, . . . , r

P0 = (z1 , z2 , . . . , z)

(6.8)

k=1

Si P = (x1 , x2 , . . . , xn ) es una solucion de este sistema, entonces P0 P ~p+i = 0,

i = 1, 2, . . . , r luego P0 P L y por lo tanto P M . A la inversa, si P M , P0 P L


y es solucion vectorial del sistema homogeneo, luego es ortogonal a todos los vectores
de L0 y por lo tanto es solucion de (6.8). Se concluye que (6.8) representa a M .
Sea Q = (y1 , y2 , . . . , yn ) un punto que no esta en M . Entonces
n

X
~
P0 Q p+i =
vik (yk zk )

i = 1, 2, . . . , r

k=1

Si P es el pie de la perpendicular de Q a M sabemos que


v
u X
u n
PQ = t
[P0 Q ~i ]2
i=p+1

donde P0 M y es arbitrario y ~p+1 , ~p+2 , . . . , ~n es una base ortonormal de L0 . Como


~p+i , i = 1, 2, . . . , r es una base ortonormal de L0 tenemos que

PQ =

" n
r
X
X
i=1

#2
vik (yk zk )

k=1

El caso mas com


un es aquel en que M es un hiperplano, esto es, M tiene dimension
n 1. En tal caso M esta dado por una sola ecuacion
n
X

ai xi = b

i=1

Entonces L0 tiene dimension 1 y es generado por


~ = {a1 , a2 , . . . , an }. Sea

~ =

~
= {a1 , a2 , . . . , an }
k~
k

ai
ai = v
uX
u n 2
t
ai
i=1

Sea P0 = (z1 , z2 , . . . , zn ) un punto arbitrario de M entonces


n
X
i=1

ai zi =

n
X
i=1

az
b
v i i =v
uX
u
n
u n 2
uX
t
t
ai
a2i
i=1

i=1

CAPITULO 6. SISTEMAS DE COORDENADAS

108
La nueva ecuacion de M es
n
X
i=1

ax
b
v i i =v
uX
u
n
u n 2
uX
t
t
ai
a2i
i=1

i=1

y se llama la forma normal de hiperplano M .


La perpendicular P Q esta dada por
( n
)2
X
2

PQ =
ak (yk zk )
k=1

PQ

n
X

a
v k (yk zk )
u

k=1 uX 2

i=1

n
X
ak yk

v
=

u n

uX
k=1

ai

i=1

b
v
uX

a2i

i=1

Esto nos da una manera mecanica de calcular la distancia de un punto a un hiperplano.


Escriba el hiperplano en forma normal y acumule todos los terminos en el miembro
izquierdo, reemplace las coordenadas de P = (c1 , c2 , . . . , cn ) por las coordenadas de
Q = (y1 , y2 , . . . , yn ). El valor absoluto de lo que resulta es la distancia pedida.
Problema: Sean M1 , M2 variedades lineales, queremos encontrar la perpendicular

com
un (cuando esta exista). Buscamos P L1 , Q L2 tales que el vector P Q es
ortogonal a M1 y M2 .
Sea L1 el subespacio generador de M1 , L2 el de M2 . Sea S = L1 + L2 de dimension
~s una base
s > 0 (M1 y M2 no consisten ambos de un solo punto). Sea ~1 , ~2 , . . . ,
ortonormal de S. Si s = n, el u
nico vector ortogonal a todos los vectores de S es ~0. Un
vector que es ortogonal a todos los vectores de L1 y L2 debe ser ortogonal a todos los
vectores de S, luego la perpendicular com
un es ~0, luego P = Q M1 M2 , se concluye
que M1 M2 6= .

Pero M1 M2 6= . En efecto, sea P0 M1 , Q0 M2 entonces P0 Q0 S porque

s = n entonces hay
~ 1 L1 ,
~ 2 L2 tales que P0 Q0 =
~1 +
~ 2 . Supongamos

que
~ 1 lleva P0 en P y que ~
2 lleva a Q0 en Q entonces P0 P =
~ 1 , QQ0 =
~ 2,

P0 Q0 = P0 P + P Q + QQ0 , esto es,

~1 +
~2 = PQ +
~1 +
~2
luego P = Q.
Por construccion, P M1 , Q M2 luego M1 M2 6= . Se concluye que si s = n la
perpendicular com
un es ~0.
~1 ,
~2 , . . . ,
~s base ortonormal de S, la extendeSupongamos entonces que s < n. Sea
n
0
~s+2 , . . . ,
~n ,
mos a una base ortonormal de V , sea L subespacio generado por ~s+1 ,

6.6. DISTANCIA Y VARIEDADES LINEALES

109

L0 es el subespacio de todos los vectores ortogonales a S, S L0 = {~0}. Si P0 M1 ,


n
s
X
X ~
Q0 M2 y P0 Q0 =
i i , llamemos ~ =
i ~i . ~ S luego hay
~ 1 L1 ,
~ 2 L2
i=1

i=1

tales que ~ =
~1 +
~ 2 . Sea P M1 tal que P0 P =
~ 1 , Q M tal que Q0 Q = ~
2 .

P0 Q0 = P0 P + P Q + QQ0 y tambien
n
n
n
X
X
X


~
~
P0 Q0 = ~ +
i i =
~1 +
~2 +
i i = P0 P + QQ0 +
i ~i
i=p+1

luego

i=p+1

i=p+1

n
X

PQ =
i ~i
i=p+1

luego P Q L0 y es ortogonal a todos los vectores de S y por lo tanto a todos los


vectores de L1 y L2 .

Sean P 0 M1 , Q0 M2 tales que P 0 Q0 es una perpendicular com


un. Entonces P 0 Q0
n
X

~i y
L0 luego P Q =
i
i=p+1
n
X
00
~i
PQ P Q =
(i i )
i=p+1



tambien esta en L0 . Pero P Q = P P 0 + P 0 Q0 + Q0 Q luego P Q P 0 Q0 S luego debe ser

el vector ~0 puesto que L0 S = {~0} de donde P Q = P 0 Q0 . Todas las perpendiculares
comunes son paralelas y de igual longitud.

Tambien se deduce que P P 0 + Q0 Q = ~0 luego P P 0 = QQ0 . Pero P P 0 L1 , QQ0 L2


0 0
luego P P = QQ L1 L2 .

A la inversa, sea ~ L1 L2 , sean P 0 M1 , Q0 M2 tales que P P 0 = ~ , QQ0 = ~ .


Como P P 0 L1 , QQ0 L2 y P P 0 = QQ0 = ~ se tiene que P Q = P 0 Q0 luego P 0 Q0 es
una perpendicular com
un.

Sean P y Q, P M1 , Q M2 tales que P Q es una perpendicular com


un. Sea

D = L1 L2 , sea ~ D. Si P 0 M1 es tal que P P 0 = ~ , Q0 M2 es tal que QQ0 L2

entonces P 0 Q0 tambien es una perpendicular com


un y todas se obtienen de esta manera.
n

X ~
Volvamos atras, si P0 M1 , Q0 M2 , P0 Q0 =
i i y P y Q fueron obtenidos de
i=1

n
X

~i luego P0 Q0
modo que P Q fuese una perpendicular com
un entonces P Q =
i
i=p+1

P Q y como todas las perpendiculares comunes tienen igual longitud, la longitud de


cualquiera de ellas es la distancia mas corta entre M1 y M2 . Para que exista igualdad

necesariamente i = 0, i = 1, 2, . . . , s, luego P0 Q0 L0 y es una perpendicular com


un.
Se concluye que un segmento que conecta un punto P0 M1 , con un punto Q0 M2

es la distancia mas corta entre M1 y M2 si y solo si P0 Q0 es una perpendicular com


un
entre M1 y M2 .

110

CAPITULO 6. SISTEMAS DE COORDENADAS

Captulo 7

Movimientos Rgidos
En el espacio euclidiano Rn consideremos transformaciones f : Rn Rn tales que si
f (P ) = P , f (Q) = Q entonces P Q = P Q. Diremos que una tal transformacion es
un movimiento rgido.

Sean P = f (P ), Q = f (Q), R = f (R). Como QR = QP + P R


QR QR = QP QP + 2QP P R + P R P R .

Como QP QP = P Q P Q,

QR QR = kQRk2 = kP Qk2 2P Q P R + kP Rk2


luego

PQ PR =

P Q P R =

1 2
(kP Qk + kP Rk2 kQRk2 ), de manera analoga
2

1 2
(kP Q k + kP R k2 kQ R k2 )
2

y como f es un movimiento rgido se tiene que



PQ PR = P Q P R
El producto escalar es invariante frente a movimientos rgidos.
~
~1 , ~2 , . . . ,
~n ] un sistema de coordenadas cartesianas en Rn . Sea
Sea [O;
OPi =
i, i =
1, 2, . . . , n, sea f un movimiento rgido, sean O = f (O), Pi = f (Pi ), i = 1, 2, . . . , n,
~
O Pi = i , i = 1, 2, . . . , n. Entonces
~ ~
~ =
~i
O Pi O Pk = OPi OPk =
i k = ik
k
~,
~, . . . ,
~ ] es un sistema de coordenadas cartesianas en Rn .
Se concluye que [O ;
n
1
2
~n ],
Sea P Rn , sean x1 , x2 , . . . , xn sus coordenadas con respecto a [O; ~1 , ~2 , . . . ,

~ ~

~
sean x1 , x2 , . . . , xn las coordenadas de P en [O ; 1 , 2 , . . . , n ]. Entonces
n

X ~
OP =
xi i ,

X ~
O P =
xi i

i=1

i=1

111

CAPITULO 7. MOVIMIENTOS RIGIDOS

112
~

xi = OP
i = OP OPi

~
xi = O P
i = O P O Pi

luego xi = xi .
Demostremos que un movimiento rgido es 1-1 y sobre. Sea Q Rn , sean y1 , y2 ,
~ , ~ , . . . ,
~ ]. Si Q tiene coordenadas y1 , y2 , . . . , yn
. . . , yn sus coordenadas en [O ;
n
1
2

~
~
~
en [O; 1 , 2 , . . . , n ] entonces f (Q) = Q . Si P tiene coordenadas x1 , x2 , . . . , xn en
~1 ,
~2 , . . . , ~n ] y f (P ) = Q entonces xi = yi , i = 1, 2, . . . , n y P = Q.
[O;
~1 ,
~2 , . . . , ~n ], [O ; ~ ,
~, . . . ,
~ ] dos sistemas arbitrarios de coordenadas
Sean [O;
n
1
2
cartesianas.
Sea f : Rn Rn definida por: sea P un punto cuyas coordenadas cartesianas en el
primer sistema son x1 , x2 , . . . , xn , sea P el punto cuyas coordenadas en el segundo
sistema son x1 , x2 , . . . , xn , definimos f (P ) = P .
Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y1 , y2 , . . . , yn . Entonces
v
u n
uX
P Q = t (yi xi )2
i=1

Pero Q = f (Q) tiene coordenadas y1 , y2 , . . . , yn en el segundo sistema y


v
u n
uX
P Q = t (yi xi )2
i=1

entonces P Q = P Q , f es un movimiento rgido.


Teorema 7.1 Sea f un movimiento rgido, M una variedad lineal de dimensi
on p.
Entonces f (M ) es una variedad lineal de dimensi
on p.
~1 ,
~2 , . . . , ~n ] un sistema de coordenadas cartesianas, en tal
Demostraci
on: Sea [O;
sistema M se representa mediante un sistema lineal de ecuaciones cuya matriz tiene
~ ] el sistema de coordenadas cartesianas obtenido de
~, . . . ,
rango n p. Sea [O ; ~1 ,
n
2
~
~
~1 ,
~2 , . . . , ~n ] tomando O = f (O) y si Pi es tal que
[O;
OPi =
i entonces O Pi = i ,
i = 1, 2, . . . , n. Si P M y tiene coordenadas x1 , x2 , . . . , xn en el primer sistema,
por lo visto previamente tiene coordenadas x1 , x2 , . . . , xn en el segundo sistema con
xi = xi y por lo tanto P = (x1 , x2 , . . . , xn ) satisface el mismo sistema de ecuaciones
~, . . . ,
~ ].
con respecto a [O ; ~1 ,
n
2
Nota: Sean M1 , M2 variedades lineales con espacios generadores L1 , L2 . Debemos
recordar que si M1 M2 6= entonces M1 M2 es la variedad lineal obtenida de aplicar
L1 L2 en un punto P0 M1 M2 .
Teorema 7.2 Sea f un movimiento rgido, M1 , M2 variedades lineales. Sea D =
M1 M2 6= . Entonces D = M1 M2 .
Demostraci
on: Sea P D, entonces P M1 , P M2 luego P M1 M2

luego D M1 M2 . Sea P M1 M2 , hay un u


nico P tal que f (P ) = P y

P M1 M2 luego P D y M1 M2 D .

113
Nota: Si D = entonces D = . En efecto, si P D habra P tal que f (P ) = P
y ademas P D, esto no puede ser.
Si M1 M2 , D = M1 , D = M1 luego M1 M2 .

Sea f un movimiento rgido, sea


~ V n . Sea P Rn , hay Q Rn tal que
~ = P Q,

definamos F : V n V n por F (~
) = P Q .
Queremos demostrar que F es independiente de la eleccion de P . Sea P1 arbitrario,

sea Q1 tal que


~ = P1 Q1 . Consideremos un sistema de coordenadas cartesianas
~1 ,
~2 , . . . ,
~n ], sea [O ;
~ , ~ , . . . , ~ ] tal como antes. Los puntos P , Q , P ,
[O;
n
1
1
2
~,
~, . . . ,
~ ] que P , Q, P1 , Q1 tienen en
Q1 tienen las mismas coordenadas en [O ;
n
1
2

~1 ,
~2 , . . . ,
~n ] luego los vectores
[O;
P Q y P1 Q1 tienen las mismas componentes en

~ , ~ , . . . , ~ ] que los vectores
~n ].
el sistema [O ;
P Q y P1 Q1 tienen en [O; ~1 , ~2 , . . . ,
n

1 2
Como P Q = P1 Q1 entonces P Q = P1 Q1 luego F esta bien definida.
~2 , . . . , ~n ] luego
Si F (~
1 ) = F (~
2 ),
~1 y
~ 2 tienen las mismas componentes en [O; ~1 ,

~1 =
~ 2 . Es claro que F es sobre. Diremos que f induce la transformacion F en V n .
~2 , . . . , ~n ] un sistema de coordenadas fijo, sea P un punto de
Problema: Sea [O; ~1 ,
coordenadas x1 , x2 , . . . , xn con respecto a este sistema. Sea f un movimiento rgido.
Se piden las coordenadas de P .
~ , ~ , . . . , ~ ]. Sean
Sabemos que P tiene coordenadas x1 , x2 , . . . , xn en [O ;
n
2
1
n

X ~
OO =
ti i

~ =

n
X

aik ~i

i=1

i=1

~1 , ~2 , . . . ,
~n ] entonces
Si P tiene coordenadas y1 , y2 , . . . , yn en [O;
yi = ti +

n
X

aik xk

i = 1, 2, . . . , n

k=1

y ademas (aik ) es matriz ortogonal.


A la inversa, consideremos el sistema lineal
yi = ti +

n
X

aik xk

i = 1, 2, . . . , n

(7.1)

i=1

donde x1 , x2 , . . . , xn representan las coordenadas de P en un cierto sistema de coorde~1 , ~2 , . . . ,


~n ]. Si interpretamos (7.1) como una transformacion
nadas cartesianas [O,
f tal que f (P ) es el punto P cuyas coordenadas y1 , y2 , . . . , yn estan dadas por (7.1)
entonces, si (aik ) es ortogonal, f es un movimiento rgido.
En efecto, sea Q otro punto de coordenadas x01 , x02 , . . . , x0n , sea Q de coordenadas y10 ,

CAPITULO 7. MOVIMIENTOS RIGIDOS

114
y20 , . . . , yn0 donde Q = f (Q). Entonces
yi0

yi

n
X

aik (x0k xk )

i = 1, 2, . . . , n

k=1

"

(yi0 yi )2

n
X

#2
aik (x0k xk )

k=1

n X
n
X

aik aij (x0k xk )(x0j xj )

i = 1, 2, . . . , n

k=1 j=1

Sumemos las n ecuaciones:


n
X

(yi0 yi )2

i=1

n X
n X
n
X

aik aij (x0k xk )(x0j xj )

i=1 k=1 j=1

=
=

n
n X
n
X
X
k=1 j=1
n X
n
X

!
aik aij

(x0k xk )(x0j xj )

i=1

kj (x0k xk )(x0j xj ) =

k=1 j=1
2

n
X

(x0k xk )2

k=1

luego P Q = P Q .
Si det(aik ) = 1, (7.1) se dice un movimiento rgido propio, si det(aik ) = 1 se dice
impropio.
Consideremos la transformacion inducida por (7.1) en V n . Queremos calcular las com
ponentes de f (~
) a partir de las componentes de
~ . Pero las componentes de P Q son

x0k xk , k = 1, 2, . . . , n, y las de P Q son yi0 yi luego ya tenamos que


yi0 yi =

n
X

aik (x0k xk )

k=1

Si llamamos ui a las componentes de


~ y ui a las componentes de
~ = F (~
) se tiene
ui =

n
X

aik ui

i = 1, 2, . . . , n

k=1

Sea Aik el adjunto de aik en det(aik ), volviendo a (7.1) se tiene, por la regla de Cramer
que
n
X
1
xi =
Aki (yk tk )
i = 1, 2, . . . , n
(7.2)
det(aik )
k=1

(7.2) tambien define una transformacion. Si P es la imagen de P seg


un (7.1) entonces
P es la imagen de P seg
un (7.2), luego la transformacion definida por (7.2) es la
inversa de la transformacion definida por (7.1). Ademas como (aik ) es ortogonal se
Ajh
tiene que ajh =
.
det(aik )

7.1. MOVIMIENTOS RIGIDOS EN R2

115

Nota: Vimos que un movimiento rgido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
~ arbitrarios,
~ fueron
hacer ver que esta restriccion es superflua. Sean
~,
~ y

definidos independientemente de su punto inicial. Tomemos


~ = P Q, = P R entonces
~

~
~

~ =P Q , =P R y
~ =
~ .
~1 ,
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i.
~

~
~
~
~
un un movimiento rgido. Sea P
2 , . . . , n , sean 1 , 2 , . . . , n sus imagenes seg
el punto a partir del cual se genera el paralelotopo, sea P su imagen, aplicando
n
X
~ , 0 i 1 a partir de P se obtiene un nuevo paralelotopo,
los vectores
i
i
i=1

~i tiene
llamemoslo la imagen del paralelotopo original seg
un el movimiento rgido. Si

~
componentes ui1 , ui2 , . . . , uin en el sistema cartesiano [O; ~1 , ~2 , . . . , ~n ], i tiene las
mismas componentes en [O ; ~1 , ~2 , . . . , ~n ]. El volumen del paralelotopo original es
~ , ~ , . . . , ~ puede ser
| det(uik )|. El volumen del paralelotopo cuyas aristas son
n
1
2
~ en el
evaluado de la misma manera en terminos de los componentes de los vectores
i

sistema [O ; ~1 , ~2 , . . . , ~n ]. Pero dichas componentes son iguales a las de los vectores


~i en el sistema [O; ~1 , ~2 , . . . , ~n ], luego este segundo volumen es igual al original. El

volumen de un paralelotopo es invariante frente a movimientos rgidos.


~
Que sucede con det(uik ) si las uik son reemplazadas por las componentes de los
i
en el mismo sistema de coordenadas [O; ~1 , ~2 , . . . , ~n ]?
Supongamos que tales componentes son ui1 , ui2 , . . . , uin . Sabemos que
uik

n
X

=1

det(uik )

ak ui

det

n
X

i, k = 1, 2, . . . , n
!

ui ak

= det(uik ) det(aik )

=1

Como det(aik ) = 1,

7.1.

det(uik ) = det(uik ).

Movimientos rgidos en R2

En un sistema de coordenadas cartesianas un movimiento rgido f esta dado por


y1
y2

=
=

t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2

donde (aik ) es ortogonal, y para las componentes de los vectores se tiene


u1
u2

= a11 u1 + a12 u2
= a21 u1 + a22 u2

Un vector
~ se dice invariante bajo f si f (~
) =
~ . Es claro que ~0 es invariante bajo
f . Nos preguntamos si existe alg
un otro vector invariante. Si es que lo hay debe darse
que
u1 = a11 u1 + a12 u2
(a11 1)u1 + a12 u2 = 0

(7.3)
u2 = a21 u1 + a22 u2
a21 u1 + (a22 1)u2 = 0

CAPITULO 7. MOVIMIENTOS RIGIDOS

116

luego para que alg


un vector distinto de cero sea invariante, la matriz

(a11 1)
a12
a21
(a22 1)
debe tener rango R menor que 2.
Caso 1: R = 0. Todos los vectores de V 2 son soluciones de (7.3), a11 = a22 = 1,
1 0
a12 = a21 = 0, luego la matriz (aik ) es
, det(aik ) = 1, y las ecuaciones que
0 1
definen a f son de la forma
y1
y2

=
=

t1 + x1
t2 + x2

Si O = (0, 0), O = (t1 , t2 ), el movimiento rgido es una traslaci


on en OO ; si
t1 = t2 = 0, f es la identidad.
Caso 2: R = 1.

a11 1
a12

0=
= det(aik ) + 1 a11 a22
a21
a22 1

a11 1
a12
y alg
un elemento de
es distinto de cero.
a21
a22 1
Si det(aik ) = 1 entonces a11 + a22 = 2, pero como
a211 + a212
a221 + a222

= 1
= 1

ning
un aik puede ser tal que |aik | > 1 y a11 +a22 = 2 se cumple solo si a11 = a22 = 1. En
tal caso a12 = a21 = 0 y estamos en el caso 1. Entonces es necesario que det(aik ) = 1.
A11
Pero si det(aik ) = 1, como a11 = det(a
y A11 = a22 se tiene a11 = a22 y entonces
ik )
det(aik ) + 1 a11 a22 = 0 y (aik ) tiene rango 1. Luego el caso 2 puede suceder si y
solo si det(aik ) = 1.
En tal caso tenemos un subespacio invariante de dimension 1. Sea ~1 un vector unitario
~1 , ~2 de R2 . Sea
que es base de este subespacio y extendemos a una base ortonormal
Q arbitrario, escribamos las ecuaciones de f en [Q; ~1 , ~2 ]. Las nuevas ecuaciones son
de la forma
y1
y2

=
=

t1 + c11 x1 + c12 x2
t2 + c21 x1 + c22 x2

u1
u2

= c11 u1 + c12 u2
= c21 u1 + c22 u2

Pero ~1 es vector invariante y en la base elegida u1 = 1, u2 = 0 luego


u1
u2

=
=

c11 u1 + c12 u2
c21 u1 + c22 u2

c11
c21

=
=

1
0

Ademas
c22

c12

A22
c11
=
luego c22 = c11 = 1
det(cik )
1
c21
A12
=
luego c12 = c21 = 0
det(cik )
1

7.1. MOVIMIENTOS RIGIDOS EN R2

117

~1 ,
~2 ] deben ser de
De lo dicho se desprende que las ecuaciones de f en el sistema [Q;
la forma
y1 = t1 + x1
(7.4)
y2 = t2 x2
~1 ,
~2 ] es arbitraria pero x2 = 1 t2 . Por (7.4),
Sea Q1 tal que su coordenada x1 en [Q;
2

Q1 tiene y2 = 21 t2 luego la segunda componente de Q1 Q1 en tal sistema es 0. Como las


componentes de un vector son independientes del origen y dependen solo de la base,

~1 ,
~2 ]. Pero
el vector Q1 Q1 tiene segunda componente igual a cero en el sistema [Q1 ;
en este sistema Q1 tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q1
~2 ],
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q1 ; ~1 ,
si x1 = x2 = 0 necesariamente y2 = 0 luego t2 = 0. Se concluye que en el sistema
~1 , ~2 ] las ecuaciones de f deben ser de la forma
[Q1 ;
y1
y2

=
=

t1 + x1
x2

La ecuacion y1 = t1 +x1 nos dice que cada punto del plano es trasladado en la direccion
del eje x1 en |t1 | hacia la derecha o izquierda seg
un t1 > 0 o t1 < 0 y despues se realiza
una reflexion en el eje x1 .
Caso 3: R = 2. El u
nico vector invariante es ~0. Si det(aik ) = 1 estamos en el caso
A11
2. Luego det(aik ) = 1. Como a11 = det(a
, si a11 = 1 entonces a22 = A11 = 1,
ik )
a12 = a21 = 0 y estamos en el caso 1. Luego a11 6= 1.
A la inversa, si det(aik ) = 1 y a11 6= 1 tenemos que estar en el caso 3 porque en el caso
1 se tiene a11 = 1 y en el caso 2 se tiene det(aik ) = 1.
Supongamos que f tiene un punto fijo (x1 , x2 ) entonces
x1

= t1 + a11 x1 + a12 x2

x2

= t2 + a21 x1 + a22 x2

(a11 1)x1 + a12 x2


a21 x1 + (a22 1)x2

= t1
= t2

Como el rango de la matriz del sistema es 2, el sistema tiene siempre una u


nica solu~2 ] un sistema de coordenadas
cion (x1 , x2 ), sea Q(x1 , x2 ) el punto fijo, sea [Q; ~1 ,
cartesianas, la forma de f en este sistema es
y1

t1 + a11 x1 + a12 x2

y2

t2 + a21 x1 + a22 x2

Para x1 = x2 = 0 se tiene y1 = y2 = 0 luego t1 = t2 = 0. Como a211 + a221 = 1 sea tal


que a11 = cos y pidamos 0 < < 2 ( = 0 no puede darse porque entonces R = 0)
a22 =

A22
= a11 = cos
det(aik )

a12 =

A12
= a21 = sen
det(aik )

luego
y1

= x1 cos x2 sen

y2

= x1 sen + x2 cos

CAPITULO 7. MOVIMIENTOS RIGIDOS

118

~1 ,
~2 ]. Entonces
~1 va al vector
~ de componentes cos , sen y
~2
en el sistema [Q;
1

~ de componentes sen , cos luego [Q;


~1 ,
~2 ] va a [Q; ~ ,
~ ] despues
va al vector
2
1
2
de una rotacion en el sentido trigonometrico positivo en torno a Q y angulo . Si P es
~ ] que P tiene en [Q;
~1 , ~2 ].
arbitrario, P tiene las mismas coordenadas en [Q; ~1 ,
2

Podemos concluir que P se obtiene de P por una rotacion en torno a Q y de angulo .


Nota: det(aik ) debe tener el mismo valor en todos los sistemas de coordenadas anteriores, porque su valor esta determinado por la dimension del subespacio de vectores
invariantes, dimension que es independiente de la eleccion del sistema de coordenadas.

7.2.

Movimientos rgidos en R3

En un sistema cartesiano cualquiera, las ecuaciones de f son


y i = ti +

3
X

aik xk

i = 1, 2, 3 ,

k=1

(aik ) matriz ortogonal, det(aik ) = 1.


Consideremos primero el caso det(aik ) = 1. Si el vector de componentes u1 , u2 , u3 es
invariante entonces
3
X
ui =
aik ui
k=1

luego u1 , u2 , u3 deben ser soluciones del sistema


(a11 1)u1 + a12 u2 + a13 u3
a21 u2 + (a22 1)u2 + a23 u3
a31 u1 + a32 u2 + (a33 1)u3

a11 1

a21

a31

a12
a13
a22 1
a23
a32
a33 1

= 0
= 0
= 0

(7.5)

= det(aik ) A11 A12 A13 + a11 + a22 + a33 1

Como det(aik ) = 1, aik = Aik luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo mas dos luego la dimension del subespacio de vectores invariantes es
al menos uno.
Queremos demostrar que si det(aik ) = 1 la dimension de tal subespacio puede ser 1
o 3 pero nunca puede ser 2.
Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo mas 1 y todos
sus menores de 2 2 son cero, en particular

a11 1
a12

= A33 a11 a22 + 1 = 0


a21
a22 1

a11 1
a13

= A22 a11 a33 + 1 = 0


a31
a33 1

a22 1
a23

= A11 a22 a33 + 1 = 0


a32
a33 1

7.2. MOVIMIENTOS RIGIDOS EN R3

119

Sumando las dos primeras ecuaciones y recordando que aik = Aik se obtiene 2a11 +
2 = 0, a11 = 1. De manera analoga a22 = a33 = 1. De la ortogonalidad de (aik ) se
obtiene aik = 0, i 6= k, luego todos los coeficientes en (7.5) son cero, la dimension del
espacio invariante es 3, todos los vectores en V 3 son invariantes.
Consideremos ahora el caso det(aik ) = 1, existe alg
un vector ~ que va a ~ ?
Entonces, si las componentes de ~ son u1 , u2 , u3 debe tenerse que ui = ui , i = 1, 2, 3
y deben ser soluciones de
(a11 + 1)u1 + a12 u2 + a13 u3
a21 u2 + (a22 + 1)u2 + a23 u3
a31 u1 + a32 u2 + (a33 + 1)u3

= 0
= 0
= 0

y el determinante de la matriz del sistema vale


det(aik ) + A11 + A22 + A33 + a11 + a22 + a33 + 1
y como det(aik ) = 1 y aik = Aik el determinante se anula.
El subespacio de soluciones tiene al menos dimension 1. Probaremos que tal dimension
es 1 o 3. Supongamos que tiene dimension 2, entonces todos los menores de 2 2 de
la matriz del sistema deben ser cero, en particular los principales (a lo largo de la
diagonal principal). Se obtiene a11 = a22 = a33 = 1 y aik = 0 si i 6= k, todos los
coeficientes se anulan y todo V 3 es invariante.
Sea p la dimension del subespacio de vectores invariantes, q la dimension del subespacio de vectores ~ que van a ~ .
p y q estan definidos para todo movimiento rgido f independientemente si det(aik ) = 1
o det(aik ) = 1.
Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos una
de las siguientes ecuaciones se cumple:
i.- p = 1
ii.- p = 3
iii.- q = 1
iv.- q = 3
Demostraremos que para cualquier movimiento rgido en R3 se cumple exactamente
una de las cuatro ecuaciones.
En efecto, ii) se cumple si y solo si todo V 3 es invariante, eso excluye a las otras.
Analogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultaneamente
solo si ii) y iv) no se cumplen, esto es, i) y iii) son las u
nicas alternativas que podran
~
darse juntas. Supongamos que es as, hay ~ 6= 0 que es invariante y ~ 6= ~0 que va a ~.
Es claro que ~ y ~ son l.i. Consideremos el subespacio L de los vectores ortogonales a
~ y ~. La dimension de L es 1. Sea ~e L, ~e 6= ~0, sea ~e su imagen. Entonces
~e ~ = ~e ~ = 0

~e ~ = ~e ~ = 0

~e ~ = ~e (~) = 0

CAPITULO 7. MOVIMIENTOS RIGIDOS

120

luego ~e L, ~e = ~e. Pero k~e k = k~ek, entonces = 1. Como ~e, ~ , ~ son l.i., si
~e = ~e no es posible que p = 1 y si ~e = ~e no es posible que q = 1.
Tenemos as los movimientos rgidos en R3 divididos en cuatro clases mutuamente excluyentes, i) y ii) corresponden a det(aik ) = 1, iii) y iv) corresponden a det(aik ) = 1.
~3 invariante, k
~3 k = 1, extendamos a una base ortonormal
~1 ,
~2 ,
~3
i.- p = 1. Sea
3
~
~
~
de R , sea [Q; 1 , 2 , 3 ] un sistema cartesiano, consideremos las ecuaciones de f
en tal sistema, sean ellas
yi

ti +

3
X

aik xk

i = 1, 2, 3

k=1

uk

3
X

aik ui

k = 1, 2, 3

k=1

~3 es invariante, u = u = 0, u = 1 luego a13 = a23 = 0, a33 = 1 y de la


Como
3
2
1
ortogonalidad de (aik ) obtenemos a31 = a32 = 0 luego
y1
y2
y3

=
=
=

t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2
t3 + x3

El determinante de la matriz del sistema es

a11 a12 0


a21 a22 0 = a11

a21
0
0 1

(7.6)

a12
a22

De la ortonormalidad se tiene
a211 + a212
a221 + a222

= 1
= 1

Tambien a11 a21 + a12 a22 + a13 a23 = 0 luego a11 a21 + a12 a22 = 0.

a
Como det(aik ) = 1, 11
a21

a12
a11
=
1
luego
a22
a21

a12
a22

es ortogonal.

Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecuaciones definen un movimiento rgido en R2 . Ademas no es posible tener a11 =
a22 = 1 porque en tal caso p = 3. Entonces este movimiento rgido en R2 tiene un
punto fijo, esto es, hay x1 , x2 que satisfacen y1 = x1 , y2 = x2 . Sea S R3 cuyas
~3 ] son x1 , x2 . S tiene entonces como
dos primeras coordenadas en [Q; ~1 , ~2 ,
sus dos primeras coordenadas y1 = x1 , y2 = x2 y por lo tanto las dos primeras

componentes de SS son cero. Este resultado, aunque lo hemos obtenido usando


~1 ,
~2 ,
~3 ], es independiente del origen y es valiel sistema de coordenadas [Q;
~
~
~
do tambien en [S; 1 , 2 , 3 ], luego S tiene las mismas coordenadas que S en

7.2. MOVIMIENTOS RIGIDOS EN R3

121

este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto significa
que las dos primeras coordenadas tanto de S como de S son cero. Dado que
las ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema de
coordenadas, lo dicho sobre las coordenadas de S y S visto en (7.6) nos dice que
~1 ,
~2 ,
~3 ] tienen la forma
las ecuaciones de f en [S,
y1
y2
y3

= a11 x1 a12 x2
= a21 x1 + a22 x2
= t3 + x3 .

a11 a12
Como
es ortogonal, podemos determinar de manera u
nica un angua21 a22
lo , 0 2, tal que a11 = cos , a21 = sen , a12 = sen , a22 = cos ,
~1 ,
~2 , ~3 ] las ecuaciones de f son
luego en [S;
y1
y2
y3

=
=
=

x1 cos x2 sen
x1 sen + x2 cos
t3 + x3

~3 . Todos sus puntos tienen sus dos primeras


Consideremos una recta ` paralela a
coordenadas x1 , x2 iguales, su interseccion con el plano x1 , x2 tiene coordenadas
x1 , x2 , 0. Buscamos ` . Sea P ` de coordenadas x1 , x2 , x3 . Las dos primeras
ecuaciones no dependen de x3 luego todos los P tienen la misma interseccion y1 ,
y2 , 0 con el plano y1 , y2 , y las dos coordenadas y1 , y2 estan determinadas por las
dos primeras ecuaciones de (7.5) donde x1 , x2 son las dos primeras coordenadas
de la interseccion de ` con el plano x1 , x2 . Dicho en otras palabras, ` queda completamente determinada una vez conocida la imagen de este punto interseccion.
Por otra parte, estas dos ecuaciones definen una rotacion de angulo en torno al
origen. Consideremos la rotacion en R3 en torno al eje x3 y de angulo , el punto
(x1 , x2 , 0) ` va al punto (y1 , y2 , 0) ` luego ` va a ` . Como ` es arbitraria,
~3 . Nuestro movimiento rgido se
esto es cierto para cualquier recta paralela a
~1 , ~2 , ~3 ] seguida de
compone de una rotacion de R3 en torno al eje x3 de [S;
una traslacion en la direccion de dicho eje.
ii.- p = 3. Vimos que en cualquier sistema cartesiano det(aik ) vale 1 y que aik = ik ,
las ecuaciones adoptan la forma
y1

t1 + x1

y2
y3

=
=

t2 + x2
t3 + x3

lo cual representa una traslacion.


iii.- q = 1. En este caso det(aik ) = 1 en todo sistema de coordenadas cartesianas.
Sea ~3 , k~3 k = 1 tal que ~3 va a ~3 , extendamos a una base ortonormal ~1 , ~2 , ~3 ,
escribamos las ecuaciones de f en [Q; ~1 , ~2 , ~3 ]. Sean u1 , u2 , u3 las componentes
de ~3 . Como ~3 7 ~3 se tiene que u1 = u2 = 0, u3 = 1 si u1 = u2 = 0 y

CAPITULO 7. MOVIMIENTOS RIGIDOS

122

u3 = 1. Pero esto es posible solo si a13 = a23 = 0 y a33 = 1. Se tiene


y1
y2
y3

=
=
=

t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2
t3 x3

(7.7)

Sea R R3 tal que su tercera coordenada es x3 = 12 t3 en [Q; ~1 , ~2 , ~3 ]. Entonces

R tiene y3 = 21 t3 y la tercera componente de RR es 0. Tal como antes, su


tercera componente es 0 en [R; ~1 , ~2 , ~3 ], donde R tiene coordenadas (0, 0, 0)
luego y3 = 0 cuando x1 = x2 = x3 = 0, y por lo tanto t3 = 0. El determinante
del sistema (7.7) es

a11 a12

= 1

a21 a22

a11 a12
luego
es ortogonal.
a21 a22
Si a11 = 1 entonces a22 = a11 = 1 luego a12 = a21 = 0 y las ecuaciones (7.7)
adoptan la forma
y1
y2
y3

=
=
=

t1 + x1
t2 + x2
x3 ;

en este caso f consiste en una reflexion en el plano x1 , x2 seguida de una traslacion


paralela a ese plano.
Si a11 6= 1, hay dos n
umeros x1 , x2 que sustitudos en las dos primeras ecuaciones
de (7.7) dan y1 = x1 , y2 = x2 . Sea S R3 tal que sus dos primeras coordenadas
en [R; ~1 , ~2 , ~3 ] son x1 , x2 y tal que x3 = 0. Entonces S tiene coordenadas
y1 = x1 , y2 = x2 , y3 = x3 = 0 ya que t3 = 0. Como S es punto fijo de f ,
x1 = x2 = x3 = 0 entonces y1 = y2 = y3 = 0 y finalmente t1 = t2 = t3 = 0. Sean
a11 = cos ,

a21 = sen ,

a12 = sen ,

a22 = cos ,

en [S; ~1 , ~2 , ~3 ] las ecuaciones de f quedan


y1
y2

= x1 cos x2 sen
= x2 sen + x2 cos

y3

= x3

f es una reflexion en el plano x1 , x2 seguida de una rotacion en torno al eje x3 .


iv.- q = 3. det(aik ) = 1 en todo sistema cartesiano, a11 = a22 = a33 = 1, aik = 0
para i 6= k. Se tiene
y1
y2

=
=

t1 x1
t2 x2

y3

t3 x3

7.2. MOVIMIENTOS RIGIDOS EN R3

123

Sea Q R3 con x1 = 12 t1 , x2 = 12 t2 , x3 = 12 t3 entonces Q tiene las mismas


coordenadas que Q. Considere el sistema [Q; ~1 , ~2 , ~3 ] en este sistema x1 = x2 =
x3 = 0 entonces y1 = y2 = y3 = 0, y finalmente t1 = t2 = t3 = 0. Entonces
y1
y2
y3
y f es una reflexion en el origen.

=
=
=

x1
x2
x3

124

CAPITULO 7. MOVIMIENTOS RIGIDOS

Captulo 8

Problemas propuestos
1. Sean A y B matrices de m n. Diremos que B es equivalente por filas con A
si B se obtiene de A mediante una sucesion finita de operaciones elementales fila.
Sean

1
1
A=
3
4

2
1
0
4

0
1
1
2

1 5
2 1
,
1 2
1 0

1
0
B=
4
1

0
1
2
0

1
1
3
1

0
1
1
0

2
1

0
1

Son A y B equivalentes por filas?


2. Sea R matriz de m n. Diremos que R es reducida por filas si se cumplen las
siguientes condiciones:
i. El primer elemento distinto de cero de una fila no nula es igual a 1 (una fila
nula es una fila que consta solo de ceros).
ii. Toda columna que contiene al primer elemento no nulo de una fila tiene
todos sus demas elementos iguales a cero.
Demuestre que toda matriz A de m n es equivalente por filas a una matriz R
reducida por filas. Encuentre todas las matrices de 3 3 reducidas por filas.
3. Sea B una matriz de n p. Encuentre una matriz C de m p cuyas filas sean
combinaciones lineales de las filas de B. Demuestre que existe una matriz A de
m n tal que C = AB.
Enuncie y verifique una proposicion similar para las columnas.
4. Sea E de m m. Diremos que E es elemental si se obtiene de la matriz identidad
de m m mediante una sola operacion elemental fila. Sea e operacion elemental
fila, sea A una matriz arbitraria de mn. Sea e(A) la matriz resultante de aplicar
e a A, sea e(I) la correspondiente matriz elemental. Demuestre que e(A) = e(I)A.

125

CAPITULO 8. PROBLEMAS PROPUESTOS

126

Sean A y B matrices de m n. Demuestre que B es equivalente por filas con


A si y solo si B = P A donde P es un producto de matrices elementales de mm.
5. Sea A matriz invertible de orden n. Demuestre que A es equivalente por filas a
la matriz identidad de orden n. Invente un algoritmo para calcular la inversa de
A. Materialice su invencion calculando la inversa de

1 1 1
A= 2 0 1
3 0 1
6. Sea A de n n. Demuestre que las siguientes propiedades son equivalentes.
i. A es invertible.
ii. A es equivalente por filas a la identidad.
iii. A es un producto de matrices elementales.
iv. AX = 0 tiene solo la solucion trivial.
v. AX = Y tiene solucion para cada matriz Y .
7. Sea

1
A = 1
1

2 1 0
0 3 5
2 1 1

Encuentre una matriz R reducida por filas equivalente por filas a A y encuentre
P de 3 3 tal que R = P A.
8. a. Sea A de 2 1, B de 1 2. Demuestre que C = AB no es invertible.
b. Sea A de m n, demuestre que si A no es invertible hay B 6= 0 de n n tal
que AB = 0.
9. Sea Rn el conjunto de las n-tuplas de n
umeros reales y E n = Rn con las definiciones de suma y multiplicacion por un escalar.
Sean A = (a1 , a2 , . . . , an ), B = (b1 , b2 , . . . , bn ) puntos de Rn . Sean a, b las mismas
n-tuplas miradas como elementos de E n . Sea h : Rn Rn E n dada por
h[(A, B)] = b a. Diremos que el par (A, B) representa a b a y lo anotamos

como AB; decimos que A es el punto inicial de AB y B es su punto final.


Demuestre que
i. Dado A Rn , x E n , hay un u
nico B Rn tal que el par (A, B) representa
a x.
ii. Si (A, B) representa a x, (B, C) representa a y, entonces (A, C) representa
a z = x + y.
iii. Si A Rn entonces (A, A) representa a 0 E n .
iv. Si (A, B) representa a x entonces (B, A) representa a x.
v. Demuestre que si x E n entonces hay infinitos pares (A, B) que lo representan. De aqu en adelante, en lugar de escribir que (A, B) representa a

b a escribiremos AB = b a.

127
vi. Sea real arbitrario. Demuestre que hay un u
nico punto P () Rn tal

que AP = (b a) y que si p() es la misma n-tupla que corresponde a P


mirada como elemento de E n entonces p() = a + (b a).

Llamaremos recta por A de direccion AB al conjunto de puntos de Rn


{a1 + (b1 a1 ), a2 + (b2 a2 ), . . . , an + (bn an ) : Rn }
Diremos que p() = a + (b a) es la ecuacion vectorial de la recta (la cual

tambien puede escribirse como AP () = AB ). Si C, D Rn , llamaremos

segmento de recta CD al subconjunto de la recta por C y de direccion CD


correspondiente a 0 1.
Demuestre que si A, B son puntos del segmento CD entonces AB CD.

Demuestre que la recta por A y direccion AB es la misma que la original.

Sean a, b E n . Demuestre que a y b son l.d. si y solo si AP1 = a, AP2 = b


son tales que P1 y P2 estan sobre la misma recta en Rn .
10. En E 5 sean
a1
a2
a3

=
=
=

(1, 0, 2, 1, 3)
(0, 0, 1, 1, 1)
(1, 1, 2, 0, 0)

i. Cual es la dimension de L(a1 , a2 , a3 )?


ii. Esta (1, 0, 0, 0, 0) en L(a1 , a2 , a3 )?
iii. Si es que dim L(a1 , a2 , a3 ) = 3, extienda a1 , a2 , a3 a una base de E 5 .
11. En E 4 sean
a1
a2
a3
a4

=
=
=
=

(3, 1, 1, 2)
(4, 1, 2, 3)
(10, 3, 0, 7)
(1, 1, 7, 0)

Sea L1 = L(a1 , a2 , a3 , a4 ). Sean


b1

= (2, 4, 3, 7)

b2

= (5, 2, 2, 1)

Sea L2 = L(b1 , b2 ).
Encuentre dim L1 , dim L2 , dim L1 L2 , dim(L1 + L2 ).
12. Sea L un subespacio de E n . Sea X = {y E n : (x y) L}, sea Z = {y E n :
(z y) L}. Demuestre que si X Z 6= entonces X = Z. Llamaremos a X
la clase del elemento x E n . Demuestre que si w X entonces la clase W del
elemento w es X. A los elementos de una clase los llamaremos representativos

CAPITULO 8. PROBLEMAS PROPUESTOS

128

de la clase. Sea E n /L el conjunto de las clases de X. Definimos combinacion


lineal de las clases X e Y a la siguiente clase: sean x X, y Y arbitrarios.
Llamaremos X + Y a la clase que contiene a x + y. Demuestre que la clase
definida es independiente de la eleccion de x X o y Y .
13. Sea h : E n E n /L definida por h(x) = X. Demuestre que h es sobre pero no
1-1. Demuestre que
h(x + z)
h(x)

= h(x) + h(z)
= h(x)

x, z E n

x En,

14. Sea AX = B un sistema de n + 1 ecuaciones con n incognitas. Sea A = (aij ),


B = (Bi ) y supongamos que el determinante de la matriz que consiste de las
primeras n filas de A es distinto de cero. Demuestre que el sistema tiene solucion
si y solo si det(cij ) = 0 donde la matriz (cij ) esta definida como: cij = aij si
1 i n + 1, 1 j n, ci(n+1) = bi , 1 i n + 1.
15. Sea

D =

2
1
3
2
0

5
0
1
6
3

0
3
0
4
1

1
7
5
1
2

3
2
5
2
3

Calcule el valor de D desarrollando por los menores de las filas 2,3 y 5. Verifique
que su valor es -1032.
16. Sea A una matriz de m n. Supongamos que un menor de orden r de A es
distinto de cero, r < mn(m, n), r > 0. Demuestre que A tiene al menos r filas y
r columnas l.i.
17. Resuelva el sistema de ecuaciones lineales
(3 + i)z1
2z1
(1 + i)z1
z1
iz1

iz2
+
iz2
+ 0 z2

iz2

z2

+
z3
(1 i)z3
+
2z3
+ (1 + i)z3
+
3z3

=
=
=
=
=

0
0
0
0
0

donde zj = xj + iyj , j = 1, 2, 3, sin separar parte real e imaginaria. Verifique su


resultado resolviendo el sistema separando en parte real y parte imaginaria.
18. Estudie las soluciones del sistema
z1
iz1
z1
como una funcion de .

+
+
+

iz1
z2
(1 i)z2

+
z3
+ iz3
+ z3

=
=
=

1
i
i2

129
19. Sean
~1 = {1, 1, 2, 0} ,

~3 = {2, 1, 0, 1} ,

~2 = {0, 1, 1, 0}

~4 = {1, 0, 1, 2}

~2 ,
~3 ,
~4 ]
vectores en V 4 , sea Q = (1, 1, 1, 1) un punto en R4 . Verifique que [Q; ~1 ,
4
es un sistema de coordenadas en R . Encuentre las coordenadas del punto P =
(0, 1, 1, 0) en dicho sistema. Cuales son las coordenadas de Q? Dado
~ =
{0, 1, 1, 0} V 4 , encuentre las componentes de
~ con respecto al sistema de
~1 + ~2 ? Encoordenadas dado. Cuales son las componentes de ~1 , y las de
cuentre la ley de transformacion de coordenadas para pasar del sistema dado a
[0; ~e1 , ~e2 , ~e3 , ~e4 ] y viceversa. Encuentre las coordenadas de P en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que sus formulas son correctas. Cual es la ley de transformacion para
las componentes de los vectores? Encuentre las componentes de
~ en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que su ley de transformacion es correcta.
20. Sean
~ 2 = {0, 1, 0, 1} vectores en V 4 cuyas componentes
~ 1 = { 12 , 23 , 1, 0},
estan dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ]. Sea P0 R4 de coordenadas (0, 3, 2, 0) en tal
sistema. Sea L el subespacio de V 4 generado por
~1 y
~ 2 . Encuentre todos los
puntos (x1 , x2 , x3 , x4 ) R4 que estan sobre la variedad lineal M obtenida de
copiar L en P0 . Demuestre que el conjunto de soluciones del sistema
x1 + x2 x3 x4
x1 x2 + 2x3 + x4

= 1
= 1

es exactamente tal variedad lineal.


Encuentre el subespacio L0 de vectores ortogonales a L, luego encuentre un sistema homogeneo cuyo espacio de soluciones es L y a continuacion encuentre un
sistema no homogeneo cuyo conjunto de soluciones sea el de los puntos de M .
~2 ,
~3 ,
~4 ]
Encuentre el sistema de ecuaciones que representa a M en el sistema [Q; ~1 ,
del ejercicio (19).
21. Sean

~1

= {1, 1, 1, 1}

~2

~3

= {2, 1, 1, 1}
= {0, 1, 1, 1}

~4

= {0, 0, 1, 1}

vectores en V 4 cuyas componentes estan dadas en la base estandar. Encuentre


el volumen del paralelotopo de aristas
~ 1,
~ 2,
~ 3,
~ 4 . Con respecto al sistema
~1 ,
~2 ,
~3 , ~4 ] del ejercicio anterior, verifique e interprete la
de coordenadas [Q;
formula
det(aik ) = det(aik ) det(vik ) (Seccion 6.4)

CAPITULO 8. PROBLEMAS PROPUESTOS

130

~1 ,
~2 ,
~3 ,
~4 . Use el
Encuentre la formula para el producto escalar en la base
metodo de Gram-Schmidt con el producto escalar en la base estandar para obtener un sistema ortonormal de vectores
~ 10 ,
~ 20 ,
~ 30 ,
~ 40 a partir de
~ 1,
~ 2,
~ 3,
~ 4,
0
0
0
0
~ ,
~ , ~ , ~ a partir de
~1 , ~2 , ~3 ,
~4 . Verifique que la matriz de trany otro
1
2
3
4
~0 ,
~0 ,
~ 0 , ~ 0 es ortogonal. Exprese
sicion del sistema
~ 10 ,
~ 20 ,
~ 30 ,
~ 40 al sistema
1
2
3
4
0
0
0
los vectores
~ 1,
~ 2,
~ 3,
~ 4 en el sistema
~ 1,
~ 2,
~ 3,
~ 40 y verifique e interprete la
formula
| det(aik )| = | det(aik )|| det(vik )|
22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coordenadas [O; ~e1 , ~e2 , ~e3 , ~e4 ], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la direccion de la recta perpendicular de P a M , el pie de la perpendicular en
M y la longitud de tal perpendicular por el metodo descrito en el libro (sin usar
el sistema de ecuaciones que representa a M ).
Considere el hiperplano x1 + x2 + x3 + x4 = 1 y el punto P = (1, 1, 0, 0). Encuentre la direccion, pie y longitud de la perpendicular de P al hiperplano. Encuentre
un vector ortogonal a M y al hiperplano dado.
23. Sea f : R4 R4 dada por
y i = ti +

4
X

aik xk

i = 1, 2, 3, 4

k=1

un movimiento rgido (las coordenadas se suponen dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ].

Sean P1 , P2 , P3 , P4 tales que OPi = ~ei i = 1, 2, 3, 4, O = f (O), Pi = f (Pi ) i =

1, 2, 3, 4. Verifique que la matriz (aij ) es ortogonal. Sea ~ei = O Pi i = 1, 2, 3, 4,


sea P = (x1 , x2 , x3 , x4 ). Encuentre las coordenadas de P en el sistema de coordenadas [O ; ~e1 , ~e2 , ~e3 , ~e4 ]. Cual es la ecuacion del hiperplano x1 +x2 +x3 +x4 = 1
en el segundo sistema?

Bibliografa
[1] Lectures on Linear Algebra, Gelfand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Cliffs, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Efimov N. V. - Rozendorn E.
R., Mir Publishers (1975).

131

Indice alfab
etico
Rn , 29
n-tupla, 2, 29

Angulo
entre vectores, 85

Inversion, 9
l.d., 31
l.i., 31
Linealmente
Linealmente
Longitud de
Longitud de

Adjunto de un menor, 21
Base, 34
Base estandar, 35, 65
Coeficientes, 1
Combinacion lineal, 1, 30
Compatibilidad de sistemas homogeneos,
51
Compatibilidad de sistemas no homogeneos,
46
Componentes, 29, 63, 92
Componentes con respecto a una base, 35
Consideraciones sobre geometra analtica,
79
Construccion de sistemas ortonormales, 104
Coordenadas, 91
Deformacion continua de sistemas de coordenadas, 100
Delta de Kronecker, 36, 59, 98
Dependencia lineal, 30
Desigualdad de Cauchy-Schwarz, 83
Desigualdad triangular, 84
Determinante, 8, 11, 12
Desarrollo por adjuntos, 22
Propiedades, 13
Dimension, 34
Dimension de un subespacio, 66, 68
Distancia, 83
Distancia a una variedad lineal, 105
Ecuacion lineal con n incognitas, 1
Ecuacion lineal homogenea, 1
Espacio eucldeo n-dimensional, 83
Espacio vectorial n-dimensional, 29
Independencia lineal, 30

dependientes, 30
independientes, 30
un segmento, 83
un vector, 83

Metodo de eliminacion de Gauss, 3


Matrices
Igualdad, 55
Inverso aditivo, 55
Matriz nula, 55
Producto de matrices, 56
Producto por un n
umero escalar, 55
Suma de matrices, 55
Matrices elementales, 125
Matrices equivalentes, 43
Matrices equivalentes por filas, 125
Matriz adjunta, 59
Matriz ampliada, 46
Matriz diagonal, 43
Matriz inversa, 60
Matriz reducida por filas, 125
Matriz singular, 58
Matriz traspuesta, 12, 59
Matriz triangular
inferior, 23
superior, 23
Menor de un determinante, 19
Menor complementario, 20
Menor de una matriz, 39
Menor orlado, 39
Movimiento rgido, 111
Movimientos rgidos en R2 , 115
Movimientos rgidos en R3 , 118
Movimientos rgidos y producto escalar,
111
Movimientos rgidos y variedades lineales,
112

132

INDICE ALFABETICO

Mutuamente ortogonales, 65

133

Sistema linealmente independiente maximal, 32


Norma, 83
Sistema ortonormal de vectores, 98
Sistemas de coordenadas, 91
Origen de un sistema de coordenadas, 91
Sistemas de ecuaciones equivalentes, 2
Ortogonalidad, 65, 85
Sistemas de vectores equivalentes, 34
Ortonormalizacion de Gram-Schmidt, 104
Solucion de un sistema de ecuaciones lineales, 2
Paralelogramo, 86
Soluci
o
n
de
una ecuacion lineal, 1
lados del, 86
Subespacio,
65
Paraleleppedo, 86
Subespacio
de
soluciones de un sistema
aristas del, 86
homog
eneo, 79
Paralelotopo, 86
Subespacio
generado
por un conjunto de
aristas del, 86
vectores,
65
Permutacion, 8
Suma de subespacios, 68
Impar, 9
Sustitucion, 10
Par, 9
Impar, 10
Permutacion natural, 8
par, 10
Producto de determinantes, 56
Producto escalar, 64
Termino libre, 1
Proyeccion ortogonal, 105
Teorema de Laplace, 23
Puntos, 63
Transformacion de coordenadas, 93
Transformaciones elementales de una maRango de un sistema de vectores, 37
triz, 42
Rango de una matriz, 38
Transposici
on, 8
Rango columna, 38
Traslaci
o
n,
121
Rango fila, 38
Recta, 63, 127
Vandermonde
Reflexion, 117
Determinante de, 18
Reflexion con respecto a un plano, 122
Matriz de, 18
Reflexion con respecto al origen, 123
Variedad
lineal, 72
Regla de Cramer, 8, 25
Variedades
lineales paralelas, 74
Rotacion, 118
Variedades
lineales
y sistemas de ecuaciones,
Rotacion en torno a un eje, 121, 122
95
Vectores, 29, 63
Segmento, 63
Diferencia de vectores, 30
dirigido, 63
Inverso aditivo, 29, 64
Punto final, 63
Producto por un n
umero escalar, 30,
Punto inicial, 63
64
Puntos extremos, 63
Propiedades, 63
Sistema afn de coordenadas, 73
Suma de vectores, 29, 64
Sistema de coordenadas, 91
Vector nulo, 29, 63
Sistema de coordenadas cartesianas, 98
Vol
umenes y sistemas de coordenadas carteSistema de ecuaciones compatible, 2
sianas, 97
Sistema de ecuaciones compatible deterVolumen de un paralelotopo n-dimensional,
minado, 2, 5
86, 89
Sistema de ecuaciones compatible indeterminado, 2, 5
Sistema de ecuaciones incompatible, 2, 4
Sistema fundamental de soluciones, 51
Sistema homogeneo de ecuaciones lineales,
2, 6

You might also like