Professional Documents
Culture Documents
ii
Indice general
1. Sistemas de ecuaciones lineales
1.1. El metodo de eliminacion de Gauss
1.2. Determinantes . . . . . . . . . . .
1.3. Propiedades del determinante . . .
1.4. Teorema de Laplace . . . . . . . .
1.5. La regla de Cramer . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
. 3
. 8
. 12
. 19
. 25
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
30
31
35
37
42
46
46
51
53
3. Algebra
de matrices
3.1. Producto de matrices . . . . . . . . . . . .
3.2. Matrices inversas . . . . . . . . . . . . . .
3.3. Representacion matricial de un sistema de
3.4. Rango de un producto de matrices . . . .
. . . . . . .
. . . . . . .
ecuaciones .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
56
59
60
61
4. Vectores en Rn
4.1. Propiedades . . . . . . . . . . .
4.2. Subespacios de vectores en Rn
4.3. Variedades lineales . . . . . . .
4.4. Subespacios de soluciones . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
63
65
71
79
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Distancia y Volumen en Rn
83
5.1. Metrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.2. Vol
umenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85
6. Sistemas de coordenadas
91
6.1. Transformacion de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 95
6.3. Vol
umenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97
iii
INDICE GENERAL
iv
125
Captulo 1
Sistemas de ecuaciones
lineales
Nota: La palabra n
umero designa a un elemento de un campo K. En nuestro caso
K es el campo de los n
umeros reales o bien el de los complejos.
Definici
on 1.1 Llamaremos ecuacion lineal con n incognitas a una ecuaci
on del tipo
a1 x1 + a2 x2 + an xn = b
(1.1)
Los n
umeros a1 , . . . , an se llaman coeficientes de las inc
ognitas, al n
umero b se le
llama termino libre . Diremos que la colecci
on ordenada de n
umeros (k1 , k2 , . . . , kn )
es una solucion de la ecuacion si
a1 k1 + a2 k2 + + an kn = b
Si b = 0 la ecuaci
on se dice homogenea .
Puesto que alguno de los coeficientes ai en (1.1) debe ser distinto de cero, podemos
suponer que a1 6= 0. Asignemos valores arbitrarios k2 , k3 , . . . , kn a las incognitas x2 ,
x3 , . . . , xn , entonces
b a2 k2 a3 k3 an kn
.
a1
n kn
Claramente, la coleccion ordenada ba2 k2 a
,
k
,
k
,
.
.
.
,
k
es una posible solu2
3
n
a1
cion de la ecuacion. Puesto que esta es solucion independientemente de cuales son los
valores de k concluimos que (1.1) tiene infinitas soluciones.
x1 =
Definici
on 1.2 Sean
a1 x1 + + an xn
c1
(1.2)
b1 x1 + + bn xn
c2
(1.3)
Sean , n
umeros arbitrarios. Diremos que la ecuaci
on
(a1 x1 + + an xn ) + (b1 x1 + + bn xn ) = c1 + c2
es combinacion lineal de las ecuaciones (1.2) y (1.3).
1
(1.4)
=
..
.
=
c1
cm
= c1
..
.
= cm
(1.5)
b11 x1 + + b1n xn
=
..
.
d1
bm1 x1 + + bmn xn
dm
(1.6)
DE GAUSS
1.1. EL METODO
DE ELIMINACION
1.1.
El m
etodo de eliminaci
on de Gauss
Consideremos el sistema
a11 x1 + + a1n xn
am1 x1 + + amn xn
=
..
.
b1
bm
(1.7)
EC1
Ecuacion 2 =
EC2
Ecuacion 3
Ecuacion m
a21
EC1
a11
a31
EC3
EC1
a11
..
.
am1
= ECm
EC1
a11
=
=
=
..
.
b1
b02
b03
a0m2 x2 + + a0mn xn
b0m
(1.8)
Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir facilmente como
combinacion lineal de las ecuaciones de (1.8), es por esto que son equivalentes.
Caso 1: El coeficiente de x2 es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.
Caso 2: Si a02j = 0 j = 2, 3, . . . , m, procedemos a la eliminacion de la incognita x3 .
Supongamos entonces que a022 6= 0, hacemos lo mismo en (1.8). Denotemos por ECi0 a la
ecuacion i-esima del sistema, y por ECi00 a la ecuacion i-esima del sistema a construir.
=
=
EC300
EC400
EC10
EC20
a032
EC20
a022
a0
EC20
EC40 42
a022
EC30
..
.
00
ECm
0
ECm
a0m2
EC20
a022
=
=
=
..
.
b1
b02
b003
a00m3 x3 + + a0mn xn
b00m
Nota: Si en alguna parte del proceso alguna ecuacion tiene todos los coeficientes y el
termino libre iguales a cero, podemos suprimirla puesto que la ecuacion
0 x1 + 0 x2 + + 0 xn = 0
es satisfecha por cualquier n-tupla (k1 , k2 , . . . , kn ).
Sin en alguna parte del proceso alguna ecuacion tiene todos los coeficientes iguales a
cero y el termino libre distinto de 0 debemos concluir que el sistema es incompatible .
Supongamos que el sistema es compatible. En tal caso pueden presentarse solo dos
situaciones:
i) Despues de k 1 etapas, las incognitas xk+1 , xk+2 , . . . , xn quedan todas eliminadas producto de suprimir ecuaciones del tipo 0 x1 + + 0 xn = 0. En tal
caso el sistema queda con forma trapezoidal
a11 x1 + a12 x2 + a13 x3 + + a1k xk + a1n xn
a022 x2 + a023 x3 + + a02k xk + + a02n xn
a0033 x3 + + a003k xk + + a003n xn
(k1)
akk
(k1)
(k1)
xk + + akn
xn
= b1
= b02
= b003
..
.
(k1)
= bk
,
(k1)
DE GAUSS
1.1. EL METODO
DE ELIMINACION
= 1
= 0
3x1 + 0 x2 + 3x3 + x4
2x1 2x2 + 4x3 + 2x4
= 2
= 2
Eliminemos x1 :
x1 x2 + 2x3 + x4
3x2 3x3 2x4
3x2 3x3 2x4
0 x2 + 0 x3 + 0 x4
=
=
=
=
1
1
1
0
Eliminemos x2 :
x1 x2 + 2x3 x4
3x2 3x3 2x4
0 x3 + 0 x4
= 1
= 1
= 0
= b1
= b02
..
.
= b(n1)
n
Es claro que en este caso el sistema tiene exactamente una solucion puesto que la
u
ltima ecuacion determina el valor de xn en forma u
nica y la pen
ultima determina
el valor de xn1 en forma u
nica, etc.
Ejemplo:
x1 + x2 + x3
2x1 + 2x2 x3
= 0
= 1
x1 + x2 3x3
= 1
6
Eliminemos x1 :
x1 + x2 + x3
3x3
2x2 2x3
= 0
= 1
= 1
x1 + x2 + x3
2x2 2x3
3x3
= 0
= 1
= 1
Luego x3 = 13 , 2x2 = 2( 13 ) + 1 x2 = 16 , x1 = 16 +
1
3
= 16 .
..
..
..
..
.
.
.
.
am1
am2
de m n n
umeros
amn
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
b1
b2
..
.
am1
am2
amn
bm
x1 + 2x2 + 5x3
x1 x2 + 3x3
= 9
= 2
3x1 6x2 x3
= 25
9
2
25
1
1
3
2
1
6
5
3
1
y pueden hacerse las mismas transformaciones que realizaramos con las ecuaciones
del sistema con las filas de la matriz ampliada, as eliminando x1 obtenemos
1
2
5
9
0 3 2 11
0 12 16 52
DE GAUSS
1.1. EL METODO
DE ELIMINACION
Eliminando x2 :
1
0
0
9
11
8
2
5
3 2
0 8
luego x1 = 2, x2 = 3, x3 = 1.
Ejemplo: Resolver el sistema
1
3
1
0
Eliminamos x1 :
5 8
1 3
0 7
11 20
1 5
0 16
0 5
0 11
8
21
1
20
1
5
2
9
3
1
5
2
1
8
1
9
3
8
8
2
1 5 8
0 16 21
0 5
1
0 5 1
1
8
1
1
3
8
8
10
4
2
1
1
3
2
3
1
2
1
5
3
0
0
0
1
2
4
2
3
1
2
1
3
3
1
5 0
1
0
2
7
9
2
5
5
1
3
11 0
13
0
x2 =
y
8
3
x1 = 2 + 3 =
5
5
2
7
0
2
5
10
7
3
11
8
7
1.2.
Determinantes
El metodo de Gauss nos permite resolver un sistema de ecuaciones pero no proporciona un criterio de compatibilidad en terminos de los coeficientes de las incognitas y
los terminos libres, menos a
un una formula que permita encontrar los valores de las
incognitas. Sin embargo, una modificacion de dicho metodo aplicado a sistemas de dos
ecuaciones con dos incognitas y tres ecuaciones con tres incognitas permite deducir
la llamada regla de Cramer, previa introduccion de un nuevo ente matematico: el
determinante . Primero nos abocaremos a la tarea de introducir esta nueva nocion
para lo cual necesitamos algunos conceptos auxiliares.
Sea M un conjunto finito formado por n elementos a los cuales ponemos etiquetas
distintas con los n
umeros 1, 2, . . . , n. Podemos llamar i1 al objeto que tiene la etiqueta
con el n
umero 1, i2 al objeto que tiene la etiqueta con el n
umero 2, . . . , in al objeto que
tiene la etiqueta con el n
umero n. Decimos que i1 , i2 , . . . , in constituyen un conjunto
de n smbolos y como la naturaleza de los objetos no va a jugar papel alguno en lo
que sigue supondremos simplemente que el conjunto de n smbolos esta formado por
los n
umeros 1, 2, . . . , n. Dichos smbolos pueden ser ordenados en una fila de diversas
maneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:
1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .
En general, si tenemos n smbolos, el primero de una fila puede ser elegido de n
maneras. Por cada una de ellas tenemos n 1 maneras de elegir el segundo. Por cada
una de las n(n 1) maneras de elegir los dos primeros tenemos n 2 maneras de
elegir el tercero, as para elegir los tres primeros tenemos n(n 1)(n 2) maneras.
Continuando la argumentacion hasta agotar los recursos tenemos que con n smbolos
podemos formar
n(n 1)(n 2) (n (n 2))(n (n 1)) = n!
filas distintas. A cada una de las filas la llamaremos una permutaci
on de ellos y a la
fila 1 2 3 n que sigue el orden natural la llamaremos permutaci
on natural.
Definici
on 1.7 Si en una permutaci
on cualquiera intercambiamos dos smbolos cualesquiera (no necesariamente contiguos) dejando todos los dem
as en su sitio obtenemos
una nueva permutaci
on. Decimos que esta nueva permutaci
on ha sido obtenida de la
original mediante una trasposicion.
Por ejemplo, si n = 5, 5 2 3 4 1 se obtiene de la permutacion natural intercambiando 1
y 5.
Teorema 1.8 Consideremos las n! permutaciones de n smbolos. Ellas pueden ser
escritas en una lista tal que cada permutaci
on que aparece en la lista puede ser obtenida
de la anterior mediante una trasposici
on, y la lista puede empezar con cualquiera de
ellas.
Demostraci
on: El teorema es cierto para n = 2. Supongamos que ha sido demostrado
para n = k y consideremos todas las permutaciones de k + 1 smbolos. Empecemos la
lista con una cualquiera de ellas, digamos
i1 i2 i3 ik ik+1
1.2. DETERMINANTES
y a continuacion escribamos todas aquellas que empiezan con i1 las cuales son k!. Como
el smbolo i1 queda fijo, cada una de ellas puede ser considerada como una permutacion
de k smbolos y por lo tanto, por la hipotesis de induccion, pueden ser escritas en una
lista en que cada una difiere de la anterior en una trasposicion llevada a cabo en los
smbolos i2 , i3 , . . . , ik+1 y empezando precisamente con i1 i2 i3 ik ik+1 .
Veamos la u
ltima de esta lista preliminar. En ella transpongamos i1 con i2 y repitamos
el proceso. Por este metodo construmos una lista de permutaciones donde hay k!
permutaciones que empiezan con i1 , k! que empiezan con i2 , . . . , k! que empiezan con
ik+1 ; en total k!(k + 1) = (k + 1)! permutaciones distintas en que cada una difiere de
la anterior en una trasposicion.
Corolario 1.9 Dada una permutaci
on de n smbolos, a partir de ella es posible obtener
otra cualquiera mediante una sucesi
on de transposiciones.
on cualquiera. Diremos que los smbolos
Definici
on 1.10 Sea i1 i2 in una permutaci
is e it forman una inversi
on si is > it pero s < t.
Por ejemplo, si n = 5 en
32415
i1 = 3, i2 = 2, i3 = 4, i4 = 1, i5 = 5.
Entonces i1 e i2 forman una inversion: i1 > i2 pero s = 1 < t = 2. i3 e i4 forman una
inversion: i3 > i4 pero s = 3 < t = 4.
Definici
on 1.11 Una permutaci
on se dice par si sus smbolos forman un n
umero par
de inversiones, impar si forman un n
umero impar de inversiones.
Por ejemplo, si n = 6, 3 2 1 6 4 5 es impar, 3 2 1 4 6 5 es par.
Teorema 1.12 Una trasposici
on cambia la paridad de una permutaci
on.
Demostraci
on: Supongamos que los smbolos a trasponer son contiguos
i1 i2 k l in
Al trasponer obtenemos i1 i2 l k in donde la disposicion de k y l con respecto a
los restantes n 2 smbolos no ha cambiado luego al pasar de k l a l k quitamos una
inversion o agregamos una.
Supongamos ahora que entre k y l hay s smbolos
k ir ir+1 ir+s1 l
Pasamos a ir ir+1 ir+s1 l k mediante s+1 trasposiciones y luego a l ir ir+1 ir+s1 k
mediante s trasposiciones mas. En total para obtener la u
ltima permutacion de la
primera realizamos 2s + 1 trasposiciones de terminos contiguos, cada una de las cuales
cambio la paridad de la permutacion (primera parte de la demostracion) luego si era
par ahora es impar y viceversa.
10
Corolario 1.13 El n
umero de permutaciones pares es igual al n
umero de permutaciones impares.
Demostraci
on: Hagamos una lista en que cada una difiere de la anterior por una
trasposicion. Como para n 2 n! es par hay n!
2 de cada tipo.
Definici
on 1.14 Sea M el conjunto de n smbolos, sea f : M M 1-1 y sobre.
Diremos que f es una sustitucion de grado n.
Sean i1 i2 in y i1 i2 in dos permutaciones de M , sea A el cuadro
i1
i2 in
i1 i2 in
(1.9)
3 1 2
1 2 3
,
1 3 2
3 2 1
representan la misma sustitucion de grado 3. En general, lo que define a (1.9) es la
asignacion f (ij ) = ij luego siempre es posible obtener, mediante trasposiciones de
columnas, una representacion de la forma
1
2
3 n
(1.10)
1 2 3 n
Lo que no se puede hacer es intercambiar el orden de las dos filas porque ellas juegan
distintos papeles, as
2 1 4 3
4 3 1 2
y
4 3 1 2
2 1 4 3
son distintas sustituciones de grado 4, en la primera f (2) = 4 en tanto que en la segunda f (2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.
Volvamos a (1.9) y consideremos la paridad de ambas filas. Cualquier trasposicion
de dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas filas, si
ellas tienen la misma paridad en una representacion ellas tendran la misma paridad
en cualquier otra, analogamente para el caso de paridad opuesta. Se concluye que el
que ambas filas tengan la misma paridad o paridad opuesta no depende de la representacion de la sustitucion luego podemos definir
1.2. DETERMINANTES
Nota: La sustitucion identidad
11
1 2
1 2
3
3
n
n
se considera par.
n!
De (1.10) se concluye que hay n!
2 sustituciones pares y 2 sustituciones impares (n 2).
Tambien es claro que si una sustitucion de grado n es par la suma del n
umero de
inversiones de ambas filas es par y si es impar dica suma tambien es impar. Se concluye
que para juzgar la paridad de una sustitucion de grado n es conveniente favorecer la
representacion
1
2
3 n
.
1 2 3 n
Puesto que la primera fila tiene 0 inversiones, la paridad de la sustitucion esta determinada por el n
umero de inversiones de la permutacion 1 2 n .
3 1 4 5 2
1 2 3 4 5
Ejemplo:
es la misma sustitucion de grado 5 que
.
2 5 4 3 1
5 1 2 4 3
Puesto que la permutacion 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitucion dada es impar.
Estamos listos para introducir el concepto de determinante . Sea
(aij ) .
..
..
..
..
.
.
.
an1 an2 ann
una matriz cuadrada de orden n. Consideremos todos los productos posibles de n
elementos de (aij ) donde cada producto contiene exactamente un elemento de cada
fila y uno de cada columna, esto es, todos los productos de la forma
a11 a22 ann
(1.11)
donde 1 2 n es una permutacion de los ndices 1,2,. . . , n. Puesto que para formar
(1.11) podemos elegir primero un elemento de la primera fila de (aij ), a saber a11 ,
luego uno de la segunda fila, a saber a22 (donde a22 no puede estar en la columna
1 , esto es, 1 6= 2 ), luego uno de la tercera fila a saber a3 3 (donde a33 no puede
estar en las columnas 1 o 2 , esto es 1 6= 2 6= 3 ) y as continuamos hasta la fila
n, podemos concluir que hay n! de estos productos ya que en (1.11) los ndices fila
siempre pueden escribirse en el orden natural.
Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitucion
1
2
3 n
1 2 3 n
es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.
A la suma algebraica de estos n! productos de la forma (1.11) con los signos adjudicados mediante la regla recien enunciada lo llamaremos determinante de orden n
correspondiente a la matriz (aij ). Si n = 1 diremos que a11 es el determinante de
12
det(aij )
Ejemplo: Sea
denotaremos por
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
an1
an2
ann
a11
(aij ) = a21
a31
a12
a22
a32
a13
a23
a33
det(aij ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a12 a21 a33 a11 a23 a32 a13 a22 a31
1.3.
Definici
on 1.16 Sea (aij ) una matriz cuadrada de orden n. A la matriz cuadrada
de orden n (bij ), donde bij = aji i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos la
traspuesta de (aij ), se anota
(bij ) = (aij )t
Es claro que (bij ) se obtiene de (aij ) poniendo las filas de aij como columnas de bij .
Ejemplo:
1 3
(aij ) = 2 1
1 1
En general si
(aij ) =
5
4
1
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
an1
an2
ann
1
(aij )t = 3
5
(aij )t =
2
1
4
1
1
1
a11
a12
..
.
a21
a22
..
.
..
.
an1
an2
..
.
a1n
a2n
ann
13
Nota: Cada producto a11 a22 ann se llama un termino del determinante.
Propiedad 1: det(aij ) = det(aij )t
Es evidente que ambos determinantes tienen los mismos terminos, hay que demostrar
que el mismo termino tiene el mismo signo en det(aij ) y en det(aij )t . Sea
a11 a22 ann
un termino de det(aij ). Si llamamos (bij ) = (aij )t tal termino es en det(bij )
b1 1 b2 2 bn n .
Si reordenaramos los factores de modo que el producto quede en
b11 b22 bnn esto sera lo mismo que llevar la sustitucion
1 2 n
1 2 3
a la forma
1
2 n
1 2 3
1 2 n
Pero esta u
ltima tiene la misma paridad que
1
2 n
1
2
3 n
tiene la misma paridad que
(la suma
1 2 3 n
versiones es la misma).
la forma canonica
n
.
n
la cual a su vez
del n
umero de in-
Se concluye que a11 a22 ann tiene el mismo signo considerado como termino de
det(bij ).
De la propiedad 1 se deduce que cualquier afirmacion sobre las filas del determinante
es validad para sus columnas y viceversa, por esta razon las propiedades que siguen
solo se demostraran para las filas del determinante.
Propiedad 2: Si para alg
un i, 1 i n, aij = 0 j = 1, 2, . . . , n entonces
det(aij ) = 0.
En efecto, cada termino contiene un factor de la i-esima fila (definicion de determinante) luego todos los terminos son iguales a cero.
Propiedad 3: Si un determinante se obtiene de otro permutando dos filas todos los
terminos del primer determinante ser
an terminos del segundo pero con signos contrarios, es decir, al permutar dos filas el determinante s
olo cambia de signo.
Supongamos que permutamos las filas i y j, i < j. Sea (bij ) la matriz que se obtiene
al permutar las filas.
Consideremos un termino cualquiera del determinante original,
a11 a22 aii ajj ann
y su signo esta determinado por la paridad de
1
2 i
1 2 i
j
j
n
n
14
En el nuevo determinante el es
b11 b22 bji bij bnn
(aii pasa a la fila j pero permanece en la columna i , analogamente para ajj ) y su
signo esta determinado por la paridad de
1
2 j
i n
1 2 i j n
Puesto que 1 2 j i n se obtiene de 1 2 i j n mediante una trasposicion, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustituciones tienen paridad contraria.
Se concluye que a11 a22 ann aparece en el nuevo determinante con signo opuesto
al que tena en el determinante original.
Propiedad 4: Un determinante con dos filas iguales es igual a cero.
Supongamos que det(aij ) = d y supongamos que las filas i, j son iguales. Entonces al
intercambiar las filas i, j obtenemos el mismo determinante, pero por la propiedad 3,
obtenemos el determinante con signo opuesto luego d = d d = 0.
Propiedad 5: Si se multiplican todos los elementos de una fila del determinante por
un n
umero k, el determinante queda multiplicado por k.
Supongamos que multiplicamos todos los elementos de la fila i por k. Por la definicion
de determinante cada termino queda multiplicado por k.
Nota: El factor com
un de todos los elementos de una fila puede ser extrado como
un factor del determinante.
Ejemplo:
2 4
a b
d e
6
c
f
1 2
= 2 a b
d e
3
c
f
j = 1, 2, . . . , n.
Entonces det(aij ) es igual a la suma de dos determinantes cuyas filas son, salvo la fila
i, las mismas que las del original, y la fila i del primer sumando es b1 b2 bn y la fila
i del segundo sumando es c1 c2 cn .
15
En efecto,
a11 a22 ann
=
=
Pero el primer sumando es un termino del determinante original salvo que su fila i ha
sido reemplazada por b1 b2 bn , analogamente para el segundo sumando.
Ejemplo:
3 3
a b
d e
3
c
f
1+2
= a
d
2+1
b
e
0+3
c
f
1 2
= a b
d e
0
c
f
2 1
+ a b
d e
3
c
f
Definici
on 1.17 Diremos que la i-esima fila de det(aij ) es combinaci
on lineal de las
dem
as filas del determinante si hay constantes k1 , k2 , . . . , ki1 , ki+1 , . . . , kn tales
que
i1
n
X
X
aij =
kr arj +
kr arj j = 1, 2, . . . , n
r=1
r=i+1
a1
a2
b
b2
1
a1 + 2b1 a2 + 2b2
a3
b3
a3 + 2b3
2
X
br arj
j = 1, 2, 3.
r=1
Nota: Es posible que algunos de los kr sean iguales a cero. En tal caso la fila i es
combinacion lineal de algunas de las restantes filas pero con la argucia de tomar los
restantes kr como iguales a cero podemos fingir que es combinacion lineal de todas
las filas. En el caso en que todos los kr menos uno sean iguales a cero, por ejemplo
kj 6= 0, obtenemos que la fila i, i 6= j es combinacion lineal de la fila j, esto es, la fila
i es proporcional a la fila j. Se concluye que la proporcionalidad se puede considerar
como un caso particular de combinacion lineal.
Propiedad 8: Si una de las filas del determinante es combinaci
on lineal de las dem
as,
el determinante es igual a cero.
Supongamos que la i-esima fila es combinacion lineal de las demas filas. Descompongamos el determinante en una suma de determinantes cuyas filas son todas iguales a las
del determinante original salvo la i-esima, tal como lo permite la propiedad 7. Cada
uno de estos, o bien tiene una fila de ceros, o bien tiene dos filas proporcionales, en
ambos casos el sumando en cuestion es igual a cero.
16
am + bp an + bq
=
cm + dp cn + dq
usando la propiedad 7.
am
an
bp
bq
=
+
am + dp cn + dq
cm + dp cn + dq
am an am an bp bq bp bq
=
+
+
+
cm cn dp dq cm cn dp dq
m n
p q
+ 0 usando la propiedad 3
= 0 + ad
+ bc
p q
m n
p q
p q
= ad
+ bc
m n
m n
p q
= (bc ad)
m n
Ejemplo: Calcule
Por la propiedad 5
2
5
2
2
7
0
3
5
0
8
6
2
7
9
4
0
2
5
2
2
4
7
5
7
1
= 2
1
5
2
2
7
0
3
5
0
8
3
2
7
9
4
0
2
5
2
2
2
7
5
7
1
= 2 0
0
4, 5 tenemos:
0
3
5
0
8
3
0
13 2
1
5
3
2
17 2
2
3
1
3
13
17
1 2
1 2
3
3
4
4
5
5
2
3
4
5
2 3 4 5
(el conjunto M de smbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversion con
los restantes smbolos. Se concluye que
3 13 2 3
3 13 2
3
5
5
1
5
1
1
5
1
= 2
= 2
3
2
3
3
2
3
0
0
8 17 2 13
0 5 5 11
15 65 10 15
15 65 10 15
2 0
2 15
3
15
3
68
5
18
=
=
3
2
3 15 0
3
2
3
15 0
0 5 5 11
0 5 5 11
68
63 5
5
18
18
2
3 = 2 1
2
3
= 2 3
5 5 11
0 5 11
1
1
2
3
2
3
18 = 2 0 121 171
= 2 63 5
0 5 11
0 5
11
121 171
= 2 1 93
= 2
5
11
5 11
1 93
= 2 476 = 952
= 2
0 476
1
1
1 2 x2
2
3
2
3
2
3
2
3
1
5
1 9 x2
=0
Para x = 1 y para x = 1 las dos primeras filas quedan iguales luego el polinomio es
divisible por (x 1)(x + 1). Analogamente para las filas 3 y 4 con x = 2. Luego el
determinante (que es un polinomio de grado 4) es de la forma c(x2 4)(x2 1), nos
18
1 1 2 3
1 2 2 3
=
4c =
2 3 1 5
2 3 1 9
1
0
2
0
1
1
3
0
2
0
1
0
3
0
5
4
1 1 2
1 1 2
1 0
4c = 4 0 1 0 = 4 0 1 0 = 4
1 3
0 1 3
2 3 1
luego c = 3.
Ejemplo: Calcule el determinante de la matriz de n n dada por
a si i 6= j
aij =
x si i = j
Sumando a la primera columna todas las demas queda el siguiente determinante:
ai1
a1j
aij
aii
=
=
=
=
x + (n 1)a , i = 1, 2, . . . , n
a , j = 2, 3, . . . , n
a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
x , i = 2, 3, . . . , n
=
=
=
=
1,
a,
a,
x,
i = 1, 2, . . . , n
j = 2, 3, . . . , n
i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n
i = 2, 3, . . . , n
Restemos la primera fila a todas las demas filas, aplicamos la misma argumentaci
on
que en ejercicios anteriores y tenemos que el determinante pedido es [x + (n 1)a]d
donde d es un determinante de orden (n 1) dado por
0
i 6= j
aij =
x a i = j, i = 2, 3, . . . , n
El u
nico termino distinto de cero de dicho determinante es (x a)(x a) (x a)
(n 1 veces) y su signo esta dado por
2 3 n
2 3 n
luego el determinante pedido vale [x + (n 1)a](x a)n1 .
Ejemplo: Calcule el determinante de Vandermonde
1
1
a1
a
a
2
n
a22
a2n
= a1
..
..
..
..
.
.
.
.
n1
n1
n1
a
a
a
n
1
2
19
1
1
1
0
a2 a1
a3 1
an a1
0
a2 (a2 a1 )
a3 (a3 a1 )
an (an a1 )
=
..
..
..
..
..
.
.
.
.
.
1.4.
Teorema de Laplace
Puesto que es difcil calcular un determinante usando directamente la definicion, buscaremos un teorema que reduzca el calculo de un determinante de orden n a uno de
n 1, lo cual permite, en principio, remontarse al calculo de determinantes de orden
2.
Definici
on 1.18 Sea d un determinante de orden n, sea k entero, 1 k n 1. En
la matriz (aij ) elegimos arbitrariamente k filas y k columnas. Consideremos la matriz
formada por los elementos que est
an en las intersecciones de las k filas y k columnas
elegidas. Al determinante de orden k de esta matriz se le llama menor de orden k
del determinante d (es el determinante que se obtiene de borrar n k filas y n k
columnas de d).
Ejemplo: Sea
d =
a11
a21
a31
a41
a12
a22
a32
a42
a13
a23
a33
a43
a14
a24
a34
a44
orden
2 se obtiene escogiendo las filas 2,3 y las columnas 2, 4, el menor
20
Definici
on 1.19 Sea M un menor de orden k de d, 1 k n 1. Suprimamos las k
filas y las k columnas en cuyas intersecciones se encuentra M . Las restantes (n k)
filas y (n k) columnas forman un menor M 0 llamado el menor complementario de
M .
a
a11 a13
a24
a
En el ejemplo previo, el adjunto de 22
a32
a24
es
a34
a
a13
(1)2+3+2+4 11
a41 a43
1
2
3 k
,
1 2 3 k
sea l su n
umero de inversiones. Un termino cualquiera de M 0 es
B = a(k+1)k+1 a(k+2)k+2 ann ,
su signo en M 0 esta dado por
k+1
k+1
k+2
k+2
n
n
sea l0 su n
umero de inversiones.
AB tiene exactamente un factor de cada fila y cada columna de d luego es un termino
0
de d. El signo de AB en el producto M M 0 esta determinado por (1)l+l , su signo en
d esta determinado por la sustitucion
1
2 k k + 1 k + 2 n
.
1 2 k k+1 k+2 n
Pero como los no pueden formar inversion con los , ella tiene l + l0 inversiones, su
0
signo en d tambien esta determinado por (1)l+l .
21
Supongamos ahora que M 0 esta formado por las filas i1 < i2 < < ik y las columnas
j1 < j2 < < jk . Llevemos el menor M al angulo superior izquierdo, esto es, mediante
trasposiciones de filas y trasposiciones de columnas formamos un nuevo determinante
cuyas primeras k filas y primeras k columnas son las k filas y k columnas de M . Para
esto llevamos a cabo
(i1 1) + (i2 2) + + (ik k) = i1 + i2 + + ik
k(k + 1)
2
trasposiciones de filas y
(j1 1) + (j2 2) + + (jk k) = j1 + j2 + + jk
k(k + 1)
2
n
X
aij Aij
j=1
Demostraci
on: Por el lema, cada termino del desarrollo aij Aij es un termino de d
con el signo que le corresponde en d. Sea A un termino del desarrollo air Air , si j 6= r,
A no puede ser un termino del desarrollo aij Aij puesto que A contiene al elemento air
de la i-esima fila en tanto que aij Aij contiene al elemento aij de la i-esima fila, j 6= r.
El desarrollo aij Aij contiene (n 1)! terminos de d con el signo que les corresponde en
n
X
d,
aij Aij contiene n(n 1)! terminos distintos de d con el signo que les corresponde
j=1
n
X
j=1
aij Aij es d.
22
Notaci
on: Diremos que
n
X
j=1
de la i-esima fila.
Es obvio que tambien es posible desarrollar el determinante por los adjuntos de una
columna cualquiera.
Ejemplo: Desarrollar
d =
d =
1 1 2
3
3 4 + (1)3+2 0 5
(1)3+1 2 1
5 3 3
1
1
2
1
3
3
2
4
3
3
5
1
1
1
5
1
3
3
Del ejemplo se concluye que mientras mas ceros tiene la fila, mas facil es el desarrollo.
As, usando sistematicamente las propiedades del determinante es posible transformarlo de modo que quede una fila que tiene un 1 y (n 1) ceros, as el calculo de un
determinante de orden n se reduce al calculo de un solo determinante de orden n 1.
Ejemplo: Sea
d =
2
1
3
2
0
5
0
1
6
3
0
3
0
4
1
1
7
5
1
2
3
2
5
2
3
2 5
1 9
d = (1)
3 1
2
18
columna, se obtiene
1
3
13
7
5
5
7 10
En este u
ltimo determinante realice las siguientes transformaciones:
23
13 25
17
17 13 25
16
8
d = 26 34 26 = 0
36 33 24 36 33 24
13 25
17
2
2
1 = 8 13
= 8 0
33
24
36 33 24
=
se obtiene
+ 36 25
2
17
1
n
X
aik Ajk = 0.
k=1
Demostraci
on:
n
X
k=1
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
an1
an2
ann
se dice triangular superior si aij = 0 siempre que i > j, o bien triangular inferior si
aij = 0 siempre que i < j.
Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igual
al producto de los elementos en su diagonal.
Demostraci
on: Claramente el teorema es cierto si n = 1. Sea d el determinante de
la matriz (aij ). Supongamos que la matriz es triangular superior y desarrollemos por
los adjuntos de la primera columna, obtenemos
d=
n
X
i=1
24
d =
4
0
2
1
0
1
3
3
1
4
2
0
1
3
0
2
1
3
1
2
1
5
1
0
5
3 3 1
3
1 5
4
2
1 1 0 + (1)1+3+1+3
2 1 1 1 0
4
2 5
4
2
5
3
1 5
1 5
4 2
1+5+1+3 4 2
3
3
1
3
3
1
+
(1)
0 0
1 3
1 1 0
4
2
5
1 2 1
1 2 1
0 0
0
0
3 3 1
1 1 0 + (1)2+4+1+3
2 1
1
3
4
4
2 5
2 5
1 2 1
1 2 1
0 0
2
1
3 1 5
3 3 1 + (1)3+4+1+3
0 0
1
3
4 2
1 1 0
5
1 2 1
1 2 1
2 1
1
3
3
3
1 5 + (1)4+5+1+3
1 5
0 0
0
0
3 3 1
1 1 0
1+2+1+3 4
= (1)
0
1+4+1+3
+(1)
2+3+1+3
2+5+1+3
3+5+1+3
+(1)
+(1)
+(1)
2
0
Demostraci
on: Sean i1 , i2 , . . . , ik las filas escogidas, sea A = a11 a22 ann un
termino cualquiera del determinante d. En A hay exactamente un elemento de cada
una de las filas i1 , i2 , . . . , ik . Supongamos que ellos estan en las columnas i1 , i2 , . . . ,
ik . Consideremos el producto B = ai1 i1 ai2 i2 aik ik . B contiene exactamente un
elemento de cada fila y un elemento de cada columna del menor M formado por las filas
i1 , i2 , . . . , ik y las columnas i1 , i2 , . . . , ik . El producto de los restantes factores de
A contiene exactamente un elemento de cada fila y un elemento de cada columna del
menor complementario M 0 de M . Se concluye que, al menos en valor absoluto, A es un
termino del desarrollo indicado
en el enunciado del teorema. El n
umero de terminos
de dicho desarrollo es nk k!(n k)! = n! y seg
un el lema, cada uno es un termino
de d. Pero solo hay uno que contiene los mismos factores que A, si difiriese en signo
con A entonces no sera termino de d. Hemos demostrado que todos los terminos de d
aparecen entre los indicados en el enunciado del teorema y que estos son exactamente
n!, esto prueba el teorema propuesto.
1.5.
25
La regla de Cramer
=
=
..
.
b1
b2
bn
(1.12)
=
=
..
.
b1
b2
bn
(1.13)
aij Aij = d y si r 6= j,
i=1
i=1
n
X
i=1
i=1
i=1
dj =
n
X
bi Aij
i=1
Pero
n
X
i=1
j =
dj
d
1jn
(1.14)
1X
air Asr =
d r=1
0
d
d
si i 6= s
si i = s
26
2
1
0
1
d =
1
3
2
4
2
1
0
1
1
3
2
4
5
0
1
7
5
0
1
7
1
6
2
6
1
6
2
6
8
9
5
0
= 27
d1 =
d3 =
8
9
5
0
1
3
2
4
2 1
1 3
0 2
1 4
27
1
6
= 81
2
6
8
1
9 6
= 27
5 2
0
6
d2 =
d4 =
5
0
1
7
1 = 3
2 = 4
2
1
0
1
8
9
5
0
5
0
1
7
1
6
2
6
2
1
0
1
1
3
2
4
5
0
1
7
8
9
5
0
3 = 1
= 108
= 27
4 = 1
encuentre los valores de para los cuales el sistema admite una soluci
on no trivial.
Necesariamente
Entonces
0
1
1 1
1
0
1
2
1
=0
2
=0,
( + 2) = 0
28
Captulo 2
Relaciones de dependencia
lineal
2.1.
El espacio vectorial Rn
Rn
30
y es el u
nico vector tal que + () = 0. Al vector
+ () = (a1 b1 , a2 b2 , . . . , an bn )
lo llamaremos la diferencia de los vectores y , se anota simplemente como .
Sea Rn , k un n
umero real, llamaremos producto del vector por el n
umero real k
al vector
k k = (ka1 , ka2 , . . . , kan )
Es evidente que la operacion tiene las siguientes propiedades:
i.- 1 =
Rn
ii.- k( + ) = k + k
, Rn , k R
iii.- (k1 + k2 ) = k1 + k2
iv.- k1 (k2 ) = (k1 k2 )
Rn , k1 , k2 R
Rn , k1 , k2 R
2.2.
Dependencia lineal
Definici
on 2.1 Sean 1 , 2 , . . . , s Rn . Diremos que el vector es combinacion
lineal de los vectores 1 , 2 , . . . , s si existen n
umeros reales l1 , l2 , . . . , ls tales que
=
s
X
li i
i=1
Definici
on 2.2 Diremos que los vectores 1 , 2 , . . . , s son linealmente dependientes
si hay n
umeros reales k1 , k2 , . . . , ks no todos nulos tales que
s
X
ki i = 0
i=1
31
s
X
s
X
ki
i=2
k1
ki i =
i=1
i .
s
X
l2 2 . Entonces
i=2
s
X
l2 2 = 0 ,
i=2
tome k1 = 1, ki = li , i = 2, 3, . . . , s.
Ejemplo: En R3 sean
1 = (5, 2, 1)
2 = (1, 3, 3)
3 = (9, 7, 5)
4 = (3, 8, 7)
2.3.
Dimensi
on del espacio vectorial Rn
Es claro que en Rn hay sistemas de n vectores que son l.i., considere el sistema
e1
= (1, 0, 0, . . . , 0)
e2
= (0, 1, 0, . . . , 0)
..
.
en
= (0, 0, 0, . . . , 1)
32
n
X
ki ei = 0
(k1 , k2 , . . . , kn ) = 0 = (0, 0, . . . , 0)
i=1
luego ki = 0, i = 1, 2, . . . , n.
Teorema 2.4 Sean 1 , 2 , . . . , s Rn , s > n. Entonces el conjunto es l.d.
Demostraci
on: Sean i = (ai1 , ai2 , . . . , ain ), i = 1, 2, . . . , s y supongamos que
s
X
ki i = 0. Entonces
i=1
s
X
(ki ai1 , ki ai2 , . . . , ki ain ) =
i=1
i=1
i=1
aij ki = 0
j = 1, 2, . . . , n
(2.1)
i=1
ki i + kn+1 = 0
i=1
33
en
= (1, 0, 0, . . . , 0)
= (0, 1, 0, . . . , 0)
..
.
= (0, 0, 0, . . . , 1)
genera a Rn .
Si = (a1 , a2 , . . . , an ) entonces =
n
X
a i ei .
i=1
=
=
i=1
r
X
k=1
s
X
i=1
ik k
lji
r
X
k=1
j = 1, 2, . . . , t
i = 1, 2, . . . , s
ik k =
s
r
X
X
k=1
i=1
entonces
!
lji ik
j = 1, 2, . . . , t
34
Definici
on 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresa
linealmente mediante el otro.
Del teorema y la definicion se tiene que si dos sistemas son equivalentes y un vector
se expresa linealmente mediante uno de ellos entonces tambien se expresa linealmente
mediante el otro.
Teorema 2.10 Sea 1 , 2 , . . . , r un sistema de vectores l.i. en Rn y supongamos
que se expresa linealmente mediante el sistema de vectores 1 , 2 , . . . , s . Entonces
r s.
Demostraci
on: Supongamos que r > s. Por hipotesis
i =
s
X
aij j
i = 1, 2, . . . , r
j=1
ki aij = 0
j = 1, 2, . . . , s
i=1
Pero
r
X
i=1
ki i =
r
X
i=1
ki
s
X
j=1
aij j =
r
s
X
X
j=1
!
ki aij
j = 0
i=1
2.4.
35
respecto a la base 1 , 2 , . . . , n . Si
1
2
n
entonces
n
X
ck k =
k=1
n
X
= (b11 , . . . , b1n )
= (b21 , . . . , b2n )
..
.
= (bn1 , . . . , bnn )
k=1
es equivalente a
n
X
ck bkj = aj
j = 1, 2, . . . , n
(2.2)
k=1
luego para encontrar las componentes del vector con respecto a la base 1 , 2 , . . . ,
n debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distinto
de componentes en cada base pero tal juego es u
nico. En efecto, si
=
n
X
ci i =
i=1
n
X
c0i i
i=1
n
X
(ci c0i )i = 0
i=1
ck bkj = 0
j = 1, 2, . . . , n
(2.3)
k=1
Puesto que se espera que (2.3) solo tenga la solucion trivial necesariamente debe tenerse
que det(bij ) 6= 0. A la inversa, si det(bij ) 6= 0 entonces (2.3) solo tiene la solucion trivial
y
n
X
ck k = 0
k=1
n
X
k=1
a k ek
36
esto es, las componentes del vector con respecto a la base estandar coinciden con
las componentes de la n-tupla (a1 , a2 , . . . , an ). Esta es la u
nica base para la cual esto
sucede. Si hubiese una base para la cual ck = ak , k = 1, 2, . . . , n para todos los vectores
de Rn , esto debera ser cierto en particular para e1 , e2 , . . . , en .
Definamos el siguiente smbolo llamado delta de Kronecker
1 si i = j
ij =
0 si i 6= j
Entonces
n
X
ck k =
k=1
n
X
k=1
k=1
(2.5)
37
Definici
on 2.14 Sea 1 , 2 , . . . , r un sistema de vectores en Rn . Al n
umero de
vectores de un subsistema linealmente independiente maximal cualquiera se le llama
rango del sistema 1 , 2 , . . . , r .
Teorema 2.15 Sean
1 , 2 , . . . , r
(2.6)
1 , 2 , . . . , s
(2.7)
y
n
dos sistemas de vectores en R . Sea k el rango el primer sistema y l el rango del segundo. Si (2.6) es expresa linealmente mediante (2.7) entonces k l y si son equivalentes,
k = l.
Demostraci
on: Sea
i1 , i2 , . . . , ik
(2.8)
(2.9)
2.5.
i = 1, 2, . . . , r
i=1
ki aij = 0
j = 1, 2, . . . , n
(2.10)
i=1
= (0, 1, 1, 1)
= (2, 1, 1, 0)
= (1, 1, 1, 1)
38
Entonces
k1 (0, 1, 1, 1) + k2 (2, 1, 1, 0) + k3 (1, 1, 1, 1) = (0, 0, 0, 0)
es equivalente al sistema
k1
k1
k1
+
+
+
2k2
k2
k2
+ k3
+ k3
+ k3
k3
=
=
=
=
0
0
0
0
i = 1, 2, . . . , n
Este sistema de vectores son las columnas de A miradas como vectores en Rs . Llamaremos rango de la matriz A al rango del sistema 1 , 2 , . . . , n .
Es natural pensar que podramos haber usado las filas de A para dar la misma definicion, que en justicia deberamos hablar del rango fila de A y rango columna de A.
Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si se
eligen columnas o filas de A para dar la definicion de rango de A.
Sea k natural, sea k mn(s, n). Nos interesamos por los valores de k par los cuales
hay menores de orden k de la matriz A que son distintos de cero, en particular, por
el mayor de estos k. Diremos que k mn(s, n) es el mayor orden de menor no nulo
de la matriz A si hay un menor de orden k de A que es distinto de cero y todos los
menores de orden r, k < r mn(s, n) son iguales a cero. Por ejemplo, si
1 2 1 0
0 1 1 2
A=
0 3 2 1 ,
0 2 2 4
es claro que det A = 0 luego k < 4.
Consideremos el menor
1 2 1
0 1 1
0 3 2
1 1
=
3 2
= 2 3 = 5
luego k = 3.
Notese que si todos los menores de orden k de A son cero, todos los menores de orden
superior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j
mn(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.
Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rango
de A.
39
Demostraci
on: Sabemos que hay menor de orden r que es distinto de cero y que
todos los menores de orden superior valen cero. Supondremos (para simplificar la
notacion) que el menor formado por las r primeras filas y las r primeras columnas
de A es distinto de cero. Llamaremos D a este menor. Consideremos las r primeras
columnas de A como vectores de Rs . Sea
i = (a1i , a2i , . . . , asi ) ,
y supongamos que
r
X
i = 1, 2, . . . , r
ki i = 0, esto es,
j=1
r
X
i=1
En componentes se tiene
r
X
ki aji = 0
j = 1, 2, . . . , n
(2.11)
j=1
ki aji = 0
j = 1, 2, . . . , r
i=1
..
..
..
i = ...
.
.
.
A
a1l
a2l
..
.
arl
ail
j=1
40
y como D 6= 0 entonces
ail =
r
X
kj aij ,
kj =
j=1
Aj
,
D
j = 1, 2, . . . , r
(2.12)
2
1
A=
0
4
4
2
1
7
3
1
1
4
1
4
3
4
0
2
1
5
2 4
2 3
= 1 6= 0. Sea
podemos tomar por ejemplo D2 =
1 1
2 3
1
D3 = 1 1 4 = 12 6= 0
0 1 3
Calculemos los orlados de D3 .
2 3
1 1
O1 =
0 1
4 4
Ellos son
1 4
4 2
3
1
4 7
O2 =
2
1
0
4
3
1
1
4
1 0
4 2
3 1
4 5
41
2 1 2 3
A = 2 9 4 7
4 3 1 1
2 1
6= 0. Sus orlados son
y calculamos su rango. Claramente
2 9
O1
O2
2 1
2 9
4 3
2 1
2 9
4 3
=
3
7 =
1
2
4
1
0
2
0
10
9
15
0
2
0
10
9
15
= 2 10 6 = 0
15 9
10
10
10
7 = 2
=0
15 15
15
6
4
9
1 2
1
3
4 1 5 6
1 3 4 7
2 1 1 0
0
0
0
0
42
Queremos
saber si tiene soluciones distintas de la
1 2
=
D2 =
6 0. Sea
4 1
1 2
1 1
O1 = 4 1 5 = 0
1 3 4 0
Consideremos el
1 2
4 1
1 3
2 1
u
nico orlado de
1
3
5 6
=
4 7
1 0
O1 :
2
9
5
5
1
1
5
3
2
9
5
1
1
5
6= 0
9 1 18
= 5 5 10
0
2
4
9 1 18
18
0
2 = 10 1 0
0 1
2
2
3
18
10
6
9 1
= 10 1 1
0 1
1 18
= 200 6= 0
= 10
1
2
Luego el rango fila de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, al
aplicar el metodo de Gauss, ninguna puede desaparecer y el sistema queda en la forma
triangular y por lo tanto tiene solo la solucion trivial.
Nota: Podramos haber calculado directamente el determinante del sistema y haber
verificado que era distinto de 0 y por teorema previo, cuya demostracion depende de
la regla de Cramer, haber dicho de inmediato que tena solo la solucion trivial. Hemos
demostrado que se puede concluir lo mismo sin conocer la regla de Cramer.
2.6.
Equivalencia de matrices
43
(ki ci )i = 0
i=1
r
X
li
=
li i =
i
c
i=1
i=1 i
Definici
on 2.20 Diremos que dos matrices A y B son equivalentes si B proviene de
A a traves de una sucesi
on de transformaciones elementales.
Es evidente que una transformacion elemental es invertible, luego si B proviene de A
a traves de una sucesion de transformaciones elementales, entonces A proviene de B
a traves de una sucesion de transformaciones elementales. Es claro que dos matrices
equivalentes tienen el mismo rango.
Definici
on 2.21 Sea A matriz de s n. Diremos que A tiene la forma diagonal si
a11 = a22 = = arr = 1 (para alg
un r tal que 0 r mn(s, n)) y todos los dem
as
elementos son cero.
Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidad
vale 1) y todos sus menores de orden r + 1 son cero, su rango es r.
Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante una
sucesi
on de transformaciones elementales.
44
Demostraci
on: Si aij = 0 i, j ella tiene la forma diagonal. Si no es as, sin perdida
de generalidad podemos suponer que a11 = 1; en forma analoga al metodo de Gauss
aplicado a la primera columna llevamos la matriz A a la forma
A0 =
1
0
..
.
a12
a022
..
.
a13
a023
..
.
..
.
a1n
a02n
..
.
a0s2
a0s3
a0sn
luego, aplicando el metodo a la primera fila, esto es, restando a cada columna una
columna proporcional a la primera de modo que aparezcan ceros en la primera fila,
llevamos A0 a la forma
A00 =
1 0
0 a0022
..
..
.
.
0 a00s2
0
a0023
..
.
..
.
0
a002n
..
.
a00s3
a00sn
Si todos los a00ij son cero, A00 tiene la forma diagonal. Si alg
un a00ij es distinto de cero
00
aplicamos el metodo a la columna 2 y a la fila 2 de A . Es claro que el proceso termina
despues de un n
umero finito de pasos.
Se concluye que para calcular el rango de una matriz basta contar el n
umero de unos
que hay en su diagonal principal.
A=
0
1
3
0
2
2
4
1
5
3
4
5
7
10
0
A1 =
1
0
A3 =
0
0
0
1
0
A5 =
0
0
0
A7 =
1
3
2
0
0
4
1
3
1
1
5
7
0
2
2
4
11
5
1
0
5
22
10
2
0
4
1
0
0
0
5
2
0
0
0
1
0
0
0
0
0
1
0
0
0
0
0
0
0
0
45
A2 =
A4 =
1
3
2
0
0
4
1
3
1
0
1
0
0
0
0
4
1
1
1
0
1
0
A6 =
0
0
0
5
7
0
2
0
5
2
2
0
0 0
1 2
0 0
0 0
0 0
rango A = 2.
Ejemplo: Calcular el rango de
A=
A1 =
1
1
1
1
2
1
A3 =
1
2
2 1
3
1
1 0
1 2
2 2
1
0
0
0
0
0
1
1
4
1
1
1
2
1
3
1
2
0
1
2
3
1
1
2
6
0
1
2
7
5
2
5
8
4
3
1
6
2
5
2
5
1
2
1
6
1
1
3
2
1
1
0
2
2
6
0
1
2
7
5
2
5
8
4
3
1
A2 =
A4 =
1
1
1
1
2
1
1
0
0
0
0
0
1
3
4
2
1
1
2
3
3
2
2
0
1
0
0
0
0
0
1
1
4
1
1
0
2 6
1 2
3 5
2 5
0 1
0 0
6
6
5
4
5
1
2
1
6
1
3
0
2
3
6
2
1
3
46
1
0
0
A5 =
0
0
0
1
0
0
A7 =
0
0
0
A9 =
0
1
4
1
1
0
0
1
3
2
0
0
0
2
5
5
1
0
0
1
6
1
3
0
0
1
0
0
0
0
0
1
1
0
0
0
0
2
3
0
0
0
0
1
2
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
A6 =
A8 =
1
0
0
0
0
0
0
1
0
0
0
0
0
1
1
1
1
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
2
3
3
3
0
0
0
3
0
0
0
0
0
2
0
0
0
0
1
2
2
2
0
rango A = 3.
2.7.
2.7.1.
=
=
..
.
b1
b2
bs
(2.13)
es compatible si y s
olo si el rango de la matriz A del sistema es igual al rango de la
matriz ampliada A del sistema.
Demostraci
on: Supongamos que el sistema es compatible, sea (k1 , k2 , . . . , kn ) una
solucion. Reemplazando en (2.13) se tiene
n
X
air kr = bi
i = 1, 2, . . . , s
(2.14)
r=1
(b1 , b2 , . . . , bs )
j = 1, 2, . . . , n
47
Entonces
n
X
ki i
i=1
k1 (a11 , a21 , . . . , as1 ) + k2 (a12 , a22 , a32 , . . . , as2 ) + + kn (a1n , a2n , . . . , asn )
n
X
a1r kr ,
r=1
n
X
a2r kr , . . . ,
r=1
n
X
!
asr kr
r=1
ki i =
i=1
luego la u
ltima columna de A se expresa linealmente mediante las columnas de A (es
obvio que las demas tambien). Es claro que toda columna de A se expresa linealmente
Entonces ambos sistemas de columnas son equivalentes
mediante las columnas de A.
y por lo tanto tienen el mismo rango.
Si el rango de A es igual al de A cualquier sistema linealmente independiente maximal
de columnas de A es linealmente independiente maximal mirado como parte del sistema
Entonces la u
de columnas de A.
ltima columna de A se expresa linealmente mediante
un sistema linealmente independiente maximal de columnas de A y por lo tanto es
combinacion lineal de las columnas de A. Entonces hay n
umeros k1 , k2 , . . . , kn tales
que
n
X
ki i =
i=1
i=1
r
X
i aij = 0
j = 1, 2, . . . , n ,
i=1
r
X
r
X
i i = 0
i=1
i=1
=
=
..
.
b1
b2
br
(2.15)
48
=
=
..
.
ar1 x1 + + arr xr
(2.16)
5
2
1
5 1
=
Notese que
6 0,
2 1
5 1 2 1 3
2 1
4 = 2 1
1 3 6 1 3
6
4
6
1
1
3
2
4
6
= 0,
1
2
5
7
1
0
1
1
3
5 1 7 1 3 5 0
2 1 1 = 2 1 1 = 2
1 3 0 1 3 0 1
luego el rango de A es 3, el sistema es incompatible.
1
2
5
1
= 2
1
3
1
3
0 5
1 1 =
6 0
3 0
5
2
5
=0
7 3
1 2
4 9
7
Notese que
1
49
2
3
11
3
6 0 luego el rango de A es 2.
=
2
3
2
9
4
= 1
4
2
3
11
9
2
9
= 0,
11
3
11
1
Notese que
3
=
=
2
3
1
3
1
1
1
5
2
1
9
x1 =
1 1
4 3
8 1
5
,
17
x2 =
23
17
1
4
0
1
6 0 pero
=
1
1
3
1
1
3
1
1 1 2
= 0 4 7
0 4 7
1 1 1 1 1
1 4 = 0 4 7
5 8 0 4 7
1 1 1 1 1 1
3 1 3 = 0 4 0
1 5 1 0 4 0
1
1
5
2
1
9
luego el rango de A es 2.
1 1 1
3 1 4
1 5 0
1
= 0
0
1
4
4
1
1
1
= 0
= 0
= 0
= 0,
1 + 2x3 + x4 x5
3x1 x2
4 x3 4x4 3x5
50
Luego
x1
x2
Ejemplo: Resolver
1
(5 + x3 3x4 4x5 )
4
1
(1 7x3 7x4 )
4
4
1
2
3
Notese que
pero
4
1
2
3
1
2
5
3
2
1
0
1
1
2
1
3
1
2
5
3
1
2
5
2
1
0
2
1
0
1
1
2
1
3
2
= 1
2
2 1 1
1 2 = 4
0 1 4
3
2
1
1
5
2
5
2
3
2
0
1
0
1
0
0
=0
6= 0
4
1 2 1
7 4 3
7 4 3 0
2
= 2 4
2 4
2 0
15
6 7
15
6 7 0
15 12 11
15 12 11
2 = 2 4 2
= 2 4
15
0
6 7
18 4
15 12 11
0 18 4
2 1 = 4 1 2 1 = 0 ,
= 4 1
0
0
9
2
9
2
1 2 1
3
2 1 2
2
=
5
0
1 1
3 1 3 1
u
nico menor orlado de 4 4 en A es (el otro es el
1 2
0 5
0 10
0 5
1
4
4
6
3
8
16
8
5
= 10
5
4
4
6
8
16
8
=0
=
=
=
3 4x1
2 x1
1 2x1
x2 2x3 + x4
5x3 + x4
10x3 4x4
= 3 4x1
= 8 9x1
= 16 + 18x1
51
2.7.2.
x2 =
1
(1 2x1 )
5
Sistemas homog
eneos
= (a1 , a2 , . . . , an )
= (b1 , b2 , . . . , bn )
c1(r+1)
c1(r+2 )
c1n
c2(r+1)
c2(r+2)
c2n
d=
..
..
..
.
..
.
.
.
xr+2 = ci(r+2) ,
xn = cin ,
sea i = (ci1 , ci2 , , cir , ci(r+1) , , cin ) la solucion del sistema obtenida para dichos
valores de las incognitas independientes, 1 i n r.
52
(br+1 , br+2 , . . . , bn )
i = 1, 2, . . . , n r
0
Es claro que 10 , 20 , . . . , nr
son un sistema l.i. de vectores en Rnr y que en Rnr
0
0
0
el sistema 1 , 2 , . . . , nr , 0 es l.d., entonces hay n
umeros k1 , k2 , . . . , knr tales
que
0
0 = k1 10 + k2 20 + + knr nr
En Rn , sea
=
nr
X
ki i .
i=1
nr
X
ki i .
i=1
El sistema 1 , 2 , . . . , nr es maximal.
Ejemplo: Encuentre un sistema fundamental de
3 1
8
2
2 2 3
7
1 11 12 34
1 5
2
16
soluciones para
1 0
2 0
5 0
3 0
3 1 8
2
1
2 2 3 7 2
A1 =
0 0
0
0
0
1 5 2 16 3
En A1 permutamos la tercera fila y la cuarta:
3 1 8
2 2 3
A2 =
1 5 2
0 0
0
2
7
16
0
1
2
3
0
1
2
A3 =
1
0
5
2
5
0
2 16
3 7
2 16
0
0
3
2
3
0
1
2
A4 =
0
0
5
2
0
0
2
3
0
0
53
16
7
0
0
3
2
0
0
=
=
8x2
x2
1
2x1 (7x3 25x4 + 4x5 ) = 3x3 + 7x4 2x5
4
8x1 7x3 + 25x4 4x5 = 12x3 + 28x4 8x5
1
x1 =
(19x3 + 3x4 4x5 )
8
Tomemos d como
1 0 0
d = 0 1 0
0 0 1
Obtenemos
2.7.3.
19 7
, , 1, 0, 0)
8 8
3 25
( , , 0, 1, 0)
8
8
1 1
( , , 0, 0, 1)
2 2
(
nr
X
ki i .
i=1
Se concluye que , conocida una solucion del sistema, basta resolver el correspondiente
sistema homogeneo, ya que todas las soluciones del sistema original son de la forma
= solucion particular + una solucion del sistema homogeneo .
54
Captulo 3
Algebra
de matrices
Definici
on 3.1 Sean A = (aij ), B = (bij ) matrices de m n. A y B se dicen iguales
si
aij = bij
1im
1jn
Dos matrices son iguales si y solo si sus elementos correspondientes son iguales.
Definici
on 3.2 Sean A = (aij ), B = (bij ) matrices de m n. Llamaremos matriz
suma de A y B a la matriz de m n
A + B = (aij + bij )
Es trivial que la operacion suma de matrices tiene las siguientes propiedades:
i.- A + B = B + A
ii.- A + (B + C) = (A + B) + C
iii.- Existe una u
nica matriz de m n, la matriz 0 = (0ij ) donde 0ij = 0 para todo
1 i m, 1 j n, tal que A + 0 = A para toda matriz A de m n.
iv.- Dada una matriz A = (aij ) de m n, existe una u
nica matriz de m n
A = (aij )
tal que A + (A) = 0.
Definici
on 3.3 Sea A = (aij ) matriz de m n, k un n
umero arbitrario. Llamaremos
matriz producto de A por el n
umero k a
kA = (kaij )
Es trivial que la operacion multiplicacion de una matriz por un n
umero k tiene las
siguientes propiedades:
i.- 1 A = A
ii.- k1 (k2 A) = (k1 k2 )A
iii.- k(A1 + A2 ) = kA1 + kA2
iv.- (k1 + k2 )A = k1 A + k2 A
55
CAPITULO 3. ALGEBRA
DE MATRICES
56
3.1.
Producto de matrices
Definici
on 3.4 Sea A = (aij ) matriz de mn, B = (bij ) matriz de nq. Llamaremos
matriz producto de A y B a la matriz de m q
AB = (cij )
donde cij =
n
X
aik bkj
1 i m,
1 j q.
k=1
a11
Ejemplo: Sea A = a21
a31
a12
b11
a22 , B =
. Entonces
b21
a32
1 2
1 2
3 4
1 4
A=
, B=
AB =
, BA =
0 1
1 1
1 1
1 3
La operacion multiplicacion de matrices tiene las siguientes propiedades:
i.- Si k es un n
umero, A una matriz de m n, B matriz de n q, entonces
(kA)B = A(kB) = kAB
ii.- Si A es una matriz de m n, B y C son matrices de n q, entonces
A(B + C) = AB + AC
y si B y C son matrices de m n y A es matriz de n q, entonces
(B + C)A = BA + CA .
iii.- El producto de matrices es asociativo. Sean A = (aij ) de m n, B = (bij ) de
n q, C = (cij ) de q r, entonces
q
! q " n
# !
X
X X
(AB)C =
(AB)ik ckj =
ail blk ckj
k=1
n
X
l=1
ail
q
X
k=1
!
blk ckj
k=1
l=1
n
X
ail (BC)lj
l=1
!
= A(BC)
57
Demostraci
on: Sea A = (aij ), B = (bij ). Sea el determinante auxiliar de 2n 2n
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
0
0
..
.
0
0
..
.
..
.
an1
1
0
..
.
an2
0
1
..
.
..
.
ann
0
0
..
.
0
b11
b21
..
.
0
b12
b22
..
.
..
.
bn1
bn2
0
b1n
b2n
..
.
bnn
0
0
..
.
a1k bk1
a2k bk1
..
.
ank bk1
0
0
..
.
0
CAPITULO 3. ALGEBRA
DE MATRICES
58
La columna n + 2 de queda as:
n
X
k=1
n
X
a1k bk2
a2k bk2
k=1
n
X
..
.
ank bk2
k=1
0
0
..
.
0
Despues de n etapas se
a
11 a12
a
21 a22
..
..
.
.
=
a
n1 an2
1
0
0
1
..
..
.
.
0
0
tiene
..
a1n
a2n
..
.
ann
..
.
0
0
..
.
n
X
k=1
n
X
k=1
n
X
k=1
a1k bk1
a2k bk1
..
.
ank bk1
0
0
..
.
n
X
k=1
n
X
a1k bk2
a2k bk2
k=1
n
X
..
.
..
ank bk2
k=1
n
X
k=1
n
X
k=1
0
0
..
.
..
.
n
X
k=1
a1k bkn
a2k bkn
..
.
ank bkn
0
0
..
.
0
donde los elementos cij que estan en las filas 1,2,. . . , n y las columnas n + 1, n + 2,
. . . , 2n son de la forma
cij =
n
X
aik bkj
1 i n,
1jn
k=1
esto es, ellos son los elementos de la matriz AB. Desarrollando por Laplace pero
ahora por los menores de n n de las u
ltimas filas se tiene
= (1)n+1+n+2++n+n+1+2++n (1)n det AB
Pero
(n + 1 + n + 2 + + n + n + 1 + 2 + + n) + n = n2 + 2
n(n + 1)
+ n = 2n2 + 2n
2
59
analogamente IA = A.
Notese que I es u
nica. Si hubiese otra matriz I 0 de n n tal que AI 0 = I 0 A = A A
entonces
I
I0
= II 0 = I 0 I
= II 0 = I 0 I
3.2.
Matrices inversas
A = (Aji ) = .
..
..
..
..
.
.
.
A1n
A2n
Ann
1 0 1
Ejemplo: Sea A = 2 1 0 .
0 1 2
1 0
2
A11 =
= 2 A12 =
1 2
0
0 1
1
=1
A21 =
A22 =
1 2
0
0 1
1
= 1 A32 =
A31 =
2
1 0
0
= 4
2
1
=2
2
1
=2
0
A13
A23
A33
2 1
=2
=
0 1
1 0
= 1
=
0 1
1 0
=1
=
2 1
CAPITULO 3. ALGEBRA
DE MATRICES
60
Entonces
2
A = 4
2
Notese que
1 0 1
2 1 0
0 1 2
2
1 1
4 2
2
2 1 1
AA
A A
1
2
1
1
2
1
4
2
1 1
4 2
2 = 0
0
2 1 1
4
1 0 1
2 1 0 = 0
0 1 2
0
0
4
0
0
4
0
0
0
4
0
0
4
AA =
aik (A )kj =
aik Ajk
k=1
Si i = j,
mente,
n
X
aik Aik = d, si i 6= j,
k=1
k=1
n
X
k=1
A A=
n
X
!
Aki akj
k=1
n1
= dI
, si A es no singular, A tambien es no
3.3.
Representaci
on matricial de un sistema de ecuaciones
x1
x2
X= .
..
xn
la matriz de n 1 de las incognitas, sea
B=
b1
b2
..
.
bs
61
3.4.
k=1
k=1
Sea A = (aij ) matriz de mn, B = (bij ) matriz de np. Sea C = AB matriz de mp.
Teorema 3.8 rango C rango A, rango C rango B.
Demostraci
on: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 y
rango C = 0, el teorema se cumple.
Si rango B = p (todas las columnas son l.i.), como el rango de C no puede exceder el
n
umero de columnas de C se tiene rango C rango B.
Sea rango B = r, 0 < r < p. Para simplificar la notacion en la demostracion supongamos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hay
1 , 2 , . . . , r tales que
b1k
b11
b12
b1r
b2k
b21
b22
b2r
.. = 1 .. + 2 .. + + r ..
.
.
.
.
bnk
bn1
esto es,
bjk =
r
X
bn2
s bjs
bnr
j = 1, 2, . . . , n .
s=1
n
X
j=1
cik =
n
X
aij
j=1
esto es
c1k
c2k
..
.
cmk
r
X
s bjs =
s=1
r
X
s=1
= 1
c11
c21
..
.
cm1
n
X
aij bjs =
+ 2
s cis
1 i m,
s=1
j=1
n
X
c12
c22
..
.
cm2
+ + r
c1r
c2r
..
.
cmr
CAPITULO 3. ALGEBRA
DE MATRICES
62
n
X
ajk bki =
k=1
n
X
k=1
luego (AB)t = B t At .
Entonces C t = B t At luego rango C t rango At pero rango C t = rango C, rango At =
rango A luego rango C rango A.
Corolario 3.9 Sea A matriz de m n, B matriz no singular de n n, D matriz no
singular de m m. Entonces rango AB = rango A y rango DA = rango A.
Demostraci
on: rango AB rango A, pero A = A(BB 1 ) = (AB)B 1 luego rango A
rango AB. Analogamente para D.
El rango se preserva bajo multiplicacion por una matriz no singular.
Nota: En la demostracion del teorema no es necesario recurrir a la matriz traspuesta.
n
X
De la definicion del producto de matrices se tiene que cik =
aij bjk , i = 1, 2, . . . , n.
j=1
bjk
j=1
n
X
a1j
a2j
..
.
amj
bjk a1j
j=1
n
c1k
X
bjk a2j
c2k
=
j=1
.
..
..
.
cmk
b a
n
X
jk mj
j=1
Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas de
AB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistema
de columns de C se expresa linealmente mediante el sistema de columnas de A, por
teorema previo, rango C rango A.
Por otra parte, sea i fijo, entonces cij =
n
X
k=1
n
X
k=1
n
X
k=1
aik bk1 ,
n
X
k=1
aik bk2 , ,
n
X
!
aik bkp
k=1
Luego, en general, al pre - multiplicar una matriz B por una matriz A las filas de
AB son combinaciones lineales de las filas de B, el sistema de filas de C se expresa
linealmente mediante el sistema de filas de B luego rango AB rango B.
Captulo 4
Vectores en Rn
4.1.
Propiedades
Con el fin de estudiar los sistemas lineales de ecuaciones introdujimos una estructura
algebraica auxiliar a la cual designamos por Rn . Por el momento nos olvidaremos de
las operaciones de suma y multiplicacion por un n
umero y focalizaremos nuestro interes en el conjunto Rn a cuyos elementos llamaremos puntos.
Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn , llamaremos recta por P
y Q al siguiente conjunto de puntos de Rn :
{(z1 , z2 , . . . , zn ) : zi = xi + (yi xi ), i = 1, 2, . . . , n , < < }
Llamaremos segmento P Q a la totalidad de los puntos de la recta por P y Q para los
cuales 0 1.
Los puntos P y Q del segmento P Q se llaman los puntos extremos del segmento. El
segmento P Q se dice dirigido si a uno de los puntos extremos P , Q lo llamamos punto
inicial y al otro, punto final. Si el punto inicial es P el segmento dirigido se designa
componentes del vector QP . Dos vectores se dicen iguales si y solo si sus componentes
correspondientes son iguales. De acuerdo a esta definicion de igualdad de vectores,
dos vectores que difieren tanto en su punto inicial como en su punto final pueden ser
iguales, pero una vez elegido arbitrariamente el punto inicial P = (x1 , x2 , . . . , xn ), si
a1 , a2 , . . . , an son las componentes del vector, su punto final Q = (y1 , y2 , . . . , yn )
queda u
nicamente determinado por las ecuaciones
yi = xi + ai
i = 1, 2, . . . , n
63
CAPITULO 4. VECTORES EN RN
64
al vector P R cuyo punto inicial es P y cuyo punto final es R. Entonces P Q+ QR = P R.
Sea P = (x1 , x2 , . . . , xn ) entonces Q = (y1 , y2 , . . . , yn ) esta dado por
yi = xi + ai
i = 1, 2, . . . , n
i = 1, 2, . . . , n .
=0
o ~a = ~0
n
X
i=1
ai bi lo llamaremos
65
esto es, si existe una combinacion lineal no trivial de ellos que es igual al vector nulo.
En caso contrario diremos que son l.i. Las propiedades de la relacion de dependencia
o independencia lineal entre vectores son analogas a las definidas en Rn por lo tanto
no insistiremos en enunciarlas o demostralas, simplemente las usaremos.
Notaci
on: Llamaremos V al conjunto de los vectores en Rn premunido de las operaciones de suma y multiplicaci
on por un n
umero.
A los vectores ~e1 = {1, 0, . . . , 0}, ~e2 = {0, 1, . . . , 0}, . . . , ~en = {0, 0, . . . , 1} los llamaremos la base estandar de V . Ellos son claramente l.i.
4.2.
Subespacios de vectores en Rn
Definici
on 4.1 Sea L V , L 6= . Diremos que L es un subespacio de V si
i.- cada que ~a L y es un n
umero real arbitrario entonces ~a L.
ii.- cada que ~a, ~b L (~a y ~b no necesariamente distintos) entonces ~a + ~b L.
Nota: Si L es un subespacio, ~0 L.
Sean ~a1 , ~a2 , . . . , ~ap vectores en V . Sea
L = {~a : ~a =
p
X
i~ai , i R i = 1, 2, . . . , p} ,
i=1
esto es, el conjunto de todas las combinaciones lineales de los vectores ~a1 , ~a2 , . . . , ~ap .
Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que ~a1 , ~a2 , . . . , ~ap
n
X
H entonces
i~ai H luego L H. Se concluye que L es el subespacio mas peque
no
i=1
que contiene a los vectores ~a1 , ~a2 , ~a3 , . . . , ~ap . Diremos que L es el subespacio generado
por los vectores ~a1 , ~a2 , . . . , ~ap .
Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean ~a1 , ~a2 , . . . , ~ap vectores
arbitrarios en V , sea L el subespacio generado por ellos. Sean ~b1 , ~b2 , . . . , ~bq q vectores
l.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto ~a1 , ~a2 , . . . , ~ap
tal que el conjunto de los vectores restantes unido al conjunto ~b1 , ~b2 , . . . , ~bq tambien
genera a L.
CAPITULO 4. VECTORES EN RN
66
Demostraci
on: Demostraremos el teorema por induccion. Si ning
un vector ~b1 , ~b2 ,
~
. . . , bq se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y que
el teorema ha sido demostrado para los primeros q 1 vectores ~bi . Supongamos que
numeramos los vectores ~a1 , ~a2 , . . . , ~ap de manera tal que los vectores reemplazados
son ~a1 , ~a2 , . . . , ~aq1 , esto es, de modo tal que L sea generado por ~b1 , ~b2 , . . . , ~bq1 , ~aq ,
. . . , ~ap . Como ~bq L
q1
p
X
X
~bq =
i~bi +
i~ai
i=1
i=q
q1
p
q1
p
X
X
1~
1 X ~
1 X
1
i ~
i
bq
i b i
i~ai = ~bq
bi
~ai
q
q i=1
q i=q+1
q
q
i=1
i=q+1 q
q1
X
i~bi +
i=1
p
X
i~ai ,
i=q
q1
X
(i q
i=1
p
X
i
i ~
q
(i q )~ai .
)bi + ~bq +
q
q
q
i=q+1
n
X
i=1
~e1 , ~e2 , . . . , ~en . Aplicando la observacion anterior tomando a ~e1 , ~e2 , . . . , ~en como los
vectores dados, p = n, conclumos que cualquier conjunto de mas de n vectores en V
es l.d.; un conjunto l.i. de vectores en V puede contener a lo mas n vectores.
Esta observacion permite dar la siguiente
Definici
on 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay p
vectores l.i., 0 p n, y que cualquier conjunto de m
as de p vectores en L es l.d.
Diremos que L tiene dimension p. Si p = 0 entonces L = {0}.
Supongamos que L tiene dimension p > 0, sean ~a1 , ~a2 , . . . , ~ap vectores l.i. en L. Si
~b L, el conjunto ~a1 , ~a2 , . . . , ~ap , ~b es l.d., hay 1 , 2 , . . . , p , p+1 no todos nulos
tales que
p
X
i~ai + p+1~b = 0 .
i=1
67
i=1
entonces i = i , i = 1, 2, . . . , n (los vectores ~a1 , ~a2 , . . . , ~ap son l.i.). Cada ~b L tiene
una u
nica representacion en terminos de una base.
Teorema 4.4 Sea L el subespacio generado por los vectores ~a1 , ~a2 , . . . , ~aq . La dimensi
on de L es igual al n
umero m
aximo de vectores l.i. que hay entre los vectores ~a1 ,
~a2 , . . . , ~aq .
Demostraci
on: Sea p dicho n
umero maximo, supongamos que los vectores dados han
sido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores
~a1 , ~a2 , . . . , ~ap , ~ap+k , con 1 k q p, es l.d. luego ap+k es una combinacion lineal
de ~a1 , ~a2 , . . . , ~ap
p
X
(k)
i ~ai ; k = 1, 2, . . . , q p
(4.1)
~ap+k =
i=1
Sea ~b L, entonces ~b =
q
X
i=1
CAPITULO 4. VECTORES EN RN
68
~ak por ~b1 , ~b2 , . . . , ~bk de modo que el conjunto ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . , ~ap tambien
genera a L. Pero dim L = p luego, por el teorema anterior, ~b1 , ~b2 , . . . , ~bk , ~ak+1 , . . . ,
~ap es l.i.
Nota: Dados dos subespacios L1 , L2 , L1 L2 es siempre no vaco puesto que ~0
L1 L2 . Es claro que si ~a L1 L2 , ~a L1 y ~a L2 luego ~a L1 L2 y si
~a, ~b L1 L2 , ~a + ~b L1 y ~a + ~b L2 luego ~a + ~b L1 L2 . Conclumos que la
interseccion de dos subespacios es un subespacio.
Definici
on 4.6 Sean L1 , L2 subespacios de V . Llamaremos suma de L1 y L2 a
L = {~c : ~c = ~a + ~b, ~a L1 , ~b L2 }
Claramente ~0 = ~0 + ~0 luego L 6= .
Si ~c L, hay ~a L1 , ~b L2 tales que ~c = ~a + ~b. Pero ~a L1 , ~b L2 , y por
definicion ~c = ~a + ~b L.
Analogamente, si ~c1 y ~c2 L, hay ~a1 , ~a2 L1 , y ~b1 , ~b2 L2 tales que ~c1 = ~a1 + ~b1 ,
~c2 = ~a2 + ~b2 , entonces
~c1 + ~c2 = (~a1 + ~a2 ) + (~b1 + ~b2 ) ,
~a1 + ~a2 L1 , ~b1 + ~b2 L2 luego ~c1 + ~c2 L.
Se concluye que L es un subespacio en V llamado el subespacio suma de L1 y L2 , y se
denota por L = L1 + L2 .
Teorema 4.7 Sean L1 y L2 subespacios de V , dim L1 = p1 , dim L2 = p2 . Sea D =
L1 L2 , dim D = d. Sea S = L1 + L2 , dim S = s. Entonces p1 + p2 = d + s.
Demostraci
on: Sea ~a1 , ~a2 , . . . , ~ad una base de D. Extendemos esta base a una base
de L1 agregando vectores ~b1 , ~b2 , . . . , ~bq donde q = p1 d, y tambien la extendemos a
una base de L2 agregando ~c1 , ~c2 , . . . , ~cr donde r = p2 d.
Si ~a1 L1 entonces
~a1 =
d
X
i~ai +
q
X
i=1
i=1
d
X
r
X
i~bi
y si ~a2 L2 entonces
~a2 =
i~ai +
i=1
i~ci
i=1
Puesto que todo vector de S es de la forma ~a1 + ~a2 , todo vector de S es una combinacion lineal del conjunto de vectores ~a1 , ~a2 , . . . , ~ad , ~b1 , ~b2 , . . . , ~bq , ~c1 , ~c2 , . . . , ~cr .
Queremos demostrar que esta coleccion es l.i. Supongamos que
d
X
i=1
i~ai +
q
X
i=1
i~bi +
r
X
i=1
i~ci = ~0
r
X
i~ci =
i~ci L1 y como
i=1
d
X
r
X
69
i=1
r
X
i=1
i~ai . Por construccion la coleccion ~a1 , ~a2 , . . . , ~ad , ~c1 , ~c2 , . . . , ~cr es l.i.
i=1
i~ai +
i=1
q
X
i~bi = ~0
i=1
Nota: Es claro que para cada natural n hay un Rn y por lo tanto un V . Para n = 2,
V es lo que llamamos los vectores geometricos en el plano y para n = 3, V es lo
que llamamos los vectores geometricos en el espacio. De ahora en adelante a V lo
designaremos por V n .
Ejemplo: En V 4 sean
~a1
~a2
~a3
~a4
=
=
=
=
{3, 1, 1, 2}
{4, 1, 2, 3}
{10, 3, 0, 7}
{1, 1, 7, 0}
{2, 4, 3, 7}
{5, 2, 2, 1}
2
Sea
+ 4
2
+ 3
10
3
3
1
A=
1
2
4
1
2
3
+
7
10
3
0
7
=
=
=
=
1
1
7
0
0
0
0
0
CAPITULO 4. VECTORES EN RN
70
la matriz del sistema. Puesto que la cuarta fila es suma de las dos primeras ella tiene
el mismo rango que
3
4
10 1
1 1 3 1
A1 =
1 2 0 7
0
0
0
0
la cual tiene el mismo rango que
0
1
A2 =
0
0
1
1
3
0
2
1
6
0
1
3
3
0
3
la cual tiene rango 2, luego rango A = 2 y como
1
columnas de A son l.i.
4
6 0 las dos primeras
=
1
Se concluye que ~a1 , ~a2 es un sistema linealmente independiente maximal de la coleccion ~a1 , ~a2 , ~a3 , ~a4 , dim L1 = 2.
Supongamos que ~b1 + b2 = ~0
2 + 5
4 + 2
3 + 2
7
=
=
=
=
0
0
0
0
3
1
A=
1
2
la cual tiene el mismo rango que
0
1
A1 =
0
0
la cual tiene el mismo rango que
5
2
2
1
4
1
2
3
2
4
3
7
1
1
3
1
10 11
4 2
7 4
1 3
1 1
0 1
A2 =
0 3
0 1
4
10
7
1
2
11
4
3
71
1
0
A3 =
0
0
y que
1
0
A4 =
0
0
y que
1
0
A5 =
0
0
y trabajando por columnas
1 1
0 1
A6 =
0 0
0 0
2
1
0
1
1
1
0
0
4
10
37
9
2
11
37
8
1
1
0
0
4
10
1
9
2
11
1
8
1
1
0
0
4
10
1
0
2
11
1
1
2
11
,
1
1
1
0
A7 =
0
0
1
1
0
0
2
1
1
0
1 1
=
0 1
=1
2
11
1
1
El determinante de A7 es
det A7 = 0
0
1
1
0
11
1
1
4.3.
Variedades lineales
i = 1, 2, . . . , n ,
< < .
P R = P Q.
Como para cada valor de obtenemos un punto R de la recta, obtenemos el punto R
correspondiente al valor copiando al vector P Q con punto inicial P . Pero la totalidad de los vectores ~a es un subespacio de L de V n de dimension 1, luego podemos
pensar la recta como la totalidad de los puntos R obtenidos de copiar o aplicar el
CAPITULO 4. VECTORES EN RN
72
de ella. Entonces hay ~z L tal que ~z = P Z. Tambien hay ~q L tal que ~q = P Q. Pero
X
P0 P =
yi~ai .
i=1
73
Definici
on 4.8 Diremos que el punto P0 y la base ~a1 , ~a2 , . . . , ~ap de L constituyen un
sistema afn de coordenadas en M cuyo origen es P0 y tal que las direcciones de los
ejes coordenados est
an dadas por ~a1 , ~a2 , . . . , ~ap . Lo anotaremos por (P0 , ~a1 , ~a2 , . . . , ~ap ).
Diremos que el juego de n
umeros y1 , y2 , . . . , yp son las coordenadas del punto P M
con respecto al sistema de coordenadas (P0 , ~a1 , ~a2 , . . . , ~ap ).
Es as como cada punto P M puede ser representado por una p-tupla (y1 , y2 , . . . , yp )
de n
umeros reales y es claro que dado el sistema de coordenadas la correspondencia
entre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P0 , o la base de L
o ambos, el mismo punto P M esta representado por otra p-tupla de n
umeros reales.
Teorema 4.9 Sean P0 , P1 , . . . , Pp puntos en Rn tales que ellos no est
an todos en
ninguna variedad lineal de dimensi
on menor que p. Entonces existe una u
nica variedad
lineal M de dimensi
on p que los contiene.
(k)
(k)
(k)
Demostraci
on: Sean Pk = (x1 , x2 , . . . , xn ), k = 0, 1, . . . , p, tales que no estan
P0 P =
~k
p
X
(0)
(0)
k
~ k = {x1 x1 , x2 x2 , . . . , xn x(0)
n }
k=1
(k)
{x1
(0)
(0)
(k)
(0)
x1 , x2 x2 , . . . , x(k)
n xn }
k = 1, 2, . . . , p
luego
(0)
(0)
{x1 x1 , x2 x2 , . . . , xn x(0)
n }
p
X
(k)
(0)
(k)
k=1
p
X
(
=
(0)
(0)
k {x1 x1 , x2 x2 , . . . , x(k)
n xn }
(k)
k (x1
(0)
x1 ), . . . ,
k=1
p
X
k=1
xi xi
xi
=
=
p
X
k=1
p
X
k=1
(k)
(0)
k (xi
xi )
(k)
k xi
(0)
xi
i = 1, 2, . . . , n
p
X
k=1
!
k
)
k (x(k)
n
x(0)
n )
CAPITULO 4. VECTORES EN RN
74
Llamamos 0 = 1
n
X
k entonces
k=1
p
X
k = 1 y
k=0
xi =
p
X
(k)
k xi
i = 1, 2, . . . , n
(4.2)
k=0
Si P M , existen n
umeros reales 0 , 1 , . . . , p tales que
p
X
k = 1 y las coordenadas
k=0
p
X
k=0
coordenadas estan dadas por (4.2) esta en la variedad M porque el punto determinado
por
p
X
k
~k
P0 P =
k=0
esta en M .
Se concluye que los puntos de M estan determinados por (4.2) de modo que a cada
p
X
k = 1 le corresponde exactamente un
juego de n
umeros 0 , 1 , . . . , p tales que
punto de M .
k=0
0
que P0 P =
~ esta en M , por razon analoga esta en M luego P D. A la inversa,
Definici
on 4.10 Sean M y M 0 dos variedades lineales, sean L y L0 dos subespacios
que las generan. Diremos que M y M 0 son mutuamente paralelas si L L0 o bien
L0 L.
Teorema 4.11 Sean M y M 0 variedades lineales mutuamente paralelas. Entonces M
M 0 = o bien M M 0 o M 0 M .
Demostraci
on: Supongamos que M M 0 6= , sea L L0 , entonces L L0 = L luego
0
M M es la variedad lineal obtenida aplicando L en un punto de la interseccion.
Como todos los puntos de M son equivalentes, M M 0 = M luego M M 0 .
Ejemplo: Demuestre que tres vectores en V 3 son l.d. si y s
olo si ellos son paralelos
a un mismo plano.
75
~ R esta en M , entonces ,
~ ~ son paralelos a M . Por otro lado
P0 R = .
~ es de la
forma
~ = , en forma analoga a ~ , tambien
~ es paralelo a M .
~y
Caso 2: Si ~ y ~ son l.i., sea P0 R3 arbitrario, sea L el subespacio generado por
~y
~ . Sea M el plano obtenido de aplicar L en P0 . Como
~ es combinacion lineal de
~ ~ son paralelos a M .
~ ,
~ L, luego
~ , ,
Ejemplo: Sea M una variedad lineal en Rn , sean P , Q puntos de M . Demuestre que
la recta por P y Q est
a contenida en M . A la inversa, sea M tal que si R y S pertenecen
a M , la recta por R y S est
a contenida en M . Demuestre que M es una variedad lineal.
Sea P = (x1 , x2 , . . . , xn ), sea Q = (y1 , y2 , . . . , yn ), sea L el subespacio que genera a M .
L = {~
Vn :
~ = P0 P , P M }
tal que
~ = P0 P . El punto que resulta de aplicar ~
en P0 esta en la recta por P0 y
P , luego por hipotesis esta en M . Por lo tanto ~
L.
~
por P S = 21 P R, punto que esta en la recta por P y R y que por lo tanto esta en M .
Finalmente sea T tal que P0 T = 2P0 S. T esta en la recta que une P0 con S luego
esta en M , y ademas
1 1
~ = ~
P0 T = 2(P0 P + P S) = 2( P0 P + (P0 P + P R)) = (~
+ P0 R) = (~
)
2
2
CAPITULO 4. VECTORES EN RN
76
luego ~ L.
PR =
PQ.
+
P0 S =
=
=
(P P0 + P0 Q)
+
( + )~
~
+
~
~
+ = ~
( + )P0 P +
luego ~ L.
Por lo tanto, L es un subespacio de V n y M es una variedad lineal de Rn .
Ejemplo: Sea M una variedad lineal en Rn de dimensi
on menor que n, sea P0 un
punto fuera de M . Sea N el conjunto de los puntos de Rn que est
an sobre alguna recta
que une un punto de M con P0 . ? Es N una variedad lineal?
Sea p = dim M , p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es la
recta que une ese punto con P0 , luego N es una variedad lineal.
No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es una
variedad lineal, sea L el subespacio que genera a M , L0 el subespacio que genera a
N . Sea R0 un punto arbitrario de M , podemos pensar en M como la variedad que
resulta de aplicar L en R0 . Como p > 0 es posible encontrar un punto R M , tal que
~=
R 6= R0 . Hay entonces un vector ~ L tal que
R0 R. Claramente M N luego
~ = P0 R0 y P0 R =
~ +
R0 S = ,
sea T dado por
~
P0 T = P0 S = (P0 R0 + R0 S) = ~
+
~ L0 . Como
T esta en la recta que pasa por P0 y S luego T N , entonces ~
+
~ +
P 0 Q = 2
esta en N . Luego Q esta en la recta que une a P con un punto Z M y como R0 6= R
para alg
un real se tiene que P0 Q = P0 R. Pero P0 R0 + R0 R = P0 R. Como
!
p
p
X
X
R0 R =
ai
~i ,
P0 Q =
~0 +
ai
~i
i=1
i=1
77
p
X
luego P0 Q =
bi
~ i . Sea L0 el subespacio de dimension p + 1 generado por
~ 0,
~ 1,
i=0
~ 2, . . . ,
~ p . Entonces Q se obtiene aplicando un vector de L0 en P0 .
~ =
A la inversa, sea
p
X
~ en P0 y sea
bi
~ i un vector cualquiera de L0 , apliquemos
i=0
~=
Q Rn tal que
P0 Q. Consideremos la recta por P0 y Q. Sea R un punto arbitrario
~=
de dicha recta, entonces P0 R =
P0 R0 + R0 R luego
p
i=0
i=1
X
X
R0 R =
bi
~i
~ 0 = (b0 1)~
0 +
bi
~i .
~ L, luego Q esta en la variedad que resulta de copiar L en P0 y por lo
Si b0 = 0,
tanto esta en N 0 . Si b0 6= 0, para = b10 se tiene que R M luego Q N .
Ejemplo: Sea M una variedad lineal en Rn de dimensi
on menor que n, sea P0 un
punto fuera de M , sea un real fijo. Sea N Rn tal que S N si y s
olo si hay
P0 Q = (P0 Q0 + Q0 Q) = P0 S0 +
~
luego P0 S = P0 Q y S N .
Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S0 .
Ejemplo: Sean L1 y L2 rectas distintas en Rn . Sean P y Q puntos arbitrarios de L1
y L2 respectivamente. Sea L la recta por P y Q. Considere la uni
on M de todas las
rectas L (consideradas como conjuntos de puntos en Rn ). Es M una variedad lineal?
~ la direccion de L2 . Supongamos que
Caso 1: L1 L2 6= . Sea
~ la direccion de L1 y
hay mas de un punto en la interseccion, por ejemplo O1 y O2 . Entonces hay 1 , 2 ,
1 y 2 tales que
P0 O1 = 1
~
Q0 O1 = 1 ~
P0 O2 = 2
~
~
Q0 O2 = 2
O1 O2 = (2 1 )~
~
O1 O2 = (2 1 )
CAPITULO 4. VECTORES EN RN
78
P L1 y alg
un Q L2 se tiene P R = rP Q. Como P L1 y Q L2 hay y tales
~ entonces
que OP = ~
y OQ = ,
OR =
OR + rOP =
OR =
OP + P R = ~
+ rP Q
~
~
+ rOP + rP Q = ~
+ r
~
~
r~
+ r~ = (1 r)~
+ r
A la inversa, sea ~ = ~
+ ~ y apliquemos ~ en O. Sea R tal que OR = ~ . Si ~ = 0,
R = O y entonces R M (O pertenece a la recta que lo une con alg
un punto de L1
distinto de el, considerando O como punto de L2 ). Si = 0 pero 6= 0, R mismo
esta en L1 , y esta en la recta que lo une con O, lo cual demuestra que R M (considerando O como punto de L2 ).
~ p
OZ = OP + P Z = ~
+ tP R = ~
+ t(~ p
~ ) = ~
+ t[~
+
~]
Z L2 si y solo si + t( p ) = 0 luego hay un u
nico Z0 en la recta por P y R que
esta sobre L2 . Se concluye que R esta sobre la recta por P y Z0 , esto es, R M . Por
lo tanto, M es la variedad lineal obtenida aplicando H en O.
~ Sean O1 L1 , O2 L2 puntos fijos de L1 y L2
Caso 2: L1 y L2 son paralelas,
~ = .
O1 R = ~
+ r{~ + ( )~
} ,
si H es el subespacio generado por
~ y ~ , R se obtiene aplicando un vector de H en O1 .
Analogamente al primer caso, al aplicar un vector ~ H en O1 obtenemos un punto
de M . M es la variedad lineal obtenida de aplicar H en O1 .
Caso 3: L1 y L2 se cruzan. Si M fuese una variedad de dimension dos, ella es un
plano que contiene a L1 y L2 . Entonces L1 y L2 seran coplanares y no paralelos luego
tendran un punto com
un, as que M no puede ser una variedad de dimension dos. Sea
79
~ y ~ luego
que contenga a M debe tener un subespacio generador que contenga a
~,
0
0
0
ella necesariamente debe ser M . Si M M y M 6= M ella no puede tener dimension
tres. Es obvio que M no puede tener dimension mayor que tres porque M M 0 . Se
concluye que M no es una variedad lineal.
4.4.
Subespacios de soluciones
~ = {z1 x1 , z2 x2 , . . . , zn xn } L .
~
~
Pero
~ + (
~ ) = OQ y
~ en P .
M es la variedad lineal de dimension n r obtenida aplicando L en una solucion
P Rn arbitraria del sistema no homogeneo.
Teorema 4.12 Sea L un subespacio de V n . Entonces existe un sistema lineal homogeneo con n inc
ognitas tal que L es su espacio de soluciones.
Demostraci
on: Sea p = dim L. Sea
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , p una base
de L, sea ~x = {x1 , x2 , . . . , xn }. Considere el sistema
~ i ~x =
n
X
j=1
aij xi = 0
i = 1, 2, . . . , p
(4.3)
CAPITULO 4. VECTORES EN RN
80
La matriz de (4.3) tiene rango p. Sea
p
X
j
~ j L, sea ~x una solucion de (4.3).
j=1
Entonces
~x
p
X
j
~j =
j=1
p
X
j (~x
~ j) = 0 ,
j=1
i = 1, 2, . . . , n p
(4.4)
~2 , . . . ,
~np son en particular ortogonales a
Pero ~1 ,
~ 1,
~ 2, . . . ,
~ p luego
~1
~i = 0 ,
~2
~i = 0 ,
... ,
~np
~i = 0
i = 1, 2, . . . , p
(4.4) es un sistema homogeneo cuyas soluciones son todos los vectores ortogonales a
L0 luego su espacio de soluciones tiene dimension p. Como
~ 1,
~ 2, . . . ,
~ p son l.i. y
estan en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.
Para resumir: Sea L un subespacio de V n de dimension p, sea L0 el subespacio de V n
~1 ,
~2 ,
que consta de todos los vectores ortogonales a L. L0 tiene dimension n p. Si
~np es una base de L0 vemos que el sistema
...,
~i ~y = 0
i = 1, 2, . . . , n p ,
~y = {y1 , y2 , . . . , yn }
=
=
..
.
0
0
(4.5)
81
= b1
= b2
..
.
(4.6)
= bm
82
CAPITULO 4. VECTORES EN RN
Captulo 5
Consideraciones sobre
distancia y volumen en Rn
5.1.
M
etrica euclidiana
Definici
on 5.1 Sean P = (x1 , x2 , . . . , xn ), Q = (y1 , y2 , . . . , yn ) puntos de Rn . Llamaremos distancia entre P y Q a
"
PQ =
n
X
# 12
(yi xi )2
i=1
i = 1, 2, . . . , n
<<
Nota: Sea
~ = P Q = {y1 x1 , y2 x2 , . . . , yn xn }. La longitud del segmento dirigido
Definici
on 5.3 Sea
~ = {a1 , a2 , . . . , an } un vector de V n . Llamaremos longitud del
vector
~ a
n
! 12
X
,
k~
k =
a2i
i=1
k~
k se llama la norma de
~.
Notese que k~
k = 0 sii sus puntos extremos coinciden, esto es, k~
k = 0 sii
~ = ~0.
83
84
~ k~
~
Teorema 5.4 (Desigualdad de Cauchy-Schwarz) |~
|
kkk
~ = 1. Como
Demostraci
on: Supongamos primero que k~
k = kk
~ V n se tiene
2
k~
k =
~
~ 0, entonces
~
~
~
~ 2 2~
~ + k~
k
~ k2 = (
~ ) (
~ ) = kk
k2 0
luego
~ ~ 1
(5.1)
~
Hay igualdad en (5.1) sii
~ = .
~
Sean
~ , ~ vectores arbitrarios distintos de ~0, por (5.1)
k~
k
1 luego
~
kk
~ k~
~
~
kkk
(5.2)
~
Si
~ y
entonces
igualdad
~ k~
~
(~
)
kkk
~
~
~
~
~
~
son tales que |~
| = k~
kkk entonces
=1
= 1. Si
~
~
k~
k kk
k~
k kk
~
~
~
~
~
(~
)
~
~
=
, si
= 1,
= 1 y
=
. Hay
~
~
~
~
k~
k
k~
k kk
k~
k kk
k~
k
kk
kk
k~
k ~
sii
~ =
.
~
kk
~
Demostraci
on: Sean P Q =
~ , QR = ,
entonces P R = P Q + QR luego
PR
PR
~ 2 = (~
~ (~
~ = k~
~ + kk
~ 2
= k~
+ k
+ )
+ )
k2 + 2~
~ + kk
~ 2 = (k~
~ 2
k~
k2 + 2k~
kkk
k + kk)
~ = P Q + QR
k~
k + kk
~ V n entonces
Nota: Hemos demostrado mas que eso, si
~,
~ k~
~
k~
+ k
k + kk
Cuando se produce igualdad?
Supongamos que Q pertenece al segmento P R. Sea P = (x1 , x2 , . . . , xn ), R = (z1 , z2 , . . . , zn ).
Entonces Q = (y1 , y2 , . . . , yn ) es tal que
yi = xi + (zi xi )
i = 1, 2, . . . , n
01
5.2. VOLUMENES
Y DETERMINANTES
85
Pero
zi yi = zi xi (yi xi ) = (1 )(zi xi )
i = 1, 2, . . . , n
n
! 12
n
! 12
X
X
2
2
P Q + QR = ||
(zi xi )
+ |1 |
(zi xi )
= PR
i=1
i=1
porque 0 1 entonces || = , |1 | = 1 .
A la inversa, si hay igualdad y alguno entre P Q y QR es el vector cero, entonces P = Q
PQ
QR
=
kP Qk
kQRk
yi
yi
(zi yi )
i = 1, 2, . . . , n
xi + zi
i = 1, 2, . . . , n
1+
xi +
(zi xi )
0<=
< 1,
+1
+1
~
.
~
k~
kkk
ortogonales.
5.2.
Vol
umenes y determinantes
C
P
Pero
AE = 1 AB
AF = 2 AD
0 1 1
0 2 1
86
Luego AP = 1 AB + 2 AD, 0 1 , 2 1.
0 i 1, i = 1, 2, . . . , n en A. Diremos que
~ 1,
~ 2, . . . ,
~ n son las aristas del
paralelotopo.
Nuestro objetivo es definir el volumen de un paralelotopo n-dimensional, para esto
revisamos las propiedades esenciales que la nocion tiene en dos y tres dimensiones.
En primer lugar, debe ser invariante a traslaciones; por definicion, el paralelogramo
y el paraleleppedo son generados trasladando el punto fijo A mediante los vectores
1
~ 1 + 2
~ 2 , 1
~ 1 + 2
~ 2 + 3
~ 3 . Pedir que el volumen del paralelotopo sea invariante a traslaciones es, en otras palabras, que area y volumen deben ser independientes
de la eleccion del punto A. Si elegimos otro punto, digamos B, el paralelogramo (paraleleppedo) resultante debe tener la misma area (volumen). Paralelogramos que tienen
los mismos lados deben tener la misma area, paraleleppedos con las mismas aristas
deben tener el mismo volumen.
El volumen del paralelotopo n-dimensional debe ser solo una funcion de las aristas, lo
anotaremos como V (~
1 ,
~ 2, . . . ,
~ n ).
Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectores
de la base estandar le asignaremos el volumen 1, esto es
V (~e1 , ~e2 , . . . , ~en ) = 1
En Rn eucldeo, los vectores ~e1 , ~e2 , . . . , ~en tienen longitud uno y aristas mutuamente
ortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma longitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.
Es claro que debemos exigir V (~
1 ,
~ 2, . . . ,
~ n ) 0.
Paralelogramos equivalentes (bases de igual longitud y misma altura) tienen la misma
area, paralelelpedos equivalentes (bases de igual area y misma altura) tienen el mismo
5.2. VOLUMENES
Y DETERMINANTES
87
a
a+
E
ABCD y ABEC son equivalentes. Los paralelogramos cuyas aristas son
~ 1,
~2 y
~ 1,
~1 +
~ 2 tienen la misma area.
a2
A
a1
H
a3
a1
+a
a2
A
Los
paraleleppedos
ABCDEF GH
y
ABCDF KLG son equivalentes. Los paraleppedos cuyas aristas son
~ 1,
~ 2,
~3 y
~ 1,
~ 2,
~1 +
~ 3 tienen el mismo volumen.
a1
V (~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = V (~
1 ,
~ 2, . . . ,
~i +
~ k, . . . ,
~ n)
donde k 6= i, 1 k n.
Si en un paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ n reemplazamos la arista
~ i, 1 i n
por
~i +
~ k , 1 k n, k 6= i, el nuevo paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ i +~
k ,
...,
~ n tiene el mismo volumen que el original.
la2
D
a2
A
Area ABCD
AD
k~
2 k
1
=
=
=
Area ABEF
k~
2 k
||
AF
a1
V (~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = ||V (~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n)
Si en un paralelotopo de aristas
~ 1,
~ 2, . . . ,
~ n reemplazamos la arista
~ i por ~
i el
volumen queda multiplicado por ||.
En resumen, definiremos el volumen de un paralelotopo n-dimensional de aristas
~ 1,
~ 2, . . . ,
~ n como una funcion real V (~
1 ,
~ 2, . . . ,
~ n ) tal que
i.- V (~
1 ,
~ 2, . . . ,
~ n) 0
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = V (~
1 ,
~ 2, . . . ,
~i +
~ k, . . . ,
~ n)
ii.- V (~
i 6= k
iii.- V (~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = ||V (~
1 ,
~ 2, . . . ,
~ n)
iv.- V (~e1 , ~e2 , . . . , ~en ) = 1
Queremos demostrar que tal funcion existe y es u
nica. Quitemos la restriccion de que
los vectores
~ 1,
~ 2, . . . ,
~ n deben ser l.i. y permitamos que cualquier n-tupla de vectores de V n pueda ser argumento de la funcion V (~
1 ,
~ 2, . . . ,
~ n ). Con este proposito
88
i 6= k
ii.- D(~
1 ,
~ 2 , . . . , ~
i , . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n)
iii.- D(~e1 , ~e2 , . . . , ~en ) = 1
Sean
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sea A a matriz de n n cuyas filas son los
vectores
~ i . No es difcil demostrar, usando i), ii) y iii) que D(~
1 ,
~ 2, . . . ,
~ n ) goza de
las mismas propiedades que las de las filas (columnas) de det A, a saber:
i.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ i + ~
k , . . . ,
~ n)
ii.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~i +
n
X
i 6= k, real.
k
~ k, . . . ,
~ n ).
k=1,k6=i
iii.- Si
~ i = 0, 1 i n, D(~
1 ,
~ 2, . . . ,
~ n ) = 0.
~ 1,
~ 2, . . . ,
~ n son l.d., D(~
1 ,
~ 2, . . . ,
~ n ) = 0.
iv.- Si
v.- D(~
1 ,
~ 2, . . . ,
~ i, . . . ,
~ k, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ k, . . . ,
~ i, . . . ,
~ n ).
~ + ~ ,
~
vi.- D(
~ 2, . . . ,
~ n ) = D(,
~ 2, . . . ,
~ n ) + D(~ ,
~ 2, . . . ,
~ n ).
vii.- Sea
~i =
r
X
ik , i = 1, 2, . . . , n
k=1
D(~
1 ,
~ 2, . . . ,
~ n) =
r
X
D(11 , 22 , 33 , . . . , nn ) .
1 ,...,n =1
~ 1,
~ 2, . . . ,
~ n son l.i., D(~
1 ,
~ 2, . . . ,
~ n ) 6= 0.
viii.- Si
Tenemos que demostrar que existe una funcion que satisface las propiedades i), ii) y
iii) y que es u
nica. La demostracion se hace por induccion y no la entregaremos porque
excede el ambito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:
Si existe un funcion D(~
1 ,
~ 2, . . . ,
~ n ) que satisface i), ii), iii) ella debe tener una
cierta forma, luego se verifica que la funcion de la forma obtenida satisface i), ii), iii)
lo cual prueba la existencia de D(~
1 ,
~ 2, . . . ,
~ n ). Finalmente, usando vii) y viii) se
obtiene una expresion explcita de D(~
1 ,
~ 2, . . . ,
~ n ) la cual coincide con la definicion
de det A. Entonces D(~
1 ,
~ 2, . . . ,
~ n ) = det A. A D(~
1 ,
~ 2, . . . ,
~ n ) la llamaremos funcion determinante.
Esto u
ltimo prueba que si H(~
1 ,
~ 2, . . . ,
~ n ) es otra funcion que satisface i), ii), iii)
entonces ella tiene necesariamente la misma forma que D(~
1 ,
~ 2, . . . ,
~ n ) y como satisface las propiedades vii), viii), H(~
1 ,
~ 2, . . . ,
~ n ) = det A.
Definamos V (~
1 ,
~ 2, . . . ,
~ n ) = |D(~
1 ,
~ 2, . . . ,
~ n )|.
5.2. VOLUMENES
Y DETERMINANTES
89
1 si D > 0
0 si D = 0
sgn D =
1 si D < 0
Consideremos V (~
1 ,
~ 2, . . . ,
~ n )sgn D(~
1 ,
~ 2, . . . ,
~ n ). Queremos demostrar que ella
satisface las propiedades i), ii), iii) de la funcion determinante.
Ni V (~
1 ,
~ 2, . . . ,
~ n ) ni sgn D(~
1 ,
~ 2, . . . ,
~ n ) cambian cuando se reemplaza
~ i por
~i +
~ k luego satisface i).
Como (sgn a)(sgn b) = sgn (ab), al reemplazar
~ i por ~
i la funcion queda multiplicada por ||sgn = luego satisface ii). Es claro que satisface iii). Entonces
V (~
1 ,
~ 2, . . . ,
~ n )sgn D(~
1 ,
~ 2, . . . ,
~ n ) = D(~
1 ,
~ 2, . . . ,
~ n)
Si D(~
1 ,
~ 2, . . . ,
~ n ) 6= 0,
V (~
1 ,
~ 2, . . . ,
~ n )(sgn D(~
1 ,
~ 2, . . . ,
~ n ))2
sgn D(~
1 ,
~ 2, . . . ,
~ n )D(~
1 ,
~ 2, . . . ,
~ n)
|D(~
1 ,
~ 2, . . . ,
~ n )| ,
~ n son l.d., pero cualquier funcion que satisface las propiedades ii) y iii) de la funcion determinante es 0 si los vectores
~ 1,
~ 2, . . . ,
~ n son l.d. Como V (~
1 ,
~ 2, . . . ,
~ n)
las satisface, V (~
1 ,
~ 2, . . . ,
~ n ) = 0 si los vectores
~ 1,
~ 2, . . . ,
~ n son l.d. Entonces
|D(~
1 ,
~ 2, . . . ,
~ n )| es la u
nica funcion que satisface las propiedades i), ii), iii), iv)
exigidas al volumen.
Definici
on 5.8 Definimos como volumen de un paralelotopo n-dimensional en Rn
eucldeo a
V (~
1 ,
~ 2, . . . ,
~ n ) = |D(~
1 ,
~ 2, . . . ,
~ n )|
90
Captulo 6
Sistemas de coordenadas
Recordemos la definicion (4.8). Sea M una variedad lineal, P0 un punto de M y L el
subespacio que la genera, supongamos L tiene dimension p > 0. Si
~ 1,
~ 2, . . . ,
~ p es
una base de L y P un punto arbitrario de M , podemos escribir (de manera u
nica)
p
X
yi
~i
P0 P =
i=1
Decimos que y1 , y2 , . . . , yp son las coordenadas del punto P con respecto al sistema de
coordenadas [P0 ;
~ 1,
~ 2, . . . ,
~ p ]. Puesto que Rn es una variedad lineal n-dimensional,
~n es una base de V n y Q Rn , para cada P Rn podemos escribir
si ~1 , ~2 , . . . ,
(de manera u
nica)
n
X ~
QP =
x i
i
i=1
OP =
=
=
{x1 0, x2 0, . . . , xn 0} = {x1 , x2 , . . . , xn }
x1 {1, 0, . . . , 0} + x2 {0, 1, . . . , 0} + + xn {0, 0, . . . , 1}
n
X
xi~ei .
i=1
Con respecto al sistema de coordenadas [O; ~e1 , ~e2 , . . . , ~en ], las coordenadas de P coinciden con los elementos de la n-tupla (x1 , x2 , . . . , xn ).
~2 , . . . , ~n ] un sistema de coordenadas en Rn , sea
Definici
on 6.1 Sea [Q; ~1 ,
~ =
n
X
~i (en forma u
{a1 , a2 , . . . , an } un vector de V n . Entonces
~ =
ai
nica). Direi=1
92
i=1
i=1
i=1
X
X
X
~i +
~i =
P R = P Q + QR =
xi
yi
(yi xi )~i
~ =
luego P R tiene componentes (yi xi ), i = 1, 2, . . . , n en el sistema dado. Si
n
n
X
X
~i luego ~
ai ~i , ~
=
(ai )
tiene componentes ai , i = 1, 2, . . . , n en el
i=1
i=1
~=
sistema dado. Si
n
X
~i entonces
bi
i=1
~ + ~ =
n
X
(ai + bi )~i ,
i=1
n
X
aik ~k , sea
k=1
(aik ) =
a11
a21
..
.
a12
a22
..
.
..
.
a1n
a2n
..
.
am1
am2
amn
Llamamos
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n y supongamos que
Entonces
m
X
m
X
i
~ i = ~0.
i=1
i aik
i=1
m
X
i
~i =
i=1
m
X
i=1
n
X
!
~k
aik
k=1
m
n
X
X
k=1
!
i aik
~k = ~0 .
i=1
m
X
i
~ i = 0, entonces
i=1
m
n
X
X
k=1
i=1
!
i aik
~k = 0
m
X
i=1
i aik = 0
k = 1, 2, . . . , n
DE COORDENADAS
6.1. TRANSFORMACION
93
6.1.
Transformaci
on de coordenadas
~1 , ~2 , . . . ,
~n ], y [Q00 ; ~1 , ~2 , . . . , ~n ] dos sistemas de coordenadas
Problema: Sean [Q0 ;
n
n
en R . Sea P R y supongamos que se conocen las coordenadas de P en el primer
sistema. Se piden las coordenadas de P en el segundo sistema.
Sean
n
X
0
~i
Q Q00 =
si
n
000 X
Q Q =
ti~i
i=1
~k =
n
X
i=1
vik~i
~k =
i=1
n
X
uik ~i
k = 1, 2, . . . , n
i=1
X
Q00 P =
yi~i
i=1
i=1
Pero Q00 P = Q00 Q0 + Q0 P luego
n
X
yi~i =
i=1
yi
xi
= ti +
= si +
n
X
k=1
n
X
n
X
i=1
ti~i +
n
X
xk ~k =
k=1
n
X
i=1
ti~i +
n
n
X
X
i=1
!
vik xk ~i
k=1
vik xk
i = 1, 2, . . . , n . Analogamente, Q0 P = Q0 Q00 + Q00 P luego
uik yk
i = 1, 2, . . . , n
k=1
(6.1)
Decimos que (6.1) es una transformacion de coordenadas del primer sistema al segundo
o viceversa.
Problema: C
omo cambian las componentes de un vector frente a una transformaci
on
de coordenadas?
Sea
~ V n con componentes a1 , a2 , . . . , an con respecto al primer sistema y componentes b1 , b2 , . . . , bn con respecto al segundo sistema.
94
~
n
X
bi~i
n
X
k=1
n
n
X
X
i=1
bi
~k =
ak
i=1
n
X
n
X
bk~k
k=1
vik ak ~i
k=1
vik ak
i = 1, 2, . . . , n
i=1
Analogamente
n
X
ai ~i
i=1
ai
n
n
X
X
i=1
n
X
!
uik bk
~i
k=1
uik bk
i = 1, 2, . . . , n
k=1
=
=
n
X
i=1
n
X
vik~i
k = 1, 2, . . . , n
uik ~i
i=1
n
X
sk =
i=1
det(vik )
ti Vik
i=1
det(vik )
uki =
k = 1, 2, . . . , n
Vik
det(vik )
k = 1, 2, . . . , n
95
Obtenemos as el sistema
xk = sk +
n
X
uki yi
k = 1, 2, . . . , n
i=1
n
X
Sea Q00 el punto tal que Q0 Q00 =
si ~i y definamos ~1 , ~2 , . . . , ~n por
i=1
~k =
n
X
~i .
uik
i=1
n
X
vik ak
i = 1, 2, . . . , n
det(vik ) 6= 0
i=1
podemos encontrar una segunda base ~1 , ~2 , . . . , ~n tal que estas ecuaciones representan las ecuaciones de transicion para las componentes de un vector al pasar de la base
~1 ,
~2 , . . . , ~n a la base ~1 , ~2 , . . . , ~n .
6.2.
96
Llamemos
~i
~y
i = 1, 2, . . . , n
aik (sk + ~k ~y ) =
k=1
n
X
bi
!
aik ~k
~y
bi
k=1
n
X
aik sk
i = 1, 2, . . . , n
(6.3)
k=1
~1 ,
~2 , . . . ,
~n ],
Sea P M , sean x1 , x2 , . . . , xn sus coordenadas con respecto a [Q0 ;
00
sean y1 , y2 , . . . , yn con respecto a [Q ; ~1 , ~2 , . . . , ~n ]. Por hipotesis las coordenadas
x1 , x2 , . . . , xn satisfacen las ecuaciones (6.2), como xi = si + ~i ~y , al reemplazar las
xi en (6.2), obtenemos que las yi satisfacen el sistema (6.3).
A la inversa, sean y1 , y2 , . . . , yn las coordenadas de un punto P en Rn con respecto
a [Q00 ; ~1 , ~2 , . . . , ~n ] y supongamos que satisfacen (6.3). Entonces sus coordenadas x1 ,
~2 , . . . , ~n ] satisfacen xi = si + ~i ~y , i = 1, 2, . . . , n
x2 , . . . , xn con respecto a [Q0 ; ~1 ,
n
X
y por (6.3)
aik (sk + ~k ~y ) = bi luego
k=1
n
X
aik xk = bi
i = 1, 2, . . . , n
k=1
~i =
n
X
aik ~k
i = 1, 2, . . . , n
k=1
n
X
vik xk
i = 1, 2, . . . , n
k=1
6.3. VOLUMENES
Y SISTEMAS DE COORDENADAS CARTESIANAS
97
6.3.
Vol
umenes y sistemas de coordenadas cartesianas
Problema: Sean
~ 1,
~ 2, . . . ,
~ n n vectores cuyas componentes est
an dadas en el sis~n ]. Se pide el volumen del paralelotopo de aristas
tema de coordenadas [Q; ~1 , ~2 , . . . ,
~ 1,
~ 2, . . . ,
~ n.
Sean
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , n, sean ai1 , ai2 , . . . , ain las componentes de
~n , se tiene
~i =
n
X
~
ai
=1
vik~ek
k=1
Puesto que
~i =
n
X
k=1
n
X
k=1
aik~ek =
n
X
ai
=1
luego
aik =
n
X
n
X
!
vk~ek
k=1
ai vk
n
n
X
X
k=1
!
ai vk ~ek
=1
i, k = 1, 2, . . . , n
=1
esto es, la matriz (aik ) resulta de multiplicar las matrices (aik ) y (vik ), luego
det(aik ) = det(aik ) det(vik )
(6.4)
donde el volumen pedido es | det(aik )|. La ecuacion (6.4) dice que tal volumen puede
~1 ,
~2 , . . . , ~n ]
ser calculado conociendo las componentes de las aristas en el sistema [Q;
~
y las expresiones de los vectores i en la base estandar.
Problema: C
omo se comporta el producto escalar en un sistema de coordenadas
~1 ,
~2 , . . . ,
~n ]?
[Q;
98
Sean
~a =
{a1 , a2 , . . . , an }
~a =
n
X
ai ~i
i=1
~b =
{b1 , b2 , . . . , bn }
~b =
n
X
bi ~i
i=1
~a ~b =
=
n
X
ai bi
i=1
n X
n
X
n
X
~i
ai
i=1
! n
!
X
~
bk k
i=1
~k )
ai bk (~i
i=1 k=1
Vemos que la formula no es analoga a la original en que las componentes estan dadas
~k = 0 i 6= k,
~i
~k = 1 si i = k entonces
con respecto a la base estandar. Si ~i
~a ~b =
n
X
ai bi
(6.5)
i=1
p
X
i=1
i
~ i = 0 entonces
p
X
i (~
i
~ k ) = 0; esto nos dice que todos los k son cero,
i=1
=
=
n
X
i=1
n
X
vik~i
k = 1, 2, . . . , n
uik ~i
i=1
~k ~j = vjk , ~k
~j = ujk , 1 j, k n. Luego si en la segunda ecuacion
Entonces
intercambiamos k por j se tiene que
vjk = ukj
1 j, k n
6.3. VOLUMENES
Y SISTEMAS DE COORDENADAS CARTESIANAS
de donde
~k =
n
X
~i
vki
99
(6.6)
i=1
Como ~1 , ~2 , . . . , ~n es ortonormal
~j =
~k
n
X
vik vij = kj
k, j = 1, 2, . . . , n
vki vji = kj
k, j = 1, 2, . . . , n
i=1
Analogamente se tiene
~k ~j =
n
X
i=1
Tenemos entonces que las filas y las columnas de (vik ) forman sistemas ortonormales
de vectores. Tales matrices se dicen ortogonales.
En
n
X
vik vij = kj multipliquemos por Vhj donde Vhj es el adjunto de vhj en det(vkj ),
i=1
i=1
n
n
X
X
j=1
Vhk
Vhk
j=1
n
X
i=1
vhk det(vik )
= Vhk
Vhk
det(vik )
1 h n,
1kn
vik vij
n
X
i=1
i=1
n
X
n
X
vki vji
i=1
i=1
vik
Vij
= kj
det(vik )
vki
Vji
= kj
det(vik )
n
X
vik vij = kj
i=1
n
X
i=1
vki vji = kj
(6.7)
100
=1
| det(vik )| = 1
n
X
k=1
~k y ~i =
aik
n
X
k=1
6.4.
Deformaci
on continua de sistemas de coordenadas
~1 ,
~2 , . . . ,
~n son l.i., D(
~1 ,
~2 , . . . , ~n ) 6= 0. Puesto que
Nota: Sabemos que si
~
~
~
~
~
~
D(1 , 2 , . . . , n ) = D(1 , 2 , . . . , n ), si r es un real arbitrario distinto de cero,
~1 , ~2 , . . . ,
~n donde D(
~1 ,
~2 , . . . , ~n ) = r. En efecto, sea ~1 ,
siempre existe una base
~2 , . . . , ~n una base cualquiera, sea D(~1 , ~2 , . . . , ~n ) = d 6= 0,
r
r
D( ~1 , ~2 , . . . , ~n ) = D(~1 , ~2 , . . . , ~n ) = r ,
d
d
llame ~1 = dr ~1 , ~i = ~i , i = 2, 3, . . . , n.
Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va~1 ,
~2 , . . . , ~n ) es positivo y aquellos para los cuales D(
~1 ,
~2 , . . . , ~n ) < 0.
lor de D(
Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con~2 , . . . ,
~n ) adopte el valor 0 durante el
tinuamente el uno en el otro sin que D(~1 ,
proceso de deformacion y que esto no es posible para dos sistemas de distinta clase.
Intuitivamente, esto significa que dos n-edros de la misma clase pueden hacerse coincidir mediante un cambio suave de sus angulos y longitudes, piense por ejemplo en
101
0t1,
i = 1, 2, . . . , n .
n2 funciones continuas fik (t) definidas en c t d tales que fik (c) = vik , fik (d) = uik
y tales que para todo t con c t d se tiene que det(fik (t)) 6= 0. Esto no puede
~1 ,
~2 , . . . , ~n ) = det(vik ) y D(~1 , ~2 , . . . , ~n ) = det(uik ) tienen signos
suceder si D(
opuestos, puesto que det(fik (t)) es una funcion continua de t en c t d luego para
al menos un t0 [c, d] debera tenerse que det(fik (t0 )) = 0. Supondremos entonces
que det(vik ) y det(uik ) tienen el mismo signo. Podemos elegir un representativo de
la clase con determinante positivo, por ejemplo, ~e1 , ~e2 , . . . , ~en y un representativo
de la clase con determinante negativo, digamos ~e1 , ~e2 , . . . , -~en . Demostraremos que
cada sistema en una clase puede ser deformado continuamente en su correspondiente
~n ; ~1 , ~2 , . . . , ~n estan en la clase con determinante
representativo. Si ~1 , ~2 , . . . ,
positivo y ambos pueden ser deformados continuamente en ~e1 , ~e2 , . . . , ~en entonces, de
~1 ,
~2 , . . . ,
manera analoga, podemos deformar ~e1 , ~e2 , . . . , ~en en ~1 , ~2 , . . . , ~n y as
~
n puede ser deformado en ~1 , ~2 , . . . , ~n va ~e1 , ~e2 , . . . , ~en . Analogamente para el
caso con determinante negativo.
102
~1 , ~2 , . . . ,
~n un sistema de vectores tales que D(~1 , ~2 , . . . ,
~n ) >
Teorema 6.4 Sea
~1 ,
~2 , . . . , ~n puede ser deformado continuamente en ~e1 , ~e2 , . . . , ~en
0. Entonces
sin que el determinante del sistema de vectores se anule en ninguna etapa del proce~1 , ~2 , . . . ,
~n puede ser deformado en ~e1 , ~e2 , . . . , ~en s
so. An
alogamente,
olo si
~1 ,
~2 , . . . , ~n ) < 0.
D(
~1 = {v}, det(v) = v. Si v > 0, sea f (t) = v+t(1v),
Demostraci
on: Para n = 1, sea
0 t 1; si v < 0 sea f (t) = v + t(1 v), 0 t 1. Para n = 1 el teorema es
verdadero, supongamos que es verdadero para n 1.
~1 , ~2 , . . . ,
~n puede ser deformado continuamente en ~1 ,
~2 , . . . ,
~i , ~,
Lema 6.5
~i +
~k , i 6= k, real, de modo que el determinante permanece
~i+1 , . . . , ~n donde ~ =
constante durante el proceso de deformaci
on.
Demostraci
on: Sean fis (t) las n2 funciones determinadas en 0 t por:
~i + t
~k , 0 t ;
f~i (t) =
~j , j 6= i, 0 t
fj (t) =
esto es,
fis (t) =
fjs (t) =
vis + tvks
vjs
0 t , s = 1, 2, . . . , n
0 t , s = 1, 2, . . . , n, j 6= i
~1 ,
~2 , . . . , ~n ) = D(
~1 ,
~2 , . . . , ~i + t~k , . . . ,
~n ) el determinante perDado que D(
manece constante.
~1 ,
~2 , . . . , ~n puede ser continuamente deformado
Lema 6.6 El sistema de vectores
sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de
el por un cambio simult
aneo del signo de dos vectores, digamos, sustituyendo ~i , ~k
~i ,
~k .
por
Demostraci
on: Consideremos la operacion del primer lema como una del siguiente
tipo:
~j permanece igual.
Si j 6= i, j 6= k,
~i + ~k , se anota ~i
~i +
~k .
~i se reemplaza por
7
~k
~k se reemplaza por ~k , se anota
7 ~k .
Apliquemos en forma sucesiva esta nueva forma del primer lema:
~i
~
k
~i + 2
~k
~k
7
~ + 2
, luego i
~
~
7
k
k
~i + 2~k
~i + 2
~k
7
, luego
~
~
~
~
7
i k
i k
~i
7 ~i ~k
~i
~k
~i
7
7
103
~i
~k .
ltima
componente
de este vector es
vnn
vin ~
~
~
cero. En general, hacemos i 7 i
n , 1 i n 1 entonces
vnn
b11
b21
..
det(vik ) =
.
b(n1)1
vn1
b12
b22
..
.
..
.
b1(n1)
b2(n1)
..
.
0
0
..
.
b(n1)2
vn2
b(n1)(n1)
vn(n1)
0
vnn
(i-esima columna)
vni
(n-esima columna)
vnn
(esto implica una deformacion continua del sistema de filas de la nueva matriz las
cuales son en realidad los nuevos vectores ~i , esto es porque al deformar continuamente el sistema de columnas de la nueva matriz de todos modos hubo que encontrar
n2 funciones gik (t) que produjesen la deformacion. Para interpretarlas como deformaciones continuas de los nuevos ~i basta considerarlas en el orden adecuado).
El nuevo determinante adopta la forma
b11
b12
b1(n1)
0
b21
b
b
0
22
2(n2)
..
..
.
..
.
..
..
.
.
.
0
0
0
vnn
b11
b21
= vnn
..
b(n1)1
b12
b22
..
.
..
.
b1(n1)
b2(n1)
..
.
b(n1)2
b(n1)(n1)
1 0
0
0 1
0
.. .. . .
..
. .
.
.
0 0 1
y por lo tanto el determinante original queda en la forma
1 0
0
0
0 1
0
0
.. .. . .
..
..
. .
.
.
.
0 0 1
0
0 0
0 vnn
104
Finalmente, si vnn > 0, transformemos vnn continuamente a 1, si vnn < 0 transformemos vnn continuamente a 1. Si el elemento (n 1)(n 1) de la matriz es +1,
el teorema esta demostrado, si es 1, aplicamos el segundo lema y el determinante
queda en la forma
1 0 0 0
0 1 0 0
.. .. . .
..
..
. .
.
.
.
0 0 1 0
0 0 0 1
Este determinante vale 1 si el elemento nn vale 1 y vale 1 si el elemento nn vale 1
y esto depende de si det(vik ) > 0 o bien det(vik ) < 0, el teorema queda demostrado.
6.5.
Construcci
on de sistemas ortonormales
n1
X
i ~i + p
~p .
i=1
~i )
i = p (~
p
1ip1
!
~
~
~1 ,
~2 , . . . , ~p1 ,
~p
(~
p i )i . Como k~p k = 1 y
~ p es l.i.
i=1
p1
~i )~i
podemos concluir que
(~
p
~p
6= 0 y
~p = p
luego
p1
X
i=1
p =
p1
~i
~p
(~
p ~i )
i=1
~1 ,
~2 , . . . , ~p con
luego
~p
p1
X
~i
(~
p ~i )
i=1
~p =
p1
~i
~p
(~
p ~i )
i=1
105
~1
~
1 = k~1 k entonces
~1 )
~1
~ 2 (~
2
~2 =
,
~1 )
~1 k
k~
2 (~
2
~3 , etc.
luego tenemos ~1 y ~2 y usamos la formula para determinar
6.6.
~i
ai
i=1
~
entonces
~ ~i = ai , 1 i n luego
2
n
X
k~
k =
~
~=
n
X
a2i
i=1
n
X
(~
~i )2
i=1
~=
p
X
n
X
i ~i =
i=1
i ~i
i=p+1
luego i = 0, i = 1, 2, . . . , n, y
~ = 0.
Sea
~ un vector cualquiera que es ortogonal a todos los vectores de L. Entonces
n
X
~i y a1 = a2 = = ap = 0 luego
~ =
ai
~ L0 . Se concluye que el conjuni=1
X ~
P0 Q =
i i
i=1
~=
y llamemos
p
X
~i , al aplicar
~ en P0 , P0 se transforma en P , esto es,
i
P0 P = ~ y
i=1
n
X
~i ,
como ~ L entonces P M . Pero P0 Q = P0 P + P Q luego P Q =
i
P Q L0 ,
i=p+1
106
otro. P 0 Q =
i ~i y P 0 Q
i = 0, i = 1, 2, . . . , p luego i = 0, i = 1, 2, . . . , p
i=1
0 0
P Q = P P + PQ
n
X
0 0
~i
(i i )
P P = P Q PQ =
i=p+1
i=p+1
luego P0 Q P Q.
p
X
~
[(P0 Q ~i )]2 = 0, esto es solo si P0 Q
Hay igualdad solo si
i = 0, i = 1, 2, . . . , p, y
i=1
esto se da solo si P0 = P .
P Q es la distancia mas corta de un punto Q a la variedad M . A la inversa, si P0 M
y P0 Q es la distancia mas corta de Q a M entonces P0 Q = P Q es la perpendicular de
Q a M.
Problema: Supongamos que M esta dada por el sistema lineal
n
X
aik xk = bi
i = 1, 2, . . . , r
k=1
aik xk = 0
i = 1, 2, . . . , r
k=1
y esta compuesto por todas las soluciones vectoriales de tal sistema. Si ~x = {x1 , x2 , . . . , xn }
es una solucion vectorial y
~ i = {ai1 , ai2 , . . . , ain }, i = 1, 2, . . . , r es un vector fila de
la matriz del sistema se tiene que
~ i ~x = 0, i = 1, 2, . . . , r luego ellos son todos ortogonales a L. Sea L0 el subespacio de todos los vectores ortogonales a L, sabemos que L0
107
vik xk =
k=1
n
X
vik zk
i = 1, 2, . . . , r
P0 = (z1 , z2 , . . . , z)
(6.8)
k=1
X
~
P0 Q p+i =
vik (yk zk )
i = 1, 2, . . . , r
k=1
PQ =
" n
r
X
X
i=1
#2
vik (yk zk )
k=1
ai xi = b
i=1
~ =
~
= {a1 , a2 , . . . , an }
k~
k
ai
ai = v
uX
u n 2
t
ai
i=1
ai zi =
n
X
i=1
az
b
v i i =v
uX
u
n
u n 2
uX
t
t
ai
a2i
i=1
i=1
108
La nueva ecuacion de M es
n
X
i=1
ax
b
v i i =v
uX
u
n
u n 2
uX
t
t
ai
a2i
i=1
i=1
PQ =
ak (yk zk )
k=1
PQ
n
X
a
v k (yk zk )
u
k=1 uX 2
i=1
n
X
ak yk
v
=
u n
uX
k=1
ai
i=1
b
v
uX
a2i
i=1
com
un (cuando esta exista). Buscamos P L1 , Q L2 tales que el vector P Q es
ortogonal a M1 y M2 .
Sea L1 el subespacio generador de M1 , L2 el de M2 . Sea S = L1 + L2 de dimension
~s una base
s > 0 (M1 y M2 no consisten ambos de un solo punto). Sea ~1 , ~2 , . . . ,
ortonormal de S. Si s = n, el u
nico vector ortogonal a todos los vectores de S es ~0. Un
vector que es ortogonal a todos los vectores de L1 y L2 debe ser ortogonal a todos los
vectores de S, luego la perpendicular com
un es ~0, luego P = Q M1 M2 , se concluye
que M1 M2 6= .
s = n entonces hay
~ 1 L1 ,
~ 2 L2 tales que P0 Q0 =
~1 +
~ 2 . Supongamos
que
~ 1 lleva P0 en P y que ~
2 lleva a Q0 en Q entonces P0 P =
~ 1 , QQ0 =
~ 2,
P0 Q0 = P0 P + P Q + QQ0 , esto es,
~1 +
~2 = PQ +
~1 +
~2
luego P = Q.
Por construccion, P M1 , Q M2 luego M1 M2 6= . Se concluye que si s = n la
perpendicular com
un es ~0.
~1 ,
~2 , . . . ,
~s base ortonormal de S, la extendeSupongamos entonces que s < n. Sea
n
0
~s+2 , . . . ,
~n ,
mos a una base ortonormal de V , sea L subespacio generado por ~s+1 ,
109
i=1
tales que ~ =
~1 +
~ 2 . Sea P M1 tal que P0 P =
~ 1 , Q M tal que Q0 Q = ~
2 .
P0 Q0 = P0 P + P Q + QQ0 y tambien
n
n
n
X
X
X
~
~
P0 Q0 = ~ +
i i =
~1 +
~2 +
i i = P0 P + QQ0 +
i ~i
i=p+1
luego
i=p+1
i=p+1
n
X
PQ =
i ~i
i=p+1
~i y
L0 luego P Q =
i
i=p+1
n
X
00
~i
PQ P Q =
(i i )
i=p+1
tambien esta en L0 . Pero P Q = P P 0 + P 0 Q0 + Q0 Q luego P Q P 0 Q0 S luego debe ser
el vector ~0 puesto que L0 S = {~0} de donde P Q = P 0 Q0 . Todas las perpendiculares
comunes son paralelas y de igual longitud.
Como P P 0 L1 , QQ0 L2 y P P 0 = QQ0 = ~ se tiene que P Q = P 0 Q0 luego P 0 Q0 es
una perpendicular com
un.
X ~
Volvamos atras, si P0 M1 , Q0 M2 , P0 Q0 =
i i y P y Q fueron obtenidos de
i=1
n
X
~i luego P0 Q0
modo que P Q fuese una perpendicular com
un entonces P Q =
i
i=p+1
110
Captulo 7
Movimientos Rgidos
En el espacio euclidiano Rn consideremos transformaciones f : Rn Rn tales que si
f (P ) = P , f (Q) = Q entonces P Q = P Q. Diremos que una tal transformacion es
un movimiento rgido.
Sean P = f (P ), Q = f (Q), R = f (R). Como QR = QP + P R
QR QR = QP QP + 2QP P R + P R P R .
Como QP QP = P Q P Q,
1 2
(kP Qk + kP Rk2 kQRk2 ), de manera analoga
2
1 2
(kP Q k + kP R k2 kQ R k2 )
2
~ ~
~
sean x1 , x2 , . . . , xn las coordenadas de P en [O ; 1 , 2 , . . . , n ]. Entonces
n
X ~
OP =
xi i ,
X ~
O P =
xi i
i=1
i=1
111
112
~
xi = OP
i = OP OPi
~
xi = O P
i = O P O Pi
luego xi = xi .
Demostremos que un movimiento rgido es 1-1 y sobre. Sea Q Rn , sean y1 , y2 ,
~ , ~ , . . . ,
~ ]. Si Q tiene coordenadas y1 , y2 , . . . , yn
. . . , yn sus coordenadas en [O ;
n
1
2
~
~
~
en [O; 1 , 2 , . . . , n ] entonces f (Q) = Q . Si P tiene coordenadas x1 , x2 , . . . , xn en
~1 ,
~2 , . . . , ~n ] y f (P ) = Q entonces xi = yi , i = 1, 2, . . . , n y P = Q.
[O;
~1 ,
~2 , . . . , ~n ], [O ; ~ ,
~, . . . ,
~ ] dos sistemas arbitrarios de coordenadas
Sean [O;
n
1
2
cartesianas.
Sea f : Rn Rn definida por: sea P un punto cuyas coordenadas cartesianas en el
primer sistema son x1 , x2 , . . . , xn , sea P el punto cuyas coordenadas en el segundo
sistema son x1 , x2 , . . . , xn , definimos f (P ) = P .
Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema son
y1 , y2 , . . . , yn . Entonces
v
u n
uX
P Q = t (yi xi )2
i=1
P M1 M2 luego P D y M1 M2 D .
113
Nota: Si D = entonces D = . En efecto, si P D habra P tal que f (P ) = P
y ademas P D, esto no puede ser.
Si M1 M2 , D = M1 , D = M1 luego M1 M2 .
definamos F : V n V n por F (~
) = P Q .
Queremos demostrar que F es independiente de la eleccion de P . Sea P1 arbitrario,
~1 =
~ 2 . Es claro que F es sobre. Diremos que f induce la transformacion F en V n .
~2 , . . . , ~n ] un sistema de coordenadas fijo, sea P un punto de
Problema: Sea [O; ~1 ,
coordenadas x1 , x2 , . . . , xn con respecto a este sistema. Sea f un movimiento rgido.
Se piden las coordenadas de P .
~ , ~ , . . . , ~ ]. Sean
Sabemos que P tiene coordenadas x1 , x2 , . . . , xn en [O ;
n
2
1
n
X ~
OO =
ti i
~ =
n
X
aik ~i
i=1
i=1
~1 , ~2 , . . . ,
~n ] entonces
Si P tiene coordenadas y1 , y2 , . . . , yn en [O;
yi = ti +
n
X
aik xk
i = 1, 2, . . . , n
k=1
n
X
aik xk
i = 1, 2, . . . , n
(7.1)
i=1
114
y20 , . . . , yn0 donde Q = f (Q). Entonces
yi0
yi
n
X
aik (x0k xk )
i = 1, 2, . . . , n
k=1
"
(yi0 yi )2
n
X
#2
aik (x0k xk )
k=1
n X
n
X
i = 1, 2, . . . , n
k=1 j=1
(yi0 yi )2
i=1
n X
n X
n
X
=
=
n
n X
n
X
X
k=1 j=1
n X
n
X
!
aik aij
(x0k xk )(x0j xj )
i=1
kj (x0k xk )(x0j xj ) =
k=1 j=1
2
n
X
(x0k xk )2
k=1
luego P Q = P Q .
Si det(aik ) = 1, (7.1) se dice un movimiento rgido propio, si det(aik ) = 1 se dice
impropio.
Consideremos la transformacion inducida por (7.1) en V n . Queremos calcular las com
ponentes de f (~
) a partir de las componentes de
~ . Pero las componentes de P Q son
n
X
aik (x0k xk )
k=1
n
X
aik ui
i = 1, 2, . . . , n
k=1
Sea Aik el adjunto de aik en det(aik ), volviendo a (7.1) se tiene, por la regla de Cramer
que
n
X
1
xi =
Aki (yk tk )
i = 1, 2, . . . , n
(7.2)
det(aik )
k=1
115
Nota: Vimos que un movimiento rgido deja invariante al producto escalar, pero
para demostrarlo representamos ambos vectores con el mismo punto inicial. Queremos
~ arbitrarios,
~ fueron
hacer ver que esta restriccion es superflua. Sean
~,
~ y
~
~
~ =P Q , =P R y
~ =
~ .
~1 ,
Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i.
~
~
~
~
~
un un movimiento rgido. Sea P
2 , . . . , n , sean 1 , 2 , . . . , n sus imagenes seg
el punto a partir del cual se genera el paralelotopo, sea P su imagen, aplicando
n
X
~ , 0 i 1 a partir de P se obtiene un nuevo paralelotopo,
los vectores
i
i
i=1
~i tiene
llamemoslo la imagen del paralelotopo original seg
un el movimiento rgido. Si
~
componentes ui1 , ui2 , . . . , uin en el sistema cartesiano [O; ~1 , ~2 , . . . , ~n ], i tiene las
mismas componentes en [O ; ~1 , ~2 , . . . , ~n ]. El volumen del paralelotopo original es
~ , ~ , . . . , ~ puede ser
| det(uik )|. El volumen del paralelotopo cuyas aristas son
n
1
2
~ en el
evaluado de la misma manera en terminos de los componentes de los vectores
i
n
X
=1
det(uik )
ak ui
det
n
X
i, k = 1, 2, . . . , n
!
ui ak
= det(uik ) det(aik )
=1
Como det(aik ) = 1,
7.1.
det(uik ) = det(uik ).
Movimientos rgidos en R2
=
=
t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2
= a11 u1 + a12 u2
= a21 u1 + a22 u2
Un vector
~ se dice invariante bajo f si f (~
) =
~ . Es claro que ~0 es invariante bajo
f . Nos preguntamos si existe alg
un otro vector invariante. Si es que lo hay debe darse
que
u1 = a11 u1 + a12 u2
(a11 1)u1 + a12 u2 = 0
(7.3)
u2 = a21 u1 + a22 u2
a21 u1 + (a22 1)u2 = 0
116
(a11 1)
a12
a21
(a22 1)
debe tener rango R menor que 2.
Caso 1: R = 0. Todos los vectores de V 2 son soluciones de (7.3), a11 = a22 = 1,
1 0
a12 = a21 = 0, luego la matriz (aik ) es
, det(aik ) = 1, y las ecuaciones que
0 1
definen a f son de la forma
y1
y2
=
=
t1 + x1
t2 + x2
a11 1
a12
0=
= det(aik ) + 1 a11 a22
a21
a22 1
a11 1
a12
y alg
un elemento de
es distinto de cero.
a21
a22 1
Si det(aik ) = 1 entonces a11 + a22 = 2, pero como
a211 + a212
a221 + a222
= 1
= 1
ning
un aik puede ser tal que |aik | > 1 y a11 +a22 = 2 se cumple solo si a11 = a22 = 1. En
tal caso a12 = a21 = 0 y estamos en el caso 1. Entonces es necesario que det(aik ) = 1.
A11
Pero si det(aik ) = 1, como a11 = det(a
y A11 = a22 se tiene a11 = a22 y entonces
ik )
det(aik ) + 1 a11 a22 = 0 y (aik ) tiene rango 1. Luego el caso 2 puede suceder si y
solo si det(aik ) = 1.
En tal caso tenemos un subespacio invariante de dimension 1. Sea ~1 un vector unitario
~1 , ~2 de R2 . Sea
que es base de este subespacio y extendemos a una base ortonormal
Q arbitrario, escribamos las ecuaciones de f en [Q; ~1 , ~2 ]. Las nuevas ecuaciones son
de la forma
y1
y2
=
=
t1 + c11 x1 + c12 x2
t2 + c21 x1 + c22 x2
u1
u2
= c11 u1 + c12 u2
= c21 u1 + c22 u2
=
=
c11 u1 + c12 u2
c21 u1 + c22 u2
c11
c21
=
=
1
0
Ademas
c22
c12
A22
c11
=
luego c22 = c11 = 1
det(cik )
1
c21
A12
=
luego c12 = c21 = 0
det(cik )
1
117
~1 ,
~2 ] deben ser de
De lo dicho se desprende que las ecuaciones de f en el sistema [Q;
la forma
y1 = t1 + x1
(7.4)
y2 = t2 x2
~1 ,
~2 ] es arbitraria pero x2 = 1 t2 . Por (7.4),
Sea Q1 tal que su coordenada x1 en [Q;
2
~1 ,
~2 ]. Pero
el vector Q1 Q1 tiene segunda componente igual a cero en el sistema [Q1 ;
en este sistema Q1 tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q1
~2 ],
en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q1 ; ~1 ,
si x1 = x2 = 0 necesariamente y2 = 0 luego t2 = 0. Se concluye que en el sistema
~1 , ~2 ] las ecuaciones de f deben ser de la forma
[Q1 ;
y1
y2
=
=
t1 + x1
x2
La ecuacion y1 = t1 +x1 nos dice que cada punto del plano es trasladado en la direccion
del eje x1 en |t1 | hacia la derecha o izquierda seg
un t1 > 0 o t1 < 0 y despues se realiza
una reflexion en el eje x1 .
Caso 3: R = 2. El u
nico vector invariante es ~0. Si det(aik ) = 1 estamos en el caso
A11
2. Luego det(aik ) = 1. Como a11 = det(a
, si a11 = 1 entonces a22 = A11 = 1,
ik )
a12 = a21 = 0 y estamos en el caso 1. Luego a11 6= 1.
A la inversa, si det(aik ) = 1 y a11 6= 1 tenemos que estar en el caso 3 porque en el caso
1 se tiene a11 = 1 y en el caso 2 se tiene det(aik ) = 1.
Supongamos que f tiene un punto fijo (x1 , x2 ) entonces
x1
= t1 + a11 x1 + a12 x2
x2
= t2 + a21 x1 + a22 x2
= t1
= t2
t1 + a11 x1 + a12 x2
y2
t2 + a21 x1 + a22 x2
A22
= a11 = cos
det(aik )
a12 =
A12
= a21 = sen
det(aik )
luego
y1
= x1 cos x2 sen
y2
= x1 sen + x2 cos
118
~1 ,
~2 ]. Entonces
~1 va al vector
~ de componentes cos , sen y
~2
en el sistema [Q;
1
7.2.
Movimientos rgidos en R3
3
X
aik xk
i = 1, 2, 3 ,
k=1
a11 1
a21
a31
a12
a13
a22 1
a23
a32
a33 1
= 0
= 0
= 0
(7.5)
Como det(aik ) = 1, aik = Aik luego el determinante vale cero. El rango de la matriz
de (7.5) es a lo mas dos luego la dimension del subespacio de vectores invariantes es
al menos uno.
Queremos demostrar que si det(aik ) = 1 la dimension de tal subespacio puede ser 1
o 3 pero nunca puede ser 2.
Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo mas 1 y todos
sus menores de 2 2 son cero, en particular
a11 1
a12
a11 1
a13
a22 1
a23
119
Sumando las dos primeras ecuaciones y recordando que aik = Aik se obtiene 2a11 +
2 = 0, a11 = 1. De manera analoga a22 = a33 = 1. De la ortogonalidad de (aik ) se
obtiene aik = 0, i 6= k, luego todos los coeficientes en (7.5) son cero, la dimension del
espacio invariante es 3, todos los vectores en V 3 son invariantes.
Consideremos ahora el caso det(aik ) = 1, existe alg
un vector ~ que va a ~ ?
Entonces, si las componentes de ~ son u1 , u2 , u3 debe tenerse que ui = ui , i = 1, 2, 3
y deben ser soluciones de
(a11 + 1)u1 + a12 u2 + a13 u3
a21 u2 + (a22 + 1)u2 + a23 u3
a31 u1 + a32 u2 + (a33 + 1)u3
= 0
= 0
= 0
~e ~ = ~e ~ = 0
~e ~ = ~e (~) = 0
120
luego ~e L, ~e = ~e. Pero k~e k = k~ek, entonces = 1. Como ~e, ~ , ~ son l.i., si
~e = ~e no es posible que p = 1 y si ~e = ~e no es posible que q = 1.
Tenemos as los movimientos rgidos en R3 divididos en cuatro clases mutuamente excluyentes, i) y ii) corresponden a det(aik ) = 1, iii) y iv) corresponden a det(aik ) = 1.
~3 invariante, k
~3 k = 1, extendamos a una base ortonormal
~1 ,
~2 ,
~3
i.- p = 1. Sea
3
~
~
~
de R , sea [Q; 1 , 2 , 3 ] un sistema cartesiano, consideremos las ecuaciones de f
en tal sistema, sean ellas
yi
ti +
3
X
aik xk
i = 1, 2, 3
k=1
uk
3
X
aik ui
k = 1, 2, 3
k=1
=
=
=
t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2
t3 + x3
a11 a12 0
a21 a22 0 = a11
a21
0
0 1
(7.6)
a12
a22
De la ortonormalidad se tiene
a211 + a212
a221 + a222
= 1
= 1
Tambien a11 a21 + a12 a22 + a13 a23 = 0 luego a11 a21 + a12 a22 = 0.
a
Como det(aik ) = 1, 11
a21
a12
a11
=
1
luego
a22
a21
a12
a22
es ortogonal.
Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecuaciones definen un movimiento rgido en R2 . Ademas no es posible tener a11 =
a22 = 1 porque en tal caso p = 3. Entonces este movimiento rgido en R2 tiene un
punto fijo, esto es, hay x1 , x2 que satisfacen y1 = x1 , y2 = x2 . Sea S R3 cuyas
~3 ] son x1 , x2 . S tiene entonces como
dos primeras coordenadas en [Q; ~1 , ~2 ,
sus dos primeras coordenadas y1 = x1 , y2 = x2 y por lo tanto las dos primeras
121
este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto significa
que las dos primeras coordenadas tanto de S como de S son cero. Dado que
las ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema de
coordenadas, lo dicho sobre las coordenadas de S y S visto en (7.6) nos dice que
~1 ,
~2 ,
~3 ] tienen la forma
las ecuaciones de f en [S,
y1
y2
y3
= a11 x1 a12 x2
= a21 x1 + a22 x2
= t3 + x3 .
a11 a12
Como
es ortogonal, podemos determinar de manera u
nica un angua21 a22
lo , 0 2, tal que a11 = cos , a21 = sen , a12 = sen , a22 = cos ,
~1 ,
~2 , ~3 ] las ecuaciones de f son
luego en [S;
y1
y2
y3
=
=
=
x1 cos x2 sen
x1 sen + x2 cos
t3 + x3
t1 + x1
y2
y3
=
=
t2 + x2
t3 + x3
122
=
=
=
t1 + a11 x1 + a12 x2
t2 + a21 x1 + a22 x2
t3 x3
(7.7)
a11 a12
= 1
a21 a22
a11 a12
luego
es ortogonal.
a21 a22
Si a11 = 1 entonces a22 = a11 = 1 luego a12 = a21 = 0 y las ecuaciones (7.7)
adoptan la forma
y1
y2
y3
=
=
=
t1 + x1
t2 + x2
x3 ;
a21 = sen ,
a12 = sen ,
a22 = cos ,
= x1 cos x2 sen
= x2 sen + x2 cos
y3
= x3
=
=
t1 x1
t2 x2
y3
t3 x3
123
=
=
=
x1
x2
x3
124
Captulo 8
Problemas propuestos
1. Sean A y B matrices de m n. Diremos que B es equivalente por filas con A
si B se obtiene de A mediante una sucesion finita de operaciones elementales fila.
Sean
1
1
A=
3
4
2
1
0
4
0
1
1
2
1 5
2 1
,
1 2
1 0
1
0
B=
4
1
0
1
2
0
1
1
3
1
0
1
1
0
2
1
0
1
125
126
1 1 1
A= 2 0 1
3 0 1
6. Sea A de n n. Demuestre que las siguientes propiedades son equivalentes.
i. A es invertible.
ii. A es equivalente por filas a la identidad.
iii. A es un producto de matrices elementales.
iv. AX = 0 tiene solo la solucion trivial.
v. AX = Y tiene solucion para cada matriz Y .
7. Sea
1
A = 1
1
2 1 0
0 3 5
2 1 1
Encuentre una matriz R reducida por filas equivalente por filas a A y encuentre
P de 3 3 tal que R = P A.
8. a. Sea A de 2 1, B de 1 2. Demuestre que C = AB no es invertible.
b. Sea A de m n, demuestre que si A no es invertible hay B 6= 0 de n n tal
que AB = 0.
9. Sea Rn el conjunto de las n-tuplas de n
umeros reales y E n = Rn con las definiciones de suma y multiplicacion por un escalar.
Sean A = (a1 , a2 , . . . , an ), B = (b1 , b2 , . . . , bn ) puntos de Rn . Sean a, b las mismas
n-tuplas miradas como elementos de E n . Sea h : Rn Rn E n dada por
h[(A, B)] = b a. Diremos que el par (A, B) representa a b a y lo anotamos
b a escribiremos AB = b a.
127
vi. Sea real arbitrario. Demuestre que hay un u
nico punto P () Rn tal
=
=
=
(1, 0, 2, 1, 3)
(0, 0, 1, 1, 1)
(1, 1, 2, 0, 0)
=
=
=
=
(3, 1, 1, 2)
(4, 1, 2, 3)
(10, 3, 0, 7)
(1, 1, 7, 0)
= (2, 4, 3, 7)
b2
= (5, 2, 2, 1)
Sea L2 = L(b1 , b2 ).
Encuentre dim L1 , dim L2 , dim L1 L2 , dim(L1 + L2 ).
12. Sea L un subespacio de E n . Sea X = {y E n : (x y) L}, sea Z = {y E n :
(z y) L}. Demuestre que si X Z 6= entonces X = Z. Llamaremos a X
la clase del elemento x E n . Demuestre que si w X entonces la clase W del
elemento w es X. A los elementos de una clase los llamaremos representativos
128
= h(x) + h(z)
= h(x)
x, z E n
x En,
D =
2
1
3
2
0
5
0
1
6
3
0
3
0
4
1
1
7
5
1
2
3
2
5
2
3
Calcule el valor de D desarrollando por los menores de las filas 2,3 y 5. Verifique
que su valor es -1032.
16. Sea A una matriz de m n. Supongamos que un menor de orden r de A es
distinto de cero, r < mn(m, n), r > 0. Demuestre que A tiene al menos r filas y
r columnas l.i.
17. Resuelva el sistema de ecuaciones lineales
(3 + i)z1
2z1
(1 + i)z1
z1
iz1
iz2
+
iz2
+ 0 z2
iz2
z2
+
z3
(1 i)z3
+
2z3
+ (1 + i)z3
+
3z3
=
=
=
=
=
0
0
0
0
0
+
+
+
iz1
z2
(1 i)z2
+
z3
+ iz3
+ z3
=
=
=
1
i
i2
129
19. Sean
~1 = {1, 1, 2, 0} ,
~3 = {2, 1, 0, 1} ,
~2 = {0, 1, 1, 0}
~4 = {1, 0, 1, 2}
~2 ,
~3 ,
~4 ]
vectores en V 4 , sea Q = (1, 1, 1, 1) un punto en R4 . Verifique que [Q; ~1 ,
4
es un sistema de coordenadas en R . Encuentre las coordenadas del punto P =
(0, 1, 1, 0) en dicho sistema. Cuales son las coordenadas de Q? Dado
~ =
{0, 1, 1, 0} V 4 , encuentre las componentes de
~ con respecto al sistema de
~1 + ~2 ? Encoordenadas dado. Cuales son las componentes de ~1 , y las de
cuentre la ley de transformacion de coordenadas para pasar del sistema dado a
[0; ~e1 , ~e2 , ~e3 , ~e4 ] y viceversa. Encuentre las coordenadas de P en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que sus formulas son correctas. Cual es la ley de transformacion para
las componentes de los vectores? Encuentre las componentes de
~ en [O; ~e1 , ~e2 , ~e3 , ~e4 ]
y verifique que su ley de transformacion es correcta.
20. Sean
~ 2 = {0, 1, 0, 1} vectores en V 4 cuyas componentes
~ 1 = { 12 , 23 , 1, 0},
estan dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ]. Sea P0 R4 de coordenadas (0, 3, 2, 0) en tal
sistema. Sea L el subespacio de V 4 generado por
~1 y
~ 2 . Encuentre todos los
puntos (x1 , x2 , x3 , x4 ) R4 que estan sobre la variedad lineal M obtenida de
copiar L en P0 . Demuestre que el conjunto de soluciones del sistema
x1 + x2 x3 x4
x1 x2 + 2x3 + x4
= 1
= 1
~1
= {1, 1, 1, 1}
~2
~3
= {2, 1, 1, 1}
= {0, 1, 1, 1}
~4
= {0, 0, 1, 1}
130
~1 ,
~2 ,
~3 ,
~4 . Use el
Encuentre la formula para el producto escalar en la base
metodo de Gram-Schmidt con el producto escalar en la base estandar para obtener un sistema ortonormal de vectores
~ 10 ,
~ 20 ,
~ 30 ,
~ 40 a partir de
~ 1,
~ 2,
~ 3,
~ 4,
0
0
0
0
~ ,
~ , ~ , ~ a partir de
~1 , ~2 , ~3 ,
~4 . Verifique que la matriz de trany otro
1
2
3
4
~0 ,
~0 ,
~ 0 , ~ 0 es ortogonal. Exprese
sicion del sistema
~ 10 ,
~ 20 ,
~ 30 ,
~ 40 al sistema
1
2
3
4
0
0
0
los vectores
~ 1,
~ 2,
~ 3,
~ 4 en el sistema
~ 1,
~ 2,
~ 3,
~ 40 y verifique e interprete la
formula
| det(aik )| = | det(aik )|| det(vik )|
22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coordenadas [O; ~e1 , ~e2 , ~e3 , ~e4 ], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentre
la direccion de la recta perpendicular de P a M , el pie de la perpendicular en
M y la longitud de tal perpendicular por el metodo descrito en el libro (sin usar
el sistema de ecuaciones que representa a M ).
Considere el hiperplano x1 + x2 + x3 + x4 = 1 y el punto P = (1, 1, 0, 0). Encuentre la direccion, pie y longitud de la perpendicular de P al hiperplano. Encuentre
un vector ortogonal a M y al hiperplano dado.
23. Sea f : R4 R4 dada por
y i = ti +
4
X
aik xk
i = 1, 2, 3, 4
k=1
un movimiento rgido (las coordenadas se suponen dadas en [O; ~e1 , ~e2 , ~e3 , ~e4 ].
Bibliografa
[1] Lectures on Linear Algebra, Gelfand I. M., New York, Interscience (1961).
[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).
[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,
New York, Chelsea.
[4] Linear Algebra, Shilov G. E., Engelwood Cliffs, N. J., Prentice Hall (1961).
[5] Linear Algebra and Multi-dimensional Geometry, Efimov N. V. - Rozendorn E.
R., Mir Publishers (1975).
131
Indice alfab
etico
Rn , 29
n-tupla, 2, 29
Angulo
entre vectores, 85
Inversion, 9
l.d., 31
l.i., 31
Linealmente
Linealmente
Longitud de
Longitud de
Adjunto de un menor, 21
Base, 34
Base estandar, 35, 65
Coeficientes, 1
Combinacion lineal, 1, 30
Compatibilidad de sistemas homogeneos,
51
Compatibilidad de sistemas no homogeneos,
46
Componentes, 29, 63, 92
Componentes con respecto a una base, 35
Consideraciones sobre geometra analtica,
79
Construccion de sistemas ortonormales, 104
Coordenadas, 91
Deformacion continua de sistemas de coordenadas, 100
Delta de Kronecker, 36, 59, 98
Dependencia lineal, 30
Desigualdad de Cauchy-Schwarz, 83
Desigualdad triangular, 84
Determinante, 8, 11, 12
Desarrollo por adjuntos, 22
Propiedades, 13
Dimension, 34
Dimension de un subespacio, 66, 68
Distancia, 83
Distancia a una variedad lineal, 105
Ecuacion lineal con n incognitas, 1
Ecuacion lineal homogenea, 1
Espacio eucldeo n-dimensional, 83
Espacio vectorial n-dimensional, 29
Independencia lineal, 30
dependientes, 30
independientes, 30
un segmento, 83
un vector, 83
132
INDICE ALFABETICO
Mutuamente ortogonales, 65
133