Professional Documents
Culture Documents
Autor:Jorge Garc a Nieva Tecnol ogico de Estudios Superiores del Oriente del Estado de M exico 29 de julio de 2010
INTRODUCCION
El Algebra Lineal es el estudio de los espacios vectoriales y de los conceptos derivados de ellos, como son las combinaciones lineales, los conjuntos bases y la representaci on de los elementos de un espacio vectorial mediante ellas, las bases ortogonales , las transformaciones lineales y sus representaci on matricial, los espacios asociados a los autovalores y vectores propios de una transformaci on lineal(descomposici on espectral), etc. El conocimiento de los conceptos anteriores y su interrelaci on, proporciona a los estudiantes de las areas de ingenier a una s olida base para trabajar en la modelaci on matem atica de los fen omenos f sicos dentro de sus respectivas areas.En efecto,la teor a de los espacios vectoriales tiene amplias aplicaciones , interviniendo por ejemplo en la resoluci on matem atica de problemas de optimizaci on, como sucede con el m etodo simplex en la Ingenier a Industrial, o bien en el tratamiento simplicado y elegante de la teor a de la regresi on lineal y multilineal, la estad stica avanzada , la teor a del control de calidad, la teor a de la simulaci on, la teor a de las ecuaciones diferenciales,etc. Por lo anterior, es muy importante proporcionar a los estudiantes material did actico de calidad, que no se reduzca a la reproducci on sin sentido de c alculos, sino que tenga un nivel adecuado de la exposici on de la parte te orica. Es con este n como el autor de estas notas ha recolectado una serie de resultados importantes dentro del Algebra Lineal que han sido considerados tradicionalmente como fundamentales por los especialistas de esta area y que son consideradas b asicas dentro de un curso b asico de eta asignatura. Estas notas comienzan con una exposici on acerca de los n umeros
complejos, lo cual es importante para abordar el tema de las matrices ortogonales y sus aplicaciones en la descripci on geom etrica de fen omenos f sicos,am en de que interviene en el tratamiento algebraico de la diagonalizaci on de la representaci on de transformaciones lineales mediante matrices y su ulterior aplicaci on en el tratamiento de sistemas din amicos. El cap tulo 2,trata de las matrices , sus propiedades y conceptos fundamentales asociados.Los conceptos estudiados en este cap tulo tienen relaci on directa con el cap tulo 3, el cual trata sobre los sistemas lineales y su resoluci on mediante matrices, expresado esto en el procedimiento de Gauss-Jordan , en el m etodo de Cramer y en el m etodo de la inversa de la matriz de coecientes de un sistema lineal. Cabe notar que los conceptos estudiados en las unidades 2 y 3 son de amplia apliacaci on en varios campos dentro de la ingenier a,como por ejemplo,las ecuaciones diferenciales, la Investigaci on de operaciones y la estad stica multivariable. En la unidad 4 se estudian los espacios vectoriales, los cuales representan una generalizaci on de la geometr a plana y del espacio a espacios multidimensionales, as como a espacios con objetos no necesariamente geom etricos, como lo son los espacios de matrices o de soluciones de un sistema de ecuaciones ya sea algebraico lineal o de ecuaciones diferenciales lineales , y que en ingenier a son de suma importancia para estudiar fen omenos o sistemas de tipo lineal. En la unidad 5 se estudian las transformaciones lineales, las cuales aparecen en la pr actica en el an alisis de objetos que se pueden ampliar, reducir,transladar o rotar; desde luego,su aplicaci on a la rob otica es ineludible,as como en la programaci on de gr acos.
Indice general
Introducci on
1 N umeros Complejos complejos. 1.1. Denici on y origen de los n umeros complejos. . . 1.2. Operaciones fundamentales con n umeros complejos 1.3. Potencias de i, m odulo o valor absoluto de un n umero complejo. . . . . . . . . . . . . . . . . . . 1.4. Forma polar y exponencial de un n umero complejo 1.5. Teorema de De Moivre, potencias y extracci on de ra ces de un n umero complejo. . . . . . . . 2 Matrices y determinantes.
2 6 6 6 11 12 13 20
Denici on de matriz, notaci on y orden. . . . . . . . 20 Clasicaci on de las matrices. . . . . . . . . . . . 22 Operaciones con matrices. . . . . . . . . . . . . . 23 Transformaciones elementales por rengl on. Escalonamiento de una matriz. Rango de una matriz. . 38 C alculo de la inversa de una matriz. . . . . . . . . . 45 Denici on de determinante de una matriz. . . . . . 46 Inversa de una matriz cuadrada a trav es de la adjunta. 49 Aplicaci on de matrices y determinantes . . . . . . . 66
3 Sistemas de ecuaciones Lineales. 3.1. Denici on de sistemas de ecuaciones lineales. . . . . 3.2. Clasicaci on de los sistemas de ecuaciones lineales y tipos de soluci on. . . . . . . . . . . . . . . . . . . 3.3. Interpretaci on geom etrica de las soluciones. . . . . .
71 71 72 81
5
Indice general 3.4. M etodos de soluci on de un sistema de ecuaciones lineales: Gauss, Gauss-Jordan, inversa de una matriz y regla de Cramer. . . . . . . . . . . . . . . . 101 3.5. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . 124 4 Espacios vectoriales. 128 4.1. Denici on de espacio vectorial. . . . . . . . . . . . 128 4.2. Denici on de subespacio vectorial y sus propiedades. 135 4.3. Combinaci on lineal. Independencia lineal. . . . . . . 140 4.4. Base y dimensi on de un espacio vectorial, cambio de base. . . . . . . . . . . . . . . . . . . . . . . . 153 4.5. Espacio vectorial con producto interno y sus propiedades. 179 4.6. Base ortonormal, proceso de ortonormalizaci on de Gram-Schmidt. . . . . . . . . . . . . . . . . . . . 183 5 Transformaciones lineales. 5.1. Introducci on a las transformaciones lineales. . . . . 5.2. N ucleo e imagen de una transformaci on lineal. . . . 5.3. La matriz de una transformaci on lineal 5.4. Aplicaci on de las transformaciones lineales: reexi on, dilataci on, contracci on y rotaci on . . . . . . . 15 193 193 212 205
219
1.1.
Los nmeros complejos aparecieron histricamente cuando Cardano,en 1539,trat ecuaciones como x2 + 1 = 0 ,la cual no tiene solucin en R. Posteriormente Gauss desarroll la teora con mayor formalidad. La imposibilidad de resolver estaclase de ecuaciones en el campo real crea la necesidad de ampliar R construyendo un supercuerpo conmutativo K en el que todo elemento admita una raz cuadrada y, en consecu.encia, que la ecuacin anterior tenga solucin. Supongamos que K existe y sea i un elemento de K que satisface i2 + 1 = 0. Vamos a ver que el subconjunto K 0 de K engendrado por R {i} y descrito por los elementos de la forma
Luego, si K existe y i2 + 1 = 0, entonces K0 = {a + bi : a, b R} es un cuerpo. No obstante, si existe otro elemento i1 K tal que i2 1 + 1 = 0, entonces podemos determinar K0 1 = {a + bi1 : a, b R}
0 y es claro que K0 y K0 1 son isomorfos. Por tanto, K es nico salvo un isomorsmo. 0 Por otra parte, si K existe, (22.4) muestra que hay una biyeccin entre K0 y RR f : R R K0 (a, b) 7 a + bi
Adems, es claro que f es un isomorsmo de grupos aditivos, en donde R R est dotado con la siguiente adicin (a, b) + (c, d) = (a + b, c + d) pues, se cumple f ((a, b) + (c, d)) = f (a, b) + f (c, d)
Podemos dotar a R R con la siguiente multiplicacin (a, b)(c, d) = (ac bd, ad
+ bc) y entonces demuestra que f ((a, b) (c, d)) = f (a, b) f (c, d) De este modo, si demostramos que R R dotado con las operaciones suma y multiplicacin es un cuerpo, habremos probado la existencia de K0 .
En el conjunto R R denimos las dos operaciones siguientes (a, b) + (c, d) = (a + b, c + d) y (a, b) (c, d) = (ac bd, ad + bc) Es fcil comprobar las siguientes propiedades:
1. (R R, +) es un grupo conmutativo de elemento neutro (0, 0), en el que (a, b) es el simtrico de (a, b). 2. La multiplicacin es distributiva respecto a la suma . 3. (R R {(0, 0)}, ) es un grupo conmutativo de elemento neutro (1, 0), en el que el simtrico de (a, b) es a b , a2 + b2 a2 + b2 Como consecuencia, (R R, +, ) es un cuerpo conmutativo al que denominaremos cuerpo de los nmeros complejos y designamos por C. Un nmero complejo es un elemento de C, o lo que es lo mismo, un par ordenado de nmeros reales. Identicamos el nmero real a con el nmero complejo (a, 0), pues la aplicacin f : R C a 7 (a, 0) es un homomorsmo inyectivo entre (R, +, ) y (C, +, ). En efecto, f (a + b) = (a + b, 0) = (a, 0) + (b, 0) = f (a) + f (b) f (a b) = (ab, 0) = (a, 0) (b, 0) = f (a) f (b) y f (a) = f (b) (a, 0) = (b, 0) a = b Como consecuencia, podemos considerar R como un subcuerpo de C, y entonces es natural armar que C es una extensin de R. Puesto que (0, 1) (0, 1) = (1, 0)
es natural escribir (0, 1) = i, cumplindose entonces que i2 = 1, y, por tanto, 1 posee raz cuadrada en C. Adems, si b es un nmero real, entonces se cumple (0, 1) (b, 0) = (0, b) y podemos escribir ib en lugar de (0, b). De este modo, si z es el nmero complejo (a, b), entonces podemos escribirlo de manera nica bajo la forma (a, b) = (a, 0) + (0, b) y, en consecuencia, es natural escribir z como a + ib. Esta manera de representar un nmero complejo se llama forma binmica. Entonces, a a se le llama parte real de z y se escribe Re z = a, y a b se le llama parte imaginaria de z y se escribe Im z = b. Si b = 0, se dice que z es un nmero imaginario puro
ysi a =0,sediceque z es un nmero real.Alnmerocomplejo i se le llama unidad imaginaria. Las operaciones (22.7) y (22.8), pueden escribirse en forma binmica, operando como en el caso de nmeros reales, sin ms que tener en cuenta que i2 = 1. (a + ib) + (c + id) = (a + b) + i(b + d) (a + ib) (c + id) = (ac bd) + i(ad + bc) Observacin. El conjunto C de los nmeros complejos puede ordenarse de varias maneras. Sin embargo, no existe relacin de orden total sobre C de manera que C seauncuerpo ordenado(como lo es R), pues, 1=12 y 1= i2 son cuadrados en C y entonces los dos deberan ser mayores que cero, no siendo nulos. Ahora bien, 1 y 1 son opuestos y, por tanto, no es posible que los dos sean estrictamente mayores que cero.
El cuerpo de los nmeros complejos dotado con las dos operaciones siguientes (a + ib) + (c + id) = (a + c) + i(b + d) y (a + ib) = a + ib ( R) es un espacio vectorial sobre R. Es inmediato comprobarlo. Adems, (1, i) forman una base de este espacio, pues son generadores a + ib = a 1 + b i
Adems , son linealmente independientes
1 + i = 0 + 0 i = = 0
La geometra ordinaria del plano proporciona una imagen adecuada del cuerpo de los nmeros complejos. Consideremos en el plano eucldeo un origen O y unos ejes rectngulares Ox y Oy . Sean e1 , e2 los vectores de la base ortonormal correspondiente. Entonces, entre el espacio vectorial de los vectores libres del plano y el cuerpo de los nmeros complejos, considerado como espacio vectorial real de base (1, i), existe un isomorsmo denido por la aplicacin x + yi 7 xe1 + y e2 Al vector v = xe1 + y e2 corresponde un representante de origen O y extremo el punto P de coordenadas (x, y ) que se llama ajo del nmero complejo x + iy . En forma breve, el vector imagen de z = x + iy es el vector
v = OP , siendo P el ajo de z . De este modo, entre el plano eucldeo y el cuerpo de los nmeros complejos queda establecida una biyeccin que lo convierte en el plano complejo. Los complejos que son nmeros reales tienen por ajos los puntos del eje Ox, y los que son nmeros imaginarios puros, los puntos del eje Oy . Esta es la razn por la cual estos ejes se denominan entonces eje real y eje imaginario del plano complejo, respectivamente. Sin embargo, estas denominaciones son un abuso del lenguaje, pues, tanto el eje Oy como el plano Oxy estn descritos por puntos de coordenadas reales. Esta representacin geomtrica de los nmeros complejos permite interpretar fcilmente la adicin de los nmeros complejos: si P y Q son los ajos de z1 y z2 y se tiene, OP + OQ = OR entonces R es el ajo de z1 + z2 , ya que para sumar vectores de origen O basta con sumar sus componentes respecto de los ejes de coordenadas; obsrvese que z1 + z2 es por tanto la diagonal del paralelogramo que determinan z1 y z2 .
En particular, los ajos de los nmeros complejos z y z son dos puntos simtricos respecto a O. Con la representacin geomtrica, aparecen de manera natural los conceptos de mdulo y argumento de un nmero complejo.
10
De las propiedades de la norma eucldea se deducen enseguida las propiedades del mdulo de un nmero complejo: 1. |z | = 0 si y slo si z = 0 2. |zz 0 | = |z | |z 0 | 3. |z + z 0 | |z | + |z 0 | y de este modo la aplicacin C R+ z 7 |z |
es un valor absoluto en C. Podemos entonces llamar a |z | valor absoluto de z , pero la costumbre hace que se preera el trmino mdulo.
Se llama argumento de un nmero complejo z = x + iy no nulo y se denota por arg z , la medida del ngulo que determinan los vectores e1 y xe1 + y e2 . Recordemos que esta medida es un nmero real mdulo 2, es decir, si 0 es una medida de dicho ngulo, tambin lo son 0 + 2k para k Z. Para evitar ambigedades, a menudo es conveniente utilizar el valor principal para el argumento de z , el cual se dene mediante 0 < 2. Si un nmero complejo z 6= 0 tiene mdulo r y argumento , se denomina forma polar o mdulo-argumental de z al par (r, ), representado a menudo por r . De este modo, tenemos (r, ) = (r0 , 0 ) r = r0 y 0 = + k 2 Dado un nmero complejo z = x + iy no nulo, entonces las siguientes relaciones 2 y2 + p x r=
11
y = arctan
(x 6= 0) x permiten determinar la forma polar de z . Si x = 0, podemos tomar = /2 si y > 0, y = 3/2 cuando y < 0.
de manera que cualquier nmero complejo no nulo de mdulo r y argumento se puede escribir como z = r cos + ir sin = r(cos + i sin )
que se llama forma trigonomtrica de z . Obsrvese que si z 6= 0 est dado en forma binmica, entonces las siguientes relaciones p r = x2 + y 2 y y sin = p 2 x + y2 y cos = p x x2 + y2
permiten determinar la forma trigonomtrica. La forma trigonomtrica nos permite dar una interpretacin geomtrica del producto de dos nmeros complejos. En efecto, si z1 = r1 (cos 1 + i sin 1 ) y z2 = r2 (cos 2 + i sin 2 ) entonces z1 z2 = r1 r2 (cos 1 + i sin 1 )(cos 2 + i sin 2 ) = r1 r2 [(cos 1 cos 2 sin 1 sin 2 ) + i(cos 1 sin 2 + sin 1 cos 2 )] = r1 r2 [cos(1 + 2 ) + i sin(1 + 2 )]
12
Este resultado se interpreta de la siguiente manera: el ajo del producto z1 z2 se construye como tercer vrtice del tringulo que tenga uno en O, otro en el ajo de z2 y sea semejante al tringulo que tiene como vrtices homlogos respectivamente el ajo de z1 , O y el ajo de e1 . Dicho de otro modo, se aplica una homotecia de centro el origen y razn r2 al tringulo de vrtices O, el ajo de z1 y el de e1 , y despus un giro de centro el origen y ngulo 2 , formndose el tringulo semejante de vrtices O, el ajo de z1 z2 y el de z2 . De la misma forma se interpretan las relaciones siguientes 1 1 z = |z | y arg z 1 = arg z que se obtienen al hacer en (22.9) z1 = z y z2 = z 1 , y tambin z1 = |z1 | y arg z1 = arg z1 arg z2 z2 |z2 | z2
z n = rn [cos(n) + i sin(n)] y si, adems r = 1, entonces tenemos la frmula de De Moivre (cos + i sin )n = cos n + i sin n Puesto que ex = X xn n!
n0
13
3 4 5 2 i + + i 2! 3! 4! 5!
ei = cos + i sin De aqu, como un nmero complejo z se expresa en forma trigonomtrica como z = r(cos + i sin ) tenemos z = rei que se llama forma exponencial del nmero complejo z .
es decir, C z = x + iy C 7 z = x iy
El complejo z se llama conjugado de z . Es claro que se trata de una biyeccin y, adems, transforma la suma y el producto en la suma y producto de los conjugados. Se tiene entonces que z=z zz 0 = zz 0 z + z0 = z + z0
14
Es evidente que Re z = Re z Re z = 1 2 (z + z ) Im z = Im z Im z =
1 2i (z
z)
Tambin es claro que un nmero complejo z es real si y slo si z = z , y es imaginario puro si y slo si z + z = 0. Si z = x + iy , entonces zz = (x + iy ) (x iy ) = x2 + y 2
es decir, zz es un nmero real positivo. Adems, se cumple |z | = zz y, para todo nmero complejo z 6= 0, z 1 = z z = 2 zz |z |
En particular, de aqu se deduce que un nmero complejo z es unitario (tiene mdulo 1) si y slo si z 1 = z . Ejemplo. Efectuar las siguientes operaciones con nmeros complejos, expresando el resultado en forma binmica: a)
(i1)3 i+1
b)
5+3i (1+i)2
c) (2 + i)(8 + 5i)i
d)
1+i 2+i
1+i 2+i
3 = (( 2)3 , 3 ) 4 9 = (2 2, ) 4 2 2 9 ) = ( , 4 2 4 = (2, 2 )
3 z1 =2 z2
y, en consecuencia,
3 z1 z2
15
(c) Tenemos (2 + i)(8 + 5i)i = (11 + 18i)i = 18 + 11i (d) Tenemos 1 + i 1 + i 2 + i 2 + i = = = = (1 + i)(2 + i) (2 + i)(1 + i) 3 i 3 i 3 + i 3 i 8 + 6i 10 4 3 + i 5 5
Ejemplo Utilizando la frmula de De Moivre, expresar cos 5x en trminos de sin x y cos x. Solucin: Segn esta frmula, tenemos (cos x + i sin x)5 = cos 5x + i sin 5x Por tanto, cos 5x = Re(cos x + i sin x)5 Mediante la frmula del binomio de Newton, obtenemos cos 5x = cos5 x 10 cos3 x sin2 x + 5 cos x sin4 x
16
Como consecuencia, todo nmero complejo z = r(cos + i sin ) no nulo tiene n races n-simas + 2k + 2k n (k = 0, 1, 2, ..., n 1) + i sin zk = r cos n n Es evidente que se cumple |zk+1 | = |zk | y arg zk+1 arg zk + 2 (mod 2) n
y, por tanto, para n > 2, las n races n-simas de un nmero complejo no nulo son los ajos de los vrtices de un polgono regular de n lados. Estos ajos se encuentran sobre la circunferencia de centro O y radio n r. Observacin. 1. En el caso particular de n = 2, tenemos z0 = y z1 = r cos + + i sin + 2 2 = r( cos i sin ) 2 2 = z0 r(cos + i sin ) 2 2
es decir, encontramos que las dos races son opuestas y, como consecuencia, son los ajos de dos puntos simtricos respecto al origen. 2. En particular, las races n-simas de la unidad son las soluciones de la ecuacin z n = 1. Vienen dadas por la frmula zk = cos 2k 2k + i sin n n (k = 0, 1, 2, ..., n 1)
En este caso el polgono que forman sus ajos est inscrito en la circunferencia de radio 1, siendo uno de sus vrtices el punto z0 = 1. 3. Las races n-simas de un nmero complejo cualquiera son los productos de una de ellas por las races n-simas de la unidad, pues, si u0 es una raz particular de orden n de z , y u es una cualquiera de las otras, se tiene n u =1 un = un 0 =z = u0 y el cociente u/u0 es una cualquiera de las races n-simas de la unidad.
17
p 5 Ejemplo. Calcular 1 3i. Solucin: Expresando z = 1 3i en forma polar, obtenemos |z | = 2 y 5 arg z = arctan( 3) = 3
En consecuencia, las races quintas de z vienen dadas por 5/3 + 2k 5/3 + 2k 5 (k = 0, 1, 2, 3, 4) zk = 2 cos + i sin 5 5 es decir, z1 z2 z3 z4 z5 = = = = = 5 2 cos 3 + i sin 3 5 11 11 2 cos + i sin 15 15 5 17 2 cos 17 15 + i sin 15 5 23 2 cos 15 + i sin 23 15 5 29 29 2 cos 15 + i sin 15
Ejemplo. Hallar las races de la ecuacin (1 + i)z 3 2i = 0 Solucin: Es claro que z3 2i 1+i 1i 2i = 1+i 1i 2 + 2i = 2 = 1+i =
Por tanto, z = 3 1 + i. Para determinar las races cbicas de este complejo, determinamos primero el mdulo y el argumento de z 0 = 1 + i. Obtenemos |z 0 | = 2 y arg z 0 = arctan 1 = 4 Por lo tanto, tenemos /4 + 2k /4 + 2k 3 zk = 2 cos 3 + i sin 3 3 es decir, 3 z1 = 2 cos 12 + i sin 12 3 9 9 z2 = 2 cos 12 + i sin 12 17 z3 = 3 2 cos 17 12 + i sin 12
(k = 0, 1, 2)
18
2 2 2 +i 2
=e
2 2 2 2
ei
2 2
=e
2 2 2 i 2
= e
ei
2 2
Ejemplo. Dados los nmeros complejos z1 = 1 + i y z = 2 + 3i, calcular dos nmeros complejos z2 , z3 tales que los ajos de z1 , z2 y z3 formen un tringulo equilatero de centro el ajo de z . Solucin: Sabemos que los ajos de las races cbicas de un nmero complejo w son los vrtices de un p tringulo equilatero inscrito en una circunferencia de centro el origen y radio 3 |w|. Puesto que nuestro tringulo ha de estar centrado en el ajo de z , deberemos efectuar una traslacin de vector el asociado a z . De este modo, se tiene zi = z + 3 w (i = 1, 2, 3) Como una de las races cbicas de w es z1 z , podemos obtener las races cbicas de w multiplicando z1 z por las races cbicas de la unidad. Las races cbicas de la unidad son u1 = 1 3 u2 = cos 23 + i sin 23 = 1 2 + i 2 3 u3 = cos 43 + i sin 43 = 1 2 i 2 Por tanto, las races cbicas de w son w1 = 1 2i 3 1 3 w2 = (1 2i) 1 + i = + 3 + i + 1 2 2 2 2 1 3 1 w3 = (1 2i) 2 i 2 = 2 3 + i 23 + 1 z1 = z + w1 = 1 + i 3 z2 = z + w2 = 5 + 3 + i + 4 2 2 3 + 4 z3 = z + w3 = 5 3 + i 2 2
19
2.1.
Denici on 1.1. Sean m, n Z+ . Una matriz real A de orden m por n (m n) es un arreglo bidimensional de n umeros reales dispuestos en m las y n columnas como sigue a11 a12 a1n a11 a12 a1n
A = (aij )mn =
donde aij R para cada i {1, . . . , m} y cada j {1, . . . , n}, el cual es llamado componente ij - esima de A. Para cada i {1, . . . , m} la i- esima la de A la denotaremos por A(i) y est a dada por A(i) = ai1 ai2 ain Para cada j {1, . . . , n} la j - esima columna de A la denotaremos por A(j ) y est a dada por a1j a 2j A(j ) = . amj componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A. Cuando m = 1, diremos que A es una matriz la y cuando n = 1, diremos que A es una matriz columna. nente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}. La notaci on A = (aij )mn , signica que A es la matriz de orden m n cuya ij - esima compo-
a a22 a2n a21 a22 a2n 21 = . . . . . . . . . . . . am1 am2 amn am1 am2 amn
Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
El conjunto formado por todas las matrices reales de orden m n lo denotaremos por Mmn (R).
20
5 1
la la 2 de A es A(2) = 1 4 0
4 1 , la columna 3 de A es A
(3)
5 1
2. B =
5 12 3 es una matriz cuadrada real de orden 3, las componentes de la 0 2 8 diagonal principal son a1,1 = 1, a2,2 = 12, a3,3 = 8. 1 si i = j
, para cada i, j {1, . . . , n}, es llamada 0 si i = j matriz identidad de orden n, esto es, 1 0 0 0 1 . . . . In = . . .. ... 0 . 0 0 1
nn
/ 4. La matriz 0 mn = (ij )mn , donde ij = 0 para cada i {1, . . . , m} y cada j {1, . . . , n},
mn
21
nn
2. A =
5 es triangular superior. 1
0 0
3. A =
0 1
13 3 8
0 0 es triangular inferior. 0 0
22
0 0 0 3 es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0). 0 0 5 0 0 0 0 0 8 0 0 0 0 8 0 0 5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8). 0 0 8 0 0 0 0 8 4. A = Denici on 2 .3 Sean A, B Mmn (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B , si la componente ij - esima de A es igual a la componente ij - esima de B para cada i {1, . . . , m} y cada j {1, . . . , n}, es decir, si A = (aij )mn y B = (bij )mn , diremos que A y B son iguales si aij = bij para cada i {1, . . . , m} y cada j {1, . . . , n}
Observaci on 2.5. N otese que para que dos matrices sean iguales, en primer lugar deben ser del mismo orden. 5 1 0
0 y y C = 0 3 , entonces A = B 6 8 3 2 4 2 4 pues ni siquiera son del mismo orden; B = C si y s olo si x = 5 e y = 3. Ejemplo 2.3 Si A = El siguiente teorema es una consecuencia directa de la denici on de igualdad de matrices, su demostraci on la dejamos como ejercicio. Teorema.2.1 Sean A, B Mmn (R). Entonces las siguientes proposiciones son equivalentes 1. A = B . 2. A(i) = B(i) para cada i {1, . . . , m}. 3. A(j ) = B (j ) para cada j {1, . . . , n}. Demostraci on. Hacerlo como ejercicio .
;B=
5 7
23
2.3.
En esta secci on deniremos dos operaciones con matrices que dotar an al conjunto Mmn (R) de una estructura algebraica conocida como espacio vectorial , dicha estructura ser a tratada en el cap tulo 2 del presente trabajo. Definicin 2.4. Sean A, B Mmn(R) con A = (aij)mn y B = (bij)mn. Deniremos la matriz
suma de A con B, como la matriz A + B Mmn(R) cuya ij-esima componente viene dada por cij = aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}.
aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A + B = (cij)mn, entonces Observaci on 2.6. Para poder sumar dos matrices estas deben ser 4 9 0 8 3 9 Ejemplo 2.4. Si A = 7 3 5 12 y B = 1 13 1 0 6 2 10 4 4 9 0 8 3 9 5 4 del mismo orden. 5 4 3 9 , entonces 7 11
A + B = 7 3 5 12 + 1 13 3 9 1 0 6 2 10 4 7 11 4 + (3) 9 + 9 0 + 5 8 + (4) 1 0 5 4 = 7 + 1 3 + (13) 5 + 3 12 + 9 = 6 10 8 3 1 + 10 0 + 4 6 + 7 2 + 11 11 4 1 13 Denici on 2.5. Sean A Mmn (R) y R ( es llamado escalar), con A = (aij )mn .
Deniremos la multiplicaci on de por A ( multiplicaci on por escalar) como la matriz A o simplemente A cuya ij-esima componente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A = (bij)mn, entonces bij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Observaci on 2.7. La notaci on de multiplicaci on por escalar es A o A y no A ni A , se debe colocar primero el escalar luego la matriz. Observaci on 2.8. Toda matriz escalar de orden n es un m ultiplo escalar de In , ms an, A Mnn (R) es una matriz escalar si y s olo si existe R tal que A = In .
24
, R
mn
= D + A (opuesto aditivo).
4. Existe una matriz D Mmn (R) tal que A + D = 0 5. (A + B ) = A+ B (distributividad de la multiplicaci on por escalar respecto a la suma matricial). 6. ( + )A = a la suma escalar). 7. (A) = ( )A = (A) (asociatividad de la multiplicaci on por escalar). 8. 1 A = A (neutro de la multiplicaci on por escalar). Demostraci on. Sean A = (aij )mn , B = (bij )mn y C = (cij )mn . 1. Hagamos A + B = E = (eij )mn y B + A = F = (fij )mn . Por denici on de suma de matrices, tenemos que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = aij + bij = bij + aij = fij Luego A + B = E = F = B + A (denici on de igualdad de matrices). A + A (distributividad de la multiplicaci on por escalar respecto
25
4. Denamos D = (dij )mn con dij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Hagamos A + D = E = (eij )mn . Entonces, por denici on de suma de matrices, para cada i {1, . . . , m} y cada j {1, . . . , n} eij = aij + dij = aij + (aij ) = 0
/ Por lo tanto A + D = E = 0 mn y por conmutatividad / A+D =0 mn = D + A
5. Hagamos A + B = E = (eij )mn , (A + B ) = G = (gij )mn , B = H = (hij )mn y P = (pij )mn . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} tenemos que fij = eij A+
= (aij + bij ) (denici on de suma de matrices) = gij + hij = pij Luego (A + B ) = F = P = A+ B (denici on de multiplicaci on por escalar)
26
F + G = H = (hij )mn . En consecuencia, para cada i {1, . . . , m} y cada j {1, . . . , n} eij = (+ )aij = aij + aij = fij + gij = hij De donde E=H= 7. Hagamos (gij )mn . j {1, . . . , n} obtenemos A+ A (denici on de multiplicaci on por escalar) (denici on de multiplicaci on por escalar)
As que, por denici on de multiplicaci on de por escalar, para cada i {1, . . . , m} y cada fij = eij = ( )A= (aij ) = ( )aij = gij
Luego (A) = F = G = ( )A y en consecuencia (A) = ()A = ( )A Por lo tanto (A) = ( )A = (A) 8. Hagamos 1 A = E = (eij )mn . As que al usar la denici on de multiplicaci on por escalar, se tiene que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = 1 aij = aij En consecuencia 1A=E =A
27
/ Demostraci on. La parte 3 del teorema 1.2 garantiza que la matriz nula 0 mn satisface que para / / cada A Mmn (R) se cumple que A + 0 as, la existencia de la matriz mn = A = 0mn +A. Adem
D es garantizada en la parte 4 del mismo teorema. S olo faltar a probar la unicidad de ambas matrices.
1. Supongamos que P Mmn (R) es tal que A + P = A = P + A para cada A Mmn (R), luego
/ P = P +0 mn / = 0 mn
(hip otesis)
2. Sea A Mmn (R) cualquiera. Supongamos que existen D, E Mmn (R) tales que
/ A+D =0 mn = D + A / A+E =0 mn = E + A
(2.1) (2.2)
En consecuencia
/ D = D+0 mn
= E
Teorema 2.4. Sean A, B, C Mmn (R) tales que A + B = A + C . Entonces B = C. Demostraci on. Hacer como ejercicio.
28
3. (1)A = A.
/ / 4. Si A = 0 oA=0 mn , entonces = 0 mn .
2. Por un lado
/ / 0 mn = 0mn + 0 mn
luego
/ / / / 0 mn + 0mn = 0mn + 0mn / / y nuevamente, usando el teorema 1.4, tenemos que 0 mn = 0mn
/ 3. Basta probar que A + (1)A = 0 amos el resultado. Veamos mn , y por unicidad, obtendr
(por la parte 1)
29
A =
5 3 6 1 11 yB= , entonces 1 2 4 0 5 7 0 1 2 6 1 4 12 0 5 10 6 6 5 3 6 1 11 A B = A + (B ) = + 6 1 2 0 5 4 7 0 1 2 6 1 4 12 0 5 10 6 1 2 6 6 5 3 6 1 11 12 6 14 = + = 6 1 2 4 0 5 2 1 3 7 0 1 2 6 1 9 6 2
Producto de Matrices
A diferencia de las dos operaciones denidas en la secci on anterior, la multiplicaci on de matrices no se dene de manera natural, como veremos luego, no por ello deja de ser importante dicha operaci on.
30
ducto de A por B como la matriz C = (cik)mp Mmp(R), denotada por AB o A B, tal que
cik =
j =1
Observaci on 2.9N otese que para poder denir el producto AB , la cantidad de columnas d A debe coincidir con la cantidad de las de B , adem as, la matriz resultante, es una matriz cuya cantidad de las coincide con la cantidad de las de A y su cantidad de columnas es igual a la cantidad de columnas de B . 2 1 0 0
3 1
yB=
2 1 2 . Entonces 4 2 3
AB = A B 2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3 = 0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3 = 62+0 2+1+0 0+2+0 0+64 032 06+3 = 4 3 2 2 5 3
Observaci on 2.10. N otese que en el ejemplo anterior, el producto BA no est a denido, esto nos dice que el producto de matrices no es conmutativo, m as a un, a pesar de que ambos productos est an denidos, AB y BA, no necesariamente son ambos del mismo orden, adem as, siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan. A continuaci on enunciaremos un teorema que expone las principales propiedades del producto de matrices Teorema 2.6. Sean A Mmn (R); B, C Mnp (R); C Mpq (R) y R. Entonces 1. (AB )D = A(BD ) (asociatividad del producto de matrices). 2. A(B + C ) = AB + AC (distributividad a izquierda del producto de matrices).
31
Demostraci on. Sean A = (aij )mn ; B = (bjk )np ; C = (cjk )np y D = (dkl )pq . 1. Hagamos AB = E = (eik )mp ; (AB )D = ED = F = (fil )mq ; BD = G = (gjl )nq y A(BD ) = AG = H = (hil )mq . Entonces, usando la denici on de producto matricial, para cada i {1, . . . , m} y cada k {1, . . . , p}
n
eik =
j =1
aij bjk
gjl =
k =1
bjk dkl
fil =
k =1
eik dkl ;
hil =
j =1
aij gjl
Luego
p p n p n n p
fil =
k =1 n
eik dkl =
k =1 p j =1
aij bjk
n
dkl =
k =1 j =1
=
j =1
aij
k =1
bjk dkl
=
j =1
32
aij ejk
=
j =1
aij bjk +
j =1
aij cjk
A(B + C ) = F = R = AB + AC 3. An alogo a la demostraci on de la parte 2. 4. Sean AB = E = (eik )mp ; (AB ) = (gij )mn y ( A)B = E = F = (fik )mp ; A=G=
GB = H = (hik )mp . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p} fik = n bn jk (denici aij o
j =1 n
eik
=
j =1 n
(aij bjk ) =
j =1
(aij )bjk
= gij bjk
j =1
= hik
De donde (AB ) = F = H = (A)B . De manera an aloga se prueba que (AB ) = A( B ), as que (AB ) = (A)B = A(B )
(2.3)
33
Hagamos AIn = E = (eik )mn . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , n}
n
eik =
j =1
aij jk
= ai1 1k + + ai(k1) (k1)k + aik kk + ai(k+1) (k+1)k + + ain nk = ai1 0 + + ai(k1) 0 + aik 1 + ai(k+1) 0 + + ain 0 (por 1.3) = aik Por lo tanto AIn = E = A, an alogamente puede probarse que Im A = A, en consecuencia AIn = A = Im A
Ejercicio 2.1. Pruebe que si A Mmn (R) y B Mnp (R), entonces 1. AB = AB (1) AB (2) AB (p) (desarrollo por columnas del producto AB ), es decir,
la k - esima columna de AB , que es (AB )(k) , es igual a A por la k - esima columna de B , AB (k) , para cada k {1, . . . , p}. A(1) B
2. AB =
A(2) B (desarrollo por las del producto AB ), es decir, la i- esima la de AB , . . A(m) B que es (AB )(i) , es igual a la i- esima la de A por B , A(i) B , para cada i {1, . . . , m}.
Denici on 2.8. Una matriz N Mnn (R) es llamada nilpotente si existe p N tal que
/ , adem / , diremos que N es nilpotente de orden p. Np = 0 as, si p es tal que N p1 = 0 n n
34
N1 =
1 0 1 0 1 0 1 0 1 0 1 0
N2 =
0 0 1 0 0 0 0 1 0 0 0 0
Transposici on de Matrices
Denici on 2.9. Sea A = (aij )mn Mmn (R). Deniremos la transpuesta o traspuesta de A como la matriz AT = (bji )nm Mnm (R) tal que bji = aij Ejemplo 2.9. Sea
y cada j {1, . . . , n} 7
Entonces
A=
1 6 5 12 2 9 3 0 2 5 0 3 5 0 12
AT =
1 2 7 6 9
Observaci on 2.12. N otese que las las de A pasan a ser las columnas de AT y las columnas de A pasan a ser las las de AT , m as propiamente A(i) A(j )
T
= AT = AT
(i)
(j )
35
2. (A + B )T = AT + B T (transpuesta de la suma) 3. (A)T = AT (transpuesta de la multiplicaci on por escalar) 4. (AC )T = C T AT (transpuesta del producto matricial)
T / / 5. (In )T = In y (0 mn ) = 0nm
Demostraci on. Sean A = (aij )mn ; B = (bij )mn y C = (cjk )np . 1. Hagamos AT = D = (dji)nm y AT
T
i {1, . . . , m} y cada j {1, . . . , n}, por denici on de transpuesta eij = dji = aij Luego AT
T
=E=A
2. Sean A + B = D = (dij )mn ; (A + B )T = D T = E = (eji)nm ; AT = F = (fji )nm ; B T = G = (gji)nm y AT +B T = F +G = H = (hji )nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij (denici on de transpuesta) (denici on de suma de matrices) (denici on de transpuesta)
(A + B )T = E = H = AT + B T 3. Hagamos A = D = (dij )mn ; (A)T = D T = E = (eji )nm ; AT = F = (fji )nm ; y AT = F = G = (gji)nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij = aij = fji = gji (denici on de transpuesta) (denici on de multiplicaci on por escalar) (denici on de transpuesta) (denici on de multiplicaci on por escalar)
36
(denici on de transpuesta) aij cjk (denici on de producto) (denici on de transpuesta) (denici on de producto)
=
j =1 n
=
j =1 n
gjifkj
=
j =1
De donde (AC )T = E = H = C T AT Denici on 2.10. Sea A Mnn (R). Diremos que 1. A es sim etrica si AT = A. 2. A es antisim etrica si AT = A. Ejemplo 2.10. 1. In es sim etrica para todo n N.
/ 2. 0 etrica y antisim etrica para todo n N existe alguna otra matriz que sea sim etrica n es sim
3. La matriz
A= 0 5 0 4 7 6 0
5 7
6 8 12
8 12 0
37
0 5 7 5 6 0 8 7 4
6 8
AT =
4. La matriz
0 12 12 0 3 0 0 13
= A
A=
9 0
5 9 3 1
2 1
13 3 0
AT =
7 7 3 0 13 =A 7
5 9 3 1 0
2 1
13
7 3
Teorema 2.8. Sea A Mnn (R). Entonces 1. A es sim etrica si y s olo si aij = aji para cualesquiera i, j {1, . . . , n}. 2. A es antisim etrica si y s olo si aij = aji para cualesquiera i, j {1, . . . , n}. 3. Si A es antisim etrica, entonces aii = 0 para cualquiera i {1, . . . , n}. Demostraci on. Ejercicio!
38
OEF Tipo 1. Si f (A) = B , entonces existen s {1, . . . , m} y = 0 tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adem as B(s) = A(s) , esto es, una de las las
de A es multiplicada por un escalar no nulo y el resto de las las permanecen iguales. A(1) A(1) . . . A(s1) A(s1) f (A) = f = =B A(s) A(s) A(s+1) . . A(m) A(s+1) . A(m)
Fs Fs
B.
OEF Tipo 2. Si f (A) = B , entonces existen s, t {1, . . . , m}, con s = t, y R tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adem as B(s) = A(s) + A(t) , es decir, a una la de A le sumamos un m ultiplo escalar de alguna otra la de A, distinta de la primera, dejando el resto de las las intactas. A(1) . A(s1) A(s) A(s+1) . . A(m) A(1) . A(s1) A(s) + A(t) A(s+1) . . A(m)
f (A) = f
=B
Fs Fs + Ft
B.
OEF Tipo 3. Si f (A) = B , entonces existen s, t {1, . . . , m} tales que B(i) = A(i) para otra manera, intercambiamos dos las de A y dejamos el resto sin alterar.
cada i {1, . . . , m}, con i = s e i = t y adem as B(s) = A(t) y B(t) = A(s) , dicho de
39
A(1) .
A(s+1) A(s+1) . . f (A) = f = =B . . A(t1) A(t1) A(t) A(t+1) . . A(m) A(t+1) . A(m) A(s)
A(s1) A(s)
A(s1) A(t)
Fs Ft
B.
Observaci on 1.1.3. N otese que si A Mmn (R) y f : Fm (R) Fm (R) es una OEF, entonces f (A) Mmn (R). Ejercicio 2.1.3. Pruebe que toda OEF f : Fm (R) Fm (R) es una funci on invertible y que su inversa f 1 : Fm (R) Fm (R) es tambi en tipo que f . una OEF del mismo 2 4 5 Ejemplo 2.1.1. Sea 6 3 4 A= Entonces 2 4 3 5 6 2 1 8 21 15 8 4
F1 F3 6 A= 2 1 8 (OEF 3) 2 6 21 15 6 2 1 8 6 4 F3 F3 + F1 (OEF 2) 6 0 2 3 3 7 5 4 =B 3
2 1
F4 1 F 6 3 4 4 5 (OEF 1) 2 21 15 2 3
2 1
8 4
4 5 7 5
40
Observacin 2.14. Se pueden aplicar ms de dos operaciones por las en un solo paso, lo nico que debemos cuidar es no transformar, en el mismo paso, una la ms de una vez y no transformar, en el mismo paso, una la que va ser usada para transformar a otra(s). Observacin 2.15. De manera anloga a como se denieron las operaciones elementales por las, pueden denirse operaciones elementales por columnas (OEC), sin embargo, estas ltimas slo se usarn para el clculo de determinantes y no para la resolucin de sistemas de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ltimos dos problemas slo usaremos las operaciones elementales por las. Denici on 2.12. Sea A = (aij )mn Mmn (R). Diremos que A es una matriz Escalonada 1. Si todas las las nulas de A, si las hay, estan ubicadas en las timas posiciones, esto es, si A(i) es una la no nula de A, entonces A(s) tambin es no nula para cada 1 s < i. 2. Si A(i) y A(i+1) son dos las no nulas de A, entonces la primera componente no nula de A(i) (contada de izquierda a derecha) est mas a la izquierda de la primera componente no nula de A(i+1), es decir, si j, k {1, . . . , n} son tales que aij = 0; a(i+1)k = 0 y ais = 0 = a(i+1)t para cada 1 s < j y cada 1 t < k , entonces j < k . Reducida por Filas (RF) 1. Si A(i) es una la no nula de A, entonces la primera componente no nula de A(i) es igual a 1 (uno), dicha componente es llamada pivote, es decir, si j {1, . . . , n} es tal que aij = 0 y ais = 0 para cada 1 s < j , entonces aij = 1. 2. Si A(j ) es una columna de A que tiene un pivote, entonces el resto de las componentes de A(j ) son iguales a 0 (cero), esto es, si i {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 s < j , entonces akj = 0 para cada k {1, . . . , m} con k = i.
Escalonada Reducida por Filas (ERF) si es escalonada y reducida por las simult anea mente. Ejemplo 2.12.
41
4. F =
0 0 0 0 0 0
Ejercicio 2.4. Sea A Mmn (R). Pruebe que: 1. Si A es una matriz escalonada, entonces la cantidad de las no nulas de A es, a lo sumo, el m nimo entre m y n. 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el m nimo entre m y n. Ejercicio 2.5. Pruebe que si A Mnn (R) es una matriz escalonada, entonces A es triangular superior. Denici on 2.13. Sean A, B Mmn (R). Diremos que B es equivalente por las a A si
Ejemplo 2.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente por las a A (por qu e?). Teorema 2.9. Sean A, B, C Mmn (R). Tenemos que
42
Observaci on 2.16. La parte 2 del teorema 2.9, nos permite decir A y B son equivalentes por las en lugar de B es equivalente por las a A o A es equivalente por las a B . Teorema 2.10. Toda matriz A Mmn (R) es equivalente por las a 1. Una matriz escalonada. 2. Una matriz reducida por las. 3. Una u nica matriz escalonada reducida por las, la cual llamaremos la forma escalonada reducida por las (FERF) de A. Demostraci on.
Observaci on 2.17. A Mnn (R) es equivalente por las a In si y s olo si In es la FERF de A. El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz. Ejemplo 2.14. Hallar la FERF de 1 7 6 1 15 0 0 3 9 2 0 13 2 1 3 3 9 10
A=
1 11
Soluci on . 6 1 15 2 13
A=
0 1 0 3 7
1 11
2 1 3 F1 F2 9 0 9 3 10
6 1 15 0 3 7 9
2 1 3 2 3 0
1 11
13 9 10
43
F1 F1
F2 F2
F2 F2 6F1 0 1 3 4 5 6 1 15 2 13 0 9 0 3 9 0 9 F4 F4 7F1 0 3 9 7 1 11 3 10 0 1 3 4 11 1 0 2 1 3 1 0 2 1 3 1 3 0 0 3 9 0 1 4 5
F3
1 F 12 3
As que la FERF de A es
0 0 0
F3 F3 + 3F2 0 1 3 4 5 0 9 0 12 24 F4 F4 F2 0 0 1 3 4 11 0 0 0 8 16 0 2 1 3 1 0 2 0 1 F1 F1 F3 1 3 4 5 0 1 3 0 3 F2 F2 4F3 0 0 1 2 0 1 2 F F + 8F 0 0 4 4 3 0 0 8 16 0 0 0 0 0
C=
0 1 0 0 0 0
1 0 2 0
3 0 3 0 1 2 0 0 0
Denici on 2.14. Una matriz E Mnn (R) es llamada matriz elemental si existe una OEF f : Fn (R) Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una u nica OEF. Ejemplo 1.15. 1 0 1. E1 = 5 0 1 0 I4 =
0 0 0
1 0 0 0 1 0 0 0 1 0 0
es elemental, pues
0 1 0 0 0 1 0 0 F3 F3 5F1 = E1 5 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1
1 0 0 0
44
2. E2 = 0 0 1 I3 = 0 0 1 0 3. E3 = 0 0 0 1 0
I5 =
0 0 1 0 0 F2 F5 0 0 1 0 0 = E3 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0 1 0 0 0
0 0 0 0 1
1 0 0 0 0
Teorema 2.11. Sean A Mmn (R), B Mnp (R) y f : Fm (R) Fm (R) una OEF. Entonces 1. f (AB ) = f (A)B . 2. (f (A))(j ) = f A(j ) para cada j {1, . . . , n} de donde f (A) = f A(1) f A(2) f A(n) es decir, la la j - esima de f (A) es igual a f aplicada a la j - esima la de A.
45
/ As que la u nica soluci on del sistema homog eneo Bx = 0 n1 es la trivial, y en virtud del teorema
Por lo tanto BA = In (denici on de inversa) y como consecuencia de la parte 1 del teorema 3.20 A1 = (B 1 )1 = B .
Observaci on 3.22. El teorema 1.23 nos permite garantizar que A1 = B s olo con probar que AB = In o BA = In . Ejercicio 3.7. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambi en son invertibles
2.6.
En esta secci on trataremos los determinantes y algunas de sus propiedades, en primer lugar deniremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para nalmente denir los determinantes de orden n. Denici on 2.17. Sea A = a11 a12 M22 (R). Deniremos el determinante de A, como
a21 a22 el n umero real det(A) = |A|, dado por det(A) = |A| =
este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 2.22. Hallar det(A) para A = 6 5 7 6
46
= (6)6 5(7) = 36 + 35 = 1
a21
Deniremos el determinante de A, denotado por det(A) o |A|, como a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32
este tipo de determinante es llamado determinante de orden 3. Observaci on 2.23. N otese que estamos deniendo el determinante de orden 3 en funci on de determinantes de orden 2. Ejemplo 2.23. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6
Soluci on .
det(A) = |A| =
6 7
5 6
= 2
1 5 0 6
(3)
6 5 7 6
+ (1)
6 1 7 0
47
a11 a21
a12 a22
a13 a23
Los productos generados por las echas rojas () se colocan con signo positivo, los que son Puede vericar que la igualdad anterior es cierta. Tambi en se puede hacer el c alculo si en lugar
de colocar las dos primeras las al nal, se colocan las dos u ltimas las en la parte superior, las dos primeras columnas a la derecha o las dos u ltimas columnas a la izquierda. Este m etodo se conoce como la m etodo de Sarrus para el c alculo de determinantes de orden 3 y s olo es aplicable a determinantes de orden 3. Ejemplo 2.24. Calculemos el determinante del ejemplo 2.23 usando este m etodo. Soluci on . 2 3 1 1 0
6 7 6 6 7
5 6
2 3 1 1
2 3 1 1 0
5 6
= 12 + 0 + 105 7 0 108 = 2
48
matriz es llamada ij - esimo menor de A. Observaci on 2.25. Si en lugar de eliminar una la y una columna de A, eliminamos dos las y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j
(con i = j ) y las columnas k y l (con k = l) de A. De manera an aloga se pueden denir menores de A Mnn (R) hasta de orden n 1.
A A A A Observaci on 2.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . ,
n} con i = j y k = l.
0 8 5 1 6
4 1
7 3 6 0 3
Denici on 2.20. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij - esimo coA factor de A como el n umero real Cij dado por Ejemplo 2.26. Para la matriz del ejemplo 2.25 se tiene que A A Cij = (1)i+j det Mij
49
A C23
= (1)
2+3
det
A M23
9 2 4 1
1 6 6
A C42
= (1)
4+2
det
A M42
9 1 0 5 1
3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0
A C22
= (1)
2+2
det
A M22
9 1 1 4
Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la f ormula dada en la denici on 2.18 puede ser escrita como
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13
La idea es generalizar esta f ormula para una matriz A de orden n. Denici on 2.21. Sea A Mnn (R). Deniremos el determinante de A, determinante de orden n, como el n umero real det(A) = |A| dado por a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 2.27. Hallar el determinante de la matriz del ejemplo 2.25 Soluci on . 9 2 1 det(A) = |A| = 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1 j j =1 n
=
j =1
3 6 0
A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14
50
det(A) = 9 6
3 6 2 0
3 6 0
1 6 6 4
3 0
0 0 0
0 0 6
5 8
0 3 6 7
7 1
A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15
0 6
1 = 2 8
0 0
0 0 0
0 3 6 7
7 1
0 6
51
det(A) = 2 1(1)1+1
0 6
0 0
7 1
0 6 8 7
8 1
0 6 8 0 3 0
+0(1) 3 7 0 0 0
1+3
6 7 6
7 1 6 7 0
= 21
7 1
0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0
= 2 1 (3)(1)1+1 = 2 1(3) 1 0
= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.
0 6
= 2 1(3)((1)(6) 0 0)
La demostraci on del teorema que enunciaremos a continuaci on escapa del objetivo del curso, sin embargo, de el se derivan el resto de las propiedades que ser an enunciadas m as adelante, en el ap endice D se puede encontrar una demostraci on de este. Teorema 2.24. Si A = (aij )nn Mnn (R), entonces
n n A aij Cij = j =1 j =1 A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del
1. det(A) =
2. det(A) =
52
det(A) = |A| =
6 7
5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3
= 7(1)3+1
3 1 1
det(A) = |A| =
6 7
5 6
= 3(1)1+2
6 5 7 6
+ 1(1)2+2
2 1
+ 0(1)3+2
2 1
Teorema 2.25. Si A Mnn (R), entonces det AT = det(A). Demostraci on. (Ejercicio) Sugerencia: proceder por inducci on sobre n y usar el teorema 1.24
Teorema 2.26. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostraci on. Procedamos por inducci on sobre n. Supongamos, sin perder generalidad que A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22
53
a1n
a22 .. .. . .
a2n . . ann
A A A n+n A A det(A) = 0 Cn det(Mnn ) = ann det Mnn 1 + + 0 Cn(n1) + ann Cnn = ann (1)
A Mnn =
A es decir, Mnn es una matriz triangular superior de orden (n 1), por lo tanto, usando la Hip otesis A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego
0 . . 0
a22 .. .. . . 0
det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.
Los teoremas que enunciaremos a continuaci on, nos presentan las propiedades b asicas del determinante, estas propiedades nos permitir an hallar el determinante de una matriz sin hacer demasiados c alculos. Los enunciados de estas propiedades se dar an s olo para las, sin embargo, en virtud del teorema 1.25, se pueden enunciar propiedades an alogas para columnas.
/ Teorema 2.27. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0 1n , entonces
54
det(A) =
=
j =1
A 0 Csj =0
Teorema 2.28. Sean A, B Mnn(R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y escalar , entonces el determinante de la matriz resultante es igual al determinante de A multiplicado por . Demostraci on. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = s,
B(i) = A(i) para i = s, entonces det(B) = det(A), esto es, si multiplicamos una la de A por un
A B la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj para
entonces bsj = asj para cada j {1, . . . , n} y adem as, la matriz que se obtiene al eliminar la
det(B ) =
=
j =1
Entonces 2 det(A) = 2 1 2
A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3
1 2
12 16 4
0 3
4 3 4(4) 4 1 0
55
= B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos
j {1, . . . , n} y adem as, las matrices que se obtienen al eliminar la la s de A, B y C son Por lo tanto
det(C ) = =
j =1
=
j =1 n
(asj +
C bsj )Csj
+
j =1
C bsj Csj
A asj Csj + j =1
Ejemplo2.31. Sea A la matriz del ejemplo 1.30. Entonces 2 det(A) = 2 1 2 4 + (2) 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2
12 16 4
0 3
6 + 6 16 4
6 16 4 + 0 3
6 16 4
0 3
= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116
Teorema 2.30. Sean A, B Mnn(R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t), intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.
B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = det(A), en otras palabras, si
56
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adem as 2 det(B ) = 3 1 2 12
4 16
0 2
Teorema 2.31. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. Como A(s) = A(t) , entonces B = A y as det(B ) = det(A). Por otro lado, dado que s = t y seg un el teorema 1.30, det(B ) =
2 2
4 16 Entonces 2 det(A) = 2 4 16 1 2 1 2 A=
1 2
12 1 2
12
57
Teorema 2.32. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un m ultiplo escalar de alguna otra la de A, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B ) = 0 = 0.
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.31, se tiene que det(B ) = 0.
4 16 1 A= 3 12 2
4 16
12 2
= A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si a una la de A le sumamos un multiplo escalar de alguna otra la de A, el determinante de la matriz resultante es igual al determinante de A. Demostraci on. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por lo tanto, dado que s = t y en virtud del teorema 1.32, det(C ) = 0. Adem as, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 det(B ) = det(A) + det(C ) = det(A) + 0 = det(A)
58
El siguiente ejemplo nos da un m etodo para calcular el determinante de una matriz A haciendo uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c alculo resulta mucho m as sencillo que al usar la denici on. Como se dijo en la observaci on 1.15, usaremos tanto OEF como operaciones elementales por columnas (OEC) para el c alculo de determinantes, estas operaciones las indicaremos de manera an aloga a las OEF, salvo que en lugar de usar F usaremos C . Ejemplo 2.36. Hallar el determinante de la matriz 6 1 2 13 A= 1 2 0 3 = 7 0 3 0 3 4 1
2 0
0 1 3 1 9 12
0 2
Soluci on . 6 1 0 3 7 0 2 2 0 4 13 9
3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 1.2.33
det(A) =
0 1 3 1 1 3 12
6 1 0 3 7 0 2
0 1 3 1 1 3 15
1 3
4 5 3
59
1 1 3 1 4 5 3
= 3
0 4 8 4
F1 F1 + 6F2
mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna
= 3(1)(1)2+1 4 6 4
= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m etodos cu al de los dos le parece m as sencillo? Teorema 2.34. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk =0 y k =1 k =1 n A aks Ckt =0
para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B ) = 0.
Demostraci on. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,
B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
n B btk Ctk
det(B ) =
k =1 n A ask Ctk k =1
=
k =1
A ask Ctk n
En consecuencia
A aks Ckt = 0.
60
Teorema 2.35. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB ) = det(E ) det(B ). Demostraci on. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A = Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg un el teorema 1.28, det(E ) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E ) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s. Usando el teorema 1.33, tenemos que det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E ) = det(In ) = 1 f (A).
61
Observaci on 2.27. De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz elemental, entonces det(E ) = 0. Corolario 2.36. Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostraci on. Hacerlo como ejercicio.
Teorema 2.37. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y s olo si A = In . Demostraci on. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i {1, . . . , n}, la primera componente no nula en la i-esima la es aii, y por por lo tanto aij = 0 para i = j (por que?). En resumen aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0.
ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y 1 si i = j 0 si i = j
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.
62
Teorema 2.39. Sean A, B Mnn (R). Entonces det(AB ) = det(A) det(B ). Demostraci on . Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB ) = 0. Por lo tanto det(AB ) = 0 = 0 det(B ) = det(A) det(B ) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36
det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB ) = det(E1 E2 Er B ) = det(E1 ) det(E2 ) det(Er ) det(B ) = det(A) det(B )
2.8.
En esta secci on deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci on de los determinantes. Denici on 2.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A)
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.
Mnn (R) cuya ij - esima componente es el ji- esimo cofactor de A para cada i, j {1, . . . , n}, es
63
esima componente es el ij - esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = CT . Ejemplo 2.37. Hallar la adjunta de
2 1 3 1
0 2 4 1 7
A C11 = (1)1+1
0 2 1 7 1 3 1 7 1 3 0 2
= 2;
A C12 = (1)1+2
1 2 4 7 2 3 4 7 2 3 1 2
= 1;
A C13 = (1)1+3
4 1 2 1 4 1 1
= 1;
A C21 = (1)2+1
= 4;
A C22 = (1)2+2
= 2;
A C23 = (1)2+3
= 2; = 1;
A C31 = (1)3+1
= 2;
A C32 = (1)3+2
= 1; 2 1
A C33 = (1)3+3
2 1
As que
2 1 1 2 1
4 2
Teorema 2.40. Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostraci on. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A bjk = Ckj .
Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n
dik =
j =1
aij bjk =
j =1
A aij Ckj .
Pero
64
n A aij Ckj =0 j =1
= det(A) = det(A)ik
donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera an aloga se prueba que adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)
Teorema 2.41. Si A Mnn (R) es invertible, entonces det(A1 ) = A1 A, y por el teorema 1.39
Demostraci on. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.
Luego det(A1 ) =
1 . det(A)
Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)
Ejercicio 2.9. Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambi en es invertible y adem as (adj(A))1 = adj(A1 ).
65
2.9 . APLICACIONES
Si A es invertible, entonces la u nica soluci on de dicha ecuaci on est a dada por x = A1 b, as que, una forma de hallar la soluci on de la ecuaci on en cuesti on, es calcular la inversa de A y multiplicarla por b, pero quiz as esto es mucho m as complicado y costoso (en t erminos de c alculos) que hallar la FERF de la matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci on an
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 2.42 (Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab j) , es la soluci o n de la ecuaci o n Ax = b , entonces, para cada j { 1 , . . . , n } , x = j x= . det(A) . xn (j ) donde Ab (la columna j ) por b, esto es, j es la matriz que se obtiene de A al reemplazar A Ab j = A(1) A(j 1) b A(j +1) A(n)
Demostraci on. Como A = (aij )nn es invertible, entonces la u nica soluci on del sistema Ax = b es x = A1 b, pero A1 b1 b2 1 1 = adj(A), as que x = adj(A)b, por lo tanto, si b = , . det(A) det(A) bn
1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a1(j 1) a1(j +1) a11 b1 . . . . . . . . Ab j = ai1 ai(j 1) bi ai(j +1)
a1n .
a(i1)1 a(i1)(j 1) bi1 a(i1)(j +1) a(i1)n a(i+1)1 a(i+1)(j 1) bi+1 a(i+1)(j +1) a(i+1)n . . . . . . . . . . an(j +1) ann an1 an(j 1) bn
Ab A A Cij j = (1)i+j det Mij j = (1)i+j det Mij = Cij Ab Ab
ain
A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as
66
det(Ab j) =
i=1
Cij j bi =
i=1
Ab
n A Cij bi
Ejemplo 2.38. Vericar que la matriz del sistema +2z w = 3 x x +y +2z +w = 2 es invertible y usar la regla de Cramer para hallar la soluci on del sistema. Soluci on. La matriz del sistema es 4x +2y +2z 3w = 1 2y +z +4w = 1
1 0 2 1 1 1 2
A=
4 2 2 3 0 2 1 4 2 1 0 1 1 4 1 = 2 0 2 = 1 4 1 2 0 1 0 0
1 0 = 0 1 0 2
1 4
0 2 6
2 6 1
2 6 3
= 3 = 0.
Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de t erminos independientes es 3 b= 2 1 1
67
1 4
= 3
= 3 0 0 1
6 0 20 7 7
6 20 3 7
= 42 60 = 18.
1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1
1 = 0 0 0 = 6
3 1
1 4
2 1 1
2 4
0 11 6 1
11 6 1 1
0 2 1 4
11 6 21 1
6 21 1
1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3
1 0 = 0 1 0 2
1 4
0 2 11
2 1
2 1 4
1 = 2
2 11 1
1 2
1 4
0 9 3 0 3
1 1
2 0
= 9.
1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =
1 0 0 1 0 2
2 0 1
3 1 =
1 2
0 1
0 2 6 11
2 6 11
1 = 2
0 1
0 3
2 6 9
= 18 + 9 = 9.
68
En consecuencia x =
det Ab 9 4 w= = = 3, es decir, la soluci on del sistema dado es: det(A) 3 x 6 y 5 = z 3 w 3 Ejemplo 2.39. Una fbrica produce tres tipos de productos, mezclando para ello tres materias primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la fbrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y seis millones de la materia prima 3 cuntas unidades de cada producto puede producir la fabrica usando el total de las materias primas? Soluci on. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede producir la f abrica. Por lo tanto, la cantidad de unidades (en millones) que se usar an es: x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2
de la materia 3
Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3
69
x1
x= x2 x3
y b= 12 6
0 0 6
= 12 = 0.
Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab 3 = 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6
6 0 6
3 12 3
0 6 6 0 6 4 1 1 2 0
6 6 6 4
= 24 36 = 12.
6 = 6
3 3 12
0 0 6
0 6 2
= 12.
24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un mill on de unidades de cada uno de los productos 2 y 3.
70
La presente secci on esta muy relacionada con las OEF y las matrices, y es quiz as, junto con la secci on anterior, la m as importante del presente obra por su relacin con otras materias.
de
Denici on 3.1. Un sistema de ecuaciones lineales con m ecuaciones y n inc ognitas es un conjunto de ecuaciones de la forma
= b 1 . . . (3.1)
donde x1, x2, . . . , xn son las incgnitas del sistema 3.4 y toman valores en R; aij R son n sistema 3.4 y b1, b2, . . . , bm R son jos y son los terminos independientes del sistema 3.4. diremos que es no homog eneo.
umeros jos para cada i {1, . . . , m} y cada j {1, . . . , n} y los llamaremos coecientes del Si b1 = b2 = = bm = 0, diremos que el sistema 3.4 es homog eneo, en caso contrario Cuando m = n, se dice que el sistema 3.1 es un sistema cuadrado.
71
a12 a22 .
A = (aij )mn =
a1n
am1 am2
el sistema 3.1 puede escribirse como la ecuaci on matricial Ax = b (comprobarlo), que llamare mos representaci on matricial del sistema 3.1. La matriz A es llamada matriz de coecientes o matriz del sistema 3.1, la matriz a11 a12
a2n ; . amn
b=
b1
2
. bm
x=
x1
2
. xn
es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz inc ognita o matriz de inc ognitas y b es conocida como matriz de t erminos independientes. El sistema a11 x1 + a12 x2 + + a1n xn a21 x1 + a22 x2 + + a2n xn . . . . . . es llamado sistema homog eneo asociado al sistema 3.1. = 0 = 0 . . . . (3.2)
a1n
b1
72
es un sistema de ecuaciones lineales de dos ecuaciones y tres inc ognitas, es no homog eneo, su representaci on matricial es x1 x2 = x3
x1 +5x2 7x3 = 4
1 5 7
3 2 6
0 4
1 5 7
1 5 7 4
2.
x2 x3 6x x 5x +12y 3z = 2 6z = 2y +9z = 1 6
0 4
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres inc ognitas, es no homog eneo y su representaci on matricial es
73
5 1
6 2
12 3 y = 2 0 6 z 6
Una pregunta que surge de manera inmediata es c omo garantizar que un sistema de ecuaciones lineales es consistente o inconsistente? y en caso de que sea consistente c omo resolver dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes daremos las bases te oricas que nos permitan usar dichas herramientas. Teorema 3.1. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de ecuaciones lineales con m ecuaciones y n inc ognitas. Supongamos que las matrices [A|b] y [C |d] son equivalentes por las. Entonces ambos sistemas tienen exactamente las mismas soluciones o ninguno tiene soluci on. Demostraci on. Dado que las matrices [A|b] y [C |d] son equivalentes por las, entonces existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que
(f1 f2 fr )([A|b]) = [C |d] por la parte 3 del corolario 3.1 (f1 f2 fr )(A) = C y (f1 f2 fr )(b) = d
y por la parte 2 del mismo corolario, tenemos que (f1 f2 fr )(Ax) = (f1 f2 fr )(A)x As que, si Ax = b, entonces Cx = (f1 f2 fr )(A)x = (f1 f2 fr )(Ax) = (f1 f2 fr )(b) = d
74
Por lo tanto Ax = b si y s olo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o ambos tienen la(s) misma(s) soluci on(es).
fr )1 (d) = b
Observacin 3.2. Cuando la matriz del sistema es una matriz ERF, es fcil decidir si el sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucin(es) de este. La idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 3.14, resolver, de manera sencilla, el sistema dado. Corolario 3.1. Sean A, C Mmn (R) y b, d Mm1 (R) tales que [C |d] es la FERF de [A|b].
El sistema Ax = b tiene soluci on si y s olo si el n umero de las no nulas de [C |d] es igual al n umero de las no nulas de C . Demostraci on. Reralizarlo como ejercicio.
Ejemplo 3.2. Decidir cu al de los siguientes sistemas son consistentes y cu ales no, en caso de serlo, mostrar su(s) soluci on(es). 2x +y z = 1 2x y +5z = 5 1. y +3z = 2 2 2x +y z = x 2y +4z = 3 2. 5x 4y +8z = 9 y +3z = 2 x +y 2z +w = 1 3. 4x +2y +2z = 2 2y 10z +3w = 3
75
4.
4x +2y
+2z
2y 10z +4w =
= 2
1 1 1
5 5 3 2
2 1 0 1
F 5 5 F1 1 2 1 5 5 1 2 F2 3 2 0 1 3 2 1 1 1 1 2 2 2 F F1 F1 1 2 2 1 F1 2 F1 0 1 3 2 F3 F3 + F2 0 1 3 2
1 2
1 2
F2 2F1 0 2 0 1 3 1 0 1 2 0 1 3 2 0 0 0 0
1 2
1 2
6 4 3 2
1 2
3z 2
76
= = y 3 2 z 2
+ 3 2
3 + 2 ; 1 0 2
3 2
con R
1 2 5 4 0 1
1 1
4 3 8 9 3 2
1 2 5 4 0 1
4 3 8 9 3 2
F1 F2 1 2
0 0 1 F2 F2 2F1 5 F2 F4 0 6 12 6 6 F3 F3 5F1 0 0 1 3 2 0 5 1 2 4 3 1 0 F1 F1 + 2F2 0 0 1 1 3 2 F2 F2 F F 6 F 3 3 2 0 6 12 6 0 0 F4 F4 5F2 0 5 9 8 0 0 1 0 2 7 1 0 0 F F + 2 F 1 1 3 0 1 3 2 0 1 0 F3 1 F F F + 3 F 3 2 2 3 6 0 0 1 3 0 0 1 F4 F4 6F3 0 0 6 18 0 0 0 Luego, el sistema dado es equivalente al sistema x = 1 = z =
5 4 0 1 4 3 9 8
1 2
1 1
4 3
8 9 3 2
1 2
4 3 3 12 9 2 7 6 6 1 7 3 0
2 6 8
3 2 18 18
7 3
77
y = z
7 3
= 3
x = 3z + 1 y = 5z 3 w = 3
78
con R
Sin necesidad de llegar a la FERF de la matriz, vemos que la u ltima la de esta u ltima
/ si m < n, esto es, si el sistema homog eneo Ax = 0 as inc ognitas que ecuaciones, m1 tiene m
Teorema 3.4. El sistema homog eneo Ax = 0 /m1 , con A Mmn (R), tiene innitas soluciones
79
Teorema 3.3. Sean A Mmn (R) y b Mm1 (R). Supongamos que xp es una soluci on del
/ Ax = 0 m1 tal que xg = xh + xp .
sistema Ax = b. Entonces, para cada soluci on xg del sistema Ax = b, existe una soluci on xh de
Demostraci on. Dado que xp es soluci on del sistema Ax = b, tenemos que Axp = b. Sea xg una soluci on cualquiera de Ax = b. Entonces Axg = b. Sea Axh = A(xg xp ) = Axg Axp = b b = 0
/ es decir, xp es soluci on del sistema homog eneo Ax = 0 as xg = xh + xp . m1 y adem
xh = xg xp . As que
Ejemplo 3.3. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que 3 1 2 xp = 2 ; xh = 3 ; con R 0 1 Para el sistema de la parte 2 del mismo ejemplo, se tiene que 1 0 xh = 0 0
xp =
7 ; 3
con R
Ejercicio 3.1. Sea A Mmn (R). Pruebe que si el sistema Ax = b tiene soluci on para cada b Mm1 (R), entonces m n.
80
Se denomina ecuaci on lineal a aquella que tiene la forma de un polinomio de primer grado. Es decir, que las inc ognitas no esten elevadas a alguna potencia. Por ejemplo, 3x + 2y + 6z = 6 es una ecuaci on lineal con tres inc ognitas. Como es bien sabido, las ecuaciones lineales con 2 inc ognitas representan una recta en el plano. Si la ecuaci on lineal tiene 3 inc ognitas, su representaci on gr aca es un plano en el espacio. Un ejemplo de ambas representaciones puede observarse en la gura:
Figura 3.1: Representaci on gr aca de la recta x + 2y = 3 en el plano y del del plano x + y + z = 1 en el espacio. El objetivo del tema es el estudio de los sistemas de ecuaciones lineales, es decir, un conjunto de varias ecuaciones lineales. Diremos que dos ecuaciones son equivalentes si tienen las mismas soluciones, o geomtricamente representan la misma recta o plano.
81
En general,buscaremos las soluciones de los sistemas en los n umeros reales R. Dependiendo del posible n umero de tales soluciones reales que tenga un sistema, estos de pueden clasicar en: * INCOMPATIBLES (No tienen soluci on) S.I. * COMPATIBLES (Tienen soluci on) * DETERMINADOS (Soluci on u nica) S.C.D. * INDETERMINADOS (Innitas soluciones) S.C.I.
Los sistemas m as sencillos son aquellos en los que s olo hay dos inc ognitas y 2 ecuaciones, y que ya son conocidos de cursos pasados. Hay varios sistemas para resolverlos, los m as habituales: * Reducci on * Igualaci on * Sustituci on en los que ya no nos entretendremos. Como cada ecuaci on lineal con 2 inc ognitas se interpreta geom etricamente como una recta, el estudio de la soluci on del sistema se limita a estudiar la posici on de 2 rectas en el plano. Veamos algunos ejemplos con los tres casos que se pueden presentar. Resolver e interpretar el x + 2y = 3 sistema: . 2x + y = 1 Por reducci on: 2x+4y=-6 -2x+ y=1 5y=-5 de donde y = -1 y sustituyendo x + 2(-1) = -3, x = -1. Es decir, la soluci on del sistema es u nica, x = -1, y = -1 lo que signica que el sistema es compatible y determinado, y que las rectas se cortan en un punto, precisamente el (-1,-1):
82
5 + 4y = 4y + 6 = 5 + 4y = 0y = 1 = 0 = 1 2
lo cu al es imposible y por tanto el sistema no tiene soluci on, es un sistema incompatible y por tanto las rectas son paralelas. Geom etricamente:
Por sustituci on, como x = 2y 3 resulta 3(2y 3) + 6y = 9, es decir 6y 9 + 6y = 9, por tanto 0y = 0, 0 = 0. Como 0 = 0 es una igualdad siempre cierta, quiere decir que el sistema tiene innitas soluciones, es compatible indeterminado, o que las rectas son la misma.
Figura 3.4: Innitas soluciones. Las rectas coinciden Lo expresaremos as . Como x = 2y 3, dando valores a y se obtiene x. As si le damos a y el valor arbitrario de (lambda), entonces expresaremos la soluci on como: x = 2 3 siendo R y= y como puede ser cualquier n umero real, hay innitas soluciones. Estos son los u nicos casos que pueden darse con dos ecuaciones y dos inc ognitas, y su interpretaci on geom etrica.
83
3.4.M etodo de Gauss-Jordan ecuaciones lineales: Gauss, Gauss-Jordan, Podemos a nadir a los cl asicos sistemas de 2 ecuaciones y 2 inc ognitas cuantas ecuaciones queramos inversa d e una ma t riz y reg l a d e C ramer . para obtener diferentes tipos de sistemas con 3, 4, 5 o m as ecuaciones.
En cualquier caso, los tipos de sistemas a los que dan lugar son los mismos rese nados anteriormente. Al aumentar el n umero de ecuaciones, la resoluci on del sistema por alguno de los tres m etodos cl asicos se vuelve m as farragoso, por lo que conviene aplicar ya el conocido m etodo de Gauss para determinar el tipo de sistema. Para ello expresaremos el sistema en la forma matricial, analizando la matriz ampliada asociada, que tendr a 2 columnas y tantas las como ecuaciones tengamos. Analizaremos tan s olo aquellos sistemas con 3 ecuaciones y 2 inc ognitas. La matriz ampliada gen erica es: a11 a12 b1 (A|B ) = a21 a22 b2 a31 a32 b3 Aplicar el m etodo de Gauss consiste en realizar transformaciones elementales mediante las las de la matriz para obtener la matriz escalonada siguiente: a11 a12 b1 (A|B ) = 0 a 22 b2 0 0 b 3
Recordemos que las operaciones elementales permitidas en las las de la matriz (ecuaciones del sistema) eran:
84
b ) b on 0=0 que no inuye en la resoluci on del sistema, que redu 3 = 0. Aparece una ecuaci cido a las dos ecuaciones iniciales tiene soluci on u nica, es decir, el Sistema es Compatible Determinado. Geom etricamente: a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto.
85
b ) Si b on 0=0 (que no inuye) y 2 = 0, b3 = 0 o b ien b2 = 0, b3 = 0, aparece una ecuaci otra 0=k (que es imposible). El sistema es incompatible. Geom etricamente: a) Dos rectas son paralelas y la otra las corta. b) Dos rectas coinciden y la otra es paralela.
c ) Si b 2 = 0, b3 = 0, hay dos ecuaciones 0=k que son imposibles, el sistema es incompatible. Geom etricamente, las tres rectas son paralelas o dos son coincidentes y una paralela.
En cada uno de los casos, para determinar la posici on concreta de las rectas, basta representarlas. Ejemplo 3.4 Estudiar el sistema siguiente, dando la interpretaci on geom etrica: x + 2y = 5 3x + y = 7 2x + 3y = 12
86
En este caso aparece una ecuaci on 0=0 que no inuye y el elemento a 22 es no nulo. El sistema es compatible determinado, tiene soluci on u nica. Geom etricamente, puede ocurrir que: a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto. Resolviendo y dibujando, obtenemos: x + 2y = 5 7y = 22
Se observa que las rectas se cortan en un punto, precisamente el punto soluci on del sistema: P = 9 22 , . 7 7
Ejercicios 3.4 a) Resuelve e interpreta geom etricamente los sistemas: x+y =0 x y = 2 a) x + y = 2 b) x + 2y = 1 x + 3y = 2 4x 10y = 14
2x + y = 2 c) x + y = 3 y = 2x
utilizando las transformaciones conocidas, y de la forma indicada en ocasiones anteriores. Los tipos de sistema que pueden obtenerse dependiendo del n umero de soluciones son los rese nados en apartados anteriores. Al aplicar el m etodo de Gauss podemos encontrarnos con distintos casos: * Si se obtiene un sistema escalonado con coecientes no nulos, el sistema es compatible determinado, tiene soluci on u nica. * Si se obtiene una o m as las en las que todos los elementos sean cero, el sistema tiene innitas soluciones, y hay que despejar una o varias inc ognitas en funci on de otras, es un sistema compatible indeterminado. * Si se obtiene una o m as las de ceros, salvo el elemento correspondiente al t ermino independiente, que es distinto de cero, digamos k, entonces como la la en cuesti on corresponder a a una ecuaci on del tipo 0 = k , lo que es imposible, el sistema no tiene soluci on y por tanto es incompatible. Veamos un ejemplo: 2x + y z = 11 Ejemplo 3.5. Resolver por Gauss: x 3y = 20 . 4x + 2y + 5z = 8 2 1 1 11 La matriz ampliada es (A|B ) = 1 3 0 20. Aplicando el m etodo de Gauss: 4 2 5 8 2 1 1 11 2 1 1 11 2x + y z = 11 2F2 F1 1 3 0 20 7y + z = 51 0 7 1 51 = F3 2F1 4 2 5 8 0 0 7 14 7z = 14
para dejar dicha matriz escalonada, es decir, del tipo: a11 a12 a13 b1 0 a 22 a23 b2 0 0 a33 b 3
Cuando los sistemas tienen m as de dos ecuaciones y tres o m as inc ognitas se utilizar a el ya conocido m etodo de Gauss. Ahora partiremos de la matriz ampliada: a11 a12 a13 b1 (A|B ) = a21 a22 a23 b2 a31 a32 a33 b3
obtenemos un sistema escalonado, que es compatible y determinado, pu es podemos despejar z, obteniendo z = 2, y luego 7y 2 = 51, de donde 7y = 49 es decir y = 7 y sustituyendo en la primera ecuaci on es 2x + 7 + 2 = 11, luego 2x = 2 , es decir x = 1. La soluci on es (1, 7, 2). Este proceso de resoluci on, que comienza calculando z y permite calcular las dem as inc ognitas sustituyendo en las ecuaciones anteriores se denomina sustituci on regresiva.
88
2. Si el sistema es S.C.I. (Innitas soluciones), puede ocurrir que: a) Los tres planos se corten en una recta.
b ) Dos planos son coincidentes y el otro los corta en una recta. c ) Los tres planos son coincidentes.
89
Y determinaremos la opci on correspondiente estudi andolos de dos en dos. 3. Si el sistema es S.I. (Sin soluci on), puede ocurrir que: a) Los planos se cortan dos a dos.
b ) Dos planos son paralelos y el otro los corta. c ) Los tres planos son paralelos. d ) Dos planos son paralelos y el otro coincidente con uno de ellos.
Y determinaremos la opci on correspondiente estudi andolos de dos en dos. Ejemplo 3.6 .Estudiar el sistema e interpretarlo geom etricamente: 2x + y z = 6 3x y + z = 5 4x + 2y 2z = 1
Lo que indica que el sistema es incompatible y por tanto no tiene soluci on, los planos no tienen puntos comunes.
90
x+y+z = 8 d) 7x + y + 6z = 7 x + 7y + z = 1
Si aparece alg un coeciente desconocido,aplicaremos el m etodo de Gauss e investigaremos seg un los valores del par ametro la posibilidad de que aparezca o no una la de ceros. x + y + z = m+1 x + y + (m 1)z = m x + 7y + z = 1 m+1 F3 F1 m2 1 1 m+1 1 m2 1 m m2
Debemos, llegados a este punto, jarnos en dos aspectos: a) El desarrollo anterior s olo es posible si m = 0, luego el caso m = 0 debe estudiarse por separado. b) En el sistema escalonado nal, hay problemas cuando el valor 1 m = 0, es decir, cuando m = 1. En cualquier otro caso, no hay problemas. De modo que, resumiendo, si m = 0 y m = 1, el sistema es S.C.D. Estudiemos ahora cada caso por separado: Si m = 0, al aplicar Gauss, queda: 1 1 1 1 1 1 1 1 1 1 1 1 F3 F1 F3 +F2 0 1 1 0 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 0 0 0 1 0
91
2 1
3 2
3 3
1 22
AB =
2 2
43
3 3 3 + 4 4 3 4 + 4 3 3 3 + 4
= I2
AB =
2 1
3 2
2 2
= I2
Teorema 3.5. Si A Mnn (R) es invertible, entonces A tiene s olo una inversa, es decir, Demostraci on. Supongamos que A Mnn (R) es invertible y que B, C Mnn (R) son inversas de A. Entonces AB = In = BA AC = In = CA Luego C = CIn = C (AB ) = (CA)B = In B = B
existe una u nica matriz B Mnn (R) tal que AB = In = BA, tal matriz es denotada por A1 .
(3.6) (3.7)
92
Teorema 3.6. Sean A, B Mnn (R) dos matrices invertibles y R con = 0. Entonces 1. A1 es invertible y (A1 )
1
2. AB es invertible y (AB )1 = B 1 A1 (inversa del producto matricial) 3. A es invertible y (A)1 = 1 A1 (inversa del m ultiplo escalar) 4. AT es invertible y (AT Demostraci on. 1. Se deduce directamente de la denici on de matriz invertible. 2. En primer lugar (AB )(B 1 A1 ) = ABB 1 A1 = A(BB 1 )A1 = AIn A1 = (AIn )A1 = AA1 = In Adem as (B 1 A1 )(AB ) = B 1 A1 AB = B 1 (A1 A)B = B 1 In B= (B 1 In )B B 1 B = In (denici on de matriz inversa) Luego, por el teorema 2.19, tenemos que AB es invertible y (AB )1 = B 1 A1 . = (denici on de matriz inversa)
1
93
An alogamente, se prueba que ( 1 A1 )( A) = In . Nuevamente, usando el teorema 2.19,se tiene que A es invertible y (A)1 = 1 A1 . 4. Por un lado AT (A1 )T = (A1 A)T = (In )T = In Por otro lado (A1 )T AT = (AA1 )T = (In )T = In
Teorema 3.6. Toda matriz elemental es invertible y su inversa es tambi en una matriz elemen tal. Demostraci on. Sea E Mnn (R) una matriz elemental. Entonces existe una OEF f : Fn (R)
Fn (R) tal que E = f (In ). El ejercicio 2.3 garantiza que f es invertible y su inversa f 1 es tambi en una OEF sobre Fn (R), as que F = f 1 (In ) es una matriz elemental, adem as EF = f (In )f 1 (In ) = f (f 1(In )) = In
94
Ahora bien c omo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea c omo hallar A1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento u nico. Daremos un ejemplo sencillo que ilustrar a tal procedimiento. Ejemplo 3.9. En cada uno de los siguientes casos decidir si A es o no invertible, en caso armativo, hallar A1 . 1. A = 2 2 2 8
3 3
2. A = Soluci on .
12
como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera simult anea considerando la siguiente matriz 2 veces ampliada [A|I2 ] = 2 2 1 0
4 0 1
95
1 1
1 2
4 0 1 1 0 2 1 0 1
3 2
0 1
F1 F1 + F2 B= 2 1
3 2
tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ] [A|I2 ] = 3 2 8 1 0 12 0 1 1 1 0 F1 1 F 2 1
1 2 3 2
1 4
1 2
12 0 1
F2 F2 + 3F1
0 1
96
Paso 1. Formar la matriz ampliada [A|In ]. Paso 2. Hallar la FERF de la matriz en el paso previo. Paso 3. Si la matriz en el paso previo es [In |B ], entonces A es invertible y A1 = B , sino A no es invertible.
A=
1 1 1 1 0
1 1
3 2 2 2
F1 2 2 0 0 1 0 0 1 1 2 0 0 0 1 1 1 2 2 F2 F2 + F1 0 0 3 1 2 1 5 F3 F3 2F1 0 1 1
3 0 1 0 0
F3 0 0 0 1
1 1 0
1 1 2 0
1 0
2 2 0 0 1 0 1 3
1 1
1 1 0 0 0 2 0 0 0 1
3 0 1 0 0
1 0 2 0 0 1 1 2 0 0 0 1 1 1 2 2 0 0 1 0 1 1 2 0 0 0 1 0 F2 F4 0 2 1 5 1 0 2 0 0 0 3 1 0 1 1 0
1 0
97
F4 1 F 2 4
1 1 2 0 0 0 1 0
0 0 1 1 0 3 0 1 1
1 1 1 0 2 2 3 1 0 1 1 0 3 3
0 0 2 3 1 0 1 1 3 1 1 1 1
3 2 1 2 7 2 1 2 3 2
1 0 2 1 1 0 2 2 7 0 3 3 0 2 1 0 2 2 1 2 3 2 1 2 1 2 1 2 17 2 3 2 7 2 0 6
0 1 0 0 0 1 0
1 7 3 2 2
0 0 0 1 0 0 0 1 0 0 0 1
Luego A es invertible y
1 2 7 2 1 2 3 2
8 1 1 1 1 0
A1 =
1 2 3 2 1 2 1 2
1 2 17 2 3 2 7 2
8 1 7 3 17 16 = 1 2 1 1 3 2 3 3 1 7 6
El siguiente teorema nos ser a muy u til a la hora de saber si una matriz es o no invertible. Teorema 3.7. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes. 1. A es invertible. 2. El sistema Ax = b tiene una u nica soluci on para cada b Mn1 (R).
/ 3. El sistema homog eneo Ax = 0 nica soluci on la trivial. n1 tiene como u
98
Mn1 (R). Entonces el sistema Ax = 0 tiene una u nica soluci on, pero sabemos que
/ x=0 on de este sistema (observaci on 2.19), as que la u nica soluci on de n1 es soluci
Procederemos por reducci on al absurdo. Supongamos que A no es equivalente por las a In . Por lo tanto, usando la observaci on 2.17, si CA es la FERF de A, entonces CA debe tener alguna la nula, la cual debe estar ubicada en la u ltima posici on pues CA es escalonada reducida por las, esta la equivale a la ecuaci on 0 x1 + 0 x2 + + 0 xn = 0 donde x1
x=
x 2 . . xn
99
tiene innitas soluciones, lo cual contradice la hip otesis, por lo tanto A es equivalente por las a In . (4. 5.) Supongamos que A es equivalente por las a In . Entonces existen OEF f1 , f2 , . . . , fr : Fn (R) Fn (R) tales que A = (f1 f2 fr )(In )
Luego, usando recursivamente el corolario 2.12 partes 1 y 2, tenemos que A = f1 (In )f2 (In ) fr (In ) As que la matriz Ei = fi (In ) es elemental para cada i {1, . . . , r } y adem as A = E1 E2 Er (5. 1.) Supongamos que A = E1 E2 Er donde E1 , E2 , . . . , Er Mnn (R) son matrices elementales. Dado que toda matriz elemental es invertible (teorema 2.21) y usando recursivamente la parte 2 del teorema 2.20, se tiene que A es invertible. Lo cual concluye la prueba.
Teorema 3.8.Sean A, B Mnn (R). Si AB = In , entonces BA = In ; y en consecuencia A1 = B . Demostraci on. Supongamos que AB = In . Sea xh una soluci on del sistema homog eneo Bx =
/ 0 n1 . Entonces / Bxh = 0 n1
(3.8)
100
Observaci on 3.1. El teorema 2.23 nos permite garantizar que A1 = B s olo con probar que AB = In o BA = In . Ejercicio 3.5. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambi en son invertibles.
a21 a22 el n umero real det(A) = |A|, dado por det(A) = |A| =
este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 3.11. Hallar det(A) para A = 6 5 7 6
101
= (6)6 5(7) = 36 + 35 = 1
a21
Deniremos el determinante de A, denotado por det(A) o |A|, como a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32
este tipo de determinante es llamado determinante de orden 3. Observaci on 3.1N otese que estamos deniendo el determinante de orden 3 en funci on de determinantes de orden 2. Ejemplo 3.12. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6
Soluci on .
det(A) = |A| =
6 7
5 6
= 2
1 5 0 6
(3)
6 5 7 6
+ (1)
6 1 7 0
102
Los productos generados por las echas rojas () se colocan con signo positivo, los que son Puede vericar que la igualdad anterior es cierta. Tambi en se puede hacer el c alculo si en lugar
de colocar las dos primeras las al nal, se colocan las dos u ltimas las en la parte superior, las dos primeras columnas a la derecha o las dos u ltimas columnas a la izquierda. Este m etodo se conoce como la m etodo de Sarrus para el c alculo de determinantes de orden 3 y s olo es aplicable a determinantes de orden 3. Ejemplo 3.12. Calculemos el determinante del ejemplo 1.23 usando este m etodo. Soluci on . 2 3 1 1 0
6 7 6 6 7
5 6
2 3 1 1
2 3 1 1 0
5 6
= 12 + 0 + 105 7 0 108 = 2
103
M(n1)(n1) (R) que se obtiene de A al eliminar su i- esima la y su j - esima columna, dicha matriz es llamada ij - esimo menor de A. Observaci on 3.4. Si en lugar de eliminar una la y una columna de A, eliminamos dos las y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j
(con i = j ) y las columnas k y l (con k = l) de A. De manera an aloga se pueden denir menores de A Mnn (R) hasta de orden n 1.
A A A A Observaci on 3.5. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . ,
n} con i = j y k = l.
9 2 1 0 8 5 1 6 4 1
7 3 6 0 3
Denici on 3.4. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij - esimo coA factor de A como el n umero real Cij dado por A A Cij = (1)i+j det Mij
104
A C23
= (1)
2+3
det
A M23
9 2 4 1
1 6 6
A C42
= (1)
4+2
det
A M42
9 1 0 5 1
3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0
A C22
= (1)
2+2
det
A M22
9 1 1 4
Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la f ormula dada en la denici on 2.18 puede ser escrita como
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13
La idea es generalizar esta f ormula para una matriz A de orden n. Denici on 3.5. Sea A Mnn (R). Deniremos el determinante de A, determinante de orden n, como el n umero real det(A) = |A| dado por a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 3.14. Hallar el determinante de la matriz del ejemplo 2.25 Soluci on . 9 2 1 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1 j j =1 n
=
j =1
det(A) = |A| =
3 6 0
A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14
105
det(A) = 9 6
3 6 2 0
3 6 0
1 6 6 4
3 0
0 0 0
0 0 6
5 8
0 3 6 7
7 1
A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15
0 6
1 = 2 8
0 0
0 0 0
0 3 6 7
7 1
0 6
106
det(A) = 2 1(1)1+1
0 6
0 0
7 1
0 6 8 7
8 1
0 6 8 0 3 0
+0(1) 3 7 0 0 0
1+3
6 7 6
7 1 6 7 0
= 21
7 1
0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0
= 2 1 (3)(1)1+1 = 2 1(3) 1 0
= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.
0 6
= 2 1(3)((1)(6) 0 0)
La demostraci on del teorema que enunciaremos a continuaci on escapa del objetivo del curso, sin embargo, de el se derivan el resto de las propiedades que ser an enunciadas m as adelante.el Teorema 3.9. Si A = (aij )nn Mnn (R), entonces 1. det(A) =
n A aij Cij = j =1 j =1 n A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del
2. det(A) =
107
det(A) = |A| =
6 7
5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3
= 7(1)3+1
3 1 1
det(A) = |A| =
6 7
5 6
= 3(1)1+2
6 5 7 6
+ 1(1)2+2
2 1
+ 0(1)3+2
2 1
det= det(A).
Teorema 3.11. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostraci on. Procedamos por inducci on sobre n. Supongamos, sin perder generalidad que A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22
108
a1n
a22 .. .. . .
a2n . . ann
A A A n+n A A det(A) = 0 Cn det(Mnn ) = ann det Mnn 1 + + 0 Cn(n1) + ann Cnn = ann (1)
A Mnn =
A es decir, Mnn es una matriz triangular superior de orden (n 1), por lo tanto, usando la Hip otesis A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego
0 . . 0
a22 .. .. . . 0
det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.
Los teoremas que enunciaremos a continuaci on, nos presentan las propiedades b asicas del determinante, estas propiedades nos permitir an hallar el determinante de una matriz sin hacer demasiados c alculos. Los enunciados de estas propiedades se dar an s olo para las, sin embargo, en virtud del teorema 2.25, se pueden enunciar propiedades an alogas para columnas.
/ Teorema 3.12. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0 1n , entonces
109
det(A) =
=
j =1
A 0 Csj =0
Teorema 3.14. Sean A, B Mnn (R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y B(i) = A(i) para i = s, entonces det(B ) = det(A), esto es, si multiplicamos una la de A multiplicado por . Demostraci on. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = s, entonces bsj = asj para cada j {1, . . . , n} y adem as, la matriz que se obtiene al eliminar
A B la la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj
Entonces 2 det(A) = 2 1 2
A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3
1 2
12 16 4 0 3
4 3 4(4) 4 1 0
110
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
A B C iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.
j {1, . . . , n} y adem as, las matrices que se obtienen al eliminar la la s de A, B y C son Por lo tanto
det(C ) = =
j =1
=
j =1 n
(asj +
C bsj )Csj
+
j =1
C bsj Csj
A asj Csj + j =1
Ejemplo 3.18 Sea A la matriz del ejemplo 2.30. Entonces 2 det(A) = 2 1 2 4 + (2) 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2
12 16 4 0 3
6 + 6 16 4
6 16 4 + 0 3
6 16 4 0 3
= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116
Teorema 3.16. Sean A, B Mnn (R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t) , si intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.
B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B ) = det(A), en otras palabras,
111
2 B=
4 16
3 2
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adem as 2 det(B ) = 3 1 2 12
12 -2
4 16
0 2
Teorema 3.17. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. Como A(s) = A(t) , entonces B = A y as det(B ) = det(A). Por otro lado, dado que s = t y seg un el teorema 1.30, det(B ) = det(A). As que det(A) = det(B ) = det(A) y en consecuencia det(A) = 0. Ejemplo 3.20. Sea
Entonces 2 det(A) = 2 4 16 1 2 1 2
2 1 2 A = 4 16 12 2 1 2
12
112
Teorema 3.18. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y la de A, su determinante es igual a cero.
A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un m ultiplo escalar de alguna otra
Demostraci on. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B ) = 0. Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B ) = 0 = 0.
1 4 16 A= 3 12 2
4 16
12 2
B(s) = A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B ) = det(A), dicho de otra forma, si a una la de A le sumamos un m ultiplo escalar de alguna otra la de A, el determinante de la matriz resultante es igual al determinante de A. Demostraci on. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por lo tanto, dado que s = t y en virtud del teorema 1.32, det(C ) = 0. Adem as, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 det(B ) = det(A) + det(C ) = det(A) + 0 = det(A)
113
El siguiente ejemplo nos da un m etodo para calcular el determinante de una matriz A haciendo uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c alculo resulta mucho m as sencillo que al usar la denici on. Como se dijo en la observaci on 2.15, usaremos tanto OEF como operaciones elementales por columnas (OEC) para el c alculo de determinantes, estas operaciones las indicaremos de manera an aloga a las OEF, salvo que en lugar de usar F usaremos C . Ejemplo 3.23. Hallar el determinante de la matriz 6 1 2 13 2 1 0 1 3 1 A= 2 0 3 = 7 0 3 0 4 9 1 3 12 0 2 3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 0
Soluci on . 6 1 0 3 7 0 2 2 0 4 13 9
det(A) =
0 1 3 1 1 3 12
6 1 0 3 7 0 2
0 1 3 1 1 3 15
1 3
4 5 3
114
1 1 3 1 4 5 3
= 3
0 4 8 4
F1 F1 + 6F2
mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna
= 3(1)(1)2+1 4 6 4
= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m etodos cu al de los dos le parece m as sencillo? Teorema 3.19. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk =0 y k =1 k =1 n A aks Ckt =0
para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B ) = 0.
Demostraci on. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,
B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
n B btk Ctk
det(B ) =
k =1 n A ask Ctk k =1
=
k =1
A ask Ctk n
En consecuencia
A aks Ckt = 0.
115
Teorema 3.20. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB ) = det(E ) det(B ). Demostraci on. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) f (A). Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg un el teorema 2.28, det(E ) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E ) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s. Usando el teorema 2.33, tenemos que det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E ) = det(In ) = 1
Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =
116
Observaci on De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz elemental, entonces det(E ) = 0. Corolario Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A
Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostraci on. Ejercicio!
orema 3.21. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y s olo si A = In . Demostraci on. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j ,
entonces para cada i {1, . . . , n}, la primera componente no nula en la i- esima la es aii , y por ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y por lo tanto aij = 0 para i = j (por qu e?). En resumen aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0. 1 si i = j 0 si i = j
En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.
117
Teorema 3.23 Sean A, B Mnn (R). Entonces det(AB ) = det(A) det(B ). Demostraci on. Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB ) = 0. Por lo tanto det(AB ) = 0 = 0 det(B ) = det(A) det(B ) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36
det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB ) = det(E1 E2 Er B ) = det(E1 ) det(E2 ) det(Er ) det(B ) = det(A) det(B )
Regla de Cramer
En esta secci on deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci on de los determinantes. Denici on 3.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A)
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.
Mnn (R) cuya ij - esima componente es el ji- esimo cofactor de A para cada i, j {1, . . . , n}, es
118
componente es el ij - esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = C T . Ejemplo 3.24 Hallar la adjunta de A= 1 2 1 3 0 2 4 1 7
A C11 = (1)1+1
0 2 1 7 1 3 1 7 1 3 0 2
= 2;
A C12 = (1)1+2
1 2 4 7 2 3 4 7 2 3 1 2
= 1;
A C13 = (1)1+3
4 1 2 1 4 1 1
= 1;
A C21 = (1)2+1
= 4;
A C22 = (1)2+2
= 2;
A C23 = (1)2+3
= 2; = 1;
A C31 = (1)3+1
= 2;
A C32 = (1)3+2
= 1; 2 1
A C33 = (1)3+3
2 1
As que
2 1 1 2 1
4 2
Teorema 3.24 Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostraci on. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A bjk = Ckj .
Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n
dik =
j =1
aij bjk =
j =1
A aij Ckj .
Pero
119
= det(A) = det(A)ik
donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera an aloga se prueba que adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)
Teorema 3.25. Si A Mnn (R) es invertible, entonces det(A1 ) = A1 A, y por el teorema 1.39
Demostraci on. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.
Luego det(A1 ) =
1 . det(A)
Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)
Ejercicio Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambi en es invertible y adem as (adj(A))1 = adj(A1 ).
120
la u nica soluci on de dicha ecuaci on est a dada por x = A1 b, as que, una forma de hallar la soluci on de la ecuaci on en cuesti on, es calcular la inversa de A y multiplicarla por b, pero quiz as esto es mucho m as complicado y costoso (en t erminos de c alculos) que hallar la FERF de la matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci on an-
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 3.25(Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab j) es la soluci on de la ecuaci on Ax = b, entonces, para cada j {1, . . . , n}, xj = , x= . det(A) xn (j ) donde Ab (la columna j ) por b, esto es, j es la matriz que se obtiene de A al reemplazar A Ab j = A(1) A(j 1) b A(j +1) A(n) b1
Demostraci on. Como A = (aij )nn es invertible, entonces la u nica soluci on del sistema Ax = b es x = A b, pero A
1 1
1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a11 a1(j 1) b1 a1(j +1) . . . . . . . . Ab j = ai1 ai(j 1) bi ai(j +1)
a1n . . ain
a(i1)1 a(i1)(j 1) bi1 a(i1)(j +1) a(i1)n a(i+1)1 a(i+1)(j 1) bi+1 a(i+1)(j +1) a(i+1)n . . . . . . an1 an(j 1) bn an(j +1) ann
Ab Ab Ab
A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as
121
det(Ab j) =
i=1
Cij j bi =
i=1
Ab
n A Cij bi
2y +z +4w = 1 es invertible y usar la regla de Cramer para hallar la soluci on del sistema. Soluci on. La matriz del sistema es 1 0 2 1
w = 3
A=
1 1 1 2 4 2 2 3 0 2 1 4 2 1 0 1 1 = 2 0 2 = 1 4 1 2 0 1 0 0
1 0 = 0 1 0 2
1 4
2 4
0 2 6
2 6 1
2 6 3
= 3 = 0.
Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de t erminos independientes es 3 b= 2 1 1
122
1 4
= 3
= 3 0 0 1
6 0 20 7 7
6 20 3 7
= 42 60 = 18.
1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1
1 = 0 0 0 = 6
3 1
1 4
2 1
2 4
0 11 6 1
11 6 1 1
0 2 1 4
11 6 21 1
6 21 1
1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3
1 0 = 0 1 0 2
1 4
0 2 11
2 1
2 1 4
1 = 2
2 11 1
1 2
1 4
0 9 3 0 3
1 1
2 0
= 9.
1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =
1 0 0 1 0 2
2 0 1
3 1 =
1 2
0 1
0 2 6 11
2 6 11
1 = 2
0 1
0 3
2 6 9
= 18 + 9 = 9.
123
En consecuencia x =
3.5.
Aplicaciones
Ejemplo 3.26 Una f abrica produce tres tipos de productos, mezclando para ello tres materias primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la f abrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y seis millones de la materia prima 3 cu antas unidades de cada producto puede producir la f abrica usando el total de las materias primas? Soluci on. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede producir la f abrica. Por lo tanto, la cantidad de unidades (en millones) que se usar an es: x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2
de la materia 3
Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3
124
Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la matriz del sistema. 1 1 3 det(A) = 3 3 3 2 0 2 = 1 1 2 0 3 = 2 0 6 2
A = 3 3 3 ; 2 0 2
1 1 3
x = x2 x3
x1
y b = 12 6
0 0 6
= 12 = 0.
Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab 3 = 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6
6 0 6
3 12 3
0 6 6 0 6 4 1 1 2 0
6 6 6 4
= 24 36 = 12.
6 = 6
3 3 12
0 0 6
0 6 2
= 12.
24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un mill on de unidades de cada uno de los productos 2 y 3.
Los sistemas de ecuaciones, en conjuncin con las matrices son ampliamente usados en el planteamiento y resolucin de problemas que aparecen en la tecnologa; por ejemplo en el anlisis de circuitos elctricos, problemas de qumica como dce mezclado y de determinacin de los coeficientes en las ecuaciones qumicas. Aparte de los problemas mencionados, el uso de sistemas de ecuaciones es comn en la ingeniera civil en el anlisis de fuerzas que intervienen en estructuras. Tambin encontramos aplicaciones en el anlisis de sistemas econmicos.
125
En un curso de Algebra Lineal elemental, no es posible dar una visin amplia acerca de las extensas aplicaciones que tendran los sistemas lineales y las matrices o sus derivados que son los determinantes; ms bien, en un cursos de este estilo, es convenienete adaptarse a la enseanza y manejo de los principios bsicos. Desde luego, lo anterior no significa que los ejemplos simples que se den en este curso no tengan posteriormente que ver con la formulacin de sistemas en problemas de Investigacin de Operaciones, o en la teora de la Regresin Lineal y Multilineal, materias fundamentales de los ingenieros industriales o en sistemas computacionales.
Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasicar valores num ericos atendiendo a dos criterios o variables. Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la tabla siguiente: A Color N Color F 2 unid. 00 004 4 003 5 unid. 008 005 10 unid. 012 008
Sabiendo que en un a no se venden el siguiente n umero de paquetes: 2 unid. 5 unid. 10 unid. Color N 700000 600000 500000 Color F 50000 40000 500000
Resumir la informaci on anterior en 2 matrices A y B, de tama no respectivo 2x3 y 3x2 que recojan las ventas en un a no (A) y los precios (B). Nos piden que organicemos la informaci on anterior en dos matrices de tama no concreto. Si nos jamos en las tablas, es sencillo obtener las matrices: N 2 ud 5 ud 10 ud 0 04 700000 600000 500000 N B = 0 08 50000 40000 500000 F 0 12 F 0 03 2 ud 0 05 5 ud 0 08 10 ud
A=
Estas matrices se denominan matrices de informaci on, y simplemente recogen los datos num ericos del problema en cuesti on. Otras matrices son las llamadas matrices de relaci on, que indican si ciertos elementos est an o no relacionados entre s . En general, la existencia de relaci on se expresa con un 1 en la matriz y la ausencia de dicha relaci on de expresa con un 0. Estas matrices se utilizan cuando queremos trasladar la informaci on dada por un grafo y expresarla num ericamente.
126
En Matem aticas, un grafo es una colecci on cualquiera de puntos conectados por lineas. Existen muchos tipos de grafos. Entre ellos, podemos destacar: * Grafo simple : Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos. * Grafo dirigido : Es el grafo que indica un sentido de recorrido de cada linea, mediante una echa. Estos tipos de grafo pueden verse en la gura:
Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas, nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente, de tal forma que: * un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de la columna j mediante una linea que los una directamente. * un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una linea que los una directamente. La matriz de adyacencia del grafo dirigido de la gura anterior ser a: A A 0 B 0 C 1 D 0 B 1 0 0 0 C 0 1 0 0 D 1 0 0 0
127
UNIDAD IV
Espacios Vectoriales
Espacios Vectoriales, subespacios, combinaciones lineales y bases.
V, llamada adici on vectorial, y : R V V, llamada multiplicaci on por escalar, satisfaciendo las siguientes condiciones
A0. u + v V para cualesquiera u, v V (cerradura de la adici on vectorial) A1. u + v = v + u para cualesquiera u, v V (conmutatividad de la adici on vectorial) A2. (u + v ) + w = u + (v + w ) para cualesquiera u, v, w V (asociatividad de la adici on on vectorial) A3. neutro Existe 0 para la adici vectorial) / / V V tal que v + 0V = v para cada v V (existencia de un elemento
M0. v V para cualesquiera R y v V (cerradura de la multiplicaci on por escalar) M1. ( + ) v = v + v para cualesquiera , R y v V (distributividad
M2. (u + v ) = u + v para cualesquiera R y u, v V (distributividad de la multiplicaci on por escalar respecto a la adici on vectorial)
128
IV.Espacios Vectoriales
M3. ( ) v = ( v ) = ( v ) para cualesquiera , R y v V
M4. 1 v = v para cada v V (existencia de un elemento neutro para la multiplicaci on por escalar)
Observaci on 4.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1. y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operaci on + tiene mayor jerarqu a que la operaci on , esto es, ( u) + v puede ser escrito como u + v pero en la expresi on (u + v ) no pueden suprimirse los par entesis. Observaci on 4.2. La denici on 2.1 se puede extender considerando un campo cualquiera K (ver ap endices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este caso V es llamado espacio vectorial complejo. En lo que resta del curso, s olo consideraremos espacios vectoriales reales, salvo que se diga lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios vectoriales reales, a menos que haya error a confusi on. Observaci on 4.3. En adelante, siempre que no haya error a confusi on, en lugar de escribir v escribiremos v.
Observaci on 4.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se ), sobrentendiendo las operaciones + y tienda a confusi on, en lugar de la terna (V, +, Ejemplo 4.1. 1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi R para cada i {1, . . . , n}} junto con las operaciones + y dadas como sigue
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) (x1 , x2 , . . . , xn ) = (x1 , x 2 , . . . , x n ) donde R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) Rn , es un espacio vectorial (verif quelo!)
129
IV.Espacios Vectoriales
2. El conjunto Mmn (R) junto con las operaciones + y , dadas en las deniciones 1.4 y 1.5 respectivamente, del cap tulo 1, es un espacio vectorial
junto con las operaciones + y denidas en el cap tulo 1, son espacios vectoriales (pru ebelo!) S es llamado espacio soluci on del sistema homog eneo Ax = 0 / y en detalle en la secci on 2.6 del presente cap tulo. 4. Sea n N. Denamos Pn [x] = {a0 + a1 x + + an xn : a0 , a1 , . . . , an R} Es decir, Pn [x] est a formado por todos los polinomios con coecientes reales en la variable x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las operaciones usuales de adici on de polinomios y multiplicaci on de un n umero real por un polinomio. Entonces Pn [x] es un espacio vectorial (pru ebelo!) En general, si denimos el conjunto P [x] = {p(x) : p(x) es un polinomio en la variable x} entonces P [x] es un espacio vectorial junto con las operaciones usuales antes mencionadas (pru ebelo!) Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por qu e?), adem as, o espacio nulo de
m1
para cada n N se tiene que Pn [x] = (por qu e?) y Pn [x] Pn+1 [x] P [x] (por qu e?)
5. Sean a, b R con a < b. Denamos el conjunto F [ a , b ] de todas las funciones reales funciones y multiplicaci on de una funci on por un n umero real, entonces F [ a , b ] es un espacio vectorial (pru ebelo!)
130
Espacios Vectoriales 6. El conjunto V = {(x, y ) R2 : y = x + 1} junto con las operaciones denidas en la parte 1 de este ejemplo, no es un espacio vectorial ya que (2, 3), (0, 1) V (por qu e?) pero (2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) /V pues 4 = 3 = 2 + 1, es decir, la adici on no es cerrada en V o V no es cerrado bajo la adici on. Sin embargo, si denimos sobre V las operaciones (x, y ) + (z, w ) = (x + z, y + w 1) (x, y ) = (x, (y 1) + 1) entonces V es un espacio vectorial, en efecto, sean (x, y ), (z, w ), (a, b) V y , R cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1. De donde y + w 1 = x + 1 + z + 1 1 = (x + z ) + 1 y por lo tanto (x, y ) + (z, w ) = (x + z, y + w 1) V cumpli endose A0. (x, y ) + (z, w ) = (x + z, y + w 1) = (z + x, w + y 1) = (z, w ) + (x, y ) por lo que A1. es satisfecha. ((x, y ) + (z, w )) + (a, b) = (x + z, y + w 1) + (a, b) = ((x + z ) + a, (y + w 1) + b 1) = (x + (z + a), y + (w + b 1) 1) = (x, y ) + (z + a, w + b 1) = (x, y ) + ((z, w ) + (a, b)) as que A2. se cumple.
131
(x, y ) + (0, 1) = (x + 0, y + 1 1) = (x, y ) luego se satisface A3. Si (x, y ) V, entonces (x, y + 2) V ya que y + 2 = (x + 1) + 2 (por qu e?)
= x 1 + 2 = x + 1 Adem as
/ (x, y ) + (x, y + 2) = (x + (x), y + (y + 2) 1) = (0, 1) = 0 V
en consecuencia se cumple A4. Verique que se cumple el resto de la propiedades en la denici on 2.1. Qu e podr a concluir a partir de este ejemplo?
/ }, junto con las operaciones 7. Dado un espacio vectorial V. Es f acil probar que el conjunto {0 V
/ Teorema 4.1. Los elementos 0 V y v dados en A3. y A4. respectivamente, son u nicoselementos de V que satisfacen dichas propiedades.
Demostraci on. Supongamos que existe x V tal que v + x = v para cada v V. Luego, para / V, se tiene que v = 0V / +x = 0 / (4.1) 0 V V Por lo tanto
/ x = x+0 V
(por A3.)
/ +x = 0 (por A1.) V / = 0 V
(por (2.1))
(4.2) (4.3)
132
IV.Espacios Vectoriales
Luego
/ v = v+0 V
(por A3.)
= v + (v + v ) (por 4.2) = (v + v ) + v = (v + v ) + v
/ +v = 0 V / = v + 0 V
= v
(por A3.)
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
Denici on 4.2. Sean V un espacio vectorial y u, v V cualesquiera. Deniremos el vector u v , vector diferencia de u con v , como u v = u + (v ) cualesquiera. Pruebe que Ejercicio 4.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v V y 1 , 2, . . . , n, R
1. ( 1 + 2 + + n )v = 1 v + 2 v + + n v . 2. (v1 + v2 + + vn ) = v1 + v2 + + vn . Ejercicio 4.2 (Ley de Cancelaci on). Sea V un espacio vectorial y u, v, w V. Si u + v = u + w , entonces v = w .
133
/ +0 / = 0 V V
2. Ejercicio!
/ . 3. Supongamos que v = 0 V / . Si = 0, no hay nada que probar, supongamos entonces que = 0 y probemos que v = 0 V
= ( 1 )v = 1 (v ) (por M3.)
/ = 1 0 (por hip otesis) V / (por la parte 1) V = 0 Con lo que culmina la prueba de la parte 3.
(por M1.)
(por la parte 2)
134
Observaci on 4.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir v en lugar de ( v ) sin error a confusi on.
4.2.
Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, considerando sobre ellos las operaciones + y de V. En esta secci on nos ocuparemos de dichos espacios vectoriales los cuales son llamados subespacios vectoriales de V. Denici on 4.3. Sea W un subconjunto no vac o de un espacio vectorial V. Diremos que W es un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y de V es un espacio vectorial. Ejemplo 4.2.1. Dado un espacio vectorial V, entonces W = {0 / } es un subespacio de V, el cual es llamado V son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado subespacio propio. 2. Dada una matriz real A Mmn (R). Los espacios S y R, dados en la parte 3 del ejemplo
espacio vectorial nulo, as como tambi en V (ver ejemplo 4.1 parte 7). Estos subespacios
3. De la parte 4 del ejemplo 4.1 podemos garantizar que para cada n N se tiene que Pn [x] es un subespacio de Pn+1 [x] y de P [x]. 4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo cerrado [ a , b ], es un subespacio de F [ a , b ]. En efecto, es claro que C [ a , b ] F [ a , b ] (por qu e?) y adem as, la funci on nula est a en C [ a , b ] (por qu e?), por lo tanto C [ a , b ] es un subconjunto no vac o de F [ a , b ].
135
ademas W es un espacio vectorial con las operaciones + y denidas sobre V, por lo tanto u + v, v W para cualesquiera R y u, v W. Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
Debemos probar que W junto con las operaciones + y denidas sobre V es un espacio vectorial.
Segun las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W V
y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w V,
0 0
/ , as / / que 0 2 del teorema 4.2 se tiene que 0v0 = 0 V V W y en consecuencia existe 0V W tal que
entonces dichas condiciones s cumplen c ua a lesquiera , / e v W pa r ad v W. u, v, w W y W W y qu R . As que s, olo resta probar que 0 en virtud de la condici Como W = existe v W. Entonces, on 3, 0v W, pero por la parte
/ para cada v W se tiene que v + 0 on A3. se satisface si sustituimos V V = v , es decir, la condici / / por W. Esto u ltimo signica que 0 W = 0V , es decir, el vector nulo en todos los subespacios de V
es el mismo.
136
que (1)v = v (por la parte 4 del teorema 4.2), entonces v W, en consecuencia para cada v W existe v W tal que v + (v) = 0
V,
sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto aditivo de cualquier vector en un subespacio, es tambi en un vector del subespacio.
Observaci on 4.7. Seg un la demostraci on del teorema 4.3, si W es un subespacio vectorial de / V W. unAs espacio vectorial V , entonces 0 que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
/ u ltimo, lo primero que debemos probar es que 0 V W, esto a su vez garantiza que W = . Si / 0 / W, entonces W no es un subespacio de V. V
El teorema 4.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio de este s olo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la misma pruebo con s olo vericar dos condiciones. Corolario 4.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y s olo si 1. W = . 2. u + v W para cualesquiera R y u, v W. Demostraci on. Supongamos primero que W es un subespacio vectorial de V y probemos que las condiciones 1 y 2 se cumplen. En primer lugar W = por denicion 2.3. Sean R y u, v W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que v W, luego, por la parte 2 del mismo teorema, se tiene que u + v W. vectorial de V. Como W del teorema 2.3. de la hip otesis). Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio = , s olo debemos probar que se satisfacen las condiciones 2 y 3
137
del ejemplo 4.1, son subespacios de Mn1 (R) y Mm1 (R), respectivamente (ver parte 2 del ejemplo
4.2), fue necesario probar que eran espacios vectoriales (se dej o como ejercicio), sin embargo, al
usar el teorema 4.3 o el corolario 4.4, vemos que no es necesario. Ejercicio 4.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y V es un subespacio de U, entonces W es un subespacio de U. Ejemplo 4.3. Pruebe que W = {a + bx + cx2 + dx3 P3 [x] : 2a b +3c d = 0; a + b 4c 2d = 0} es un subespacio de P3 [x]. Soluci on. Es claro que W P3 [x]. a W ya que
Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece
2 0 0 +3 0
0 +0 4 0 2 0 = 0
0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q (x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en W y R cualquiera. Entonces 2a1 b1 +3c1 d1 = 0 y 2a2 b2 +3c2 d2 = 0
Seg un el corolario 2.4 y la observaci on 2.8, s olo falta probar que p(x) + q (x) W. Pero p(x) + q (x) = (a1 + b1 x + c1 x2 + d1 x3 ) + (a2 + b2 x + c2 x2 + d2 x3 ) = (a1 + a2 ) + (b1 + b2 )x + (c1 + c2 )x2 + (d1 + d2 )x3 Adem as 2(a1 + a2 ) (b1 + b2 ) + 3(c1 + c2 ) (d1 + d2 ) = 2a1 + 2a2 b1 b2 + 3c1 + 3c2 d1 d2 = (2a1 b1 + 3c1 d1 ) + (2a2 b2 + 3c2 d2 ) = 0 (por qu e?)
138
son subespacios de V, tenemos que u + v W1 y u + v W2 y por lo tanto u + v W1 W2 . de V. Luego, en virtud del corolario 4.4 y la observaci on 4.8, tenemos que W1 W2 es un subespacio
Ejercicio 4.4. Dados dos subconjuntos A y B de un espacio vectorial V, denamos el conjunto A + B = {a + b : a A y b B } Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
/ } Ejercicio 4.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 W2 = {0 V
y V = W1 + W2 . Pruebe que para cada v V existen u nicos vectores w1 W1 y w2 W2 tales que v = w1 + w2 . Ejercicio 4.6. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que W1 W2 Wn es un subespacio de V. Sugerencia: Proceda por inducci on matem atica sobre n y use el teorema 4.5.
139
4.3.
Esta expresi on es llamada combinaci on lineal , denamos formalmente este concepto. Denici on 4.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v V. Diremos que v es
Observaci on 4.10. En la denici on 2.4, podemos escoger una cantidad innita de vectores en V, en lugar de v1 , v2 , . . . , vn V, para denir combinaci on lineal (ver ap endice B). Ejemplo 4.4. 1. El ejemplo hecho al comienzo de la secci on nos dice que cualquier matriz real cuadrada de orden 2 es combinaci on lineal de las matrices 1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 .
En general, si para cada i {1, . . . , m} y cada j {1, . . . , n} denimos la matriz Eij entonces toda matriz A Mmn (R) es combinaci on lineal de las matrices E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn
Mmn (R) como aquella matriz cuya ij - esima componente es igual a 1 y el resto es 0,
2. Cualquier vector p(x) Pn [x] es combinaci on lineal de los polinomios 1, x, . . . , xn (por qu e?)
140
Espacios Vectoriales 3. Cualquier vector (x1 , x2 , . . . , xn ) Rn es combinaci on lineal de los vectores de Rn e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)
Ejemplo 4.5. Determine si el vector v = (9, 5, 6) es combinaci on lineal o no de los vectores v1 = (3, 2, 6) y v2 = (1, 3, 2) Soluci on. Supongamos que el vector v es combinaci on lineal de los vectores v1 y v2 . Entonces existen 1 , 2 R tales que v = 1 v1 + 2 v2 , es decir, (9, 5, 6) = 1 (3, 2, 6) + 2 (1, 3, 2) = (3 1 2 , 21 32 , 61 + 22 ) de donde 31 2 = 9
21 32 = 5 61 +22 = 6
F F + F 2 3 5 2 3 5 1 1 2 6 2 6 6 2 6 1 4 14 F1 F1 + 4F2 1 F2 11 F2 0 1 3 F3 F3 26F2 0 26 78 v1 y v2 .
1 4 14
F2 F2 + 2F1 0 11 33 F3 F3 6F1 0 26 78 1 0 2 0 1 3 0 0 0
14
Ejemplo 4.6. Consideremos los polinomios p(x) = 5 4x + 9x2 , p1 (x) = 2 x + 2x2 , p2 (x) = 2 2x + 6x2 y p3 (x) = x 4x2 Es p combinaci on lineal de p1 , p2 y p3 ?
141
La matriz ampliada de este sistema es equivalente por las a la matriz 1 0 1 9 1 (verif quelo!) 0 1 1 2 0 0 0 12 naci on lineal de p1 , p2 y p3 .
por lo tanto, el sistema original no tiene soluci on (por qu e?), en consecuencia, p no es combi Si consideramos el polinomio p4 (x) = 1 2x + 3x2 Es p combinaci on lineal de p1 , p2 , p3 y p4 ?
Observaci on 4.11. En t erminos generales, el problema de decidir si un vector v en un espacio vectorial V es combinaci on lineal de algunos vectores v1 , v2 , . . . , vn V, est a relacionado con la resoluci on de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 4.5 y 4.6. Ejercicio 4.7. Pruebe que si A, B Mmn (R) son equivalentes por las, entonces cada la de B es combinaci on lineal de las las de A y viceversa. Denici on 4.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. El conjunto para algunos escalares 1 , 2 , . . . , n R} v {w V : w = 1 v1 + 2 v2 + + n n es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn . gen({v1 , v2 , . . . , vn }) =
142
2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, 2, 6), (1, 3, 2)}) (ver ejemplo 4.5)
3. Del ejemplo 4.6 podemos garantizar que 5 4x + 9x2 / gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 })
Ejemplo 4.8. Hallar gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) Soluci on. N otese primero que a + bx + cx2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) si y s olo si existen escalares 1 , 2 , 3 R tales que, para cada x R, a + bx + cx2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) = (2
1
+ 22 ) + (1 22 + 3 )x + (21 + 62 43 )x2
Lo que equivale a decir que el sistema de ecuaciones 21 +22 1 22 tiene al menos una soluci on. Resolvamos este sistema. La matriz ampliada del sistema es 2 2 0 a 1 2 1 b 2 6 4 c = a +3 = b
21 +62 43 = c
143
F F + F 1 2 1 b 1 2 1 b 1 1 2 2 6 4 c 2 6 4 c 1 0 1 a+b 1 0 1 a+b F2 F2 + F1 1 1 F F 0 2 2 a + 2 b 0 1 1 a b 2 2 2 2 F3 F3 2F1 0 6 6 2a 2b + c 0 6 6 2a 2b + c 1 0 1 a+b F3 F3 6F2 0 1 1 1 a b 2 0 0 0 a + 4b + c si y s olo si a + 4b + c = 0. En consecuencia gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) = {a + bx + cx2 P3 [x] : a + 4b + c = 0}
Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene soluci on
Es de hacer notar que el conjunto W, hallado en el ejemplo 4.8, es un subespacio de P3 [x] . Este resultado no es casual, como veremos en el siguiente teorema. Teorema 4.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Entonces gen({v1 , v2 , . . . , vn }) es un subespacio de V. Demostraci on. Denamos S = {v1 , v2 , . . . , vn }. Por denici on, gen(S ) = gen({v1 , v2 , . . . , vn }) es un subconjunto de V. Adem as, por la parte 2 del teorema 4.2 y la parte 2 del ejercicio 4.1
/ 0 V = 0(v1 + v2 + + vn ) = 0 v1 + 0 v2 + + 0 vn gen(S ).
144
generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que S es un conjunto generador de V si V = gen(S) = gen({v1, v2, . . . , vn}). Ejemplo 4.9. Por la parte 1 del ejemplo 4.7 podemos decir que: 1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan a Mmn (R). 2. El conjunto {1, x, . . . , xn } genera a Pn [x]. 3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . Ejemplo 4.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3 Soluci on. Sabemos que W = {a + bx + cx2 + dx3 P3 [x] : 2a b + 3c d = 0; a + b 4c 2d = 0} As que a + bx + cx2 + dx3 W si y s olo si 2a b +3c a +b 4c 2d = 0 d = 0
resolvamos este sistema homog eneo. La matriz del sistema es 2 1 1 La FERF de esta matriz es 1 0 1 1 3 (verif quelo!) 3 1
1 4 2
b 11 c d = 0 3
1 c d = 0 3
145
IVEspacios Vectoriales
o equivalentemente a = b =
1 c 3 11 c 3
+d +d
Haciendo c = 3 y d = , con , R, obtenemos a + bx + cx2 + dx3 = ( + ) + (11 + )x + 3x2 + x3 = (1 + 11x + 3x2 ) + (1 + x + x3 ) para cada x R. Luego
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W. Teorema 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u V. Si u gen({v1 , v2 , . . . , vn }), entonces gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) 1 , 2 , . . . , n , R tales que v = 1 v1 + 2 v2 + + n vn + u. u = 1 v1 + 2 v2 + + n vn . Luego Demostraci on. Escojamos un vector v gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen Pero por hip otesis u gen({v1 , v2 , . . . , vn }), entonces existen 1 , 2 , . . . , n R tales que
v = 1 v1 + 2 v2 + + n vn + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + + (n + n )vn en consecuencia v gen({v1 , v2 , . . . , vn }) por lo tanto gen({v1 , v2 , . . . , vn , u}) gen({v1 , v2 , . . . , vn }) tales que v = 1 v1 + 2 v2 + + n vn as que es decir, v gen({v1 , v2 , . . . , vn , u}) de donde gen({v1 , v2 , . . . , vn }) gen({v1 , v2 , . . . , vn , u}) De (4.4) y (4.5) obtenemos que gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) (4.5) (4.4)
/ v = 1 v1 + 2 v2 + + n vn = 1 v1 + 2 v2 + + n vn + 0 V = 1 v1 + 2 v2 + + n vn + 0u
146
nita de vectores en V. Ahora bien, en M23 (R) escojamos los vectores A1 = entonces 0 0 0 0 0 0 = 2 A1 3 A2 A3 = 2 1 0 2 3 2 3 4 1 4 9 8 1 0 2 , A2 = 2 3 4 1 y A3 = 4 9 8
2 5 3
1 7 6
2 5 3
1 7 6
En conclusi on, la u nica manera de escribir al vector nulo, como combinaci on lineal de una cantidad nita de vectores, no necesariamente es u nica. Estos dos ejemplos dan pie a la siguiente denici on. Denici on 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Diremos v1 , v2 , . . . , vn son
/ , como combinacion lineal de los vecdiente si la u nica manera de escribir el vector nulo 0 V
tores v1, v2, . . . , vn, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si 1v1 + 2v2 + + nvn = 0
n
= 0. /V , entonces 1 = 2 = =
1. Seg un el ejemplo dado previamente a la denici on 4.7, se tiene que A1 , A2 , A3 son lineal mente dependientes.
147
{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } son linealmente independientes (en sus correspondientes espacios).
/ } es linealmen3. Dados un espacio vectorial V y v1 , v2 , . . . , vn V, entonces {v1 , v2 , . . . , vn , 0 V
te dependiente pues
es decir, en un espacio vectorial, cualquier conjunto nito de vectores que contenga al vector nulo, es linealmente dependiente. 4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v } es linealmente
/ / independiente ya que si v = 0 V y dado que v = 0V , entonces = 0 (en virtud de la parte
3 del teorema 4.2). Antes de dar alg un otro ejemplo, debemos hacer notar que para determinar si un conjunto de vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
n.
/ , la cual conduce, en general, a debemos plantearnos la ecuaci on 1 v1 + 2 v2 + + n vn = 0 V
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente Ejemplo 4.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) P2 [x] dados en el ejemplo
+(21 + 6 2 4 3 + 3 4 )x2
148
Ejemplo 4.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior son linealmente independientes? Soluci on. Como en el ejemplo anterior, debemos plantearnos la ecuaci on 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = 0 Obteniendo el sistema (para todo x R) (4.6)
21 +22 +4 = 0 1 22 24 = 0 2 +6 +3 = 0 1 2 4 1 2 2 2 6 3 1 0 1 1 0 1 2 2 1
Hallemos su FERF. 2 2 1
F F + F 1 2 2 1 1 2 1 2 2 2 6 3 2 6 3 1 0 1 1 1 3 F F 6F F2 2 F2 0 1 3 2 2 3 0 0 6 5 0 1 0 0 F1 F1 + F3 0 1 0 F2 F2 3 F 2 3 0 0 1
F2 F2 + F1 0 2 F3 F3 2F1 0 6 0 1 1 1 3 F F 0 1 4 3 2 3 0 4 0
0 1 1 0
3 2
3 5
149
51 + 32 + 3
21 + 2 43 1 + 32 + 53 De donde 51 +32 4 2 1
41 2 3
0 0 0 0
+3 = 0 3 = 0
21 +2 43 = 0 +3 +5 = 0 1 2 3 1 4 1 1 2 1 4 5
Hallemos su FERF. 5 3 1
4 1 1 F1 F1 F2 2 1 4 3 0 0 5 1 4 7 2
4 1 1 2 1 4 3 5 1 4
F2 F4
7 1 0 F2 1 F 7 2 0 7 7 8 0 17 9 0 17
17 9 7 8 7 7
1 0 1 0 0 1 0 0 8
1 0 2
150
F3 F3
Por lo tanto 1 = 2 = 3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente. Teorema 4.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen dientes si y s olo si existe R tal que u = v o v = u. Demostraci on. Supongamos que u, v son linealmente dependientes. Entonces existen , R, + v = 0 / . noSi ambos nulos, talesuque u V = , obtenemos que u = v . = 0, entonces = v . Haciendo / / Si = 0, entonces v = 0 as, por hip otesis, = 0 y en consecuencia v = 0 V y adem V = 0u . Haciendo = 0, obtenemos v = u.
/ , en cualquier caso, concluimos que u, v son linealmente dependientes. o u + (1)v = 0 V / Supongamos ahora que existe R tal que u = v o v = u. En consecuencia 1u +()v = 0 V
0 1 0 0 0 0
1 0 2
1 0 F1 F1 + 2F3 1 0 1 F2 F2 F3 1 F F 8F 0 0 4 4 3 8 0 0
0 0
1 0
Teorema 4.9. Sea A Mmn (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
/ dependientes en Mm1 (R) si y s olo si el sistema Ax = 0 m1 tiene soluciones no triviales.
Demostraci on. Sea A Mmn (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes si y s olo si existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que
/ 1 A(1) + 2 A(2) + + n A(n) = 0 m1
/ As que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y s olo si el sistema Ax = 0 m1 tiene
2 . . n
soluciones no triviales.
151
con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas de F con los pivotes, entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son las columnas de A que son linealmente independientes. Demostraci on. (Ejercicio)
vectorial V y u V tal que u / gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente Demostraci on. Sean 1 , 2 , . . . , n , R tales que
/ 1 v1 + 2 v2 + + n vn + u = 0 V
Si = 0, entonces u=
1 2 n v1 + v2 + + vn
lo que contradice la hip otesis de que u / gen({v1 , v2 , . . . , vn }). Por lo tanto = 0, de donde
/ 1 v1 + 2 v2 + + n vn = 0 V
y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que 1 = 2 = = n = 0. En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.
152
Conjuntos con estas caracter sticas nos son de mucha utilidad en el estudio de los espacios vectoriales y dan pie a la siguiente denici on. Denici on 4.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } V es una base de V si gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.2. {v1 , v2 , . . . , vn } es linealmente independiente.
Ejemplo 4.15. 1. {1, x, . . . , xn } es una base de Pn [x]. 2. {e1 , e2 , . . . , en } es una base de Rn . 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mmn (R).
Cada una de estas bases es llamada base can onica o est andar del correspondiente espacio. Ejemplo 4.16. Ning un conjunto nito de polinomios en x es una base de P [x], en efecto, consi deremos un conjunto nito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces a lo sumo de grado k , donde k es el m aximo entre los grados de los polinomios p1 , p2 , . . . , pn , para cualesquiera 1 , 2 , . . . , n R tenemos que 1 p1 (x)+2 p2 (x)+ +n pn (x) es un polinomio es decir, cualquier combinaci on lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo
153
Soluci on . As que a b c d
a b c d
W si y s olo si a b c d a b 1 0 0 1 0 3 0 0 1 2
c 5 a + 3b + 2c 2 1
=a
0 5 2 0 1 0 3
+b
+c
Ejemplo 4.18. Considere los polinomios p1 (x), p2 (2), p4 (x) P2 [x] del ejemplo 4.13. Pruebe que = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. Soluci on. Sabemos que el conjunto = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en bx + cx2 P2 [x] cualquiera, queremos probar que la ecuaci on 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = p(x),
virtud del ejemplo 4.13, as que s olo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a +
154
y por el ejemplo 4.13, sabemos que es equivalente por las a I3 , en consecuencia, el sistema en cuesti on, tiene soluci on ( unica), lo cual concluye la prueba.
2 2 1 1 2 2 2 6 3
Ejemplo 4.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces es un conjunto generador de P2[x]. El conjunto {p1(x), p2(x)} tampoco es una base de P2[x], por no ser un conjunto generador de P2[x], pero es linealmente independiente. La unicidad de los escalares en el ejemplo 4.18 es una regla la cual enunciaremos en el siguiente teorema. Teorema 4.13. Sea = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada v V existen u nicos escalares 1 , 2, . . . , n R tales que v = 1 v1 + 2 v2 + + n vn . Demostraci on. Sea v V un vector cualquiera. Dado que = {v1 , v2 , . . . , vn } es una base est a garantizada. Supongamos que existen escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn Luego
/ 0 V = vv
{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x], por ser linealmente dependiente, sin embargo
y v = 1 v1 + 2 v2 + + n vn
= (1 v1 + 2 v2 + + n vn ) (1 v1 + 2 v2 + + n vn ) = (1 1 )v1 + (2 2 )v2 + + (n n )vn Como = {v1 , v2 , . . . , vn } es una base, entonces es linealmente independiente, por lo tanto 1 1 = 2 2 = = n n = 0
155
base = {p1(x), p2(x), p4(x)} del ejemplo 4.18, y ambas tienen la misma cantidad de vectores, en este caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema. Teorema 4.14.Sean 1 = {u1 , u2 , . . . , un } y
2
Notese que hemos hallado dos bases de P2[x], a saber la base canonica c = {1, x, x2} y la
espacio vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base nita,entonces todas sus bases tienen la misma cantidad de elementos.
Demostraci on. Supongamos que m < n. Dado que 2 es una base de V, entonces, para cada
1j , 2j , . . . , mj
1 u1 + 2 u2 + + n un = 0
/ 0 V = 1 (11 v1 + 21 v2 + + m1 vm ) + 2 (12 v1 + 22 v2 + + m2 vm ) + +
+n (1n v1 + 2n v2 + + mn vm ) = (11 1 + 12 2 + + 1n n )v1 + (21 1 + 22 2 + + 2n n )v2 + + +(m1 1 + m2 2 + + mn n )vm Pero 2 = {v1 , v2 , . . . , vm } es linealmente independiente, por 11 1 + 12 2 + + 1n n + ++ 21 1 22 2 2n n . . . . m1 1 + m2 2 + + mn n ser una base de V, as que = 0 = 0 . . . = 0
Este es un sistema de ecuaciones lineales con m ecuaciones y n inc ognitas que son 1 , 2 , . . . , n . Como m < n, al usar el teorema 4.16, concluimos que el sistema anterior tiene soluciones no triviales, es decir, existen 1 , 2 , . . . , n R, no todos nulos, tales que
/ 1 u 1 + 2 u 2 + + n u n = 0 V
156
es una base de V, por lo tanto m n. An alogamente se prueba que m n y por lo tanto m = n. El teorema 2.14 da pie a la siguiente denici on. Denici on 4.9. Sea V un espacio vectorial. Diremos que V tiene dimensi on cero o dimen
/ }, diremos que la dimensi on de V es n si V tiene una base con n elementos, si on nula si V = {0 V
en ambos casos diremos que V tiene dimensi on nita. Si V no posee una base nita, diremos que V tiene dimensi on innita. En todos los casos la dimensi on de V se denota por dim(V). Ejemplo 4.20. 1. Del ejemplo 4.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mmn (R)) = mn y dim(Rn ) = n. 2. Si W es el subespacio del ejemplo 4.17, entonces dim(W) = 3. 3. El espacio vectorial P [x] es un espacio de dimensi on innita (ver ejemplo 4.16). Observaci on 4.13. El problema de encontrar la dimensi on de un espacio vectorial est a rela cionado con la b usqueda de una base de dicho espacio, como vimos en el ejemplo 4.20. Teorema 4.15. Sean V un espacio vectorial de dimensi on n y v1 , v2 , . . . , vm V. 1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m n. 2. Si {v1 , v2 , . . . , vm } genera a V, entonces m n. Demostraci on. Sea = {u1 , u2 , . . . , un } una base de V. 1. Suponga que m > n y haga una prueba an aloga a la del teorema 4.14. 2. Ejercicio!
157
Teorema 4.17. Sea W un subespacio de un espacio vectorial de dimensi on nita V. Entonces dim(W) dim(V). Adem as, si dim(W) = dim(V), entonces W = V. Demostraci on. Sean dim(V) = n y W una base de W. Entonces W es linealmente indepen diente en W, luego W es linealmente independiente en V (por qu e?). Por lo tanto, por la parte 1 el teorema 2.15, W tiene a lo sumo n elementos, esto es, dim(W) n = dim(V). Adem as, si dim(W) = dim(V), entonces W es un conjunto linealmente independiente con n
Observaci on 4.14. Todo espacio vectorial que contenga un subespacio de dimensi en innita, es tambi en de dimensi on innita. Ejemplo 4.21. Sean a, b R cualesquiera. Entonces P [x] puede verse como un subespacio de C [ a , b ] (por qu e?) y como P [x] tiene dimensi on nita (ver parte 3 de ejemplo 4.20), entonces, por la observaci on 4.14, C [ a , b ] de dimensi on innita. Teorema 4.18. Sea V un espacio vectorial de dimensi on n y S = {v1 , v2 , . . . , vm } V. 1. Si S es linealmente independiente, entonces existe una base de V tal que S . 2. Si S genera a V, entonces existe una base de V tal que S . Demostraci on. 1. Dado que S es linealmente independiente, entonces m n, seg un la parte 1 del teorema 2.15.
158
tal que S . Sino, podemos escoger vm+2 V tal que vm+2 / gen({v1 , v2 , . . . , vm , vm+1 }) Continuamos con este proceso hasta completar un conjunto linealmente independiente = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y adem as S . 2. Ejercicio! Sugerencia: Si S es linealmente independiente, entonces = S es la base buscada, de lo contrario existe k {1, . . . , m} tal que vk gen({v1 , v2 , . . . , vk1, vk+1 , . . . , vm }). Continuar este proceso hasta obtener la base buscada.
4.4.2
En la observaci on 4.9 se arm o que en la presente secci on se probar a formalmente, usando el corolario 2.4, que los conjuntos S y R, denidos en la parte 3 del ejemplo 2.1, son subespacios conjuntos. Denici on 4.10. Consideremos una matriz A Mmn (R). El conjunto
/ N(A) = Ker(A) = {x Mn1 (R) : Ax = 0 m1 }
de Mn1 (R) y Mm1 (R), respectivamente. Antes que nada deniremos m as formalmente dichos
es llamado espacio nulo, n ucleo o kernel de A; y el conjunto Im(A) = {y Mm1 (R) : Ax = y se conoce como imagen o recorrido de A. Observaci on 4.15. Notemos que por denici on y Im(A) si y s olo si existe x Mn1 (R) tal que Ax = y . para alg un x Mn1 (R)}
159
F1 F2 0 1 1 0 0 0 x1 As que x2 x3 x4
4 0
N(A) si y s olo si
x1 x2
Por lo tanto
x2 = x 3 x4
= x3
3 2 1 4 N(A) = gen , 1 0 0 1 2 3 1 4 , 1 0 0 1
1 4 + x4 1 0 0 1
es linealmente independiente (pru ebelo!) y por lo tanto es una base de N(A). As que n( A) = 2. x1 y1 x2 M31 (R). Entonces y Im(A) si y s Por otro lado, sea y = o lo si existe x = y 2 x3 y3 x4 M41 (R) tal que Ax = y , es decir, y Im(A) si y s olo si el sistema Ax = y tiene soluci on.
160
La cual es equivalente por las a la matriz (verif quelo!) 1 0 2 3 1 y 2 2 1 1 0 1 1 4 y y 3 1 3 2 0 0 0 0 3y1 2y2 + y3 Por lo tanto y Im(A) si y s olo si 3y1 2y2 + y3 = 0 (por qu e?) o equivalentemente y 3 = 3y 1 + 2y 2 En consecuencia y1 y1 1
y por lo tanto
y = y2 = = y + y y2 0 1 1 1 y3 3 y 1 + 2y 2 3 2 1 0 Im(A) = gen 0 , 1 3 2
Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A est an en las columnas 1 y 2, por lo tanto las columnas 1 y 2 2 2 , 2 de A, 3 0 9
161
= 2
2 9 2
0 4
es decir
y por lo tanto
, 2 0 Im(A) 2 9 2 3 2 , 0 2 9 2 3 2 , 0 2 9
1 = 0 6 0 13 42 9 0 3
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 4.16 tenemos que
Este procedimiento es v alido al momento de hallar una base para Im(A) y es una manera m as sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no es necesario saber para que valores de y el sistema Ax = y tiene soluci on. Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A). Algoritmo para hallar bases para N(A) e Im(A), donde A Mmn (R). Paso 1. Hallar la FERF de la matriz A.
162
dichos vectores forman un base para N(A). Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan las columnas de A que forman una base para Im(A). Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados. Concolumnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio generado por las las de A, el cual es llamado espacio la de A, esto es C(A) = gen({A(1) , A(2) , . . . , A(n) }) y R(A) = gen({A(1) , A(2) , . . . , A(m) }) Teorema 4.20. Si A, B Mmn (R) son tales que A y B son equivalentes por las, entonces 1. C(A) = Im(A). 2. R(A) = R(B ). 3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A). 4. r(A) = r(B ) y n(A) = n(B ). 5. r(A) + n(A) = n. Demostraci on. 1. Por denici on de Im(A) sabemos que y Im(A) si y s olo si existe x Mn1 (R) tal que Ax = y . x1 sideremos una matriz A Mmn (R). Denotaremos por C(A) al espacio generado por las
Si hacemos x =
x2 . , entonces . xn
163
dientes (por qu e?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el n umero de las no nulas de F , entonces dim(R(F )) = k , pero por la parte 2 R(A) = R(F ), as que dim(R(A)) = dim(R(F )) = k .
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son linealmente independientes (en virtud del corolario 4.11) y que en consecuencia forman una base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) = k = dim(R(A)) y por la parte 1 tenemos que dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A) 4.Queda como ejercicio. 5.Queda como ejercicio.
Corolario 4.21. A Mnn (R) es invertible si y s olo si r(A) = n. Demostraci on. Ejercicio!
Corolario 4.22. Sean A Mmn (R) y b Mm1 (R). Entonces el sistema Ax = b tiene al menos una soluci on si y s olo si r([A|b]) = r(A). Demostraci on. Ejercicio!
Ejemplo 4.23. Hallar el espacio la, el espacio columna, el espacio nulo, la imagen, y una base para cada uno de estos espacios; y la nulidad y 2 2 4 1 A= 1 1 2 4 el rango de la matriz 6 1 8 3 2 19 16 3 1 3 6 14
164
A=
4 1 3 2 19 F1 F3 2 1 1 3 1 6 2 6 1 8 2 4 16 3 14 2 4 16 3 14 1 1 3 1 6 1 1 3 1 6 F2 F2 + 4F1 0 1 5 0 3 15 2 5 1 3 F2 F2 F4 F3 F3 2F1 0 0 0 0 0 1 4 0 1 4 F4 F4 2F1 0 2 10 1 2 0 2 10 1 2 1 0 2 0 3 1 0 2 0 3 F1 F1 F2 0 1 5 1 3 F2 F2 + F3 0 1 5 0 1 0 1 4 F4 F4 F3 0 1 4 F4 F4 2F2 0 0 0 0 0 0 0 1 4 0 0 0 0 0 1 0 2 0 3 0 1 5 0 1 F3 F3 0 0 0 1 4 0 0 0 0 0 x1 4 1 x2 As que olo si x3 N(A) si y s x4 x5 x1 +2x3 x2 5x3 +3x5 = 0 x4 +4x5 = 0 x5 = 0
3 2 19
o equivalentemente
165
x1
y as
x3 = x 4 x5
x2
= x3
5 1 0 0
+ x5
0 4 1
N(A) = gen
Adem as, una base para el espacio la de A es: 1 0 2 0 3 luego R(A) = gen 1 0 2 0 3 , ,
1 1 , 0 0 4 0 1 , 0 0 0 1 4
0 1 5 0 1
0 1 5 0 1
0 0 0 1 4
Como los pivotes de la FERF de A est an en las columnas 1,2 y 4, entonces las columnas 1,2 y 4 de A forman una base para el espacio imagen o 2 2 4 1 , 1 1 2 4 espacio columna de A, es decir, 1 2 , 1 3
166
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) = dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.
Ejercicio 4.8. Pruebe que si A Mnn (R), entonces existe k n tal que para cada r k se cumple 1. N (A ) = N A 2. Im (Ar ) = Im Ak e Im Ak Im(A2 ) Im(A) Mn1 (R). Adem as, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.
r k 2 k / y {0 n1 } N(A) N(A ) N A .
167
En este cap tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales reales, salvo que se indique lo contrario, sin embargo, muchas de las deniciones y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales reales.
muchas formas de ordenar los vectores en , a saber n! formas distintas, haremos una diferencia entre unas y otras deniendo lo que llamaremos base ordenada . Denici on 4.3.1. Sea V un espacio vectorial de dimensi on n. Una base ordenada de V es una n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V. Observaci on 4.3.1. Para no recargar mucho la notaci on escribiremos {v1 , v2 , . . . , vn } en lugar de (v1 , v2 , . . . , vn ) y para no caer en confusi on diremos {v1 , v2 , . . . , vn } es una base ordenada de
V. Ejemplo 4.3.1. 1. En R2 dos bases ordenadas distintas son: c = {(1, 0), (0, 1)} y = {(0, 1), (1, 0)} la primera 2. se Endenomina Rn las bases ordenadas c ordenada = {(1, 0, . . . , simplemente 0), (0, 1, 0, . . . base , 0), . .can . , (0 ,nica . . . , 0de , 1)R } 2 .yN = la base can onica o o o tese {(0, . . . ,y0 , 1) , (0,iguales . . . , 0, 1 , 0), . .bases . , (1, de 0, . R . .2,,0) } son distintas, pero como bases son iguales. c que son como pero distintas como bases ordenadas.
c
3. En Pn [x] las siguientes bases c = {1, x, . . . , xn } y = {xn , . . . , x, 1} son bases ordenadas distintas, pero como bases iguales. c es llamada base can onica ordenada o simplemente base can onica de Pn [x].
168
sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0
Denici on 4.3.2. Sea = {v1 , v2 , . . . , vn } una base ordenada de V y sea v V. Deniremos la matriz de coordenadas de v en la base como la u nica matriz 1 2 [v ] = . . n tal que v = 1 v1 + 2 v2 + + n vn .
Ejemplo 4.3.2. El conjunto = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (pru ebelo!). Para cualquier p(x) P2 [x], encuentre [p(x)] . Soluci on. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 R y sea 1 [p(x)] = 2 3
169
1 +2
1 0
a0
0 0
1 1
1 a 2 0
a0 a0 + a1 1 a +1 a 2 1 2 2
1 1
a0 + a1 a2 1 = a0 + a1 + a2 2 a0 a1 + a2 1 1 [p(x)]c 1
Teorema 4.3.1. Sea una base ordenada de un espacio vectorial V de dimensi on n. Para cualesquiera u, v V y R se cumple que 1. [u + v ] = [u] + [v ]
170
espacio vectorial V. Entonces existe una u nica matriz A Mnn (R) tal que [v ]2 = A[v ]1 para cada v V
(4.1)
Entonces
2j . . nj
[v ]1
Entonces 1 u1 + 2 u2 + + n un = v
2 = . . n
y [v ]2
2 = . . n
171
Por lo tanto
1
2
De donde
. n
+ + + 2n 2 21 1 22 2 2n n 21 22 = . . . . . . n1 1 + n2 2 + + nn n n1 n2 nn n 11 12 1n 2n 21 22 = [v ] . . . 1 n1 n2 nn 1n
11 1 + 12 2 + + 1n n
11 12
1n
[v ]2
Haciendo
A = [ij ]nn =
obtenemos la existencia de la matriz A que satisface (3.1) Para probar la unicidad de A, notemos primero que la j - esima columna de A est a dada por 1j 2j (j ) A = = [vj ]2 . . nj
2n 21 22 = . . . . . . n1 n2 nn
11 12
para cada v V
[vj ]2 = B [vj ]1
172
Pero
[vj ]1
0 = 1 j - esima la 0 . 0
0 . .
Luego
0 . . 0 A
(j )
= [vj ]2 = B [vj ]1 = B 1 = B (j ) 0 . . 0
Por lo tanto B = A.
Denici on 4.4.3. La matriz A en el teorema anterior es llamada matriz de transici on o matriz de cambio de base de 1 a 2 y se denota por M 1 , 2 . Como su nombre lo indica, la matriz M1 ,2 permite hallar la matriz de coordenadas de un vector v V en la base 2 conociendo la matriz de coordenadas de v en la base 1 . N otese del j - esimo vector de 1 respecto a la base 2 , esto es, si 1 = {v1 , v2 , . . . , vn }, entonces M1 ,2 = . Ejemplo 4.3.3. Sea la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, seg un el ejemplo en cuesti on, tenemos que 1 1 1 2 1 1 1 1 1 [v1 ]2 [v2 ]2 [vn ]2 adem as que por su denici on, la columna j - esima de M1 ,2 , representa la matriz de coordenadas
Mc , =
1 1
(por qu e?)
173
Ejemplo 4.3.4. Consideremos las siguientes bases ordenadas de R3 1 = {(1, 2, 0), (3, 1, 1), (0, 1, 3)} 2 = {(0, 2, 1), (1, 0, 1), (3, 1, 2)} c la base can onica. Hallar M1 ,2 , Mc ,2 y M2 ,1 . Soluci on. Para hallar M1 ,2 debemos hallar las matrices de coordenadas de cada uno de los vectores de 1 respecto a la base 2 . Sean 11 12 [(1, 2, 0)]2 = , [(3 , 1 , 1)] = 2 21 22 31 32 13 = 23 33
y [(0, 1, 3)]2
174
Entonces (1, 2, 0) =
21 (1, 0, 1)
+ 31 (3, 1, 2)
11
11 (0, 2, 1)
= (21 + 3 31 , 2 (3, 1, 1) =
32 ) 12 (0, 2, 1)
31 ,
11
+ 21 + 2 31 )
+ 22 (1, 0, 1) + 32 (3, 1, 2)
12
= (22 + 3 32 , 2
32 ,
12
+ 22 + 2
De donde
(0, 1, 3) =
13 (0, 2, 1)
+ 23 (1, 0, 1) + 33 (3, 1, 2)
211 11
= (23 + 3 33 , 2 13 33 , 13 + 23 + 2 21 +331 = 1 22 +332 = 3 33 ) 31 = 2 , 212 32 = 1 +21 +231 = 0 12 +22 +232 = 1 y 213 33 = 1 13 +23 +233 = 3 23 +333 = 0
Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de manera simult anea considerando la siguiente matriz tres veces ampliada 0 1 3 1 3 0
N otese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de cada uno de los vectores de la base 2 respecto a la base can onica, y las tres u ltimas colum nas, son las matrices de coordenadas de cada uno de los vectores de la base 1 respecto a la base can onica. Este procedimiento es est andar cada vez que busquemos una matriz de cambio de base. 3 1 3 0 1 1 2 0 1 3 0 1 2 0 1 2 1 1 0 1 2 1 1 F1 F3 2 1 1 2 0 1 3 0 1 3 1 3 0
2 1
0 1 2 1 1 1 2 0 1 3
175
F2 F2 2F1 0 0 1 1 F2 F2 0 1 0 2 1 0 1 F3 11 F3 0 1 0 0 As que
M1 ,2 =
1 = 11
9 1
1 6 15 4 9 5
Vemos que para obtener Mc ,2 necesitamos aplicar, en el mismo orden, las mismas OEF que aplicamos anteriormente (por qu e?), y obtenemos 1 0 0
1 11 5 11 2 11 5 11 3 11 1 11 1 11 6 11 2 11
2 1
0 1 0 1 0 1 2 0 0 1
Por lo tanto
0 1 0 0 0 1
1 11 5 11 2 11 5 11 3 11 1 11
1 5 1
Mc ,2 =
1 11 6 11 2 11
= 1 5 3 6 11 2 1 2
M2 ,c = 2 1
0 1 1 2
176
M2 ,1 = (M1 ,2 )1 =
5 14 3 14
1 = 14
15
5 7 13 3 7 5
Algoritmo para hallar la matriz de transici on M1 ,2 , donde 1 y 2 son bases ordenadas de un espacio vectorial V de dimensi on n y c es la base can onica ordenada de V. En general V = Rn , V = Pn1 [x] o V = Mpq (R) con pq = n. Paso 1. Hallar las matrices M2 ,c y M1 ,c . Paso 2. Formar la la matriz ampliada [M2 ,c |M1 ,c ]. Paso 3. Hallar la FERF de la matriz en el paso previo. Paso 4. La matriz hallada en el paso previo tiene la forma [In |B ]. Entonces M1 ,2 = B . Ejemplo 3.5. Sean 1 , 2 y c como en el ejemplo anterior. Dado (x, y, z ) R3 , hallar [(x, y, z )]2 y [(x, y, z )]1 . x = y por lo tanto z 1
x x + 5y + z 1 1 = = 5 3 6 y 5 x 3 y + 6 z 11 11 2 1 2 z 2x y + 2z 5 1 1 14 1 5 7 13 5 x 3 y + 6 z 11 3 7 5 2x y + 2z 4x 9y + 3z 1 = 6x + 3y z 14 2x y + 5z 15 7 3 x + 5y + z
[(x, y, z )]1
177
Mc ,1 = M2 ,1 Mc ,2 =
Mc ,1
Este resultado no es casual, como se puede ver en el siguiente teorema Teorema 4.4.4. Sean 1 , 2 y 3 bases ordenadas de un espacio vectorial V de dimensi on n. Entonces M1 ,3 = M2 ,3 M1 ,2 Demostraci on. Sea v V cualquiera. Entonces [v ]3 = M2 ,3 [v ]2 Luego [v ]3 = M2 ,3 [v ]2 = M2 ,3 M1 ,2 [v ]1 Por unicidad de la matriz M1 ,3 concluimos que M1 ,3 = M2 ,3 M1 ,2 y [v ]2 = M1 ,2 [v ]1
1 = 14
Teorema 4.4.5. Sea una base ordenada de un espacio vectorial V de dimensi on n. Entonces es [vj ] , tiene determinante distinto de cero. {v1 , v2 , . . . , vn } es una base de V si y s olo si la matriz cuadrada de orden n, cuya j - esima columna
Demostraci on. Sea A Mnn (R) la matriz cuya j - esima columna es [vj ] . Sean 1 , 2 , . . . , n R tales que As que 1 v1 + 2 v2 + + n vn = 0
178
2 / =0 nica soluci on la trivial, es n1 tiene como u . n decir, si y s olo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n, Pero det(A) = 0 si y s olo si el sistema A equivale a que {v1 , v2 , . . . , vn } es una base de V.
El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
4.5.
Denici on 4.5.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funci on que asocia, a cada par de vectores u, v V, un u nico n umero real denotado por u , v , u v ouv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w V y cada R 1. u , v = v , u . 2. u + v , w = u , w + v , w . 3. u , v = u , v .. / . v , v 0 y adem as v , v = 0 si y s olo si v = 0 V Un espacio vectorial real, en el cual se dene un producto interno, es llamado espacio (vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a los productos internos son producto interior, producto escalar y producto punto. Ejemplo 4.5.6. Las siguientes funciones son productos internos sobre Rn
179
1. u , v =
i=1
u, v =
i=1
ui vi =
i=1
vi ui = v , u
u+v, w =
i=1
(ui + vi )wi =
i=1
(ui wi + vi wi ) =
i=1
u i wi +
i=1
vi wi = u , w + v , w
u , v =
i=1
uivi =
i=1
uivi = u , v
Finalmente u, u =
ui ui =
i=1 i=1
u2 i 0
u2 i
Este producto interno es llamado producto interno euclidiano, usual o est andar de Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre Rn .
n
2. u , v =
i=1
y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno ponderado, si p1 = = pn = 1, este producto interno coincide con el producto interno euclidiano. Pruebe que esta funci on es un producto interno. Ejemplo 4.5.7. En Mmn (R) la siguiente funci on dene un producto interno (pru ebelo!), el cual se conoce como producto interno euclidiano, usual o est andar, al igual que en el caso de Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mmn (R). m n aij bij A, B = donde A = (aij )mn y B = (bij )mn .
i=1 j =1
180
f,g =
a
f (x)g (x)dx
f,g =
a
f (x)g (x)dx =
a
g (x)f (x)dx = g , f
f +g, h
=
a b
(f (x) + g (x))h(x)dx =
a b
(f (x)h(x) + g (x)h(x))dx
=
a
f (x)h(x)dx +
a b
g (x)h(x)dx = f , h + g , h
b
f , g =
a
f (x)g (x)dx =
a b
f (x)g (x)dx = f , g
b
f,f =
a
f (x)f (x)dx =
a
[f (x)]2 dx 0
si f = O, donde O es la funci on nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ]. C [ a , b ]. Ejemplo 4.5.9. En Pn [x] las siguientes funciones son productos internos.
Adem as f , f = 0 si y s olo si f (x) = 0 para cada x [ a , b ] (por qu e?), es decir, si y s olo Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno denido en el ejemplo anterior, es un producto interno sobre Pn [x].
n
2. p , q =
i=0 n
p, q =
i=0
p(i)q (i) =
i=0 n
q (i)p(i) = q , p .
n
p+q, r =
i=0 n
=
i=0
p(i)r (i) +
i=0
q (i)r (i) = p , r + q , r .
181
p, p =
i=0
p(i)p(i) =
i=0
[p(i)]2 0.
Adem as, p , p = 0 si y s olo si p(i) = 0 para cada i {0, . . . , n}. Pero el u nico polinomio en Pn [x], que tiene m as de n ra ces, es el polinomio nulo (por qu e?), es decir, p , p = 0 si y s olo si p es el polinomio nulo.
n
3. p , q =
i=0
lo!). Teorema 4.5.6. Sea V un espacio con producto interno , . Entonces 1. u , v + w = u , v + u , w para cualesquiera u, v, w V. 2. u , v = u , v para cualesquiera u, v V y R. 3. u v , w = u , w v , w para cualesquiera u, v, w V. 4. u , v w = u , v u , w para cualesquiera u, v, w V. / / V = 0 = 0V , v para todo v V. 5. v , 0 / . 6. Si u , v = 0 para cada v V, entonces u = 0 V Demostraci on. 1. Sean u, v, w V cualesquiera. Entonces u, v +w = v +w, u = v, u + w, u = u, v + u, w . 2. Sean u, v V y R cualesquiera. As que ello debemos hallar la FERF de A. u , v = v , u = v , u = u , v . 3.=Sean u, v, w V cualesquiera. Luego A uv, w = = u + (v ) , w = u , w + v , w u , w + (1) v , w = = u , w + (1)v , w
u, w v, w .
182
/ / , v = v, 0 / As que v , 0 as 0 V = 0 y adem V V = 0.
(por qu e?).
4.6.
Observaci on 4.6.2. Si u es ortogonal a v , entonces v es ortogonal a u. En consecuencia, podemos escribir u y v son ortogonales en lugar de u es ortogonal a v . Ejemplo 4.6.10. 1. Sean x = (2, 1, 3) e y = (3, 3, 1). Entonces x , y = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0 as que x y . 2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto mismo teorema, nos dice que el u nico vector que es ortogonal a todo vector v V, es el vector nulo. 3. Las funciones f (x) = sen(x) y g (x) = cos(x), en C [ , ], son ortogonales.
/ interno, el vector nulo 0 as, la parte 6 de este V es ortogonal a cualquier vector v V, adem
183
producto interno denido en la parte 3 del ejemplo 3.9 (verif quelo!), pero si consideramos el producto interno denido en la parte 2 del mismo ejemplo, estos polinomios no son ortogonales (verif quelo!).
nor-ma, magnitud, m odulo o longitud (inducida por el producto interno) de v V, como el n umero real v dado por v = Diremos que v V es unitario si v = 1. Observaci on 4.6.3. La norma de un vector no siempre est a denida en t erminos del producto interno (ver B), sin embargo, en este cap tulo nos ocuparemos de las normas inducidas por un producto interno. Dado que v , v 0 para cada v V, entonces la denici on anterior est a bien fundada. Ejemplo 4.6.11. Consideremos sobre R4 el producto interno euclidiano. Entonces 0, 3, 2) , (1, 0, 3, 2) = 12 + 02 + (3)2 + 22 = 14 (1, 0, 3, 2) = (1, Ejem. 4.6.12. En P2 [x] consideremos el polinomio p(x) = 3 x2 . Hallar p considerando: 1. El producto interno denido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1. 2. El producto interno denido en la parte 2 del ejemplo 3.9. 3. El producto interno denido en la parte 3 del ejemplo 3.9. Soluci on .
1 1
v, v
1. p =
1
(3
x2 )2 dx
=
1
(9 2
6x2
x4 )dx 2 5
9x
2x3
x5 + 5
1 1
= 2. p =
2 92+
1 5
36 =6 5
32 + 22 + (1)2 =
14
184
A continuaci on enunciaremos un teorema donde se dan a conocer algunas propiedades de la norma, y que son consecuencia directa las propiedades del producto interno, su demostraci on se deja como ejercicio. Teo.4.6.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:
/ . 1. u 0 y u = 0 si y s olo si u = 0 V
2. u = || u . 3. u v
2
= u
2 u , v + v 2.
El siguiente lema nos permitir a demostrar el teorema que le sigue. Lema 4.6..1. Sean u y v dos vectores unitarios en un EPI. Entonces | u , v | 1. Demostraci on. Usando la parte 3 del teorema 3.7, tenemos que 0 u+v As que u , v 1 Nuevamente, por la parte 3 del teorema 4.6.7, obtenemos 0 uv luego u, v 1 En consecuencia | u, v | 1
2 2
= u
+2 u, v + v
= 1 + 2 u , v + 1 = 2[1 + u , v ]
= u
2 u, v + v
= 1 2 u , v + 1 = 2[1 u , v ]
En el teorema que enunciaremos a continuaci on, se dan dos propiedades muy importantes de la norma.
185
u , v 1, es decir, u , v u v .
= u
+2 u, v + v
+2 u v + v
= ( u + v )2
Luego u + v u + v .
Def.4.6.7. Sea V un EPI y sean u, v V vectores no nulos. Deniremos el angulo entre u y v como el n umero real (u, v ) [ 0 , ] tal que es decir, u, v cos((u, v )) = u v u, v u v
186
= arc cos
Def.4.6.8. Sea V un EPI y sea S = {v1, v2, . . . , vk} V. Diremos que S es un conjunto ortogonal si vi vj para cualesquiera i, j {1, . . . , k} con i = j. Si adicionalmente vi es unitario para cada i {1, . . . , k}, diremos que S es un conjunto ortonormal. Ejem. 4.6.14. Consideremos las siguientes matrices en M22 (R) A1 = 1 0 0 0 ; A2 = 0 2 2 0 y A3 = 0 1 1 3
Es S = {A1 , A2 , A3 } un conjunto ortogonal? Es S ortonormal? Soluci on . A1 , A2 = 1 0 + 0 2 + 0(2) + 0 0 = 0 A1 , A3 = 1 0 + 0 1 + 0 1 + 0 3 = 0 A2 , A3 = 0 0 + 2 1 + (2)1 + 0 3 = 0 As que S es ortogonal. Pero A2 = 02 + 22 + (2)2 + 02 = 2 2 = 1
Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde 1 1 A2 = A2 A2 2 2 s es un conjunto ortonormal (verif quelo!). B1 = B2 = 1 A1 = A1 , A1 1 1 A3 = A3 y B3 = A3 11
Teorema4.6.9. Todo conjunto ortogonal nito de vectores no nulos en un EPI es linealmente independiente.
187
vj , i vi =
i=1 i=1
i vj , vi = j vj , vj
= j vj
Def.4.6.9. Sean V un .EPI y = {v1 , v2 , . . . , vn } una base de V. Diremos que es una ortonormal). Ejemplo 4.6.15. 1. Las bases can onicas de Rn y Mmn (R) son bases ortonormales. 2. Una base ortogonal de M22 (R) es = pero no es ortonormal. 1 0 0 0 ; 0 2 2 0 ; 0 1 1 3 ; 0 3
3 2
3. Una base ortonormal de P2 [x], considerando el producto interno denido en la parte 1 del ejemplo 4.6 .9 con a = 1 y b = 1, es = En efecto, 1 2 3 x 2
2
1 , 2 1 2 3 2
2
3 5 x , 1 + 3x2 2 2 2
2
1 x
2
1 = 2
1
1 dx = 2 = 1 2 1
1 2
3 = 2
3 x3 x dx = 2 3 1
=1
1
188
= 5 = 8
5 2 2
1 1
1 + 3x2 1 6x + 9x
2 4
5 8
1 1
1 + 3x2
3
dx
1
5 dx = 8
9 x 2x + x5 5
dx = 1
1
Adem as
Para nalizar esta secci on, nos plantearemos y solucionaremos el problema de hallar una base ortonormal para un EPI de dimensi on nita o para un subespacio de dimensi on nita de un EPI, comenzaremos con un ejemplo el cual ilustrar a un procedimiento, conocido como proceso de ortonormalizaci on de Gram-Schmidt , que nos permite encontrar tal base. Ejem. 4.6.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere. mos la base de P2 [x] = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
v2 = x y v3 = x2
v1 =
1
dx =
1 1 v1 = v1 2
w2 = v2 v2 , u1 u1
189
1 x, 2
1 1 = x, 1 = 2 2
xdx = 0.
1
w2 =
1
x2 dx
x3 3
=
1
2 3
Si hacemos u2 =
1 w2 = w2
3 x 2
1 1 = x2 , 1 = 2 2 3 x 2 =
1 x3 x2 dx = 2 3 1 3 2
1
1 1
2 = 3 2
v3 , u2 = De donde
x ,
3 2 x ,x = 2
x3 dx = 0
1
2 1 1 w3 = x2 = + x2 3 3 2 2 1 + x2 3 1 8 2 2 = 45 3 5
1 2 1
y w3 = = dx =
1
1 2 2 x + x4 dx = 9 3
1 2 x5 x x3 + 9 9 5
1 1
190
El teorema siguiente generaliza el procedimiento que se us o en ejemplo anterior. Teo.4.6.10 (Proceso de Ortonormalizaci on de Gram-Schmidt). Sea V un EPI. Si W es un subespacio de dimensi on nita de V, entonces W posee una base ortonormal. En Particular, si V tiene dimensi on nita, entonces V posee una base ortonormal. Demostraci on. Sea W = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base
/ En primer lugar, notemos que vi = 0 V para cada i {1, . . . , m}.
ortonormal de W a partir de W .
Paso 1. Sea u1 =
v2 = v2 , u1 u1 =
v2 , u1 v1 v1
lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente. Adem as w2 , u1 = v2 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 u1 , u1 Con lo que w2 u1 . Paso 3. Sea u2 =
= v2 , u1 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 = 0
1 w2 w2 = . Entonces u2 = 1 y u1 u2 . As que {u1 , u2} es un w2 w2 conjunto ortonormal. Adem as gen({u1, u2 }) = gen({v1 , v2 }). En efecto, sea v gen({u1, u2 } cualquiera. Entonces existen 1 , 2 R tales que v = 1 u1 + 2 u2 . Luego v = 1 u1 + 2 u2 1 1 = 1 v1 + 2 w2 v1 w2 1 2 = v1 + (v2 v2 , u1 u1 ) v1 w2 1 2 1 = v1 + v2 v2 , u1 v1 v1 w2 v1 1 2 v2 , u1 2 = v1 + v2 v1 w2 v1 w2
191
= vk+1
vk+1 , ui ui
i=1
wk+1 , uj
= = = =
vk+1
vk+1 , ui ui , uj
i=1 k
vk+1 , uj
k
vk+1 , ui ui , uj
i=1
vk+1 , uj vk+1 , uj
vk+1 , ui ui , uj
i=1 k
i=1
= =
wk+1 . Entonces {u1 , u2, . . . , uk , uk+1} es un wk+1 wk+1 conjunto ortonormal y gen({u1 , u2 , . . . , uk , uk+1}) = gen({v1 , v2 , . . . , vk , vk+1}) (por
Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
192
Cap tulo V
Transformaciones Lineales. Autovalores y Autovectores de una Matriz
5.1.
Denici on 5.1. Sean V y W dos espacios vectoriales y T : V W una funci on. Diremos que T es una transformaci on lineal si para cualesquiera u, v V y R se cumple que 1. T (u + v ) = T (u) + T (v ). 2. T (u) = T (u). Ejemplo 5.11. Sean V y W dos espacios vectoriales. La transformaci on O : V W, dada por O (v ) = 0
/
para cada v V, es una transformaci on lineal (pru ebelo!), llamada transformaci on nula.
2. Sea V un espacio vectorial. Denamos IV : V V como sigue, IV (v ) = v para cada v V. identidad sobre V.
3. Sean V un espacio vectorial de dimensi on n y una base ordenada de V. Entonces T : V Mn1 (R) dada por T (v ) = [v ] es una transformaci on lineal (ver teorema 3.1 en el cap tulo anterior). 4. T : R3 R2 , dada por T (x, y, z ) = (2x + y, x z ), es una transformaci on lineal, en efecto, dados (x, y, z ), (a, b, c) R3 y R, se tiene que T ((x, y, z ) + (a, b, c)) = T (x + a, y + b, z + c) = (2(x + a) + (y + b), (x + a) (z + c)) = (2x + 2a + y + b, x + a z c) = (2x + y, x z ) + (2a + b, a c) = T (x, y, z ) + T (a, b, c)
193
V.Transformaciones Lineales.
T ((x, y, z )) = T (x, y, z ) = (2(x) + (y ), (x) (z )) = ((2x + y ), (x z )) = (2x + y, x z ) = T (x, y, z )
5. La funci on T : R2 R3 dada por T (x, y ) = (x2 , x + y, xy ) no es una transformaci on lineal, en efecto, T (1, 0) = (12 , 1 + 0, 1 0) = (1, 1, 0) T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 0) = (4, 2, 0) 2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) = (4, 2, 0) = T (2(1, 0)) 6. T : P2 [x] R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b c) no es una transformaci on lineal, en efecto, T (0) = (2 0 + 0 + 3, 0 0) = (3, 0) T (0) + T (0) = (3, 0) + (3, 0) = (6, 0) T (0 + 0) = T (0) = (3, 0) = (6, 0) = T (0) + T (0) 7. Consideremos T : M22 (R) P3 [x] dada por T a b c d = a + bx + cx2 + dx3
Entonces T es lineal (pru ebelo!). 8. T : R3 P3 [x] dada por T (a, b, c) = b + (2a + c)x + (b 3c)x3
194
V. Transformaciones Lineales.
es lineal. En efecto, sean u, v R3 y R cualesquiera, con u = (a1 , b1 , c1 ) y v = (a2 , b2 , c2 ). Entonces
T (u + v ) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 )) = T (a1 + a2 , b1 + b2 , c1 + c2 ) = (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) 3(c1 + c2 )]x3 = (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 3c1 3c2 )x3 = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 3c2 )x3 ] = T (a1 , b1 , c1 ) + T (a2 , b2 , c2 ) = T (u ) + T (v )
T (u) = T ((a1 , b1 , c1 ))
1,
c)= T (a1 , b
= b1 + (2 a1 + c1 )x + (b1 3 c1 )x3 = b1 + (2a1 + c1 )x + (b1 3c1 )x3 = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] = T (a1 , b1 , c1 ) = T (u)
9. Sea A Mmn (R). Denamos T : Mn1 (R) Mm1 (R) como T (x) = Ax. No es dif cil probar que T es una transformaci on lineal . Este ultimo ejemplo nos dice que toda matriz dene una transformacion lineal, mas adelante veremos que toda transformacion lineal, entre espacios vectoriales de dimension nita, esta asociada con una matriz. El siguiente teorema nos ser a de gran utilidad a la hora de decidir si una funci on T es una transformaci on lineal. Teorema 5.1. Sean V y W dos espacios vectoriales. Una funci on T : V W es una transformaci on lineal si y s olo si para cualesquiera u, v V y R se cumple que T (u + v ) =T (u) + T (v ) T (u) + T (v ).
195
V.Transformaciones Lineales.
Demostraci on. Supongamos que T : V W es una transformaci on lineal. Sean u, v V y R cualesquiera. Entonces T (u + v ) = T (u) + T (v ) (por la condicin 1 de la denici on 4.1) = T (u) + T (v ) (por la condicin 2 de la denici on 4.1) Supongamos ahora que T : V W es tal que para cualesquiera u, v V y R se cumple T (u + v ) = T (u) + T (v ) Sean u, v V y R cualesquiera. Entonces T (u + v ) = T (u + 1 v ) = T (u) + 1 T (v ) = T (u) + T (v ) y adem as
/ ) = T (u + (1)u) = T (u) + (1)T (u) = 0 / T (0 V W
que
luego
/ +v ) = T (0 / ) + T (v ) = 0 / T (v ) = T (0 V V W +T (v ) = T (v )
De ahora en adelante, gracias a este u ltimo teorema, cuando queramos probar que una funci on T, entre espacios vectoriales, es una transformaci on lineal, no ser a necesario probar las dos condiciones en la denici on 4.1, s olo bastar a probar la condici on en el teorema anterior. Teorema 5.2. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal.
2. T (u v ) = T (u) T (v ). 3. T (1 v1 + 2 v2 + + n vn ) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) Demostraci on. 1. Sea v0 V cualquiera pero jo. Entonces
/ ) = T (0 v ) = 0 T (v ) = 0 / T (0 V 0 0 W
196
V.Transformaciones Lineales.
2. En virtud del teorema 4.1 T (u v ) = T (u + (1)v ) = T (u) + (1)T (v ) = T (u) T (v ) 3. Procederemos por inducci on. a ) Veamos que se cumple para n = 2. T (1 v1 + 2 v2 ) = T (1 v1 ) + T (2 v2 ) = 1 T (v1 ) + 2 T (v2 ) b ) (Hip otesis Inductiva) Supongamos que se cumple para n 1, esto es, supongamos que T (1 v1 + 2 v2 + + n1 vn1 ) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) c ) Probemos que se cumple para n. T (1 v1 + 2 v2 + + n1 vn1 + n vn ) = T ((1 v1 + 2 v2 + + n1 vn1 ) + n vn ) = T (1 v1 + 2 v2 + + n1 vn1 ) + T (n vn ) (Hip otesis Inductiva) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) + n T (vn )
Teorema 5.3. Sean U, V y W espacios vectoriales y L : U V y T : V W dos transformaciones lineales. Entonces T L : U W es tambi en una transformaci on lineal. Demostraci on. Sean u1 , u2 U y R cualesquiera. Entonces (T L)(u1 + u2 ) = T (L(u1 + u2)) (denici on de composici on de funciones) = T (L(u1 ) + L(u2 )) (ya que L es lineal) = T (L(u1 )) + T (L(u2)) (ya que T es lineal) = (T L)(u1 ) + (T L)(u2 ) (denici on de composici on de funciones) Por lo tanto T L es lineal. Teorema 5.4. Sean V y W dos espacios vectoriales, T, L : V W dos transformaciones
197
V.Transformaciones Lineales.
Demostraci on. Sean v1 , v2 V y R cualesquiera. Entonces (T + L)(v1 + v2 ) = T (v1 + v2 ) + (L)(v1 + v2 ) (denici on de suma de funciones)
= T (v1 + v2 ) + L(v1 + v2 ) (denici on de m ultiplo escalar de funciones) = T (v1 ) + T (v2 ) + (L(v1 ) + L(v2 )) (pues T y L son lineales) = T (v1 ) + T (v2 ) + L(v1 ) + L(v2 ) = T (v1 ) + L(v1 ) + T (v2 ) + L(v2 ) = T (v1 ) + L(v1 ) + (T (v2 ) + L(v2 )) = T (v1 ) + (L)(v1 ) + (T (v2 ) + (L)(v2 )) (denici on de m ultiplo escalar de funciones) = (T + L)(v1 ) + (T + L)(v2 ) (denici on de suma de funciones) En consecuencia T + L es lineal.
Dado dos espacios vectoriales V y W, este u ltimo teorema nos dice que el conjunto formado por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de funciones y multiplicaci on por escalar, forman un espacio vectorial. Teorema 5.5. Sean V y W dos espacios vectoriales y = {v1 , v2 , . . . , vn } una base de V. Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) = L(vi ) para cada i {1, . . . , n}. Entonces T = L, esto es, T (v ) = L(v ) para cada v V.
1, 2, . . . , n
v = 1 v1 + 2 v2 + +
as que
n vn )
(teorema 5.2 parte 3) T (v ) = T (1 v1 + 2 v2 + + = 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) (hip otesis) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) = L( 1 v1 + 2 v2 + + n vn ) (teorema 5.2 parte 3) = L(v )
198
V.Transformaciones Lineales.
Luego T = L.
dimensi on nita, basta con conocer como act ua T en una base cualquiera de V, para saber como act ua T en cualquier v V. Ejemplo 5.2. Hallar la transformaci on lineal T de P2 [x] en R2 tal que T (1) = (2, 1); Soluci on . T (a0 + a1 x + a2 x2 ) = T (a0 1 + a1 x + a2 x2 ) = a0 T (1) + a1 T (x) + a2 T (x2 ) = a0 (2, 1) + a1 (3, 4) + a2 (1, 5) = (2a0 + 3a1 a2 , a0 + 4a1 + 5a2 ) T (x) = (3, 4); T (x2 ) = (1, 5)
Teorema 5.6 (Existencia y Unicidad de una Transformaci on Lineal). Sean V y W dos espacios u nica transformaci on lineal T : V W tal que T (vi ) = wi para cada i {1, . . . , n}. vectoriales, = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn W. Entonces existe una Demostraci on. Dado v V cualquiera, existen u nicos escalares, 1 , 2 , . . . , n R, tales que
n
v = 1 v1 + 2 v2 + + n vn = Denamos
i vi
i=1 n
T (v ) = 1 w1 + 2 w2 + + n wn =
i wi
i=1
La unicidad de los escalares 1 , 2 , . . . , n R, garantiza que T es una funci on, adem as, dado que w1 , w2 , . . . , wn W y W es un espacio vectorial, se tiene que T (v ) W, por lo tanto T es una funci on de V en W.
n
Por otro lado, para cada j {1, . . . , n}, se tiene que vj = j = 1, as que T (vj ) =
i=1 n
i vi , donde i = 0 si i = j y
i=1
i w i = j w j = w j
199
V. Transformaciones Lineales.
Probemos ahora que T es lineal. Sean u, v V y R cualesquiera, entonces existen u nicos
n
u = 1 v1 + 2 v2 + + n vn = v = 1 v1 + 2 v2 + + n vn = As que
i vi
i=1 n
i vi
i=1 n
T (u) = 1 w1 + 2 w2 + + n wn = T (v ) = 1 w1 + 2 w2 + + n wn = Adem as u + v =
i=1 n n n
i wi
i=1 n
i wi
i=1
i vi +
i=1
i vi =
i=1
(i + i )vi
Por lo tanto
n n n
T (u + v ) =
i=1
(i + i )wi =
i=1
i wi +
i=1
i wi = T (u) + T (v )
En consecuencia T es lineal. Finalmente, probemos que T es u nica. Supongamos que existe otra transformaci on lineal L : V W tal que L(vi ) = wi para cada i {1, . . . , n}. Luego, por el teorema 5.5, se tiene que L = T .
Ejemplo 5.3. Hallar una transformaci on lineal T : R3 M22 (R) (si existe) tal que T (2, 2, 1) = T (2, 1, 2) = 2 0 1 2 2 1 3 5 ; T (0, 1, 3) = T (1, 1, 0) = 0 1 4 3 ;
4 2 1
Soluci on. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son linealmente independientes, para ello, consideremos la matriz 2 0 2 1 1 1 1 2 1 3 2 0
200
V. Transformaciones Lineales.
y hallemos su FERF. 2 0 2 1 1 1 3 2 0 1 3 2 0
1 1 F1 F3 2 1 1 1 F1 F1 2 1 1 1 1 3 2 0 2 0 2 1 2 0 2 1 1 3 2 0 1 3 2 0 F2 F2 2F1 F F + F 0 5 5 1 0 1 1 0 2 2 3 F3 F3 + 2F1 0 6 6 1 0 6 6 1 1 0 1 0 F1 F1 3F2 0 1 1 0 F3 F3 6F2 0 0 0 1 Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores 2 (2, 2, 1), (0, 1, 3), (1, 1, 0)
son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema 4.6, concluimos que existe una u nica transformaci on lineal tal que T (2, 2, 1) = 2 0 ; T (0, 1, 3) = 4 2 1 0 1 4 ;
1 2
T (1, 1, 0) =
Hallemos T . Sea (x, y, z ) R3 cualquiera. Hagamos = {(2, 2, 1), (0, 1, 3), (1, 1, 0)} debemos hallar [(x, y, z )] , para ello hallemos la matriz Mc , . 2 0 1 1 0 0 1 3 2 0 0 0 1
1 1 0 1 0 F1 1 3 0 0 0 1 1 3 0 0 F1 F1 2 1 1 0 2 0 1 1 2
F3
1 1 0 1 0 2 0 1 1 0 0 0 1 1 3 0 0 0 1 F2 F2 2F1 0 5 1 0 1 1 0 2 F3 F3 + 2F1 0 0 0 6 1 1 0 2
201
V. Transformaciones Lineales.
1 3 0 0 0 1 1 0 0 3 3 1
En consecuencia
Es decir
(x, y, z ) = (3x 3y z )(2, 2, 1) + (x + y )(0, 1, 3) + (5x 6y 2z )(1, 1, 0) De donde T (x, y, z ) = (3x 3y z )T (2, 2, 1) + (x + y )T (0, 1, 3) +(5x 6y 2z )T (1, 1, 0) = (3x 3y z ) 2 0 1 2 1 + (x + y ) 0 1 4 3
4 2
26(2) 30(1) 10(2) 9(2) + 11(1) + 4(2) 4(2) 5(1) 3(2) 9(2) + 9(1) + 2(2)
3 5
Ejemplo 5.4. Hallar una transformaci on lineal (si existe) T : R4 M31 (R) tal que 1 0 T (1, 2, 1, 1) = 2 ; T (2, 1, 3, 0) = 1 3 2
202
V.Transformaciones Lineales.
2 3
Soluci on. Veamos si el conjunto S = {(1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3)} es linealmente independiente, para ello consideremos la matriz 1 2 0 1 2 1 1 3 1 5 1 7 0 2 0 3
T (0, 5, 1, 2) = 5 ; 8
T (1, 7, 0, 3) =
7 11
y hallemos su FERF 1 2 0 1
2 1 1 3
5 7 5 5 5 1 1 1 0 0 F2 F3 F3 F3 F1 1 0 0 1 1 1 5 5 5 0 F4 F4 F1 1 0 2 3 0 2 2 2 0 2 2 2 1 0 2 3 F1 F1 2F2 1 1 0 1 F3 F3 5F2 0 0 0 0 F4 F4 + 2F2 0 0 0 0 Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
F2 F2 + 2F1
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo de estos dos vectores (el teorema de completaci on de bases nos lo permite) c omo hacerlo?, escojamos estos vectores entre los can onicos, para saber cu al de ellos escoger, consideremos la siguiente matriz 1 2 1 0 0 0
2 1 0 1 0 0 hallemos su FERF. 1 3 0 0 1 0 1 0 0 0 0 1
203
V. Transformaciones Lineales.
1 2 1 0 0 0 1 2 1 0 0 0
5 2 1 0 0 2 1 0 1 0 0 0 F3 F3 F1 1 1 0 1 0 1 3 0 0 1 0 F F F 0 4 4 1 1 0 0 0 0 1 0 2 1 0 0 1 1 2 1 0 0 0 1 0 3 0 F1 F1 2F2 1 1 0 1 0 0 0 1 1 0 F2 F3 F F 5 F 3 3 2 0 5 2 1 0 0 7 1 F F + 2F 0 0 4 4 2 0 2 1 0 0 1 0 0 3 0 1 0 3 0 2 0 1 0 0 3 7 F1 F1 3F3 1 1 0 0 1 0 0 1 1 0 7 F3 1 F F F + F 3 2 2 3 7 1 5 1 0 0 1 7 7 0 0 0 1 7 F4 F4 + 3F3 3 0 0 3 0 2 1 0 0 0 7 de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir, = {(1, 2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)} es una base de R4 , haciendo 0
F2 F2 + 2F1
2 0
1 0
5 0 2 1 1 0 7
2 7 5 7 1 7
Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
0 0 1
garantizamos, seg un el teorema 4.6, que existe una u nica transformaci on lineal T : R4 M13 (R) que satisface las dos primeras igualdades en el enunciado del ejercicio y 0 T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0 base , obtenemos (vericarlo!)
T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0
(x, y, z, w )
x y
204
V. Transformaciones Lineales.
Por lo tanto T (x, y, z, w ) = T 1 1 z w (2, 1, 3, 0) 3 3 2 1 1 7 + x z (1, 0, 0, 0) + y z + w (0, 1, 0, 0) 3 3 3 3 1 1 = wT (1, 2, 1, 1) + z w T (2, 1, 3, 0) 3 3 2 1 1 7 + x z T (1, 0, 0, 0) + y z + w T (0, 1, 0, 0) 3 3 3 3 1 0 0 1 1 1 1 = w 2 + z w 1 + z w 0 3 3 3 3 3 2 0 0 1 7 + y z+ w 0 3 3 0 w (1, 2, 1, 1) + w
Se puede vericar que T satisface las u ltimas dos igualdades en el enunciado del ejercicio, as que T es la transformaci on buscada, pero a diferencia de la transformaci on hallada en el ejercicio anterior, esta no es u nica, depende de la escogencia de los vectores que completan la base del espacio de partida y la escogencia de las im agenes de estos.
7 T (x, y, z, w ) = 1 z + w 3 3 2 11 z 3w 3
5.2.
de Mn1 (R) en Mm1 (R), adem as, se coment o que toda transformaci on lineal, entre espacios demostraremos un teorema que garantiza esta u ltima armaci on.
En la secci on anterior, vimos que toda matriz A Mmn (R), dene una transformaci on lineal
vectoriales de dimensi on nita, est a asociada con una matriz, a continuaci on enunciaremos y
205
V. Transformaciones Lineales.
Teorema 5.7. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformaci on lineal.
Entonces existe un u nica matriz A Mmn (R) tal que para cada v V [T (v )]W = A[v ] V
1j , 2j , . . . , mj
R tales que Demostraci on. Para cada j {1, . . . , n}, existen escalares mj wm T (vj ) = 1j w1 + 2j w + 2 + 1j 2j . . mj 1
es decir
[T (vj )]W = [v ]V =
es decir
2 . . n
v = 1 v1 + 2 v2 + + n vn De donde n vn ) T (v ) = T (1 v1 + 2 v2 + +
n T (vn )
= 1 T (v1 ) + 2 T (v2 ) + +
= 1 (11 w1 + 21 w2 + + m1 wm ) + 2 (12 w1 + 22 w2 + + m2 wm ) + +
mn wm )
+ n (1n w1 + 2n w2 + +
21 1 + 22 2 + + 2n n 21 22 2n 2 = A[v ]V = . . . . . m1 1 + m2 2 + + mn n m1 m2 mn n
206
V. Transformaciones Lineales.
donde
11
12
A=
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos ahora su unicidad. Supongamos que B Mmn (R) es tal que para cada v V [T (v )]W = B [v ]V Luego, para cada j {1, . . . , n}, tenemos que [T (vj )]W = B [vj ]V Pero 0 . . 0 . . 0
21 22 2n = . . . . . . m1 m2 mn
1n
[vj ]V
0 = 1 j - esima la
Luego
Denici on 5.2. La matriz A en el teorema anterior, se denomina representaci on matricial de T respecto a las bases V y W , y la denotaremos por [T ]V ,W . Observaci on 5.1. Cuando W = V y W = V = , escribiremos [T ] en lugar de [T ],. Ejemplo 5.5. 1. Si Ves un espacio vectorial de dimensi on n, W es un espacio vectorial de dimensi on m,
V
207
V. Transformaciones Lineales.
2. Si V es un espacio vectorial de dimensi on n y es una base ordenada de V, entonces [IV ] = In , donde IV es la transformaci on identidad sobre V. Ejemplo 5.6. Denamos T : M22 (R) R3 como sigue T x y z w = (2y z, x y + w, 3x y z + w )
no es dif cil probar que T es lineal (pru ebelo!). Consideremos las bases can onicas ordenadas V de M22 (R) y W de R3 . Hallar [T ]V ,W . Soluci on. En primer lugar T 1 0 0 0 0 0 1 0 = (0, 1, 3) ; T 0 1 0 0 T = (2, 1, 1) = (0, 1, 1)
= (1, 0, 1) ;
0 0 0 1
0 1 0 0
W
0 0 1 0
W
0 0 0 1
W
Ejemplo 5.7. Consideremos la transformaci on lineal T : M22 (R) P2 [x] dada por T a b c d = (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x2
Sean V la base can onica ordenada de M22 (R), W la base can onica ordenada de P2 [x] y V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2
1 1
208
V. Transformaciones Lineales.
Soluci on. En primer lugar, hallaremos las im agenes, a trav es de T , de cada uno de los vectores de la base can onica V . 1 0 0 0 0 0 1 0 = 1 + x x2 ; = 1 + x 3x2 ; 0 1 0 0 T = 1 + 2x 3x2 = x 2x2
0 0 0 1
T
W W
0 0 0 1
W W
An alogamente, para hallar [T ] agenes, a trav es de T , de cada uno bV , bW , hallemos primero las im de los vectores de la base V . 1 2 1 0 2 3 1 1 = 4 + 4x 4x2 ; = 4 + 8x 12x2 ; 1 0 1 1 2 1 3 2 = 2 + x 4x2 = 4 + 5x 14x2
1 + 2x 3x2 1 1 1 0 = 1 2 1 1 1 3 3 2 =
W
1 + x x2
1 + x 3x2
x 2x2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base W . Para ello consideremos la siguiente matriz cuatro veces ampliada (por qu e?). 1 0 1 4 2 4 4
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base W , respecto a la base can onica W , el resto de las columnas, son las coordenadas de los vectores, hallados previamente, respecto a la base can onica W , esto es, las tres primeras columnas de esta matriz representan la matriz M ltimas 4 columnas reperesentan la matriz [T ] bW ,W y las u bV ,W . La FERF de esta matriz es
1 1 0 4 1 8 5 0 1 2 4 4 12 14
209
V. Transformaciones Lineales.
Por lo tanto
0 1 0 4 0 0 1 4
1 0 0 0 9 12 27 10 7 20 16
32 23
[T ] bW = 4 bV , 4
0 9 12 27 10 7 20 16
32 23
El ejemplo 5.7 nos permite escribir el siguiente algoritmo. V = {v1 , v2 , . . . , vn } es una base ordenada de V; W es una base ordenada del espacio vectorial o W = Mpq (R) con pq = m. Paso 1. Hallar T (v1 ), T (v2 ), . . . , T (vn ).
c y [T ] , c . Paso 2. Hallar las matrices MW ,W V W
Paso 4. Hallar la FERF de la matriz en el paso previo. Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B ]. Entonces [T ]V ,W = B . Teorema 5.8. Sean U, V y W espacios vectoriales, L : U V y T : V W dos trans-
formaciones lineales y U , V y W bases ordenadas de U, V y W respectivamente. Entonces [T L]U ,W = [T ]V ,W [L]U ,V Demostraci on. Sea u U cualquiera. Entonces ([T ]V ,W [L]U ,V )[u]U = [T ]V ,W ([L]U ,V [u]U ) = [T ]V ,W [L(u)]V ([T ]V ,W [L]U ,V )[u]U = [T (L(u))]W = [(T L)(u)]W .
210
V. Transformaciones Lineales.
Luego, por unicidad de la matriz [T L]U ,W , se tiene que [T L]U ,W = [T ]V ,W [L]U ,V
Teorema 5.9. Sean V y W dos espacios vectoriales de dimensi on nita; V y V bases ordenadas de V; W y W bases ordenadas de W y T : V W una transformaci on lineal. Entonces [T ] bW = MW , bW [T ]V ,W M bV , bV ,V Demostraci on. Sea v V cualquiera. Entonces [T (v )]W = [T ]V ,W [v ]V [v ]V = M bV ,V [v ] bV Luego [T (v )] bW = MW , bW [T (v )]W = MW , bW [T ]V ,W [v ]V = MW , bW [T ]V ,W M bV ,V [v ] bV Por unicidad de la matriz [T ] bV , bW , se tiene que [T ] bV , bW = MW , bW [T ]V ,W M bV ,V
5.9.
Soluci on. Sabemos que
32 7 16 23 1 1 1 0 = 2 1 1 1 1 3 3 2 10 20 1 1 2 2 2 3 1
0 9 12 27
M bV ,V =
0 1
1 0
1 1
1 3
211
V. Transformaciones Lineales.
y haciendo algunos c alculos (no muchos ni muy complicados) obtenemos 2 1 1 MW , 2 1 bW , = 2 1 1 1 Al sustituir, se obtiene que [T ] bV , bW = MW , bW [T ]V ,W M bV ,V
Corolario 5.10. Sea V un espacio vectorial de dimensi on nita; V y V dos bases ordenadas de V y T : V V una transformaci on lineal. Entonces [T ] bV [T ]V M bV = MV , bV ,V Demostraci on. Ejercicio!
5.3.
Denici on 5.3. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Deniremos
Observaci on 5.2. w Im(T ) si y s olo si existe v V tal que T (v ) = w . Teorema 5.11. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.
212
V. Transformaciones Lineales.
Demostraci on. Es claro que N(T ) V e Im(T ) W. donde, N(T ) = e Im(T ) = .
/ ) = 0 / , as / / Por la parte 1 del teorema 4.2, se tiene que T (0 que 0 V W V N(T ) y 0W Im(T ), de
As que
/ / / T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0 W + 0W = 0W
Finalmente, sean w1 , w2 Im(T ) y R cualesquiera. Entonces, existen v1 , v2 V tales que Consideremos v = v1 + v2 . As que v V y T (v ) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2
De donde w1 + w2 Im(T ), luego Im(T ) es un subespacio de W. Denici on 5.4. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Deniremos
1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )). 2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )). Ejemplo 5.9.
/ } 1. Consideremos la transformaci on nula O : V W. Entonces N(O) = V e Im(O) = {0 W
(pru ebelo!).
Ejemplo 5.10. Sea T la transformaci on dada en el ejemplo 4.6. Hallar n(T ) y r(T ).
213
V. Transformaciones Lineales.
Soluci on. Por denici on N(T ) = x y M22 (R) : T x y = (0, 0, 0)
z w
z w
Pero T
z w
Es decir
z w
x y +w = 0 3x y z +w = 0
2 0
214
V. Transformaciones Lineales.
y la nulidad de T es n(T ) = dim(N(T )) = 1 Por otro lado Im(T ) = (a, b, c) R3 : T y x y = (a, b, c) para alg un x y M22 (R)
z w
z w
Pero T
z w
sistema, obtenemos x
En consecuencia (a, b, c) Im(T ) si y s olo si el sistema (4.2) tiene soluci on. Al resolver este x = y = w =
x y +w = b 3x y z +w = c
1 z 2 1 2z
= = w =
1 a 2
1 b 2
+3 b 2
1 c 2 1 a 2 1 c 2
1 z 2
o bien
1 b+ 1 c 2 2
1 z+ 2 3 + 2b 1 a 2 1 c 2
1 a 2
y r(T ) = 3.
Por lo tanto, el sistema (4.2) tiene soluci on para cada (a, b, c) R3 , en consecuencia Im(T ) = R3
Observaci o n 5.3. N otese que la matriz de los sistemas (5.2) y (5.1) no es otra que la que la matriz [T ]V,W, donde V y W son las bases can onicas de lo5 espacios M22(R) y R3 respectivamente .
Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz de este sistema nos da toda la informaci on, pero a diferencia del caso matricial, los pivotes de esta matriz nos dan las coordenadas, respecto a la base can onica de R3, de los vectores que forman una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo. Ejemplo 5.11. Hallar el n ucleo, la nulidad, la imagen y el rango de la transformaci on lineal T dada en el ejemplo 4.7. Soluci on . a b c d N(T ) si y s olo si
215
V. Transformaciones Lineales.
La matriz de este sistema es
+b
a +2b +c +d = 0 a 3b 3c 2d = 0 [T ]V ,W = 1 1 1 1 2 0 1
= 0 (5.3)
donde V y W son las bases can onicas de M22 (R) y P2 [x] respectivamente. Su FERF es 1 0 3 1 2 0
1 1 3 3 2
Por lo tanto a As que a b c d En consecuencia N(T ) = gen y una base para N(T ) es =
0 1 0 0 3c d = 0
1 0 a = 3c + d
b +2c +d = 0
o bien
b = 2c d 3 2 1 +d 1 1 0
3c + d 2c d c d
=c
3 2 1 3 2 1
1 1
1 1 0
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, est an en las columnas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto a W , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2, adem as Im(T ) = gen 1 + x x2 ; 1 + 2x 3x2
216
V. Transformaciones Lineales.
y una base para Im(T ) es 1 + x x2 ; 1 + 2x 3x2
La observaci on 5.3 puede ser generalizada de la siguiente manera. Teorema 5.12. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformaci on lineal.
Entonces 1. {u1 , u2 , . . . , uk } es una base para N(T ) si y s olo si {[u1 ] V , [u2 ] V , . . . , [uk ] V } es una base para N([T ] , W ) V 2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y s olo si {[z1 ] W , [z2 ] W , . . . , [zr ] W } es una base para Im([T ] , W ) V
Demostraci on. Ver Ap endice D. Corolario 5.13. Sean V, W, V , W y T como en el teorema 5.12. Entonces 1. n(T ) = n ([T ] , W ) V 2. r(T ) = r ([T ] , W ) V 3. n(T ) + r(T ) = n = dim(V) Demostraci on. Ejercicio!
El siguiente ejemplo ilustra estos resultados. Sean V y W como en el ejemplo 5.7. Usar la matriz [T ] b b para hallar el V , W n ucleo, la nulidad, la imagen y el rango de la transformaci on lineal T . Ejemplo Sean T , Soluci on.4.12. En primer lugar, recordemos que V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2
1 1
217
V. Transformaciones Lineales.
Sin mucha dicultad, obtenemos que la FERF de esta matriz es 1 1 0 5 3 2 4 0 1 3 3 0 0 0 0 Luego una base para N [T ] bV , bW es 5 1 4 6 ; 3 0 0 2
[T ] bW = 4 bV , 4
32 23
y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resdpecto a la base V de dos vectores que forman una base para N(T ), hallemos estos vectores. (5) 1 2 1 0 1 2 1 0 + (4) 1 0 1 1 +3 2 3 +0 2 1 3 2 = 5 1 4 7 1 0
1 1 2 3
(1)
+ (6)
1 0 1 1
+0
1 1
+2
2 1 3 2
1 2
1 2
218
lo largo de los ejes X1 y X2 respectivamente, de esta forma, las coordenadas del nuevo punto
p ' = ( x1 ' , x 2 ' ) se obtienen como:
x1 ' = x1 s1 x2 ' = x2 s2 Sea s = ( s1 , s 2 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 2D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
s1 1] 0 0 0 s2 0 0 0 1
[x1 '
x 2 ' 1] = [x1
x2
X1
1 2 3 4 5 1 2 3 4 5
X1
219
V. Transformaciones Lineales.
Dilatacin o escalamineto 3D
Extendiendo la idea anterior a 3D, el escalamiento implica el cambio de tamao de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es transformado por la multiplicacin de tres factores de escalamiento: s1, s2 y s3 a lo largo de los ejes X1, X2 y X3 respectivamente, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 Sea s = ( s1 , s 2 , s3 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 3D se puede expresar como el producto matricial p' = p S ( s ) , es decir: s1 0 1] 0 0 0 s2 0 0 0 0 s3 0 0 0 0 1
[x1 '
x2
x3
La Figura 5.2 muestra el efecto de escalamiento de una figura con s1 = 2, s2 = 2.5 y s3 = 1.5.
220
V. Transformaciones Lineales.
X2
5 4 3 2 1 5 4 3 2 1
X2
1 2 3 4 5
X1
1 2 3 4 5
X1
X3
X3
Escalamiento o dilatacin 4D
Extendiendo nuevamente la idea anterior a 4D, el escalamiento implica el cambio de tamao de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es transformado por la multiplicacin de cuatro factores de escalamiento: s1, s2, s3 y s4 a lo largo de ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto
p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 x4 ' = x4 s4 Sea s = ( s1 , s 2 , s3 , s 4 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 4D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
221
V. Transformaciones Lineales.
[x1 '
x2
x3
x4
s1 0 1] 0 0 0
0 s2 0 0 0
0 0 s3 0 0
0 0 0 s4 0
0 0 0 0 1
Escalamiento o dilatacin nD
De esta forma, el escalamiento nD implica el cambio de tamao de un politopo nD en todas sus dimensiones, como se observ anteriormente, se puede representar el escalamiento nD en su forma matricial, donde los factores de escalamiento se localizan en la diagonal principal, cada uno colocado en la columna que le corresponde a su respectivo eje. As, se obtiene la expresin matricial de escalamiento para cualquier dimensin: s1 0 0 1] M 0 0 0 s2 0 M 0 0 0 0 s3 M 0 0
K 0 K 0 K 0 O M K sn K 0
[x1 '
x2
x3 K x n
0 0 0 M 0 1
En general, la matriz de escalamiento S(s) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se sustituyen los valores para n=2 y n=3, se obtienen las matrices de escalamiento 2D y 3D respectivamente.
Translacin
La translacin permite desplazar un objeto a lo largo de sus dimensiones, como resultado se obtiene un cambio de posicin.
222
las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' ) , se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 Sea d = (d 1 , d 2 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 2D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 1] 0 d1 0 1 d2 0 0 1
[x1 '
x 2 ' 1] = [x1
x2
X2
X1
X1
Translacin 3D
Basndose en la idea anterior, se tiene que la translacin 3D implica el desplazamiento de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es trasladado d1 unidades
223
V. Transformaciones Lineales.
en el eje X1 , d2 unidades en el eje X2 y d3 unidades en el eje X3, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 Sea d = (d1 , d 2 , d 3 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 3D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 d1 0 1 0 d2 0 0 1 d3 0 0 0 1
[x1 '
x2
x3
X2
1 2 3 4 5
X1
1 2 3 4 5
X1
X3
X3
224
Nuevamente tomando como base esta idea, se tiene que la translacin 4D implica el desplazamiento de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es trasladado por la suma de cuatro distancias: d1, d2, d3, d4 a cada uno de los ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtiene como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 x4 ' = x4 + d 4 Sea d = (d1 , d 2 , d 3 ,d 4 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 4D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 0 d1 0 1 0 0 d2 0 0 1 0 d3 0 0 0 1 d4 0 0 0 0 1
[x1 '
x2
x3
x4
Translacin nD
De esta forma, la translacin nD implica el desplazamiento de un politopo nD sumando parmetros de distancias a todas sus dimensiones, como se observ anteriormente, se puede representar la translacin nD en su forma matricial, donde los parmetros de distancia se localizan en el ltimo rengln de la matriz, cada uno colocado en la columna que le corresponde a su respectivo eje, y colocando valores de 1 en la diagonal principal. As, se obtiene la expresin matricial de translacin para cualquier dimensin:
225
V. Transformaciones Lineales.
1 0 0 1] M 0 d1 0 1 0 M 0 d2 0 0 1 M 0 K K K O K 0 0 0 M 1 0 0 0 M 0 1
[x1 '
x2
x3 K x n
d3 K d n
En general, la matriz de translacin T(d) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se substituyen los valores para n=2 y n=3, se obtienen las matrices de translacin 2D y 3D respectivamente.
Rotacin
La rotacin permite girar un objeto sobre un eje de rotacin, dado un valor de ngulo de rotacin y su direccin.
Rotaciones 2D
La rotacin de un objeto en 2D se lleva a cabo alrededor de un punto, que es el eje puntual (cero-dimensional) de rotacin. Las rotaciones principales 2D son aquellas que se llevan a cabo alrededor del origen, las rotaciones sobre cualquier otro punto arbitrario se llaman rotaciones generales 2D. En esta Seccin 5.5 , se analizan slo las rotaciones principales para todas las dimensiones, en la Seccin 5.6 se discuten las rotaciones generales. Para generar una rotacin, se especifica el ngulo de rotacin , y el punto de rotacin (pivote) sobre el cul el objeto ser rotado. Los ngulos de rotacin positivos definen una rotacin en sentido contrario a las manecillas del reloj sobre el punto pivote (del eje X1 al eje X2), entonces los ngulos de rotacin negativos producen una rotacin en el sentido de
226
V. Transformaciones Lineales.
las manecillas (del eje X2 al eje X1). [Hearn 95] describe la rotacin 2D como el giro sobre el eje de rotacin que es perpendicular al plano X1X2 (mejor conocido como plano XY) y que pasa a travs del punto pivote. Si el punto pivote se encuentra sobre el origen (Figura 5.5), se tiene que: r es la distancia del punto p = ( x1 , x 2 ) al origen, define la posicin angular del punto p desde la horizontal, y el ngulo de rotacin de p para producir el nuevo punto p ' = ( x1 ' , x 2 ' ) .
X2
p=(x1,x2)
r
p=(x1,x2)
r
X1
Utilizando coordenadas polares, el punto p = ( x1 , x 2 ) se puede escribir como p = (r , ) y el punto p ' = ( x1 ' , x 2 ' ) como p ' = (r , + ) . Pasando despus estos puntos de coordenadas polares a rectangulares se tiene que:
x1 = r cos( ) x1 ' = r cos( + ) x 2 = r sin( ) x 2 ' = r sin( + )
Substituyendo los valores de x1 = r cos( ) y x 2 = r sin( ) se obtienen las ecuaciones para rotar un punto p = ( x1 , x 2 ) alrededor del origen dado un ngulo :
227
V. Transformaciones Lineales.
Sea R() la matriz de rotacin sobre el origen, en coordenadas homogneas la rotacin de un punto p alrededor del origen en 2D se puede expresar como el producto matricial p = pR , es decir:
cos 1] sin 0 sin cos 0 0 0 1
[x1 '
x 2 ' 1] = [x1
x2
X2
X1
-1 -2 -1 -2 1 2 -1 -2 -1 -2 1 2
X1
Rotaciones 3D
A diferencia de la rotacin en el espacio 2D, donde para hacer rotar un objeto se necesita un punto (cero-dimensional), en 3D para hacer rotar un objeto se necesitan dos puntos no coincidentes que determinan un segmento de recta, cuya lnea de soporte define un eje lineal (uni-dimensional) de rotacin.
228
V. Transformaciones Lineales.
Las rotaciones principales 3D, son aquellas cuando el eje de rotacin se encuentra sobre alguno de los tres ejes principales: X1, X2 o X3, las rotaciones sobre cualquier otro eje arbitrario son llamadas rotaciones generales 3D. Se recuerda que inicialmente, se analizan las rotaciones principales. Por convencin, los ngulos de rotacin positivos producen rotaciones en contra de las manecillas del reloj sobre el eje de rotacin, esto es si se observa el giro desde la parte positiva del eje hacia el origen. Otra forma de determinar la direccin de un giro positivo es mediante la regla de la mano derecha (Figura 5.7), que dice que: Si se coloca el dedo pulgar de la mano derecha sobre el eje de rotacin apuntando hacia la parte positiva de dicho eje, el giro natural del resto de los dedos indica la direccin positiva del giro.
X2 X2 X2
X1 X3 X3
X1 X3
X1
Figura 5.7: Regla de la mano derecha para obtener la direccin de un giro positivo en 3D.
Para entender el concepto de rotacin en 3D como una extensin de la rotacin 2D, hay que recordar que la rotacin 2D es el giro sobre el eje de rotacin, que es perpendicular al plano X1X2, el cual en 3D corresponde al eje X3, entonces se tiene la primera de las rotaciones principales . De esta forma, por cada punto p = ( x1 , x 2 , x3 ) dado un ngulo , puede ser rotado sobre el eje X3 en sentido contrario a las manecillas del reloj, obteniendo las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) de la misma forma en como se analiz en el espacio 2D
229
V. Transformaciones Lineales.
quedando la coordenada x3 sin cambio, entonces, se extienden las formulas para la rotacin 2D (Ecuacin 3.9) a 3D como:
x1 ' = x1 cos x 2 sin x 2 ' = x1 sin + x 2 cos
x3 ' = x3
Ecuacin 5.11: Frmulas para la rotacin 3D alrededor del eje X3.
Sea R3() la matriz de rotacin alrededor del eje X3, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial ( ) ' p = p R3 , es decir: cos sin 1] 0 0 sin cos 0 0 0 0 1 0 0 0 0 1
[x1 '
x2
x3
Ecuacin 5.12: Expresin matricial para la rotacin 3D alrededor del eje X3.
La Figura 5.8 muestra el efecto de rotacin sobre el eje X3 de una figura con = 20.
X2
5 4 3 2 1 5 4 3 2 1
X2
1 2 3 4 5
X1
1 2 3 4 5
X1
X3
X3
230
V. Transformaciones Lineales.
Las ecuaciones para las rotaciones sobre el eje X1, y eje X2, pueden ser obtenidas mediante las permutaciones cclicas de los parmetros x1, x2, x3:
x1 x2 x3 x1
X1 X3 X1
X2 X2
X3
Entonces, aplicando estas substituciones cclicas en la Ecuacin 5.11, se obtienen las ecuaciones para la rotacin alrededor del eje X1 dado un ngulo .
x 2 ' = x 2 cos x 3 sin x 3 ' = x 2 sin + x 3 cos x1 ' = x1
x1 ' = x1
Sea R1() la matriz de rotacin alrededor del eje X1, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R1 , es decir:
[x1 '
x2
x3
0 1 0 cos 1] 0 sin 0 0
0 sin cos 0
0 0 0 1
Ecuacin 5.14: Expresin matricial para la rotacin 3D alrededor del eje X1.
231
V. Transformaciones Lineales.
Aplicando nuevamente las substituciones cclicas en la Ecuacin 3.13, se obtienen las frmulas para la rotacin alrededor del eje X2 dado un ngulo .
x 3 ' = x 3 cos x1 sin x1 ' = x 3 sin + x1 cos
x2 ' = x2
Sea R2() la matriz de rotacin alrededor del eje X2, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R2 , es decir:
[x1 '
x2
x3
cos 0 1] sin 0
0 sin 1 0 0 cos 0 0
0 0 0 1
Ecuacin 3.16: Expresin matricial para la rotacin 3D alrededor del eje X2.
232