You are on page 1of 232

APUNTES DE MATEMATICAS IV

Autor:Jorge Garc a Nieva Tecnol ogico de Estudios Superiores del Oriente del Estado de M exico 29 de julio de 2010

INTRODUCCION
El Algebra Lineal es el estudio de los espacios vectoriales y de los conceptos derivados de ellos, como son las combinaciones lineales, los conjuntos bases y la representaci on de los elementos de un espacio vectorial mediante ellas, las bases ortogonales , las transformaciones lineales y sus representaci on matricial, los espacios asociados a los autovalores y vectores propios de una transformaci on lineal(descomposici on espectral), etc. El conocimiento de los conceptos anteriores y su interrelaci on, proporciona a los estudiantes de las areas de ingenier a una s olida base para trabajar en la modelaci on matem atica de los fen omenos f sicos dentro de sus respectivas areas.En efecto,la teor a de los espacios vectoriales tiene amplias aplicaciones , interviniendo por ejemplo en la resoluci on matem atica de problemas de optimizaci on, como sucede con el m etodo simplex en la Ingenier a Industrial, o bien en el tratamiento simplicado y elegante de la teor a de la regresi on lineal y multilineal, la estad stica avanzada , la teor a del control de calidad, la teor a de la simulaci on, la teor a de las ecuaciones diferenciales,etc. Por lo anterior, es muy importante proporcionar a los estudiantes material did actico de calidad, que no se reduzca a la reproducci on sin sentido de c alculos, sino que tenga un nivel adecuado de la exposici on de la parte te orica. Es con este n como el autor de estas notas ha recolectado una serie de resultados importantes dentro del Algebra Lineal que han sido considerados tradicionalmente como fundamentales por los especialistas de esta area y que son consideradas b asicas dentro de un curso b asico de eta asignatura. Estas notas comienzan con una exposici on acerca de los n umeros

complejos, lo cual es importante para abordar el tema de las matrices ortogonales y sus aplicaciones en la descripci on geom etrica de fen omenos f sicos,am en de que interviene en el tratamiento algebraico de la diagonalizaci on de la representaci on de transformaciones lineales mediante matrices y su ulterior aplicaci on en el tratamiento de sistemas din amicos. El cap tulo 2,trata de las matrices , sus propiedades y conceptos fundamentales asociados.Los conceptos estudiados en este cap tulo tienen relaci on directa con el cap tulo 3, el cual trata sobre los sistemas lineales y su resoluci on mediante matrices, expresado esto en el procedimiento de Gauss-Jordan , en el m etodo de Cramer y en el m etodo de la inversa de la matriz de coecientes de un sistema lineal. Cabe notar que los conceptos estudiados en las unidades 2 y 3 son de amplia apliacaci on en varios campos dentro de la ingenier a,como por ejemplo,las ecuaciones diferenciales, la Investigaci on de operaciones y la estad stica multivariable. En la unidad 4 se estudian los espacios vectoriales, los cuales representan una generalizaci on de la geometr a plana y del espacio a espacios multidimensionales, as como a espacios con objetos no necesariamente geom etricos, como lo son los espacios de matrices o de soluciones de un sistema de ecuaciones ya sea algebraico lineal o de ecuaciones diferenciales lineales , y que en ingenier a son de suma importancia para estudiar fen omenos o sistemas de tipo lineal. En la unidad 5 se estudian las transformaciones lineales, las cuales aparecen en la pr actica en el an alisis de objetos que se pueden ampliar, reducir,transladar o rotar; desde luego,su aplicaci on a la rob otica es ineludible,as como en la programaci on de gr acos.

Indice general
Introducci on
1 N umeros Complejos complejos. 1.1. Denici on y origen de los n umeros complejos. . . 1.2. Operaciones fundamentales con n umeros complejos 1.3. Potencias de i, m odulo o valor absoluto de un n umero complejo. . . . . . . . . . . . . . . . . . . 1.4. Forma polar y exponencial de un n umero complejo 1.5. Teorema de De Moivre, potencias y extracci on de ra ces de un n umero complejo. . . . . . . . 2 Matrices y determinantes.

2 6 6 6 11 12 13 20

2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7. 2.8.

Denici on de matriz, notaci on y orden. . . . . . . . 20 Clasicaci on de las matrices. . . . . . . . . . . . 22 Operaciones con matrices. . . . . . . . . . . . . . 23 Transformaciones elementales por rengl on. Escalonamiento de una matriz. Rango de una matriz. . 38 C alculo de la inversa de una matriz. . . . . . . . . . 45 Denici on de determinante de una matriz. . . . . . 46 Inversa de una matriz cuadrada a trav es de la adjunta. 49 Aplicaci on de matrices y determinantes . . . . . . . 66

3 Sistemas de ecuaciones Lineales. 3.1. Denici on de sistemas de ecuaciones lineales. . . . . 3.2. Clasicaci on de los sistemas de ecuaciones lineales y tipos de soluci on. . . . . . . . . . . . . . . . . . . 3.3. Interpretaci on geom etrica de las soluciones. . . . . .

71 71 72 81

5
Indice general 3.4. M etodos de soluci on de un sistema de ecuaciones lineales: Gauss, Gauss-Jordan, inversa de una matriz y regla de Cramer. . . . . . . . . . . . . . . . 101 3.5. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . 124 4 Espacios vectoriales. 128 4.1. Denici on de espacio vectorial. . . . . . . . . . . . 128 4.2. Denici on de subespacio vectorial y sus propiedades. 135 4.3. Combinaci on lineal. Independencia lineal. . . . . . . 140 4.4. Base y dimensi on de un espacio vectorial, cambio de base. . . . . . . . . . . . . . . . . . . . . . . . 153 4.5. Espacio vectorial con producto interno y sus propiedades. 179 4.6. Base ortonormal, proceso de ortonormalizaci on de Gram-Schmidt. . . . . . . . . . . . . . . . . . . . 183 5 Transformaciones lineales. 5.1. Introducci on a las transformaciones lineales. . . . . 5.2. N ucleo e imagen de una transformaci on lineal. . . . 5.3. La matriz de una transformaci on lineal 5.4. Aplicaci on de las transformaciones lineales: reexi on, dilataci on, contracci on y rotaci on . . . . . . . 15 193 193 212 205

219

UNIDAD I. Los nmeros complejos


Origen y definicin. Operaciones con complejos. Forma polar. Teorema de DeMoivre. Potencias y races de complejos

1.1.

Definicin y origen de los nmeros complejos.

Los nmeros complejos aparecieron histricamente cuando Cardano,en 1539,trat ecuaciones como x2 + 1 = 0 ,la cual no tiene solucin en R. Posteriormente Gauss desarroll la teora con mayor formalidad. La imposibilidad de resolver estaclase de ecuaciones en el campo real crea la necesidad de ampliar R construyendo un supercuerpo conmutativo K en el que todo elemento admita una raz cuadrada y, en consecu.encia, que la ecuacin anterior tenga solucin. Supongamos que K existe y sea i un elemento de K que satisface i2 + 1 = 0. Vamos a ver que el subconjunto K 0 de K engendrado por R {i} y descrito por los elementos de la forma

a + bi en donde a, b R es un cuerpo. Es evidente que a + bi = 0 =a = b = 0

ya que de lo contrario, para b 6= 0 se deducira que i es un elemento de R y esto no es posible.

1.2. Operaciones fundamentales con nmeros complejos.


Por otro lado, de las reglas de clculo en el cuerpo conmutativo K y teniendo en cuenta que i2 = 1, se deduce Las igualdades demuestran que: (a + bi) + (c + di) = (a + b) + (b + d)i a + bi = c + di a = b y c = d y , que: (a + bi) (a bi) = a2 + b2 Puesto que en R se cumple a2 + b2 = 0 a=b=0

UNIDAD I. LOS NMEROS COMPLEJOS

entonces, si a + bi 6= 0 1 a + bi = = = a bi (a + bi) (a bi) a bi a2 + b2 a b + 2 i 2 2 a +b a + b2

Luego, si K existe y i2 + 1 = 0, entonces K0 = {a + bi : a, b R} es un cuerpo. No obstante, si existe otro elemento i1 K tal que i2 1 + 1 = 0, entonces podemos determinar K0 1 = {a + bi1 : a, b R}
0 y es claro que K0 y K0 1 son isomorfos. Por tanto, K es nico salvo un isomorsmo. 0 Por otra parte, si K existe, (22.4) muestra que hay una biyeccin entre K0 y RR f : R R K0 (a, b) 7 a + bi

Adems, es claro que f es un isomorsmo de grupos aditivos, en donde R R est dotado con la siguiente adicin (a, b) + (c, d) = (a + b, c + d) pues, se cumple f ((a, b) + (c, d)) = f (a, b) + f (c, d)
Podemos dotar a R R con la siguiente multiplicacin (a, b)(c, d) = (ac bd, ad

+ bc) y entonces demuestra que f ((a, b) (c, d)) = f (a, b) f (c, d) De este modo, si demostramos que R R dotado con las operaciones suma y multiplicacin es un cuerpo, habremos probado la existencia de K0 .

En el conjunto R R denimos las dos operaciones siguientes (a, b) + (c, d) = (a + b, c + d) y (a, b) (c, d) = (ac bd, ad + bc) Es fcil comprobar las siguientes propiedades:

UNIDAD I. LOS NMEROS COMPLEJOS

1. (R R, +) es un grupo conmutativo de elemento neutro (0, 0), en el que (a, b) es el simtrico de (a, b). 2. La multiplicacin es distributiva respecto a la suma . 3. (R R {(0, 0)}, ) es un grupo conmutativo de elemento neutro (1, 0), en el que el simtrico de (a, b) es a b , a2 + b2 a2 + b2 Como consecuencia, (R R, +, ) es un cuerpo conmutativo al que denominaremos cuerpo de los nmeros complejos y designamos por C. Un nmero complejo es un elemento de C, o lo que es lo mismo, un par ordenado de nmeros reales. Identicamos el nmero real a con el nmero complejo (a, 0), pues la aplicacin f : R C a 7 (a, 0) es un homomorsmo inyectivo entre (R, +, ) y (C, +, ). En efecto, f (a + b) = (a + b, 0) = (a, 0) + (b, 0) = f (a) + f (b) f (a b) = (ab, 0) = (a, 0) (b, 0) = f (a) f (b) y f (a) = f (b) (a, 0) = (b, 0) a = b Como consecuencia, podemos considerar R como un subcuerpo de C, y entonces es natural armar que C es una extensin de R. Puesto que (0, 1) (0, 1) = (1, 0)

es natural escribir (0, 1) = i, cumplindose entonces que i2 = 1, y, por tanto, 1 posee raz cuadrada en C. Adems, si b es un nmero real, entonces se cumple (0, 1) (b, 0) = (0, b) y podemos escribir ib en lugar de (0, b). De este modo, si z es el nmero complejo (a, b), entonces podemos escribirlo de manera nica bajo la forma (a, b) = (a, 0) + (0, b) y, en consecuencia, es natural escribir z como a + ib. Esta manera de representar un nmero complejo se llama forma binmica. Entonces, a a se le llama parte real de z y se escribe Re z = a, y a b se le llama parte imaginaria de z y se escribe Im z = b. Si b = 0, se dice que z es un nmero imaginario puro

UNIDAD I. LOS NMEROS COMPLEJOS

ysi a =0,sediceque z es un nmero real.Alnmerocomplejo i se le llama unidad imaginaria. Las operaciones (22.7) y (22.8), pueden escribirse en forma binmica, operando como en el caso de nmeros reales, sin ms que tener en cuenta que i2 = 1. (a + ib) + (c + id) = (a + b) + i(b + d) (a + ib) (c + id) = (ac bd) + i(ad + bc) Observacin. El conjunto C de los nmeros complejos puede ordenarse de varias maneras. Sin embargo, no existe relacin de orden total sobre C de manera que C seauncuerpo ordenado(como lo es R), pues, 1=12 y 1= i2 son cuadrados en C y entonces los dos deberan ser mayores que cero, no siendo nulos. Ahora bien, 1 y 1 son opuestos y, por tanto, no es posible que los dos sean estrictamente mayores que cero.

El cuerpo de los nmeros complejos dotado con las dos operaciones siguientes (a + ib) + (c + id) = (a + c) + i(b + d) y (a + ib) = a + ib ( R) es un espacio vectorial sobre R. Es inmediato comprobarlo. Adems, (1, i) forman una base de este espacio, pues son generadores a + ib = a 1 + b i
Adems , son linealmente independientes

1 + i = 0 + 0 i = = 0

La geometra ordinaria del plano proporciona una imagen adecuada del cuerpo de los nmeros complejos. Consideremos en el plano eucldeo un origen O y unos ejes rectngulares Ox y Oy . Sean e1 , e2 los vectores de la base ortonormal correspondiente. Entonces, entre el espacio vectorial de los vectores libres del plano y el cuerpo de los nmeros complejos, considerado como espacio vectorial real de base (1, i), existe un isomorsmo denido por la aplicacin x + yi 7 xe1 + y e2 Al vector v = xe1 + y e2 corresponde un representante de origen O y extremo el punto P de coordenadas (x, y ) que se llama ajo del nmero complejo x + iy . En forma breve, el vector imagen de z = x + iy es el vector

UNIDAD I.LOS NMEROS COMPLEJOS

v = OP , siendo P el ajo de z . De este modo, entre el plano eucldeo y el cuerpo de los nmeros complejos queda establecida una biyeccin que lo convierte en el plano complejo. Los complejos que son nmeros reales tienen por ajos los puntos del eje Ox, y los que son nmeros imaginarios puros, los puntos del eje Oy . Esta es la razn por la cual estos ejes se denominan entonces eje real y eje imaginario del plano complejo, respectivamente. Sin embargo, estas denominaciones son un abuso del lenguaje, pues, tanto el eje Oy como el plano Oxy estn descritos por puntos de coordenadas reales. Esta representacin geomtrica de los nmeros complejos permite interpretar fcilmente la adicin de los nmeros complejos: si P y Q son los ajos de z1 y z2 y se tiene, OP + OQ = OR entonces R es el ajo de z1 + z2 , ya que para sumar vectores de origen O basta con sumar sus componentes respecto de los ejes de coordenadas; obsrvese que z1 + z2 es por tanto la diagonal del paralelogramo que determinan z1 y z2 .

En particular, los ajos de los nmeros complejos z y z son dos puntos simtricos respecto a O. Con la representacin geomtrica, aparecen de manera natural los conceptos de mdulo y argumento de un nmero complejo.

10

UNIDAD I. LOS NMEROS COMPLEJOS

1.3. Valor absoluto de un nmero complejo.


Se llama mdulo de un nmero complejo z = x + iy y se denota por |z | a la norma del vector imagen correspondiente xe1 + y e2 , es decir, p |z | = kxe1 + y e2 k = x2 + y 2

De las propiedades de la norma eucldea se deducen enseguida las propiedades del mdulo de un nmero complejo: 1. |z | = 0 si y slo si z = 0 2. |zz 0 | = |z | |z 0 | 3. |z + z 0 | |z | + |z 0 | y de este modo la aplicacin C R+ z 7 |z |

es un valor absoluto en C. Podemos entonces llamar a |z | valor absoluto de z , pero la costumbre hace que se preera el trmino mdulo.

Se llama argumento de un nmero complejo z = x + iy no nulo y se denota por arg z , la medida del ngulo que determinan los vectores e1 y xe1 + y e2 . Recordemos que esta medida es un nmero real mdulo 2, es decir, si 0 es una medida de dicho ngulo, tambin lo son 0 + 2k para k Z. Para evitar ambigedades, a menudo es conveniente utilizar el valor principal para el argumento de z , el cual se dene mediante 0 < 2. Si un nmero complejo z 6= 0 tiene mdulo r y argumento , se denomina forma polar o mdulo-argumental de z al par (r, ), representado a menudo por r . De este modo, tenemos (r, ) = (r0 , 0 ) r = r0 y 0 = + k 2 Dado un nmero complejo z = x + iy no nulo, entonces las siguientes relaciones 2 y2 + p x r=

11

UNIDAD I. LOS NMEROS COMPLEJOS

y = arctan

(x 6= 0) x permiten determinar la forma polar de z . Si x = 0, podemos tomar = /2 si y > 0, y = 3/2 cuando y < 0.

1.4.Formas trigonomtrica y exponencial de un nmero complejo


Dado un nmero complejo z = (r, ) en forma polar, la siguiente gura

muestra que se cumplen las siguientes relaciones x = r cos y y = r sin

de manera que cualquier nmero complejo no nulo de mdulo r y argumento se puede escribir como z = r cos + ir sin = r(cos + i sin )

que se llama forma trigonomtrica de z . Obsrvese que si z 6= 0 est dado en forma binmica, entonces las siguientes relaciones p r = x2 + y 2 y y sin = p 2 x + y2 y cos = p x x2 + y2

permiten determinar la forma trigonomtrica. La forma trigonomtrica nos permite dar una interpretacin geomtrica del producto de dos nmeros complejos. En efecto, si z1 = r1 (cos 1 + i sin 1 ) y z2 = r2 (cos 2 + i sin 2 ) entonces z1 z2 = r1 r2 (cos 1 + i sin 1 )(cos 2 + i sin 2 ) = r1 r2 [(cos 1 cos 2 sin 1 sin 2 ) + i(cos 1 sin 2 + sin 1 cos 2 )] = r1 r2 [cos(1 + 2 ) + i sin(1 + 2 )]

12

UNIDAD I. LOS NMEROS COMPLEJOS

Por tanto, |z1 z2 | = |z1 | |z2 | y arg(z1 z2 ) = arg z1 + arg z2

Este resultado se interpreta de la siguiente manera: el ajo del producto z1 z2 se construye como tercer vrtice del tringulo que tenga uno en O, otro en el ajo de z2 y sea semejante al tringulo que tiene como vrtices homlogos respectivamente el ajo de z1 , O y el ajo de e1 . Dicho de otro modo, se aplica una homotecia de centro el origen y razn r2 al tringulo de vrtices O, el ajo de z1 y el de e1 , y despus un giro de centro el origen y ngulo 2 , formndose el tringulo semejante de vrtices O, el ajo de z1 z2 y el de z2 . De la misma forma se interpretan las relaciones siguientes 1 1 z = |z | y arg z 1 = arg z que se obtienen al hacer en (22.9) z1 = z y z2 = z 1 , y tambin z1 = |z1 | y arg z1 = arg z1 arg z2 z2 |z2 | z2

1.5.Teorema de DeMoivre.Clculo de potencias .


Es claro que (22.9) se extiende por induccin a un producto de un nmero nito de nmeros complejos, cumplindose ! n n n n Y Y X Y zi = |zi | y arg zi = arg zi
i=1 i=1 i=1 i=1

En particular, para n Z tenemos

z n = rn [cos(n) + i sin(n)] y si, adems r = 1, entonces tenemos la frmula de De Moivre (cos + i sin )n = cos n + i sin n Puesto que ex = X xn n!

n0

13

UNIDAD I. LOS NMEROS COMPLEJOS

para todo x R, podemos escribir formalmente ei = 1 + i obteniendo Re ei = 1 y Im ei =

3 4 5 2 i + + i 2! 3! 4! 5!

X (1)n 2 4 = + 2n = cos 2! 4! (2n)!


n0

De este modo, deducimos que

X (1)n 2n+1 3 5 + = = sin 3! 5! (2n + 1)!


n0

ei = cos + i sin De aqu, como un nmero complejo z se expresa en forma trigonomtrica como z = r(cos + i sin ) tenemos z = rei que se llama forma exponencial del nmero complejo z .

Nmeros complejos conjugados


Con la ayuda de la representacin geomtrica vamos a considerar una transformacin de C que deja invariante R, elemento a elemento. Esto resulta de la simetra respecto del eje real entre ajos

es decir, C z = x + iy C 7 z = x iy

El complejo z se llama conjugado de z . Es claro que se trata de una biyeccin y, adems, transforma la suma y el producto en la suma y producto de los conjugados. Se tiene entonces que z=z zz 0 = zz 0 z + z0 = z + z0

14

UNIDAD I. LOS NMEROS COMPLEJOS

Es evidente que Re z = Re z Re z = 1 2 (z + z ) Im z = Im z Im z =
1 2i (z

z)

Tambin es claro que un nmero complejo z es real si y slo si z = z , y es imaginario puro si y slo si z + z = 0. Si z = x + iy , entonces zz = (x + iy ) (x iy ) = x2 + y 2

es decir, zz es un nmero real positivo. Adems, se cumple |z | = zz y, para todo nmero complejo z 6= 0, z 1 = z z = 2 zz |z |

En particular, de aqu se deduce que un nmero complejo z es unitario (tiene mdulo 1) si y slo si z 1 = z . Ejemplo. Efectuar las siguientes operaciones con nmeros complejos, expresando el resultado en forma binmica: a)
(i1)3 i+1

b)

5+3i (1+i)2

c) (2 + i)(8 + 5i)i

d)

1+i 2+i

1+i 2+i

Solucin: (a) Expresando z1 = 1 + i en forma polar tenemos r1 = 2 y 1 = arctan(1) = 3 4

Del mismo modo, para z2 = 1 + i tenemos r2 = 2 y 2 = arctan 1 = 4 Por tanto,


3 z1

3 = (( 2)3 , 3 ) 4 9 = (2 2, ) 4 2 2 9 ) = ( , 4 2 4 = (2, 2 )
3 z1 =2 z2

y, en consecuencia,
3 z1 z2

o bien, en forma binmica

15

UNIDAD I. LOS NMEROS COMPLEJOS

(b) Tenemos 5 + 3 i (1 + i)2 5 + 3i (1 i)2 5 + 3i = 2i 5i 3 = 2 3 5 = i 2 2 =

(c) Tenemos (2 + i)(8 + 5i)i = (11 + 18i)i = 18 + 11i (d) Tenemos 1 + i 1 + i 2 + i 2 + i = = = = (1 + i)(2 + i) (2 + i)(1 + i) 3 i 3 i 3 + i 3 i 8 + 6i 10 4 3 + i 5 5

Ejemplo Utilizando la frmula de De Moivre, expresar cos 5x en trminos de sin x y cos x. Solucin: Segn esta frmula, tenemos (cos x + i sin x)5 = cos 5x + i sin 5x Por tanto, cos 5x = Re(cos x + i sin x)5 Mediante la frmula del binomio de Newton, obtenemos cos 5x = cos5 x 10 cos3 x sin2 x + 5 cos x sin4 x

1.6 . Ecuaciones polinmicas .


Un nmero complejo z 0 = r0 (cos 0 + i sin 0 ) se llama raz n-sima de un nmero complejo z = r(cos + i sin ) si (z 0 )n = z Por consiguiente, tenemos 0 n r (cos 0 + i sin 0 ) = r(cos + i sin ) 0 0 0 n (r ) (cos n + i sin n ) = r(cos + i sin )

16

UNIDAD I. LOS NMEROS COMPLEJOS

y, por tanto, (r0 )n = r o de forma equivalente, r0 = n r y 0 = 2k + (k = 0, 1, 2, ..., n 1) n n y n0 (mod 2)

Como consecuencia, todo nmero complejo z = r(cos + i sin ) no nulo tiene n races n-simas + 2k + 2k n (k = 0, 1, 2, ..., n 1) + i sin zk = r cos n n Es evidente que se cumple |zk+1 | = |zk | y arg zk+1 arg zk + 2 (mod 2) n

y, por tanto, para n > 2, las n races n-simas de un nmero complejo no nulo son los ajos de los vrtices de un polgono regular de n lados. Estos ajos se encuentran sobre la circunferencia de centro O y radio n r. Observacin. 1. En el caso particular de n = 2, tenemos z0 = y z1 = r cos + + i sin + 2 2 = r( cos i sin ) 2 2 = z0 r(cos + i sin ) 2 2

es decir, encontramos que las dos races son opuestas y, como consecuencia, son los ajos de dos puntos simtricos respecto al origen. 2. En particular, las races n-simas de la unidad son las soluciones de la ecuacin z n = 1. Vienen dadas por la frmula zk = cos 2k 2k + i sin n n (k = 0, 1, 2, ..., n 1)

En este caso el polgono que forman sus ajos est inscrito en la circunferencia de radio 1, siendo uno de sus vrtices el punto z0 = 1. 3. Las races n-simas de un nmero complejo cualquiera son los productos de una de ellas por las races n-simas de la unidad, pues, si u0 es una raz particular de orden n de z , y u es una cualquiera de las otras, se tiene n u =1 un = un 0 =z = u0 y el cociente u/u0 es una cualquiera de las races n-simas de la unidad.

17

UNIDAD I. LOS NMEROS COMPLEJOS

p 5 Ejemplo. Calcular 1 3i. Solucin: Expresando z = 1 3i en forma polar, obtenemos |z | = 2 y 5 arg z = arctan( 3) = 3

En consecuencia, las races quintas de z vienen dadas por 5/3 + 2k 5/3 + 2k 5 (k = 0, 1, 2, 3, 4) zk = 2 cos + i sin 5 5 es decir, z1 z2 z3 z4 z5 = = = = = 5 2 cos 3 + i sin 3 5 11 11 2 cos + i sin 15 15 5 17 2 cos 17 15 + i sin 15 5 23 2 cos 15 + i sin 23 15 5 29 29 2 cos 15 + i sin 15

Ejemplo. Hallar las races de la ecuacin (1 + i)z 3 2i = 0 Solucin: Es claro que z3 2i 1+i 1i 2i = 1+i 1i 2 + 2i = 2 = 1+i =

Por tanto, z = 3 1 + i. Para determinar las races cbicas de este complejo, determinamos primero el mdulo y el argumento de z 0 = 1 + i. Obtenemos |z 0 | = 2 y arg z 0 = arctan 1 = 4 Por lo tanto, tenemos /4 + 2k /4 + 2k 3 zk = 2 cos 3 + i sin 3 3 es decir, 3 z1 = 2 cos 12 + i sin 12 3 9 9 z2 = 2 cos 12 + i sin 12 17 z3 = 3 2 cos 17 12 + i sin 12

(k = 0, 1, 2)

Ejemplo. Expresar en forma binmica e i . Solucin: Puesto que /2 + 2k /2 + 2k i = cos + i sin (k = 0, 1) 2 2

18

UNIDAD I. LOS NMEROS COMPLEJOS

obtenemos i= Por tanto, e


i

2 i 2 cos 4 + i sin 4 = 2 + 2 cos 54 + i sin 54 = 22 i 22 cos 22 + i sin 22 2 = e 2 cos 22 i sin 22


2 2

2 2 2 +i 2

=e

2 2 2 2

ei

2 2

=e

2 2 2 i 2

= e

ei

2 2

Ejemplo. Dados los nmeros complejos z1 = 1 + i y z = 2 + 3i, calcular dos nmeros complejos z2 , z3 tales que los ajos de z1 , z2 y z3 formen un tringulo equilatero de centro el ajo de z . Solucin: Sabemos que los ajos de las races cbicas de un nmero complejo w son los vrtices de un p tringulo equilatero inscrito en una circunferencia de centro el origen y radio 3 |w|. Puesto que nuestro tringulo ha de estar centrado en el ajo de z , deberemos efectuar una traslacin de vector el asociado a z . De este modo, se tiene zi = z + 3 w (i = 1, 2, 3) Como una de las races cbicas de w es z1 z , podemos obtener las races cbicas de w multiplicando z1 z por las races cbicas de la unidad. Las races cbicas de la unidad son u1 = 1 3 u2 = cos 23 + i sin 23 = 1 2 + i 2 3 u3 = cos 43 + i sin 43 = 1 2 i 2 Por tanto, las races cbicas de w son w1 = 1 2i 3 1 3 w2 = (1 2i) 1 + i = + 3 + i + 1 2 2 2 2 1 3 1 w3 = (1 2i) 2 i 2 = 2 3 + i 23 + 1 z1 = z + w1 = 1 + i 3 z2 = z + w2 = 5 + 3 + i + 4 2 2 3 + 4 z3 = z + w3 = 5 3 + i 2 2

y, en consecuencia, los nmeros complejos que buscamos son

19

Unidad II. Matrices y Determinantes


Operaciones con matrices. Matrices especiales . Operaciones por filas. Matrices escalonadas. Determinantes

2.1.

Definicin de matriz.Notacin y orden.

Denici on 1.1. Sean m, n Z+ . Una matriz real A de orden m por n (m n) es un arreglo bidimensional de n umeros reales dispuestos en m las y n columnas como sigue a11 a12 a1n a11 a12 a1n

A = (aij )mn =

donde aij R para cada i {1, . . . , m} y cada j {1, . . . , n}, el cual es llamado componente ij - esima de A. Para cada i {1, . . . , m} la i- esima la de A la denotaremos por A(i) y est a dada por A(i) = ai1 ai2 ain Para cada j {1, . . . , n} la j - esima columna de A la denotaremos por A(j ) y est a dada por a1j a 2j A(j ) = . amj componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A. Cuando m = 1, diremos que A es una matriz la y cuando n = 1, diremos que A es una matriz columna. nente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}. La notaci on A = (aij )mn , signica que A es la matriz de orden m n cuya ij - esima compo-

a a22 a2n a21 a22 a2n 21 = . . . . . . . . . . . . am1 am2 amn am1 am2 amn

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las

El conjunto formado por todas las matrices reales de orden m n lo denotaremos por Mmn (R).

20

UNIDAD II. MATRICES Y DETERMINANTES


Observaci on 1.1. Podemos considerar matrices sobre un campo K ,l, por ejem plo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son elementos de K. Observaci on 1.2. Se debe tener cuidado cuando se usa la notaci on (aij )mn , el cambio de ndices no signica que se trata de otra matriz, los ndices son mudos, esto es (aij )mn = (akr )mn = (apq )mn = (aji )mn Ejemplo 2.1. 1. A = 2 0
2 3

5 1

es una matriz real de orden 2 3, la componente 2, 1 de A es a2,1 = 2 , 3


2 3

la la 2 de A es A(2) = 1 4 0

4 1 , la columna 3 de A es A

(3)

5 1

2. B =

5 12 3 es una matriz cuadrada real de orden 3, las componentes de la 0 2 8 diagonal principal son a1,1 = 1, a2,2 = 12, a3,3 = 8. 1 si i = j

3. La matriz In = (ij )nn , donde ij =

, para cada i, j {1, . . . , n}, es llamada 0 si i = j matriz identidad de orden n, esto es, 1 0 0 0 1 . . . . In = . . .. ... 0 . 0 0 1
nn

/ 4. La matriz 0 mn = (ij )mn , donde ij = 0 para cada i {1, . . . , m} y cada j {1, . . . , n},

es llamada matriz nula de orden m n, es decir 0 0 . . / 0 mn = . 0 0

mn

21

UNIDAD II. MATRICES Y DETERMINANTES


/ Cuando m = n, s olo escribiremos 0 n en lugar de 0 . . .. / 0 n = . 0 / 0 nn , es decir, 0 . . 0

nn

2.2.Clasificacin de las matrices.


Denici on 2.2 Sea A Mnn (R). Diremos que A = (aij )nn es 1. Triangular superior si aij = 0 para i, j {1, . . . , n} con i > j . 2. Triangular inferior si aij = 0 para i, j {1, . . . , n} con i < j . 3. Diagonal si aij = 0 para i, j {1, . . . , n} con i = j , es decir, A es triangular superior e inferior simult aneamente. 4. Escalar si es diagonal y existe R tal que aii = para i {1, . . . , n}. Observaci on 2.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y s olo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a cero. Observaci on 2.4. Cuando A Mnn (R) es diagonal y las componentes en la diagonal principal son 1 , 2 , . . . , n R, entonces escribiremos A = diag( 1 , 2 , . . . , n ) Ejemplo 2.2
/ 1. Para cada n Z+ , In y 0 n son matrices escalares, y por lo tanto diagonales y consecuente-

2. A =

mente triangulares superior e inferior. 5 4 0 7 0 3 12 0 0 0 0 5 0 9 0 4 2 0 0

5 es triangular superior. 1

0 0

3. A =

0 1

13 3 8

0 0 es triangular inferior. 0 0

22

Unidad II.Matrices y Determinantes


6 0 0 0

0 0 0 3 es diagonal, en cuyo caso podemos escribir A = diag(6, 3, 5, 0). 0 0 5 0 0 0 0 0 8 0 0 0 0 8 0 0 5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8). 0 0 8 0 0 0 0 8 4. A = Denici on 2 .3 Sean A, B Mmn (R). Diremos que A y B son matrices iguales, lo cual

denotaremos por A = B , si la componente ij - esima de A es igual a la componente ij - esima de B para cada i {1, . . . , m} y cada j {1, . . . , n}, es decir, si A = (aij )mn y B = (bij )mn , diremos que A y B son iguales si aij = bij para cada i {1, . . . , m} y cada j {1, . . . , n}

Observaci on 2.5. N otese que para que dos matrices sean iguales, en primer lugar deben ser del mismo orden. 5 1 0

0 y y C = 0 3 , entonces A = B 6 8 3 2 4 2 4 pues ni siquiera son del mismo orden; B = C si y s olo si x = 5 e y = 3. Ejemplo 2.3 Si A = El siguiente teorema es una consecuencia directa de la denici on de igualdad de matrices, su demostraci on la dejamos como ejercicio. Teorema.2.1 Sean A, B Mmn (R). Entonces las siguientes proposiciones son equivalentes 1. A = B . 2. A(i) = B(i) para cada i {1, . . . , m}. 3. A(j ) = B (j ) para cada j {1, . . . , n}. Demostraci on. Hacerlo como ejercicio .

;B=

5 7

23

UNIDAD II. MATRICES Y DETERMINANTES

2.3.

Operaciones con matrices.

En esta secci on deniremos dos operaciones con matrices que dotar an al conjunto Mmn (R) de una estructura algebraica conocida como espacio vectorial , dicha estructura ser a tratada en el cap tulo 2 del presente trabajo. Definicin 2.4. Sean A, B Mmn(R) con A = (aij)mn y B = (bij)mn. Deniremos la matriz

suma de A con B, como la matriz A + B Mmn(R) cuya ij-esima componente viene dada por cij = aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}.

aij + bij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A + B = (cij)mn, entonces Observaci on 2.6. Para poder sumar dos matrices estas deben ser 4 9 0 8 3 9 Ejemplo 2.4. Si A = 7 3 5 12 y B = 1 13 1 0 6 2 10 4 4 9 0 8 3 9 5 4 del mismo orden. 5 4 3 9 , entonces 7 11

A + B = 7 3 5 12 + 1 13 3 9 1 0 6 2 10 4 7 11 4 + (3) 9 + 9 0 + 5 8 + (4) 1 0 5 4 = 7 + 1 3 + (13) 5 + 3 12 + 9 = 6 10 8 3 1 + 10 0 + 4 6 + 7 2 + 11 11 4 1 13 Denici on 2.5. Sean A Mmn (R) y R ( es llamado escalar), con A = (aij )mn .

Deniremos la multiplicaci on de por A ( multiplicaci on por escalar) como la matriz A o simplemente A cuya ij-esima componente es aij para cada i {1, . . . , m} y cada j {1, . . . , n}, esto es, si A = (bij)mn, entonces bij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Observaci on 2.7. La notaci on de multiplicaci on por escalar es A o A y no A ni A , se debe colocar primero el escalar luego la matriz. Observaci on 2.8. Toda matriz escalar de orden n es un m ultiplo escalar de In , ms an, A Mnn (R) es una matriz escalar si y s olo si existe R tal que A = In .

24

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.5. ejemplo Sea A la matriz del 2.4, entonces 4 9 0 8 2 4 2(9) 20 28 2 A = 2 7 3 5 12 = 2(7) 23 2 5 2(12) 1 0 6 2 21 2 0 2(6) 22 8 18 0 16 = 14 6 10 24 2 0 12 4 Teorema 2.2 Sean A, B, C Mmn (R) y cualesquiera. Entonces 1. A + B = B + A (conmutatividad de la suma). 2. (A + B ) + C = A + (B + C ) (asociatividad de la suma).
/ / 3. A + 0 mn = A = 0mn +A (neutro aditivo). /

, R

mn

= D + A (opuesto aditivo).

4. Existe una matriz D Mmn (R) tal que A + D = 0 5. (A + B ) = A+ B (distributividad de la multiplicaci on por escalar respecto a la suma matricial). 6. ( + )A = a la suma escalar). 7. (A) = ( )A = (A) (asociatividad de la multiplicaci on por escalar). 8. 1 A = A (neutro de la multiplicaci on por escalar). Demostraci on. Sean A = (aij )mn , B = (bij )mn y C = (cij )mn . 1. Hagamos A + B = E = (eij )mn y B + A = F = (fij )mn . Por denici on de suma de matrices, tenemos que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = aij + bij = bij + aij = fij Luego A + B = E = F = B + A (denici on de igualdad de matrices). A + A (distributividad de la multiplicaci on por escalar respecto

25

UNIDAD II. MATRICES Y DETERMINANTES


2. Hagamos A + B = E = (eij )mn , (A + B ) + C = E + C = F = (fij )mn , B + C = G = (gij )mn y A + (B + C ) = A + G = H = (hij )mn . As que por denici on de suma de matrices fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij De donde (A + B ) + C = F = H = A + (B + C ) (denici on de igualdad de matrices).
/ 3. Recordemos que 0 mn = (ij )mn donde ij = 0 para cada i {1, . . . , m} y cada j

/ on de suma de {1, . . . , n}. As que si A + 0 mn = E = (eij )mn , entonces, por denici

matrices, para cada i {1, . . . , m} y cada j {1, . . . , n}

eij = aij + ij = aij + 0 = aij


/ Por lo tanto A + 0 mn = E = A y por conmutatividad / / A+0 mn = A = 0mn +A

4. Denamos D = (dij )mn con dij = aij para cada i {1, . . . , m} y cada j {1, . . . , n}. Hagamos A + D = E = (eij )mn . Entonces, por denici on de suma de matrices, para cada i {1, . . . , m} y cada j {1, . . . , n} eij = aij + dij = aij + (aij ) = 0
/ Por lo tanto A + D = E = 0 mn y por conmutatividad / A+D =0 mn = D + A

5. Hagamos A + B = E = (eij )mn , (A + B ) = G = (gij )mn , B = H = (hij )mn y P = (pij )mn . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} tenemos que fij = eij A+

E = F = (fij )mn , A = B = G+H =

(denici on de multiplicaci on por escalar)

= (aij + bij ) (denici on de suma de matrices) = gij + hij = pij Luego (A + B ) = F = P = A+ B (denici on de multiplicaci on por escalar)

(denici on de suma de matrices)

26

UNIDAD II. MATRICES Y DETERMINANTES


6. Hagamos ( + )A = E = (eij )mn , se tiene que A = F = (fij )mn , A = G = (gij )mn

F + G = H = (hij )mn . En consecuencia, para cada i {1, . . . , m} y cada j {1, . . . , n} eij = (+ )aij = aij + aij = fij + gij = hij De donde E=H= 7. Hagamos (gij )mn . j {1, . . . , n} obtenemos A+ A (denici on de multiplicaci on por escalar) (denici on de multiplicaci on por escalar)

(denici on de suma de matrices)

A = E = (eij )mn , E = F = (fij )mn y ( )A = G =

As que, por denici on de multiplicaci on de por escalar, para cada i {1, . . . , m} y cada fij = eij = ( )A= (aij ) = ( )aij = gij

Luego (A) = F = G = ( )A y en consecuencia (A) = ()A = ( )A Por lo tanto (A) = ( )A = (A) 8. Hagamos 1 A = E = (eij )mn . As que al usar la denici on de multiplicaci on por escalar, se tiene que para cada i {1, . . . , m} y cada j {1, . . . , n} eij = 1 aij = aij En consecuencia 1A=E =A

27

UNIDAD II. MATRICES Y DETERMINANTES


2. Para cada matriz A Mmn (R), existe una u nica matriz D Mmn (R) tal que A + D =
/ 0 mn = D + A, tal matriz D es llamada matriz opuesta de A y se denota por A.

/ Demostraci on. La parte 3 del teorema 1.2 garantiza que la matriz nula 0 mn satisface que para / / cada A Mmn (R) se cumple que A + 0 as, la existencia de la matriz mn = A = 0mn +A. Adem

D es garantizada en la parte 4 del mismo teorema. S olo faltar a probar la unicidad de ambas matrices.

1. Supongamos que P Mmn (R) es tal que A + P = A = P + A para cada A Mmn (R), luego

/ P = P +0 mn / = 0 mn

(por la parte 3 del teorema 1.2)

(hip otesis)

2. Sea A Mmn (R) cualquiera. Supongamos que existen D, E Mmn (R) tales que
/ A+D =0 mn = D + A / A+E =0 mn = E + A

(2.1) (2.2)

En consecuencia
/ D = D+0 mn

(teorema 1.2 parte 3)

= D + (A + E ) (por la ecuaci on 1.2) = (D + A) + E


/ = 0 mn +E

(teorema 1.2 parte 2)

(por la ecuaci on 1.1)

= E

(teorema 1.2 parte 3)

Teorema 2.4. Sean A, B, C Mmn (R) tales que A + B = A + C . Entonces B = C. Demostraci on. Hacer como ejercicio.

28

UNIDAD II. MATRICES Y DETERMINANTES


/ / 2. 0 mn = 0mn .

3. (1)A = A.
/ / 4. Si A = 0 oA=0 mn , entonces = 0 mn .

Demostraci on. 1. Sabemos que


/ 0A+0 e?) mn = 0 A (por qu

adem as 0 A = (0 + 0)A = 0 A + 0 A as que


/ 0A+0A=0A+0 mn / y por el teorema 1.4, se tiene que 0 A = 0 mn

2. Por un lado
/ / 0 mn = 0mn + 0 mn

por otro lado


/ / / / / 0 mn = (0mn + 0mn ) = 0mn + 0mn

luego
/ / / / 0 mn + 0mn = 0mn + 0mn / / y nuevamente, usando el teorema 1.4, tenemos que 0 mn = 0mn

/ 3. Basta probar que A + (1)A = 0 amos el resultado. Veamos mn , y por unicidad, obtendr

A + (1)A = 1 A + (1)A (teorema 2.2 parte 8) = (1 + (1))A (teorema 2.2 parte 6) = 0A


/ = 0 mn

(por la parte 1)

Luego, por unicidad de la matriz opuesta, (1)A = A

29

UNIDAD II. MATRICES Y DETERMINANTES


/ 4. Supongamos que A = 0 mn . Si = 0, no hay nada que probar, supongamos entonces que

= 0, as que A = 1 A (teorema 2.2 parte 8) = ( 1 )A

A =

( A) (teorema 2.2 parte 7)

(por hip otesis) = 0 Con lo cual, se concluye la prueba. (por la parte 2)

Denici on 2.6. Sean A, B Mmn (R). Deniremos A B = A + (B ). 4 12 0 5 10 6 Ejemplo 2.6. Si A = 6 6

5 3 6 1 11 yB= , entonces 1 2 4 0 5 7 0 1 2 6 1 4 12 0 5 10 6 6 5 3 6 1 11 A B = A + (B ) = + 6 1 2 0 5 4 7 0 1 2 6 1 4 12 0 5 10 6 1 2 6 6 5 3 6 1 11 12 6 14 = + = 6 1 2 4 0 5 2 1 3 7 0 1 2 6 1 9 6 2

Producto de Matrices
A diferencia de las dos operaciones denidas en la secci on anterior, la multiplicaci on de matrices no se dene de manera natural, como veremos luego, no por ello deja de ser importante dicha operaci on.

30

UNIDAD II. MATRICES Y DETERMINANTES


Denicin.2.7. Sean A = (aij)mn Mmn(R) y B = (bjk)np Mnp(R). Deniremos el propara cada i {1, . . . , m} y cada k {1, . . . , p} se tiene que
n

ducto de A por B como la matriz C = (cik)mp Mmp(R), denotada por AB o A B, tal que

cik =
j =1

aij bjk = ai1 b1k + ai2 b2k + + ain bnk

Observaci on 2.9N otese que para poder denir el producto AB , la cantidad de columnas d A debe coincidir con la cantidad de las de B , adem as, la matriz resultante, es una matriz cuya cantidad de las coincide con la cantidad de las de A y su cantidad de columnas es igual a la cantidad de columnas de B . 2 1 0 0

Ejemplo 2.7. Sean A =

3 1

yB=

2 1 2 . Entonces 4 2 3

AB = A B 2 3 + (1)2 + 0(4) 2 1 + (1)(1) + 0(2) 2 0 + (1)(2) + 0 3 = 0 3 + 3 2 + 1(4) 0 1 + 3(1) + 1(2) 0 0 + 3(2) + 1 3 = 62+0 2+1+0 0+2+0 0+64 032 06+3 = 4 3 2 2 5 3

Observaci on 2.10. N otese que en el ejemplo anterior, el producto BA no est a denido, esto nos dice que el producto de matrices no es conmutativo, m as a un, a pesar de que ambos productos est an denidos, AB y BA, no necesariamente son ambos del mismo orden, adem as, siendo ambos productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando AB = BA, se dice que A y B son matrices que conmutan. A continuaci on enunciaremos un teorema que expone las principales propiedades del producto de matrices Teorema 2.6. Sean A Mmn (R); B, C Mnp (R); C Mpq (R) y R. Entonces 1. (AB )D = A(BD ) (asociatividad del producto de matrices). 2. A(B + C ) = AB + AC (distributividad a izquierda del producto de matrices).

31

UNIDAD II. MATRICES Y DETERMINANTES


3. (B + C )D = BD + CD (distributividad a derecha del producto de matrices). 4. (AB ) = (A)B = A(B ) (asociatividad del producto de matrices y la multiplicaci on por escalar). 5. Im A = A = AIn (neutros del producto de matrices).
/ / / / 6. B 0 pq = 0nq y 0mn B = 0mp .

Demostraci on. Sean A = (aij )mn ; B = (bjk )np ; C = (cjk )np y D = (dkl )pq . 1. Hagamos AB = E = (eik )mp ; (AB )D = ED = F = (fil )mq ; BD = G = (gjl )nq y A(BD ) = AG = H = (hil )mq . Entonces, usando la denici on de producto matricial, para cada i {1, . . . , m} y cada k {1, . . . , p}
n

eik =
j =1

aij bjk

para cada j {1, . . . , n} y cada l {1, . . . , q }


p

gjl =
k =1

bjk dkl

y para cada i {1, . . . , m} y cada l {1, . . . , q }


p n

fil =
k =1

eik dkl ;

hil =
j =1

aij gjl

Luego
p p n p n n p

fil =
k =1 n

eik dkl =
k =1 p j =1

aij bjk
n

dkl =
k =1 j =1

aij bjk dkl =


j =1 k =1

aij bjk dkl

=
j =1

aij
k =1

bjk dkl

=
j =1

aij gjl = hil

Por lo tanto, usando la denici on de igualdad de matrices (AB )D = F = H = A(BD )

32

UNIDAD II. MATRICES Y DETERMINANTES


2. Hagamos B + C = E = (ejk )np ; A(B + C ) = AE = F = (fik )mp ; AB = G = (gik )mp ; AC = H = (hik )mp y AB + AC = G + H = R = (rik )mp . Entonces, para cada i {1, . . . , m} y cada k {1n , . . . , p} fik = =
j =1 n j =1 n

aij ejk

(denici on de producto de matrices)

aij (bjk + cjk ) (denici on de suma de matrices)


n n

=
j =1

(aij bjk + aij cjk ) =


j =1

aij bjk +
j =1

aij cjk

= gik + hik = rik En consecuencia

(denici on de producto de matrices)

(denici on de suma de matrices)

A(B + C ) = F = R = AB + AC 3. An alogo a la demostraci on de la parte 2. 4. Sean AB = E = (eik )mp ; (AB ) = (gij )mn y ( A)B = E = F = (fik )mp ; A=G=

GB = H = (hik )mp . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , p} fik = n bn jk (denici aij o
j =1 n

(d d on de pro ducto de matrices) e nici multiplicaci n por escalar)


n

eik

=
j =1 n

(aij bjk ) =
j =1

(aij )bjk

= gij bjk
j =1

(denici on de multiplicaci on por escalar)

= hik

(denici on de producto de matrices)

De donde (AB ) = F = H = (A)B . De manera an aloga se prueba que (AB ) = A( B ), as que (AB ) = (A)B = A(B )

(2.3)

33

UNIDAD II. MATRICES Y DETERMINANTES

Hagamos AIn = E = (eik )mn . Entonces, para cada i {1, . . . , m} y cada k {1, . . . , n}
n

eik =
j =1

aij jk

(denici on de producto de matrices)

= ai1 1k + + ai(k1) (k1)k + aik kk + ai(k+1) (k+1)k + + ain nk = ai1 0 + + ai(k1) 0 + aik 1 + ai(k+1) 0 + + ain 0 (por 1.3) = aik Por lo tanto AIn = E = A, an alogamente puede probarse que Im A = A, en consecuencia AIn = A = Im A

Ejercicio 2.1. Pruebe que si A Mmn (R) y B Mnp (R), entonces 1. AB = AB (1) AB (2) AB (p) (desarrollo por columnas del producto AB ), es decir,

la k - esima columna de AB , que es (AB )(k) , es igual a A por la k - esima columna de B , AB (k) , para cada k {1, . . . , p}. A(1) B

2. AB =

A(2) B (desarrollo por las del producto AB ), es decir, la i- esima la de AB , . . A(m) B que es (AB )(i) , es igual a la i- esima la de A por B , A(i) B , para cada i {1, . . . , m}.

Denici on 2.8. Una matriz N Mnn (R) es llamada nilpotente si existe p N tal que
/ , adem / , diremos que N es nilpotente de orden p. Np = 0 as, si p es tal que N p1 = 0 n n

34

UNIDAD II. MATRICES Y DETERMINANTES


Observaci on 2.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente de orden 0. Ejemplo 2.8. Las siguientes matrices son nilpotentes 1 1 0 0 0 1 0 0

N1 =

1 0 1 0 1 0 1 0 1 0 1 0

N2 =

0 0 1 0 0 0 0 1 0 0 0 0

N1 es de orden 3 y N2 es de orden 4 (Probarlo como ejercicio)

Transposici on de Matrices
Denici on 2.9. Sea A = (aij )mn Mmn (R). Deniremos la transpuesta o traspuesta de A como la matriz AT = (bji )nm Mnm (R) tal que bji = aij Ejemplo 2.9. Sea

para cada i {1, . . . , m} 2 5 0

y cada j {1, . . . , n} 7

Entonces

A=

1 6 5 12 2 9 3 0 2 5 0 3 5 0 12

AT =

1 2 7 6 9

Observaci on 2.12. N otese que las las de A pasan a ser las columnas de AT y las columnas de A pasan a ser las las de AT , m as propiamente A(i) A(j )
T

= AT = AT

(i)

para cada i {1, . . . , m} para cada j {1, . . . , n}

(j )

Teorema 2.7. Sean A, B Mmn (R), C Mnp (R) y R. Entonces

35

UNIDAD II. MATRICES Y DETERMINANTES


1. AT
T

= A (propiedad de involuci on de la transposici on de matrices)

2. (A + B )T = AT + B T (transpuesta de la suma) 3. (A)T = AT (transpuesta de la multiplicaci on por escalar) 4. (AC )T = C T AT (transpuesta del producto matricial)
T / / 5. (In )T = In y (0 mn ) = 0nm

Demostraci on. Sean A = (aij )mn ; B = (bij )mn y C = (cjk )np . 1. Hagamos AT = D = (dji)nm y AT
T

= D T = E = (eij )mn . Entonces, para cada

i {1, . . . , m} y cada j {1, . . . , n}, por denici on de transpuesta eij = dji = aij Luego AT
T

=E=A

2. Sean A + B = D = (dij )mn ; (A + B )T = D T = E = (eji)nm ; AT = F = (fji )nm ; B T = G = (gji)nm y AT +B T = F +G = H = (hji )nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij (denici on de transpuesta) (denici on de suma de matrices) (denici on de transpuesta)

= aij + bij = fji + gji = hji Por lo tanto

(denici on de suma de matrices)

(A + B )T = E = H = AT + B T 3. Hagamos A = D = (dij )mn ; (A)T = D T = E = (eji )nm ; AT = F = (fji )nm ; y AT = F = G = (gji)nm . Entonces, para cada i {1, . . . , m} y cada j {1, . . . , n} eji = dij = aij = fji = gji (denici on de transpuesta) (denici on de multiplicaci on por escalar) (denici on de transpuesta) (denici on de multiplicaci on por escalar)

36

UNIDAD II. MATRICES Y DETERMINANTES


As que (A)T = E = G = AT 4. Sean AC = D = (dik )mp ; (AC )T = D T = E = (eki )pm ; C T = F = (fkj )pn ; AT = G = (gji)nm y C T AT = F G = H = (hki )pm . Entonces, para cada i {1, . . . , m} y cada k { 1 , . . . , p} eki = dik
n

(denici on de transpuesta) aij cjk (denici on de producto) (denici on de transpuesta) (denici on de producto)

=
j =1 n

=
j =1 n

gjifkj

=
j =1

fkj gji = hki

De donde (AC )T = E = H = C T AT Denici on 2.10. Sea A Mnn (R). Diremos que 1. A es sim etrica si AT = A. 2. A es antisim etrica si AT = A. Ejemplo 2.10. 1. In es sim etrica para todo n N.
/ 2. 0 etrica y antisim etrica para todo n N existe alguna otra matriz que sea sim etrica n es sim

y antisim etrica simult aneamente?

3. La matriz

A= 0 5 0 4 7 6 0

5 7

6 8 12

8 12 0

37

UNIDAD II. MATRICES Y DETERMINANTES


es antisim etrica pues

0 5 7 5 6 0 8 7 4

6 8

AT =

4. La matriz

0 12 12 0 3 0 0 13

= A

A=

9 0

5 9 3 1

2 1

13 3 0

es sim etrica ya que

AT =

7 7 3 0 13 =A 7

5 9 3 1 0

2 1

13

7 3

Teorema 2.8. Sea A Mnn (R). Entonces 1. A es sim etrica si y s olo si aij = aji para cualesquiera i, j {1, . . . , n}. 2. A es antisim etrica si y s olo si aij = aji para cualesquiera i, j {1, . . . , n}. 3. Si A es antisim etrica, entonces aii = 0 para cualquiera i {1, . . . , n}. Demostraci on. Ejercicio!

2.4 Operaciones Elementales por Filas.Escalonamiento de una matriz.


Las operaciones elementales por las son herramientas usadas con mucha frecuencia en la resoluci on de los sistemas de ecuaciones lineales al igual que en c alculo de la inversa de una matriz cuadrada . Estas operaciones las usaremos a lo largo de todo el curso, por ello deben ser manejadas con la mayor perfecci on posible por parte del estudiante que desee aprender la materia. Comencemos por denir dichas operaciones. Denotemos por Fm (R) el conjunto formado por todas las matrices reales con m las.

38

UNIDAD II. MATRICES Y DETERMINANTES


Denici on 2.11. Una operaci on elemental por las (OEF) es una funci o n f : F m (R) Fm (R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f (A) = B , entonces existen s {1, . . . , m} y = 0 tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adem as B(s) = A(s) , esto es, una de las las

de A es multiplicada por un escalar no nulo y el resto de las las permanecen iguales. A(1) A(1) . . . A(s1) A(s1) f (A) = f = =B A(s) A(s) A(s+1) . . A(m) A(s+1) . A(m)

Por comodidad, en lugar de escribir B = f (A), escribiremos A

Fs Fs

B.

OEF Tipo 2. Si f (A) = B , entonces existen s, t {1, . . . , m}, con s = t, y R tales que B(i) = A(i) para cada i {1, . . . , m}, con i = s, y adem as B(s) = A(s) + A(t) , es decir, a una la de A le sumamos un m ultiplo escalar de alguna otra la de A, distinta de la primera, dejando el resto de las las intactas. A(1) . A(s1) A(s) A(s+1) . . A(m) A(1) . A(s1) A(s) + A(t) A(s+1) . . A(m)

f (A) = f

=B

Al igual que antes, en lugar de escribir B = f (A), escribiremos A

Fs Fs + Ft

B.

OEF Tipo 3. Si f (A) = B , entonces existen s, t {1, . . . , m} tales que B(i) = A(i) para otra manera, intercambiamos dos las de A y dejamos el resto sin alterar.

cada i {1, . . . , m}, con i = s e i = t y adem as B(s) = A(t) y B(t) = A(s) , dicho de

39

UNIDAD II. MATRICES Y DETERMINANTES


A(1) . .

A(1) .

A(s+1) A(s+1) . . f (A) = f = =B . . A(t1) A(t1) A(t) A(t+1) . . A(m) A(t+1) . A(m) A(s)

A(s1) A(s)

A(s1) A(t)

Nuevamente, en lugar de escribir B = f (A), escribiremos A

Fs Ft

B.

Observaci on 1.1.3. N otese que si A Mmn (R) y f : Fm (R) Fm (R) es una OEF, entonces f (A) Mmn (R). Ejercicio 2.1.3. Pruebe que toda OEF f : Fm (R) Fm (R) es una funci on invertible y que su inversa f 1 : Fm (R) Fm (R) es tambi en tipo que f . una OEF del mismo 2 4 5 Ejemplo 2.1.1. Sea 6 3 4 A= Entonces 2 4 3 5 6 2 1 8 21 15 8 4

F1 F3 6 A= 2 1 8 (OEF 3) 2 6 21 15 6 2 1 8 6 4 F3 F3 + F1 (OEF 2) 6 0 2 3 3 7 5 4 =B 3

2 1

F4 1 F 6 3 4 4 5 (OEF 1) 2 21 15 2 3

2 1

8 4

4 5 7 5

40

UNIDAD II. MATRICES Y DETERMINANTES

Observacin 2.14. Se pueden aplicar ms de dos operaciones por las en un solo paso, lo nico que debemos cuidar es no transformar, en el mismo paso, una la ms de una vez y no transformar, en el mismo paso, una la que va ser usada para transformar a otra(s). Observacin 2.15. De manera anloga a como se denieron las operaciones elementales por las, pueden denirse operaciones elementales por columnas (OEC), sin embargo, estas ltimas slo se usarn para el clculo de determinantes y no para la resolucin de sistemas de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ltimos dos problemas slo usaremos las operaciones elementales por las. Denici on 2.12. Sea A = (aij )mn Mmn (R). Diremos que A es una matriz Escalonada 1. Si todas las las nulas de A, si las hay, estan ubicadas en las timas posiciones, esto es, si A(i) es una la no nula de A, entonces A(s) tambin es no nula para cada 1 s < i. 2. Si A(i) y A(i+1) son dos las no nulas de A, entonces la primera componente no nula de A(i) (contada de izquierda a derecha) est mas a la izquierda de la primera componente no nula de A(i+1), es decir, si j, k {1, . . . , n} son tales que aij = 0; a(i+1)k = 0 y ais = 0 = a(i+1)t para cada 1 s < j y cada 1 t < k , entonces j < k . Reducida por Filas (RF) 1. Si A(i) es una la no nula de A, entonces la primera componente no nula de A(i) es igual a 1 (uno), dicha componente es llamada pivote, es decir, si j {1, . . . , n} es tal que aij = 0 y ais = 0 para cada 1 s < j , entonces aij = 1. 2. Si A(j ) es una columna de A que tiene un pivote, entonces el resto de las componentes de A(j ) son iguales a 0 (cero), esto es, si i {1, . . . , m} es tal que aij = 1 y ais = 0 para cada 1 s < j , entonces akj = 0 para cada k {1, . . . , m} con k = i.

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por las simult anea mente. Ejemplo 2.12.

41

UNIDAD II. MATRICES Y DETERMINANTES


1. Para cualesquiera 2 1 3 0 5 1 2. E = 0 0 0 0 0 0 1 0 0 0 0 0 3. R = 0 0 0 1 0 1 0
/ m, n Z+ , In y 0 mn son matrices escalonadas reducidas por las. 8 3 6 4 es escalonada pero no es reducida por las. 8 7 0 0 7

0 1 9 es reducida por las pero no es escalonada. 0 0 6 1 0 5 0 1 8 3 0 1 0 1 2 0 0 0 0 0 0

4. F =

0 0 0 0 0 0

es escalonada reducida por las.

Ejercicio 2.4. Sea A Mmn (R). Pruebe que: 1. Si A es una matriz escalonada, entonces la cantidad de las no nulas de A es, a lo sumo, el m nimo entre m y n. 2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el m nimo entre m y n. Ejercicio 2.5. Pruebe que si A Mnn (R) es una matriz escalonada, entonces A es triangular superior. Denici on 2.13. Sean A, B Mmn (R). Diremos que B es equivalente por las a A si

existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que B = (f1 f2 fr )(A)

Ejemplo 2.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente por las a A (por qu e?). Teorema 2.9. Sean A, B, C Mmn (R). Tenemos que

42

UNIDAD II. MATRICES Y DETERMINANTES


1. A es equivalente por las a A. 2. Si B es equivalente por las a A, entonces A es equivalente por las a B . 3. Si C es equivalente por las a B y B es equivalente por las a A, entonces C es equivalente por las a A. Demostraci on. Ejercicio!

Observaci on 2.16. La parte 2 del teorema 2.9, nos permite decir A y B son equivalentes por las en lugar de B es equivalente por las a A o A es equivalente por las a B . Teorema 2.10. Toda matriz A Mmn (R) es equivalente por las a 1. Una matriz escalonada. 2. Una matriz reducida por las. 3. Una u nica matriz escalonada reducida por las, la cual llamaremos la forma escalonada reducida por las (FERF) de A. Demostraci on.

Observaci on 2.17. A Mnn (R) es equivalente por las a In si y s olo si In es la FERF de A. El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz. Ejemplo 2.14. Hallar la FERF de 1 7 6 1 15 0 0 3 9 2 0 13 2 1 3 3 9 10

A=

1 11

Soluci on . 6 1 15 2 13

A=

0 1 0 3 7

1 11

2 1 3 F1 F2 9 0 9 3 10

6 1 15 0 3 7 9

2 1 3 2 3 0

1 11

13 9 10

43

UNIDAD II. MATRICES Y DETERMINANTES


1 0 2 1 3 1 0 2 1 3

F1 F1

F2 F2

F2 F2 6F1 0 1 3 4 5 6 1 15 2 13 0 9 0 3 9 0 9 F4 F4 7F1 0 3 9 7 1 11 3 10 0 1 3 4 11 1 0 2 1 3 1 0 2 1 3 1 3 0 0 3 9 0 1 4 5

F3

1 F 12 3

As que la FERF de A es

0 0 0

F3 F3 + 3F2 0 1 3 4 5 0 9 0 12 24 F4 F4 F2 0 0 1 3 4 11 0 0 0 8 16 0 2 1 3 1 0 2 0 1 F1 F1 F3 1 3 4 5 0 1 3 0 3 F2 F2 4F3 0 0 1 2 0 1 2 F F + 8F 0 0 4 4 3 0 0 8 16 0 0 0 0 0

C=

0 1 0 0 0 0

1 0 2 0

3 0 3 0 1 2 0 0 0

Denici on 2.14. Una matriz E Mnn (R) es llamada matriz elemental si existe una OEF f : Fn (R) Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una u nica OEF. Ejemplo 1.15. 1 0 1. E1 = 5 0 1 0 I4 =

0 0 0

1 0 0 0 1 0 0 0 1 0 0

es elemental, pues

0 1 0 0 0 1 0 0 F3 F3 5F1 = E1 5 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1

1 0 0 0

44

.UNIDAD II. MATRICES Y DETERMINANTES 1 0 0

2. E2 = 0 0 1 I3 = 0 0 1 0 3. E3 = 0 0 0 1 0

4 0 es elemental, ya que 0 1 0 0 1 0 0 1 0 F2 4F2 0 4 0 = E2 0 1 0 0 1 0 0 0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 es elemental, dado que

I5 =

0 0 1 0 0 F2 F5 0 0 1 0 0 = E3 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0 1 0 0 0

0 0 0 0 1

1 0 0 0 0

Teorema 2.11. Sean A Mmn (R), B Mnp (R) y f : Fm (R) Fm (R) una OEF. Entonces 1. f (AB ) = f (A)B . 2. (f (A))(j ) = f A(j ) para cada j {1, . . . , n} de donde f (A) = f A(1) f A(2) f A(n) es decir, la la j - esima de f (A) es igual a f aplicada a la j - esima la de A.

2.5. Inversa de una matriz


Otra consecuencia del mismo teorema, en conjunci on con el corolario anterior, es la siguiente. Corolario 2.13. Sean A, B Mmn (R) dos matrices equivalentes por las. Entonces existen matrices elementales E1 , E2 , . . . , Er Mmm (R) tales que B = E1 E2 Er A

45

/ As que la u nica soluci on del sistema homog eneo Bx = 0 n1 es la trivial, y en virtud del teorema

1.22, B es invertible. Adem as A = AIn (teorema 1.6 parte 5)

= A(BB 1 ) (denici on de matriz inversa) = (AB )B 1 = In B 1 = B 1 (teorema 1.6 parte 1)

(por hip otesis) (teorema 1.6 parte 5)

Por lo tanto BA = In (denici on de inversa) y como consecuencia de la parte 1 del teorema 3.20 A1 = (B 1 )1 = B .

Observaci on 3.22. El teorema 1.23 nos permite garantizar que A1 = B s olo con probar que AB = In o BA = In . Ejercicio 3.7. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambi en son invertibles

2.6.

Definicin de determinante de una matriz

En esta secci on trataremos los determinantes y algunas de sus propiedades, en primer lugar deniremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para nalmente denir los determinantes de orden n. Denici on 2.17. Sea A = a11 a12 M22 (R). Deniremos el determinante de A, como

a21 a22 el n umero real det(A) = |A|, dado por det(A) = |A| =

a11 a12 a21 a22

= a11 a22 a12 a21

este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 2.22. Hallar det(A) para A = 6 5 7 6

46

UNIDAD II. MATRICES Y DETERMINANTES


6 5 7 6

Soluci on. det(A) =

= (6)6 5(7) = 36 + 35 = 1

Ejercicio 2.8. Pruebe que A =

a11 a12 a21 a22

M22 (R) es invertible si y s olo si det(A) = 0. 1 det(A) a22 a12 a11

Adem as, si A es invertible, entonces A1 = Denici on 2.18. Dada la matriz

a21

Deniremos el determinante de A, denotado por det(A) o |A|, como a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32

A = a21 a22 a23 M33 (R) a31 a32 a33

a11 a12 a13

este tipo de determinante es llamado determinante de orden 3. Observaci on 2.23. N otese que estamos deniendo el determinante de orden 3 en funci on de determinantes de orden 2. Ejemplo 2.23. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6

Soluci on .

det(A) = |A| =

6 7

5 6

= 2

1 5 0 6

(3)

6 5 7 6

+ (1)

6 1 7 0

= 2(6 0) + 3(36 + 35) (0 + 7) = 2

47

UNIDAD II. MATRICES Y DETERMINANTES


Observaci on 2.24. Una forma muy sencilla recordar la f ormula de determinantes de orden 3 es la siguiente a11 a21 a31 a12 a22 a32 a13 a23 a33 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a13 a22 a31 a23 a32 a11 a33 a12 a21

a11 a21

a12 a22

a13 a23

generados por las echas azules () se colocan con signo negativo.

Los productos generados por las echas rojas () se colocan con signo positivo, los que son Puede vericar que la igualdad anterior es cierta. Tambi en se puede hacer el c alculo si en lugar

no es parte del determinante, es s olo para ayudar a recordar la f ormula

de colocar las dos primeras las al nal, se colocan las dos u ltimas las en la parte superior, las dos primeras columnas a la derecha o las dos u ltimas columnas a la izquierda. Este m etodo se conoce como la m etodo de Sarrus para el c alculo de determinantes de orden 3 y s olo es aplicable a determinantes de orden 3. Ejemplo 2.24. Calculemos el determinante del ejemplo 2.23 usando este m etodo. Soluci on . 2 3 1 1 0

6 7 6 6 7

5 6

= 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)

2 3 1 1

2 3 1 1 0

5 6

= 12 + 0 + 105 7 0 108 = 2

Compare este resultado con el obtenido en el ejemplo 2.23.

48

UNIDAD II. MATRICES Y DETERMINANTES

2.7. Propiedades de los determinantes.


A Denici on 2.19. Sea A = Mnn (R). Para cada i, j {1, . . . , n} denamos la matriz Mij

M(n1)(n1) (R) que se obtiene de A al eliminar su i- esima la y su j - esima columna, dicha

matriz es llamada ij - esimo menor de A. Observaci on 2.25. Si en lugar de eliminar una la y una columna de A, eliminamos dos las y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j

(con i = j ) y las columnas k y l (con k = l) de A. De manera an aloga se pueden denir menores de A Mnn (R) hasta de orden n 1.
A A A A Observaci on 2.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . ,

n} con i = j y k = l.

Ejemplo 2.25. Consideremos la matriz 9 2 1 A=


A A A Hallar M23 ; M42 y M22 .

0 8 5 1 6

4 1

7 3 6 0 3

Soluci on . A M23 = 1 6 6 ; 4 1 3 9 2 4 A M42 = 9 1 0 5 1 7 3 6 4 A y M22 = 9 1 1 4 3 6 0 3 4

Denici on 2.20. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij - esimo coA factor de A como el n umero real Cij dado por Ejemplo 2.26. Para la matriz del ejemplo 2.25 se tiene que A A Cij = (1)i+j det Mij

49

UNIDAD II. MATRICES Y DETERMINANTES

A C23

= (1)

2+3

det

A M23

9 2 4 1

4 = (162 + 4 + 48 + 96 54 6) = 74 3 4 7 = 270 + 0 7 + 20 + 189 0 = 68

1 6 6

A C42

= (1)

4+2

det

A M42

9 1 0 5 1

3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0

A C22

= (1)

2+2

det

A M22

9 1 1 4

Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la f ormula dada en la denici on 2.18 puede ser escrita como
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta f ormula para una matriz A de orden n. Denici on 2.21. Sea A Mnn (R). Deniremos el determinante de A, determinante de orden n, como el n umero real det(A) = |A| dado por a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 2.27. Hallar el determinante de la matriz del ejemplo 2.25 Soluci on . 9 2 1 det(A) = |A| = 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1 j j =1 n

=
j =1

A a1j (1)1+j det M1 j

3 6 0

A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14

50

UNIDAD II. MATRICES Y DETERMINANTES


8 5 1 7 3 0 5 1 4 7 3 0 8 4 1 7 3 0 8 5 1 6 4 1

det(A) = 9 6

3 6 2 0

3 6 0

1 6 6 4

3 0

= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15) = 1539 + 42 343 + 884 = 956

(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)

Ejemplo 2.28. Calcular el determinante de la matriz 2 0 0 0 12 1 0 A= 3 9 5 8 0 3 6 7 0 7 1

0 0 0

Soluci on. Notemos primero que A es triangular inferior. 2 12 det(A) = |A| = 3 9 0 1 0 0 0 0 0 0 0 0 0

0 0 6

5 8

0 3 6 7

7 1

A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15

0 6

1 = 2 8

0 0

0 0 0

0 3 6 7

7 1

0 6

51

UNIDAD II. MATRICES Y DETERMINANTES


3 7 0 0 0 + 0(1) 0 3 0 0 + 0(1)
1+4 1+2

det(A) = 2 1(1)1+1

0 6

0 0

7 1

0 6 8 7

8 1

0 6 8 0 3 0

+0(1) 3 7 0 0 0

1+3

6 7 6

7 1 6 7 0

= 21

7 1

0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0

= 2 1 (3)(1)1+1 = 2 1(3) 1 0

= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

0 6

= 2 1(3)((1)(6) 0 0)

La demostraci on del teorema que enunciaremos a continuaci on escapa del objetivo del curso, sin embargo, de el se derivan el resto de las propiedades que ser an enunciadas m as adelante, en el ap endice D se puede encontrar una demostraci on de este. Teorema 2.24. Si A = (aij )nn Mnn (R), entonces
n n A aij Cij = j =1 j =1 A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del

1. det(A) =

determinante de A mediante la la i- esima).


n n A aij Cij = i=1 i=1 A aij (1)i+j det Mij para cada j {1, . . . , n} (Desarrollo del

2. det(A) =

determinante de A mediante la columna j - esima).

52

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de terminante mediante la tercera la y mediante la segunda columna. Soluci on. En primer lugar hallemos el determinante de A desarroll andolo mediante la tercera la. 2 3 1 1 0

det(A) = |A| =

6 7

5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3

= 7(1)3+1

3 1 1

= 7(15 + 1) + 0 + 6(2 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna. 2 3 1 1 0

det(A) = |A| =

6 7

5 6

= 3(1)1+2

6 5 7 6

+ 1(1)2+2

= 3(36 + 35) + (12 7) + 0 = 2

2 1

+ 0(1)3+2

2 1

Teorema 2.25. Si A Mnn (R), entonces det AT = det(A). Demostraci on. (Ejercicio) Sugerencia: proceder por inducci on sobre n y usar el teorema 1.24

Teorema 2.26. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostraci on. Procedamos por inducci on sobre n. Supongamos, sin perder generalidad que A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22

53

UNIDAD II. MATRICES Y DETERMINANTES


Entonces det(A) = a11 a22 a12 0 = a11 a22 matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) = a11 a22 a(n1)(n1) (Hip otesis Inductiva). Probemos ahora que se cumple para n. Sea a11 a12 A= 0 . . 0 0 Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier

a1n

a22 .. .. . .

Entonces, al desarrollar el determinante de A mediante la la n, obtenemos

a2n . . ann

A A A n+n A A det(A) = 0 Cn det(Mnn ) = ann det Mnn 1 + + 0 Cn(n1) + ann Cnn = ann (1)

Pero a11 a12 a1(n1) a2(n1) . a(n1)(n1)

A Mnn =

A es decir, Mnn es una matriz triangular superior de orden (n 1), por lo tanto, usando la Hip otesis A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego

0 . . 0

a22 .. .. . . 0

det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuaci on, nos presentan las propiedades b asicas del determinante, estas propiedades nos permitir an hallar el determinante de una matriz sin hacer demasiados c alculos. Los enunciados de estas propiedades se dar an s olo para las, sin embargo, en virtud del teorema 1.25, se pueden enunciar propiedades an alogas para columnas.
/ Teorema 2.27. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0 1n , entonces

det(A) = 0, es decir, si A tiene una la nula, su determinante es cero.

54

UNIDAD II. MATRICES Y DETERMINANTES


/ Demostraci on. Sea A = (aij )nn . Como A(s) = 0 1n , entonces asj = 0 para cada j {1, . . . , n}.

As que, al desarrollar el determinante de A por medio de la la s, se tiene que


n n A asj Csj j =1

det(A) =

=
j =1

A 0 Csj =0

Teorema 2.28. Sean A, B Mnn(R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y escalar , entonces el determinante de la matriz resultante es igual al determinante de A multiplicado por . Demostraci on. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = s,

B(i) = A(i) para i = s, entonces det(B) = det(A), esto es, si multiplicamos una la de A por un

A B la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj para

entonces bsj = asj para cada j {1, . . . , n} y adem as, la matriz que se obtiene al eliminar la

cada j {1, . . . , n} (por qu e?). Por lo tanto


B B A A Csj = (1)s+j det(Msj ) = (1)s+j det(Msj ) = Csj

para cada j {1, . . . , n}.

As , al desarrollar el determinante de B por medio de la la s, obtenemos


n n B bsj Csj j =1 n A asj Csj j =1

det(B ) =

=
j =1

A asj Csj = det(A)

Ejemplo 2.30. Sea

Entonces 2 det(A) = 2 1 2

A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3

1 2

12 16 4

0 3

4 3 4(4) 4 1 0

= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3] = 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116

55

UNIDAD II. MATRICES Y DETERMINANTES


Teorema 2.29. Sean A, B, C Mnn(R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s) y C(i) tres matrices A, B, C cuyas las son identicas excepto la la s, y que la la s de C es igual a la suma de la la s de A con la la s de B , entonces el determinante de C es igual a la suma del determinante de A con el determinante de B . Demostraci on. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R). Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
A B C iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.

= B(i) = A(i) para i = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos

j {1, . . . , n} y adem as, las matrices que se obtienen al eliminar la la s de A, B y C son Por lo tanto

C B A Csj = Csj = Csj

para cada j {1, . . . , n} (por qu e?). En consecuencia


n n C csj Csj j =1 n n n C asj Csj j =1

det(C ) = =
j =1

=
j =1 n

(asj +

C bsj )Csj

+
j =1

C bsj Csj

A asj Csj + j =1

B bsj Csj = det(A) + det(B )

Ejemplo2.31. Sea A la matriz del ejemplo 1.30. Entonces 2 det(A) = 2 1 2 4 + (2) 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2

12 16 4

0 3

6 + 6 16 4

6 16 4 + 0 3

6 16 4

0 3

= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116

[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]

Teorema 2.30. Sean A, B Mnn(R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t), intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.

B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B) = det(A), en otras palabras, si

56

UNIDAD II. MATRICES Y DETERMINANTES


Demostraci on. Ejercicio

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adem as 2 det(B ) = 3 1 2 12

Ejemplo 2.32. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 4 16 12 3 0 2

4 16

= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4 = 64 + 0 36 + 96 0 8 = 116 = det(A)

0 2

Teorema 2.31. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. Como A(s) = A(t) , entonces B = A y as det(B ) = det(A). Por otro lado, dado que s = t y seg un el teorema 1.30, det(B ) =

det(A). As que det(A) = det(B ) = det(A) y en consecuencia det(A) = 0.

Ejemplo 2.33. Sea

2 2

4 16 Entonces 2 det(A) = 2 4 16 1 2 1 2 A=

1 2

12 1 2

12

= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4 = 64 + 8 24 64 + 24 8 = 0

57

UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.32. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un m ultiplo escalar de alguna otra la de A, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B ) = 0 = 0.

B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.31, se tiene que det(B ) = 0.

Ejemplo 2.34. Sea

Entonces la columna A(2) = 4A(1) , adem as 2 det(A) = 3 8 2 1

4 16 1 A= 3 12 2

4 16

= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4) = 64 96 + 24 + 96 24 64 = 0

12 2

= A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B) = det(A), dicho de otra forma, si a una la de A le sumamos un multiplo escalar de alguna otra la de A, el determinante de la matriz resultante es igual al determinante de A. Demostraci on. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por lo tanto, dado que s = t y en virtud del teorema 1.32, det(C ) = 0. Adem as, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 det(B ) = det(A) + det(C ) = det(A) + 0 = det(A)

Teorema 2.33. Sean A, B Mnn(R) y R. Si existen s, t {1, . . . , n} tales que s = t, B(s)

58

UNIDAD II. MATRICES Y DETERMINANTES


Ejemplo 2.35. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 2 9 10 2 0 3 As que B(2) = A(2) 7A(1) (verif quelo!). Adem as det(B ) = 2 9 10 2 0 2 1 2 3

= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2) = 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un m etodo para calcular el determinante de una matriz A haciendo uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c alculo resulta mucho m as sencillo que al usar la denici on. Como se dijo en la observaci on 1.15, usaremos tanto OEF como operaciones elementales por columnas (OEC) para el c alculo de determinantes, estas operaciones las indicaremos de manera an aloga a las OEF, salvo que en lugar de usar F usaremos C . Ejemplo 2.36. Hallar el determinante de la matriz 6 1 2 13 A= 1 2 0 3 = 7 0 3 0 3 4 1

2 0

0 1 3 1 9 12

0 2

Soluci on . 6 1 0 3 7 0 2 2 0 4 13 9

3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 1.2.33

det(A) =

0 1 3 1 1 3 12

6 1 0 3 7 0 2

0 1 3 1 1 3 15

por teorema 2.33

1 3

4 5 3

59

UNIDAD II. MATRICES Y DETERMINANTES


6 det(A) = 3(1)3+2 7 0 2 3 10 15 2 desarrollando el determinante mediante la tercera la 3

1 1 3 1 4 5 3

= 3

1 1 3 1 F F + 7 F 3 3 2 0 4 6 4 por teorema 1.33 0 4 5 3 4 8 4 desarrollando el determinante

0 4 8 4

F1 F1 + 6F2

mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna

= 3(1)(1)2+1 4 6 4

= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m etodos cu al de los dos le parece m as sencillo? Teorema 2.34. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk =0 y k =1 k =1 n A aks Ckt =0

para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B ) = 0.

Demostraci on. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,

B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el

determinante de B mediante la la t, se tiene que


n

n B btk Ctk

det(B ) =
k =1 n A ask Ctk k =1

=
k =1

A ask Ctk n

En consecuencia

= 0, an alogamente se prueba que


k =1

A aks Ckt = 0.

60

UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.35. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB ) = det(E ) det(B ). Demostraci on. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A = Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg un el teorema 1.28, det(E ) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E ) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s. Usando el teorema 1.33, tenemos que det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E ) = det(In ) = 1 f (A).

61

UNIDAD II. MATRICES Y DETERMINANTES


y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Si s = t, podemos usar el teorema 1.30 y obtenemos det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E ) det(A)

Observaci on 2.27. De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz elemental, entonces det(E ) = 0. Corolario 2.36. Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostraci on. Hacerlo como ejercicio.

Teorema 2.37. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y s olo si A = In . Demostraci on. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j,

entonces para cada i {1, . . . , n}, la primera componente no nula en la i-esima la es aii, y por por lo tanto aij = 0 para i = j (por que?). En resumen aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0.

ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y 1 si i = j 0 si i = j

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.

62

UNIDAD II. MATRICES Y DETERMINANTES


Teorema 2.38. Sea A Mnn (R). Entonces A es invertible si y s olo si det(A) = 0. Demostraci on. Sea B Mnn (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que B = E1 E2 Er A. Como det(Ei ) = 0 para cada i {1, . . . , r}, entonces det(A) = 0 si y s olo si la FERF de A es In , lo cual concluye la prueba. det(A) = 0 si y s olo si det(B ) = 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto

Teorema 2.39. Sean A, B Mnn (R). Entonces det(AB ) = det(A) det(B ). Demostraci on . Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB ) = 0. Por lo tanto det(AB ) = 0 = 0 det(B ) = det(A) det(B ) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB ) = det(E1 E2 Er B ) = det(E1 ) det(E2 ) det(Er ) det(B ) = det(A) det(B )

2.8.

Inversa de una matriz cuadrada a travs de la adjunta.

En esta secci on deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci on de los determinantes. Denici on 2.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A)
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.

Mnn (R) cuya ij - esima componente es el ji- esimo cofactor de A para cada i, j {1, . . . , n}, es

63

UNIDAD II. MATRICES Y DETERMINANTES


A Observaci on 2.28. Si C = (Cij )nn , es decir, si C es la matriz real cuadrada cuya ij -

esima componente es el ij - esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = CT . Ejemplo 2.37. Hallar la adjunta de

2 1 3 1

Soluci on. Necesitamos hallar cada uno de los cofactores de A. Veamos

0 2 4 1 7

A C11 = (1)1+1

0 2 1 7 1 3 1 7 1 3 0 2

= 2;

A C12 = (1)1+2

1 2 4 7 2 3 4 7 2 3 1 2

= 1;

A C13 = (1)1+3

4 1 2 1 4 1 1

= 1;

A C21 = (1)2+1

= 4;

A C22 = (1)2+2

= 2;

A C23 = (1)2+3

= 2; = 1;

A C31 = (1)3+1

= 2;

A C32 = (1)3+2

= 1; 2 1

A C33 = (1)3+3

2 1

As que

CA CA CA adj(A) = 12 22 32 A A A C13 C23 C33

A A A C11 C21 C31

2 1 1 2 1

4 2

Teorema 2.40. Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostraci on. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A bjk = Ckj .

Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n

dik =
j =1

aij bjk =
j =1

A aij Ckj .

Pero

n A aij Cij = det(A) j =1

64

UNIDAD II. MATRICES Y DETERMINANTES


y seg un el teorema 2.34, si i = k , entonces

n A aij Ckj =0 j =1

Por lo tanto dik = det(A) si i = k 0 si i = k 1 si i = k 0 si i = k

= det(A) = det(A)ik

donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera an aloga se prueba que adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)

Teorema 2.41. Si A Mnn (R) es invertible, entonces det(A1 ) = A1 A, y por el teorema 1.39

Demostraci on. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.

Luego det(A1 ) =

1 . det(A)

Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)

Ejercicio 2.9. Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambi en es invertible y adem as (adj(A))1 = adj(A1 ).

65

2.9 . APLICACIONES
Si A es invertible, entonces la u nica soluci on de dicha ecuaci on est a dada por x = A1 b, as que, una forma de hallar la soluci on de la ecuaci on en cuesti on, es calcular la inversa de A y multiplicarla por b, pero quiz as esto es mucho m as complicado y costoso (en t erminos de c alculos) que hallar la FERF de la matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci on an

terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 2.42 (Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab j) , es la soluci o n de la ecuaci o n Ax = b , entonces, para cada j { 1 , . . . , n } , x = j x= . det(A) . xn (j ) donde Ab (la columna j ) por b, esto es, j es la matriz que se obtiene de A al reemplazar A Ab j = A(1) A(j 1) b A(j +1) A(n)

Demostraci on. Como A = (aij )nn es invertible, entonces la u nica soluci on del sistema Ax = b es x = A1 b, pero A1 b1 b2 1 1 = adj(A), as que x = adj(A)b, por lo tanto, si b = , . det(A) det(A) bn

1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a1(j 1) a1(j +1) a11 b1 . . . . . . . . Ab j = ai1 ai(j 1) bi ai(j +1)

a1n .

a(i1)1 a(i1)(j 1) bi1 a(i1)(j +1) a(i1)n a(i+1)1 a(i+1)(j 1) bi+1 a(i+1)(j +1) a(i+1)n . . . . . . . . . . an(j +1) ann an1 an(j 1) bn
Ab A A Cij j = (1)i+j det Mij j = (1)i+j det Mij = Cij Ab Ab

ain

A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as

66

UNIDAD II. MATRICES Y DETERMINANTES


Luego, al desarrollar el determinante de Ab esima columna, obtenemos j por medio de la j -
n

det(Ab j) =
i=1

Cij j bi =
i=1

Ab

n A Cij bi

En consecuencia, para cada j {1, . . . , n} tenemos que xj = det(Ab j) det(A)

Ejemplo 2.38. Vericar que la matriz del sistema +2z w = 3 x x +y +2z +w = 2 es invertible y usar la regla de Cramer para hallar la soluci on del sistema. Soluci on. La matriz del sistema es 4x +2y +2z 3w = 1 2y +z +4w = 1

1 0 2 1 1 1 2

A=

hallemos su determinante 1 0 2 1 det(A) = 1 1 2 0 2 1 = 4 2 2 3 6 3 1

4 2 2 3 0 2 1 4 2 1 0 1 1 4 1 = 2 0 2 = 1 4 1 2 0 1 0 0

1 0 = 0 1 0 2

1 4

0 2 6

2 6 1

2 6 3

= 3 = 0.

Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de t erminos independientes es 3 b= 2 1 1

67

UNIDAD II. MATRICES Y DETERMINANTES


Luego 3 0 2 1 det Ab 1 = 2 1 2 1 2 1 1 2 2 3 0 6 1 13 = 0 3 0 1 0 0 2 1 1 7 7 6 1 13 0 1 0 7 7

1 4

= 3

= 3 0 0 1

6 0 20 7 7

6 20 3 7

= 42 60 = 18.

1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1

1 = 0 0 0 = 6

3 1

1 4

2 1 1

2 4

0 11 6 1

11 6 1 1

0 2 1 4

11 6 21 1

6 21 1

= (36 + 21) = 15.

1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3

1 0 = 0 1 0 2

1 4

0 2 11

2 1

2 1 4

1 = 2

2 11 1

1 2

1 4

0 9 3 0 3

1 1

2 0

= 9.

1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =

1 0 0 1 0 2

2 0 1

3 1 =

1 2

0 1

0 2 6 11

2 6 11

1 = 2

0 1

0 3

2 6 9

= 18 + 9 = 9.

68

UNIDAD II. MATRICES Y DETERMINANTES


det Ab det Ab det Ab 18 15 9 1 2 3 = = 6; y = = = 5; z = = = 3; det(A) 3 det(A) 3 det(A) 3

En consecuencia x =

det Ab 9 4 w= = = 3, es decir, la soluci on del sistema dado es: det(A) 3 x 6 y 5 = z 3 w 3 Ejemplo 2.39. Una fbrica produce tres tipos de productos, mezclando para ello tres materias primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la fbrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y seis millones de la materia prima 3 cuntas unidades de cada producto puede producir la fabrica usando el total de las materias primas? Soluci on. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede producir la f abrica. Por lo tanto, la cantidad de unidades (en millones) que se usar an es: x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2

de la materia 3

Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3

69

UNIDAD II. MATRICES Y DETERMINANTES


En este caso, la matriz del sistema, la matriz de inc ognitas y la matriz de t erminos independientes son, respectivamente: 1 1 3 A= 3 3 3 ; 2 0 2 matriz del sistema. 1 1 3 det(A) = 3 3 3 2 0 2 = 1 1 2 0 3 = 2 0 6 2

x1

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la

x= x2 x3

y b= 12 6

0 0 6

= 12 = 0.

Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab 3 = 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6

6 0 6

= (12 + 36) = 24.

3 12 3

0 6 6 0 6 4 1 1 2 0

6 6 6 4

= 24 36 = 12.

6 = 6

3 3 12

0 0 6

0 6 2

= 12.

24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un mill on de unidades de cada uno de los productos 2 y 3.

70

Unidad III.Sistemas de Ecuaciones Lineales


Concepto.Clasificacin de los sistemas lineales.Tipos de solucin.Mtodo de Gauss-Jordan.

La presente secci on esta muy relacionada con las OEF y las matrices, y es quiz as, junto con la secci on anterior, la m as importante del presente obra por su relacin con otras materias.

3.1.Definicin de Sistemas de Ecuaciones Lineales

de

Denici on 3.1. Un sistema de ecuaciones lineales con m ecuaciones y n inc ognitas es un conjunto de ecuaciones de la forma

a11 x1 + a12 x2 + + a1n xn . . . . .

= b 1 . . . (3.1)

am1 x1 + am2 x2 + + amn xn = bm a21 x1 + a22 x2 + + a2n xn = b2

donde x1, x2, . . . , xn son las incgnitas del sistema 3.4 y toman valores en R; aij R son n sistema 3.4 y b1, b2, . . . , bm R son jos y son los terminos independientes del sistema 3.4. diremos que es no homog eneo.

umeros jos para cada i {1, . . . , m} y cada j {1, . . . , n} y los llamaremos coecientes del Si b1 = b2 = = bm = 0, diremos que el sistema 3.4 es homog eneo, en caso contrario Cuando m = n, se dice que el sistema 3.1 es un sistema cuadrado.

71

III. Sistemas de Ecuaciones Lineales


Si hacemos a11
21

a12 a22 .

A = (aij )mn =

a1n

am1 am2

el sistema 3.1 puede escribirse como la ecuaci on matricial Ax = b (comprobarlo), que llamare mos representaci on matricial del sistema 3.1. La matriz A es llamada matriz de coecientes o matriz del sistema 3.1, la matriz a11 a12

a2n ; . amn

b=

b1
2

. bm

x=

x1
2

. xn

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz inc ognita o matriz de inc ognitas y b es conocida como matriz de t erminos independientes. El sistema a11 x1 + a12 x2 + + a1n xn a21 x1 + a22 x2 + + a2n xn . . . . . . es llamado sistema homog eneo asociado al sistema 3.1. = 0 = 0 . . . . (3.2)

a21 a22 a2n b2 [A|b] = . . . . . . . am1 am2 amn bm

a1n

b1

am1 x1 + am2 x2 + + amn xn = 0

3.2. Clasificacin de los sistemas de ecuaciones lineales y sus soluciones


Diremos que c1 , c2 , . . . , cn es una soluci on del sistema 2.4 si al sustituir x1 = c1 , x2 = c2 , . . . , xn = cn en 3.4, las igualdades son satisfechas. Se dice que el sistema 3.4 es Inconsistente si no tiene soluci on alguna. Consistente si tiene al menos una soluci on, cuando tiene una u nica soluci on, se dice que es consistente determinado, si tiene m as de una soluci on, se dice que es consistente indeterminado. Observaci on 3.18. En general, no haremos diferencia al referirnos al sistema y a su repre sentaci on matricial.

72

III. Sistemas de Ecuaciones Lineales


/ on Observaci on 3.1. Todo sistema homog eneo Ax = 0 /m1 es consistente, x = 0 n1 es soluci

de este, la cual es llamada soluci on trivial. x1

Observaci on 3.2. Es claro si A Mmn (R) y x =

Ax = x1 A(1) + x2 A(2) + + xn A(n) Ejemplo 3.1. 1. 3x1 +2x2 6x3 = 0

x2 Mn1 (R), entonces . . xn

es un sistema de ecuaciones lineales de dos ecuaciones y tres inc ognitas, es no homog eneo, su representaci on matricial es x1 x2 = x3

x1 +5x2 7x3 = 4

1 5 7

3 2 6

0 4

La matriz es y la matriz ampliada del sistema son, respectivamente 3 2 6 3 2 6 0

1 5 7

1 5 7 4

las matrices inc ognitas y de t erminos independientes son, respectivamente x1

2.

x2 x3 6x x 5x +12y 3z = 2 6z = 2y +9z = 1 6

0 4

es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres inc ognitas, es no homog eneo y su representaci on matricial es

73

UNIDAD III. SISTEMAS DE ECUCIONES LINEALES


El sistema homog eneo asociado a este sistema es 6x x 5x +12y 3z = 0 6z = 0 2y +9z = 0

5 1

6 2

12 3 y = 2 0 6 z 6

Una pregunta que surge de manera inmediata es c omo garantizar que un sistema de ecuaciones lineales es consistente o inconsistente? y en caso de que sea consistente c omo resolver dicho sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes daremos las bases te oricas que nos permitan usar dichas herramientas. Teorema 3.1. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de ecuaciones lineales con m ecuaciones y n inc ognitas. Supongamos que las matrices [A|b] y [C |d] son equivalentes por las. Entonces ambos sistemas tienen exactamente las mismas soluciones o ninguno tiene soluci on. Demostraci on. Dado que las matrices [A|b] y [C |d] son equivalentes por las, entonces existen OEF f1 , f2 , . . . , fr : Fm (R) Fm (R) tales que

(f1 f2 fr )([A|b]) = [C |d] por la parte 3 del corolario 3.1 (f1 f2 fr )(A) = C y (f1 f2 fr )(b) = d

y por la parte 2 del mismo corolario, tenemos que (f1 f2 fr )(Ax) = (f1 f2 fr )(A)x As que, si Ax = b, entonces Cx = (f1 f2 fr )(A)x = (f1 f2 fr )(Ax) = (f1 f2 fr )(b) = d

74

UNIDAD III. SISTEMAS DE ECUACIONES LINEALES


1 1 1 Adem as, en virtud del ejercicio 1.3, f1 , f2 , . . . , fr son invertibles y f1 , f2 , . . . , fr

son tambi en OEF sobre Fm (R), luego, si Cx = d, entonces


1 1 1 Ax = (f1 f2 fr )1 (C )x = (fr f2 f1 )(C )x 1 1 1 1 1 1 = (fr f2 f1 )(Cx) = (fr f2 f1 )(d) = (f1 f2

Por lo tanto Ax = b si y s olo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o ambos tienen la(s) misma(s) soluci on(es).

fr )1 (d) = b

Observacin 3.2. Cuando la matriz del sistema es una matriz ERF, es fcil decidir si el sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucin(es) de este. La idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 3.14, resolver, de manera sencilla, el sistema dado. Corolario 3.1. Sean A, C Mmn (R) y b, d Mm1 (R) tales que [C |d] es la FERF de [A|b].

El sistema Ax = b tiene soluci on si y s olo si el n umero de las no nulas de [C |d] es igual al n umero de las no nulas de C . Demostraci on. Reralizarlo como ejercicio.

Ejemplo 3.2. Decidir cu al de los siguientes sistemas son consistentes y cu ales no, en caso de serlo, mostrar su(s) soluci on(es). 2x +y z = 1 2x y +5z = 5 1. y +3z = 2 2 2x +y z = x 2y +4z = 3 2. 5x 4y +8z = 9 y +3z = 2 x +y 2z +w = 1 3. 4x +2y +2z = 2 2y 10z +3w = 3

75

III. Sistemas de Ecuaciones Lineales


x +y 2z +w = 1 3

4.

4x +2y

+2z

2y 10z +4w =

= 2

Soluci on . 1. La matriz ampliada del sistema es 2 1 0 1 Hallemos su FERF 2 1 1 1 1


1 2

1 1 1

5 5 3 2

2 1 0 1

F 5 5 F1 1 2 1 5 5 1 2 F2 3 2 0 1 3 2 1 1 1 1 2 2 2 F F1 F1 1 2 2 1 F1 2 F1 0 1 3 2 F3 F3 + F2 0 1 3 2

1 2

1 2

aporta nada a la soluci on. As que el sistema dado es equivalente al sistema x +z =


3 2

La u ltima la de esta u ltima matriz equivale a la ecuaci on 0 x + 0 y + 0 z = 0, que no

F2 2F1 0 2 0 1 3 1 0 1 2 0 1 3 2 0 0 0 0

1 2

1 2

6 4 3 2

1 2

y 3z = 2 que a su vez equivale a x = z + y =


3 2

3z 2

Luego el sistema dado es consistente indeterminado. Haciendo z = , con R, obtenemos 3 x = + ; 2 y = 3 2

En consecuencia la soluci on del sistema dado viene dada por 3 x = + ; 2 y = 3 2; z = ; con R

76

III. Sistemas de Ecuaciones Lineales


o bien

2. En este caso la matriz del sistema es

= = y 3 2 z 2

+ 3 2

3 + 2 ; 1 0 2

3 2

con R

Vamos a hallar su FERF 2 1 1 2

1 2 5 4 0 1

1 1

4 3 8 9 3 2

1 2 5 4 0 1

4 3 8 9 3 2

F1 F2 1 2

0 0 1 F2 F2 2F1 5 F2 F4 0 6 12 6 6 F3 F3 5F1 0 0 1 3 2 0 5 1 2 4 3 1 0 F1 F1 + 2F2 0 0 1 1 3 2 F2 F2 F F 6 F 3 3 2 0 6 12 6 0 0 F4 F4 5F2 0 5 9 8 0 0 1 0 2 7 1 0 0 F F + 2 F 1 1 3 0 1 3 2 0 1 0 F3 1 F F F + 3 F 3 2 2 3 6 0 0 1 3 0 0 1 F4 F4 6F3 0 0 6 18 0 0 0 Luego, el sistema dado es equivalente al sistema x = 1 = z =

5 4 0 1 4 3 9 8

1 2

1 1

4 3

8 9 3 2

1 2

4 3 3 12 9 2 7 6 6 1 7 3 0

2 6 8

3 2 18 18

7 3

77

III. Sistemas de Ecuaciones Lineales


Por lo tanto el sistema es consistente determinado y su soluci on es x = 1; o bien x y = 7; z=3

3. Hallemos la FERF de la matriz ampliada del sistema que es 1 1 2 1 1 4 2 2 0 2 0 2 10 3 3 1 1 2 1 1 1 1 2 1 1

y = z

7 3

F F 4 F 4 2 2 0 2 0 2 10 4 6 2 2 1 0 2 10 3 3 0 2 10 3 3 1 1 2 1 1 1 0 3 1 2 F1 F1 F2 F2 1 F 0 1 5 2 3 0 1 5 2 3 2 2 F3 F3 2F2 0 2 10 3 3 0 0 0 1 3 1 0 3 1 2 1 0 3 0 1 F1 F1 + F3 F3 F3 0 1 5 2 3 0 1 5 0 3 F2 F2 2F3 0 0 0 1 3 0 0 0 1 3 En consecuencia el sistema dado es equivalente al sistema x o equivalentemente +3z y 5z = w = 1 3

= 3

x = 3z + 1 y = 5z 3 w = 3

78

III. Sistemas de Ecuaciones Lineales


Por lo tanto el sistema original es consistente indeterminado. Haciendo z = , con R, tenemos que la soluci es on del sistema x 3 +1 3 1 3 5 3 5 y = = + ; z 1 0 w 3 0 3 4 2 2 0 2 0 2 10 4 3 1 1 2 1 1

con R

4. Hallemos la FERF de la matriz

que es la matriz ampliada del sistema 1 1 2 1 1 1 1 2 1 1 F F 4 F 4 2 2 0 2 0 2 10 4 6 2 2 1 0 2 10 4 3 0 2 10 4 3 1 1 2 1 1 F3 F3 + F2 0 2 10 4 6 0 0 0 0 3 matriz equivale a la ecuaci on 0 x + 0 y + 0 z + 0 w = 3

Sin necesidad de llegar a la FERF de la matriz, vemos que la u ltima la de esta u ltima

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

/ si m < n, esto es, si el sistema homog eneo Ax = 0 as inc ognitas que ecuaciones, m1 tiene m

Teorema 3.4. El sistema homog eneo Ax = 0 /m1 , con A Mmn (R), tiene innitas soluciones

entonces es consistente indeterminado. Demostraci on. Hacerlo como ejercicio.

79

III. Sistemas de Ecuaciones Lineales


Teorema 3.2. Sea A Mmn (R). Supongamos que x1 , x2 Mn1 (R) son soluciones del tambi en soluciones del sistema.

/ sistema homog eneo Ax = 0 m1 . Entonces, para cada R, se tiene que x1 + x2 y x1 son

Demostraci on. Hacerlo como ejercicio.

Teorema 3.3. Sean A Mmn (R) y b Mm1 (R). Supongamos que xp es una soluci on del
/ Ax = 0 m1 tal que xg = xh + xp .

sistema Ax = b. Entonces, para cada soluci on xg del sistema Ax = b, existe una soluci on xh de

Demostraci on. Dado que xp es soluci on del sistema Ax = b, tenemos que Axp = b. Sea xg una soluci on cualquiera de Ax = b. Entonces Axg = b. Sea Axh = A(xg xp ) = Axg Axp = b b = 0
/ es decir, xp es soluci on del sistema homog eneo Ax = 0 as xg = xh + xp . m1 y adem

xh = xg xp . As que

Ejemplo 3.3. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que 3 1 2 xp = 2 ; xh = 3 ; con R 0 1 Para el sistema de la parte 2 del mismo ejemplo, se tiene que 1 0 xh = 0 0

N otese que en este caso xg = xp .

xp =

7 ; 3

Finalmente, para el sistema de la parte 3 del ejemplo en cuesti on 1 3 xp = 3 ; 0 3 xh = 5 ; 1 0

con R

Ejercicio 3.1. Sea A Mmn (R). Pruebe que si el sistema Ax = b tiene soluci on para cada b Mm1 (R), entonces m n.

80

3.3. Interpretaci on geom etrica de las soluciones.

Se denomina ecuaci on lineal a aquella que tiene la forma de un polinomio de primer grado. Es decir, que las inc ognitas no esten elevadas a alguna potencia. Por ejemplo, 3x + 2y + 6z = 6 es una ecuaci on lineal con tres inc ognitas. Como es bien sabido, las ecuaciones lineales con 2 inc ognitas representan una recta en el plano. Si la ecuaci on lineal tiene 3 inc ognitas, su representaci on gr aca es un plano en el espacio. Un ejemplo de ambas representaciones puede observarse en la gura:

Figura 3.1: Representaci on gr aca de la recta x + 2y = 3 en el plano y del del plano x + y + z = 1 en el espacio. El objetivo del tema es el estudio de los sistemas de ecuaciones lineales, es decir, un conjunto de varias ecuaciones lineales. Diremos que dos ecuaciones son equivalentes si tienen las mismas soluciones, o geomtricamente representan la misma recta o plano.

81

III. Sistemas de Ecuaciones Lineales

En general,buscaremos las soluciones de los sistemas en los n umeros reales R. Dependiendo del posible n umero de tales soluciones reales que tenga un sistema, estos de pueden clasicar en: * INCOMPATIBLES (No tienen soluci on) S.I. * COMPATIBLES (Tienen soluci on) * DETERMINADOS (Soluci on u nica) S.C.D. * INDETERMINADOS (Innitas soluciones) S.C.I.

La geometra de los sistemas con dos inc ognitas

Los sistemas m as sencillos son aquellos en los que s olo hay dos inc ognitas y 2 ecuaciones, y que ya son conocidos de cursos pasados. Hay varios sistemas para resolverlos, los m as habituales: * Reducci on * Igualaci on * Sustituci on en los que ya no nos entretendremos. Como cada ecuaci on lineal con 2 inc ognitas se interpreta geom etricamente como una recta, el estudio de la soluci on del sistema se limita a estudiar la posici on de 2 rectas en el plano. Veamos algunos ejemplos con los tres casos que se pueden presentar. Resolver e interpretar el x + 2y = 3 sistema: . 2x + y = 1 Por reducci on: 2x+4y=-6 -2x+ y=1 5y=-5 de donde y = -1 y sustituyendo x + 2(-1) = -3, x = -1. Es decir, la soluci on del sistema es u nica, x = -1, y = -1 lo que signica que el sistema es compatible y determinado, y que las rectas se cortan en un punto, precisamente el (-1,-1):

Figura 3.2: Soluci on del sistema, punto (-1,-1)

82

III. Sistemas de Ecuaciones Lineales


x + 2y = 3 . 2x 4y = 5

Resolver e interpretar el sistema:

x = 3 2y 5 + 4y Por igualaci on: de donde: x= 2 3 2y =

5 + 4y = 4y + 6 = 5 + 4y = 0y = 1 = 0 = 1 2

lo cu al es imposible y por tanto el sistema no tiene soluci on, es un sistema incompatible y por tanto las rectas son paralelas. Geom etricamente:

Figura 3.3: Sistema sin soluci on. Rectas paralelas x + 2y = 3 . 3x + 6y = 9

Resolver e interpretar el sistema:

Por sustituci on, como x = 2y 3 resulta 3(2y 3) + 6y = 9, es decir 6y 9 + 6y = 9, por tanto 0y = 0, 0 = 0. Como 0 = 0 es una igualdad siempre cierta, quiere decir que el sistema tiene innitas soluciones, es compatible indeterminado, o que las rectas son la misma.

Figura 3.4: Innitas soluciones. Las rectas coinciden Lo expresaremos as . Como x = 2y 3, dando valores a y se obtiene x. As si le damos a y el valor arbitrario de (lambda), entonces expresaremos la soluci on como: x = 2 3 siendo R y= y como puede ser cualquier n umero real, hay innitas soluciones. Estos son los u nicos casos que pueden darse con dos ecuaciones y dos inc ognitas, y su interpretaci on geom etrica.

83

III. Sistemas de Ecuaciones Lineales


Ejercicio 3.2 Estudiar la soluci on de los siguientes sistemas e interpretarla geom etricamente: x+y = 5 2x + y = 1 x + 2y = 3 b) c) 2x y = 7 3x + 2y = 4 xy = 4 a)

Discuci on de sistemas de 2 ecuaciones con 2 inc ognitas


ax + 3y = 5 , no estamos 2x y = 6 ante un s olo sistema, sino ante innitos, uno para cada valor de a, y cada sistema ser a distinto en funci on del valor que tome dicha letra (llamada par ametro). Para estudiarlo, se resuelve el sistema como habitualmente y se estudian los distintos casos que se pueden dar. Por ejemplo , por reducci on: Si alguno de los coecientes del sistema es desconocido, por ejemplo, ax+3y=5 6x-3y=18 ax+6x =23 por tanto, x(6 + a) = 23. Entonces, si 6 + a = 0 no podremos despejar x, es decir si a = 6, obtenemos una ecuaci on del tipo 0 = 23, es decir, imposible. Por tanto, si a = 6 el sistema es incompatible. 23 En cualquier otro caso, podemos despejar x,x = , y se puede sacar y sustituyendo, por tanto, 6+a si a = 6, el sistema es compatible determinado. Ejercicio 3.3 Discutir los sistemas en funci on del par ametro desconocido: a) x+y =5 ax + 2y = 10 b) ky + x = 2 3x+y=1

3.4.M etodo de Gauss-Jordan ecuaciones lineales: Gauss, Gauss-Jordan, Podemos a nadir a los cl asicos sistemas de 2 ecuaciones y 2 inc ognitas cuantas ecuaciones queramos inversa d e una ma t riz y reg l a d e C ramer . para obtener diferentes tipos de sistemas con 3, 4, 5 o m as ecuaciones.
En cualquier caso, los tipos de sistemas a los que dan lugar son los mismos rese nados anteriormente. Al aumentar el n umero de ecuaciones, la resoluci on del sistema por alguno de los tres m etodos cl asicos se vuelve m as farragoso, por lo que conviene aplicar ya el conocido m etodo de Gauss para determinar el tipo de sistema. Para ello expresaremos el sistema en la forma matricial, analizando la matriz ampliada asociada, que tendr a 2 columnas y tantas las como ecuaciones tengamos. Analizaremos tan s olo aquellos sistemas con 3 ecuaciones y 2 inc ognitas. La matriz ampliada gen erica es: a11 a12 b1 (A|B ) = a21 a22 b2 a31 a32 b3 Aplicar el m etodo de Gauss consiste en realizar transformaciones elementales mediante las las de la matriz para obtener la matriz escalonada siguiente: a11 a12 b1 (A|B ) = 0 a 22 b2 0 0 b 3

Recordemos que las operaciones elementales permitidas en las las de la matriz (ecuaciones del sistema) eran:

84

III. Sistemas de Ecuaciones Lineales


T1) Multiplicar o dividir una la por un n umero real distinto de cero. T2) Sumar o restar a una la otra multiplicada por un n umero real no nulo. T3) Intercambiar el lugar de dos las entre s . Utilizando estas transformaciones, los sucesivos sistemas que se obtienen son equivalentes al primero, es decir, tienen las mismas soluciones. Debemos eliminar, en este orden, el elemento a21 utilizando la la 1, el elemento a31 , utilizando tambi en la la 1, y por u ltimo el elemento a32 utilizando la la 2, de modo an alogo al m etodo de Gauss-Jordan para la inversa. Adem as, es conveniente en cada paso indicar la operaci on realizada con las las, poniendo en primer lugar aquella que se va a sustituir por otra. Llegados a la matriz ampliada escalonada al nal del proceso, pueden darse los casos siguientes: 1. a 22 = 0. Entonces hay dos posibilidades: a) b on del tipo 0=k), sin soluci on. 3 = 0. Sistema incompatible (hay una ecuaci Geom etricamente, puede ocurrir que: a) Dos rectas sean paralelas y la otra las corte. b) Las rectas se corten dos a dos (formen un tri angulo).

b ) b on 0=0 que no inuye en la resoluci on del sistema, que redu 3 = 0. Aparece una ecuaci cido a las dos ecuaciones iniciales tiene soluci on u nica, es decir, el Sistema es Compatible Determinado. Geom etricamente: a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto.

2. a 22 = 0. Entonces hay tres posibilidades: a)


Si b on del siste2 = b3 = 0, aparecen dos ecuaciones 0=0, que no inuyen en la resoluci ma, que ahora tiene innitas soluciones (1 ecuaci on y dos inc ognitas). Sistema compatible indeterminado.

85

III. Sistemas de Ecuaciones Lineales

Geom etricamente, las tres rectas coinciden (son la misma):

b ) Si b on 0=0 (que no inuye) y 2 = 0, b3 = 0 o b ien b2 = 0, b3 = 0, aparece una ecuaci otra 0=k (que es imposible). El sistema es incompatible. Geom etricamente: a) Dos rectas son paralelas y la otra las corta. b) Dos rectas coinciden y la otra es paralela.

c ) Si b 2 = 0, b3 = 0, hay dos ecuaciones 0=k que son imposibles, el sistema es incompatible. Geom etricamente, las tres rectas son paralelas o dos son coincidentes y una paralela.

En cada uno de los casos, para determinar la posici on concreta de las rectas, basta representarlas. Ejemplo 3.4 Estudiar el sistema siguiente, dando la interpretaci on geom etrica: x + 2y = 5 3x + y = 7 2x + 3y = 12

86

III. Sistemas de Ecuaciones Lineales


A partir de la matriz ampliada 1 (A|B ) = 3 2 y aplicando el m etodo 2 5 1 F2 +3F1 1 7 0 F3 +2F1 3 12 0 de Gauss, obtenemos: 2 5 1 2 5 F3 F2 7 22 0 7 22 7 22 0 0 0

En este caso aparece una ecuaci on 0=0 que no inuye y el elemento a 22 es no nulo. El sistema es compatible determinado, tiene soluci on u nica. Geom etricamente, puede ocurrir que: a) Dos rectas son coincidentes y la otra las corta. b) Las tres rectas se cortan en un mismo punto. Resolviendo y dibujando, obtenemos: x + 2y = 5 7y = 22

22 9 De donde y = y sustituyendo es x = (compru ebalo). 7 7 Dibujando las rectas:

Figura 3.5: SS oluci on geomtrica del sistema.

Se observa que las rectas se cortan en un punto, precisamente el punto soluci on del sistema: P = 9 22 , . 7 7

Ejercicios 3.4 a) Resuelve e interpreta geom etricamente los sistemas: x+y =0 x y = 2 a) x + y = 2 b) x + 2y = 1 x + 3y = 2 4x 10y = 14

b) Discute y resuelve en funci on del par ametro: xy = 1 2x + y = 3 a) x + 2y = 1 b) x + 3y = 0 2x + my = 0 mx + 4y = 3


87

2x + y = 2 c) x + y = 3 y = 2x

III. Sistemas de Ecuaciones Lineales

utilizando las transformaciones conocidas, y de la forma indicada en ocasiones anteriores. Los tipos de sistema que pueden obtenerse dependiendo del n umero de soluciones son los rese nados en apartados anteriores. Al aplicar el m etodo de Gauss podemos encontrarnos con distintos casos: * Si se obtiene un sistema escalonado con coecientes no nulos, el sistema es compatible determinado, tiene soluci on u nica. * Si se obtiene una o m as las en las que todos los elementos sean cero, el sistema tiene innitas soluciones, y hay que despejar una o varias inc ognitas en funci on de otras, es un sistema compatible indeterminado. * Si se obtiene una o m as las de ceros, salvo el elemento correspondiente al t ermino independiente, que es distinto de cero, digamos k, entonces como la la en cuesti on corresponder a a una ecuaci on del tipo 0 = k , lo que es imposible, el sistema no tiene soluci on y por tanto es incompatible. Veamos un ejemplo: 2x + y z = 11 Ejemplo 3.5. Resolver por Gauss: x 3y = 20 . 4x + 2y + 5z = 8 2 1 1 11 La matriz ampliada es (A|B ) = 1 3 0 20. Aplicando el m etodo de Gauss: 4 2 5 8 2 1 1 11 2 1 1 11 2x + y z = 11 2F2 F1 1 3 0 20 7y + z = 51 0 7 1 51 = F3 2F1 4 2 5 8 0 0 7 14 7z = 14

para dejar dicha matriz escalonada, es decir, del tipo: a11 a12 a13 b1 0 a 22 a23 b2 0 0 a33 b 3

Cuando los sistemas tienen m as de dos ecuaciones y tres o m as inc ognitas se utilizar a el ya conocido m etodo de Gauss. Ahora partiremos de la matriz ampliada: a11 a12 a13 b1 (A|B ) = a21 a22 a23 b2 a31 a32 a33 b3

obtenemos un sistema escalonado, que es compatible y determinado, pu es podemos despejar z, obteniendo z = 2, y luego 7y 2 = 51, de donde 7y = 49 es decir y = 7 y sustituyendo en la primera ecuaci on es 2x + 7 + 2 = 11, luego 2x = 2 , es decir x = 1. La soluci on es (1, 7, 2). Este proceso de resoluci on, que comienza calculando z y permite calcular las dem as inc ognitas sustituyendo en las ecuaciones anteriores se denomina sustituci on regresiva.

Interpretaci on geom etrica de los sistemas con 3 ecuaciones y 3 inc ognitas


Como cada ecuaci on lineal con 3 inc ognitas corresponde a un plano en el espacio, la soluci on del sistema correspoder a a la posici on en que dichos planos est en en el espacio. Lo m as sencillo es saber que ocurre con los planos 2 a 2, pues en el espacio dos planos s olo pueden estar en 3 posiciones:

88

III. Sistemas de Ecuaciones Lineales


* Son coincidentes: Lo cu al es f acil de saber porque sus correspondientes ecuaciones tienen coecientes de las inc ognitas y los t erminos independientes proporcionales, es decir, si los planos son: Ax + By + Cz = D Ax+B y+C z =D A B C D = = = A B C D (siempre que se puedan realizar las divisiones). Por ejemplo, los planos 2x + 3y z = 5, y 10x 15y + 5z = 15 son coincidentes. * Son paralelos: Tambi en es sencillo de saber porque los coecientes de las inc ognitas son proporcionales, pero los t erminos independientes NO. Es decir, en este caso: Ax + By + Cz = D Ax+B y+C z =D entonces se verica: A B C D = = = A B C D (siempre que se puedan realizar las divisiones). Por ejemplo, los planos 2x + 3y z = 5 y 10x 15y + 5z = 7 son paralelos. * Son secantes: Simplemente los coecientes no son proporcionales, es decir: Ax + By + Cz = D Ax+B y+C z =D entonces se verica: A B C D = = = A B C D (siempre que se puedan realizar las divisiones, y basta con que un par de ellas correspondientes a las inc ognitas sean diferentes). Por ejemplo, los planos 7x + 3y z = 5 y 10x 15y + 5z = 7 son secantes. Puesto que podemos determinar la posici on de los planos 2 a 2, podemos determinar en qu e posici on se encuentran los 3 a la vez, j andonos en los casos: 1. Si el sistema es S.C.D. (Soluci on u nica), es que los tres planos se cortan en un punto, que es la soluci on del sistema. entonces se verica:

2. Si el sistema es S.C.I. (Innitas soluciones), puede ocurrir que: a) Los tres planos se corten en una recta.

b ) Dos planos son coincidentes y el otro los corta en una recta. c ) Los tres planos son coincidentes.

89

III. Sistemas de Ecuaciones Lineales

Y determinaremos la opci on correspondiente estudi andolos de dos en dos. 3. Si el sistema es S.I. (Sin soluci on), puede ocurrir que: a) Los planos se cortan dos a dos.

b ) Dos planos son paralelos y el otro los corta. c ) Los tres planos son paralelos. d ) Dos planos son paralelos y el otro coincidente con uno de ellos.

Y determinaremos la opci on correspondiente estudi andolos de dos en dos. Ejemplo 3.6 .Estudiar el sistema e interpretarlo geom etricamente: 2x + y z = 6 3x y + z = 5 4x + 2y 2z = 1

2 1 1 6 Aplicando Gauss a (A|B ) = 3 1 1 5, se obtiene: 4 2 2 1

Lo que indica que el sistema es incompatible y por tanto no tiene soluci on, los planos no tienen puntos comunes.

2 1 1 6 2 1 1 6 2x + y z = 6 2F2 3F1 3 1 1 5 0 5 5 8 = 5y + 5z = 8 F3 2F1 4 2 2 1 0 0 0 11 0 = 11

90

III. Sistemas de Ecuaciones Lineales


Si estudiamos la posici on de los planos 2 a 2, se obtiene que el primero y el segundo tienen coecientes que no son proporcionales, luego se cortan. El primero y el tercero tienen coecientes proporcionales pero no los t erminos independientes, luego son paralelos. Y el segundo y el tercero no tienen coecientes proporcionales, por lo que se cortan. Concluimos por tanto que los planos primero y tercero son paralelos y son cortados por el segundo plano, esta es la interpretaci on geom etrica:

Ejercicios 3.7 Estudiar e interpretar geom etricamente los sistemas: x + y z = 2 c) 2x y + 3z = 1 b) x + y + z = 2 a) 4x 2y + 6z = 5 2 x + y + 3 z = 1 2 x y + 3z = 5 x + 2y + z = 4 2x + y 3z = 7 3x + 2z = 7

x+y+z = 8 d) 7x + y + 6z = 7 x + 7y + z = 1

Si aparece alg un coeciente desconocido,aplicaremos el m etodo de Gauss e investigaremos seg un los valores del par ametro la posibilidad de que aparezca o no una la de ceros. x + y + z = m+1 x + y + (m 1)z = m x + 7y + z = 1 m+1 F3 F1 m2 1 1 m+1 1 m2 1 m m2

Ejemplo 3.7. Discutir seg un los valores de m

Debemos, llegados a este punto, jarnos en dos aspectos: a) El desarrollo anterior s olo es posible si m = 0, luego el caso m = 0 debe estudiarse por separado. b) En el sistema escalonado nal, hay problemas cuando el valor 1 m = 0, es decir, cuando m = 1. En cualquier otro caso, no hay problemas. De modo que, resumiendo, si m = 0 y m = 1, el sistema es S.C.D. Estudiemos ahora cada caso por separado: Si m = 0, al aplicar Gauss, queda: 1 1 1 1 1 1 1 1 1 1 1 1 F3 F1 F3 +F2 0 1 1 0 0 1 1 0 0 1 1 0 1 0 1 1 0 1 0 0 0 0 1 0
91

Aplicando Gauss a la matriz ampliada: 1 1 1 m+1 1 1 1 F2 mF1 m 1 m 1 m 0 1 m 1 (m=0) 1 m 1 1 1 7 1 1 1 1 m+1 1 1 F3 F1 F3 +F2 2 0 1 m 1 m 0 1m 0 m 1 0 m 0 0

III. Sistemas de Ecuaciones Lineales

3.4.1. Inversa de una Matriz Cuadrada


En la presente secci on, presentaremos un breve estudio sobre las matrices invertibles y sus aplicaciones en la resoluci on de los sistemas de ecuaciones, cabe destacar que se pueden denir inversas laterales de matrices no cuadradas, sin embargo, s olo estudiaremos el caso de matrices cuadradas. Denici on 3.1 sea A Mnn (R). diremos que A es invertible si existe una matriz B Mnn (R) tal que AB = In = BA Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A. Ejemplo 3.8. Si A = 2 2 , entonces B = 2 1
3 2

2 1
3 2

3 3

1 22

es una inversa de A ya que 1 0 0 1 1 0 0 1

AB =

2 2

43

3 3 3 + 4 4 3 4 + 4 3 3 3 + 4

= I2

AB =

2 1
3 2

2 2

= I2

Teorema 3.5. Si A Mnn (R) es invertible, entonces A tiene s olo una inversa, es decir, Demostraci on. Supongamos que A Mnn (R) es invertible y que B, C Mnn (R) son inversas de A. Entonces AB = In = BA AC = In = CA Luego C = CIn = C (AB ) = (CA)B = In B = B

existe una u nica matriz B Mnn (R) tal que AB = In = BA, tal matriz es denotada por A1 .

(3.6) (3.7)

92

III. Sistemas de Ecuaciones Lineales

Teorema 3.6. Sean A, B Mnn (R) dos matrices invertibles y R con = 0. Entonces 1. A1 es invertible y (A1 )
1

= A (propiedad involutiva de la inversa)

2. AB es invertible y (AB )1 = B 1 A1 (inversa del producto matricial) 3. A es invertible y (A)1 = 1 A1 (inversa del m ultiplo escalar) 4. AT es invertible y (AT Demostraci on. 1. Se deduce directamente de la denici on de matriz invertible. 2. En primer lugar (AB )(B 1 A1 ) = ABB 1 A1 = A(BB 1 )A1 = AIn A1 = (AIn )A1 = AA1 = In Adem as (B 1 A1 )(AB ) = B 1 A1 AB = B 1 (A1 A)B = B 1 In B= (B 1 In )B B 1 B = In (denici on de matriz inversa) Luego, por el teorema 2.19, tenemos que AB es invertible y (AB )1 = B 1 A1 . = (denici on de matriz inversa)
1

= (A1 ) (inversa de la transpuesta)

93

III. Sistemas de Ecuaciones Lineales


3. Veamos
1

( A))A1 (A)(1A1 ) = ( = (( 1 )A)A1 = (1 A)A1 = AA1 = In

An alogamente, se prueba que ( 1 A1 )( A) = In . Nuevamente, usando el teorema 2.19,se tiene que A es invertible y (A)1 = 1 A1 . 4. Por un lado AT (A1 )T = (A1 A)T = (In )T = In Por otro lado (A1 )T AT = (AA1 )T = (In )T = In

Teorema 3.6. Toda matriz elemental es invertible y su inversa es tambi en una matriz elemen tal. Demostraci on. Sea E Mnn (R) una matriz elemental. Entonces existe una OEF f : Fn (R)

Fn (R) tal que E = f (In ). El ejercicio 2.3 garantiza que f es invertible y su inversa f 1 es tambi en una OEF sobre Fn (R), as que F = f 1 (In ) es una matriz elemental, adem as EF = f (In )f 1 (In ) = f (f 1(In )) = In

94

III. Sistemas de Ecuaciones Lineales


y F E = f 1 (In )f (In ) = f 1 (f (In )) = In Luego, E es invertible y E 1 = F , es decir, (f (In ))1 = f 1 (In ).

Ahora bien c omo saber si una matriz cuadrada A es o no invertible? y en caso de que lo sea c omo hallar A1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento u nico. Daremos un ejemplo sencillo que ilustrar a tal procedimiento. Ejemplo 3.9. En cada uno de los siguientes casos decidir si A es o no invertible, en caso armativo, hallar A1 . 1. A = 2 2 2 8

3 3

2. A = Soluci on .

12

1. Supongamos que A es invertible y sea B= tal que AB = I2 , as que A x z = 1 0 y A y w = 0 1 x y z w

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera simult anea considerando la siguiente matriz 2 veces ampliada [A|I2 ] = 2 2 1 0

4 0 1

95

III Sistemas de Ecuaciones Lineales


Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos dar an, respectivamente, las soluciones del primer y segundo sistema, si existen, que a su vez nos dar an, respectivamente, las primera y segunda columnas de B , si existe. Hallemos entonces la FERF de esta matriz. [A|I2 ] = 3 2 2 1 0 4 0 1 1 1 0 F1 1 F 2 1
1 2 3 2

1 1

1 2

4 0 1 1 0 2 1 0 1
3 2

F2 F2 + 3F1 Por lo tanto

0 1

F1 F1 + F2 B= 2 1
3 2

El lector puede vericar que BA = I2 , por lo tanto, A es invertible y A1 = B = 2 1


3 2

2. Como en el caso anterior, supongamos que existe B= x y z w

tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ] [A|I2 ] = 3 2 8 1 0 12 0 1 1 1 0 F1 1 F 2 1
1 2 3 2

1 4

1 2

12 0 1

F2 F2 + 3F1

0 1

La u ltima la de esta u ltima matriz equivale a las ecuaciones 0x+0z = 3 2 0y+0w =1

Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible.

96

III. Sistemas de Ecuaciones Lineales


Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una matriz cuadrada A es o no invertible, adem as, en caso armativo, nos permite hallar A1 . Algoritmo para decidir si una matriz A Mnn (R) es o no invertible, y en caso

armativo mostrar la matriz A1 .

Paso 1. Formar la matriz ampliada [A|In ]. Paso 2. Hallar la FERF de la matriz en el paso previo. Paso 3. Si la matriz en el paso previo es [In |B ], entonces A es invertible y A1 = B , sino A no es invertible.

Ejemplo 3.10. Decidir si la matriz 2 0 3 1 1

A=

es invertible o no, en caso armativo, hallar A1 . Soluci on . 2 0 1 3 1 1 1 0 0 0

1 1 1 1 0

1 1

3 2 2 2

F1 2 2 0 0 1 0 0 1 1 2 0 0 0 1 1 1 2 2 F2 F2 + F1 0 0 3 1 2 1 5 F3 F3 2F1 0 1 1

3 0 1 0 0

F3 0 0 0 1

1 1 0

1 1 2 0

1 0

2 2 0 0 1 0 1 3

1 1

1 1 0 0 0 2 0 0 0 1

3 0 1 0 0

1 0 2 0 0 1 1 2 0 0 0 1 1 1 2 2 0 0 1 0 1 1 2 0 0 0 1 0 F2 F4 0 2 1 5 1 0 2 0 0 0 3 1 0 1 1 0

1 0

97

Matrices y Sistemas de Ecuaciones Lineales 1 0 0 1 0 0 0 1 0 1 1

F4 1 F 2 4

F1 F1 + F2 0 F3 F3 + 2F2 0 0 1 F1 F1 F3 0 F2 F2 + F3 0 F4 F4 3F3 0 1 0 0 0 1 F1 F1 + F4 0 F2 F2 3F4 0 F3 F3 F4 0

1 1 2 0 0 0 1 0

0 0 1 1 0 3 0 1 1

1 1 1 0 2 2 3 1 0 1 1 0 3 3

0 0 2 3 1 0 1 1 3 1 1 1 1
3 2 1 2 7 2 1 2 3 2

1 0 2 1 1 0 2 2 7 0 3 3 0 2 1 0 2 2 1 2 3 2 1 2 1 2 1 2 17 2 3 2 7 2 0 6

0 1 0 0 0 1 0

1 7 3 2 2

0 0 0 1 0 0 0 1 0 0 0 1

Luego A es invertible y
1 2 7 2 1 2 3 2

8 1 1 1 1 0

A1 =

1 2 3 2 1 2 1 2

1 2 17 2 3 2 7 2

8 1 7 3 17 16 = 1 2 1 1 3 2 3 3 1 7 6

El siguiente teorema nos ser a muy u til a la hora de saber si una matriz es o no invertible. Teorema 3.7. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes. 1. A es invertible. 2. El sistema Ax = b tiene una u nica soluci on para cada b Mn1 (R).
/ 3. El sistema homog eneo Ax = 0 nica soluci on la trivial. n1 tiene como u

4. A es equivalente por las a In .

98

III. Sistemas de Ecuaciones Lineales


5. Existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Demostraci on. (1. 2.) Supongamos que A es invertible. Entonces, por denici on de matriz inversa, existe A1 Mnn (R) tal que AA1 = In = A1 A x0 = In x0 = (A1 A)x0 = A1 (Ax0 ) = A1 b (pues x0 es soluci on del sistema Ax = b) As que el sistema Ax = b tiene como u nica soluci on x0 = A1 b. (2. 3.) Supongamos que el sistema Ax = b tiene una u nica soluci on para cada b Sean b Mn1 (R) cualquiera y x0 Mn1 (R) una soluci on del sistema Ax = b. Entonces

Mn1 (R). Entonces el sistema Ax = 0 tiene una u nica soluci on, pero sabemos que
/ x=0 on de este sistema (observaci on 2.19), as que la u nica soluci on de n1 es soluci

dicho sistema es la soluci on trivial.


/ (3. 4.) Supongamos que el sistema homog oneo Ax = 0 nica soluci on la trivial. n1 tiene como u

Procederemos por reducci on al absurdo. Supongamos que A no es equivalente por las a In . Por lo tanto, usando la observaci on 2.17, si CA es la FERF de A, entonces CA debe tener alguna la nula, la cual debe estar ubicada en la u ltima posici on pues CA es escalonada reducida por las, esta la equivale a la ecuaci on 0 x1 + 0 x2 + + 0 xn = 0 donde x1

x=

/ y en consecuencia no aporta ninguna informaci on a la soluci on del sistema Ax = 0 n1 .

x 2 . . xn

Denamos DA M(n1)n (R) la matriz que se obtiene al eliminar la u ltima la de CA .


/ / Luego el sistema homog eneo Ax = 0 eneo DA x = 0 n1 es equivalente al sistema homog (n1)1

99

III. Sistemas de Ecuaciones Lineales


/ el cual, en virtud del teorema 2.16, tiene innitas soluciones, de donde, el sistema Ax = 0 n1

tiene innitas soluciones, lo cual contradice la hip otesis, por lo tanto A es equivalente por las a In . (4. 5.) Supongamos que A es equivalente por las a In . Entonces existen OEF f1 , f2 , . . . , fr : Fn (R) Fn (R) tales que A = (f1 f2 fr )(In )

Luego, usando recursivamente el corolario 2.12 partes 1 y 2, tenemos que A = f1 (In )f2 (In ) fr (In ) As que la matriz Ei = fi (In ) es elemental para cada i {1, . . . , r } y adem as A = E1 E2 Er (5. 1.) Supongamos que A = E1 E2 Er donde E1 , E2 , . . . , Er Mnn (R) son matrices elementales. Dado que toda matriz elemental es invertible (teorema 2.21) y usando recursivamente la parte 2 del teorema 2.20, se tiene que A es invertible. Lo cual concluye la prueba.

Teorema 3.8.Sean A, B Mnn (R). Si AB = In , entonces BA = In ; y en consecuencia A1 = B . Demostraci on. Supongamos que AB = In . Sea xh una soluci on del sistema homog eneo Bx =
/ 0 n1 . Entonces / Bxh = 0 n1

(3.8)

Luego xh = In xh = (AB )xh = A(Bxh ) =


/ A0 n1

100

III. Sistemas de Ecuaciones Lineales


/ As que la u nica soluci on del sistema homog eneo Bx = 0 n1 es la trivial, y en virtud del teorema

2.22, B es invertible. Adem as


A = AIn = A(BB 1 ) = (AB )B 1 = In B 1 = B 1 Por lo tanto BA = In (denici on de inversa) y como consecuencia A1 = (B 1 )1 = B .

Observaci on 3.1. El teorema 2.23 nos permite garantizar que A1 = B s olo con probar que AB = In o BA = In . Ejercicio 3.5. Sean A, B Mnn (R). Pruebe que si AB es invertible, entonces A y B tambi en son invertibles.

3.4. Metodos de solucion de un sistema. de ecuaciones lineales.


En esta secci on trataremos los determinantes y algunas de sus propiedades, en primer lugar deniremos los determinantes de orden 2, continuando luego con los determinantes de orden 3, para nalmente denir los determinantes de orden n. Denici on 3.2. Sea A = a11 a12 M22 (R). Deniremos el determinante de A, como

a21 a22 el n umero real det(A) = |A|, dado por det(A) = |A| =

a11 a12 a21 a22

= a11 a22 a12 a21

este tipo de determinante se suele llamar determinante de orden 2. Ejemplo 3.11. Hallar det(A) para A = 6 5 7 6

101

III. Sistemas de Ecuaciones Lineales


6 5 7 6

Soluci on. det(A) =

= (6)6 5(7) = 36 + 35 = 1

Ejercicio 3.6. Pruebe que A =

a11 a12 a21 a22

M22 (R) es invertible si y s olo si det(A) = 0. 1 det(A) a22 a12 a11

Adem as, si A es invertible, entonces A1 = Denici on 3.2. Dada la matriz

a21

Deniremos el determinante de A, denotado por det(A) o |A|, como a11 a12 a13 det(A) = |A| = a21 a22 a23 a31 a32 a33 = a11 a22 a23 a32 a33 a12 a21 a23 a31 a33 + a13 a21 a22 a31 a32

A = a21 a22 a23 M33 (R) a31 a32 a33

a11 a12 a13

este tipo de determinante es llamado determinante de orden 3. Observaci on 3.1N otese que estamos deniendo el determinante de orden 3 en funci on de determinantes de orden 2. Ejemplo 3.12. Hallar det(A) para A = 6 7 2 3 1 1 0 2 3 1 1 0 5 6

Soluci on .

det(A) = |A| =

6 7

5 6

= 2

1 5 0 6

(3)

6 5 7 6

+ (1)

6 1 7 0

= 2(6 0) + 3(36 + 35) (0 + 7) = 2

102

III. Sistemas de Ecuaciones Lineales


Observaci on 3.2. Una forma muy sencilla recordar la f ormula de determinantes de orden 3 es la siguiente a11 a21 a31 a12 a22 a32 a13 a23 a33 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a13 a22 a31 a23 a32 a11 a33 a12 a21

a11 a12 a13 a21 a22 a23

no es parte del determinante, es s olo para ayudar a recordar la f ormula

generados por las echas azules () se colocan con signo negativo.

Los productos generados por las echas rojas () se colocan con signo positivo, los que son Puede vericar que la igualdad anterior es cierta. Tambi en se puede hacer el c alculo si en lugar

de colocar las dos primeras las al nal, se colocan las dos u ltimas las en la parte superior, las dos primeras columnas a la derecha o las dos u ltimas columnas a la izquierda. Este m etodo se conoce como la m etodo de Sarrus para el c alculo de determinantes de orden 3 y s olo es aplicable a determinantes de orden 3. Ejemplo 3.12. Calculemos el determinante del ejemplo 1.23 usando este m etodo. Soluci on . 2 3 1 1 0

6 7 6 6 7

5 6

= 2 1 6 + (6)0(1) + (7)(3)5 (1)1(7) 5 0 2 6(3)(6)

2 3 1 1

2 3 1 1 0

5 6

= 12 + 0 + 105 7 0 108 = 2

Que es lo mismo que el resultado obtenido antes.

103

III. Sistemas de Ecuaciones Lineales


Antes de denir determinantes de orden n, daremos dos deniciones previas.
A Denici on 3.3. Sea A = Mnn (R). Para cada i, j {1, . . . , n} denamos la matriz Mij

M(n1)(n1) (R) que se obtiene de A al eliminar su i- esima la y su j - esima columna, dicha matriz es llamada ij - esimo menor de A. Observaci on 3.4. Si en lugar de eliminar una la y una columna de A, eliminamos dos las y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A estas matrices se denotan por Mij,kl , lo que signica que se han eliminado las las i e j

(con i = j ) y las columnas k y l (con k = l) de A. De manera an aloga se pueden denir menores de A Mnn (R) hasta de orden n 1.
A A A A Observaci on 3.5. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l {1, . . . ,

n} con i = j y k = l.

Ejemplo 3.14. Consideremos la matriz A=

9 2 1 0 8 5 1 6 4 1

A A A Hallar M23 ; M42 y M22 .

7 3 6 0 3

Soluci on . A M23 = 1 6 6 ; 4 1 3 9 2 4 A M42 = 9 1 0 5 1 7 3 6 4 A y M22 = 9 1 1 4 3 6 0 3 4

Denici on 3.4. Sea A Mnn (R). Para cada i, j {1, . . . , n} deniremos el ij - esimo coA factor de A como el n umero real Cij dado por A A Cij = (1)i+j det Mij

Ejemplo 3.13 Para la matriz del ejemplo 2.25 se tiene que

104

III. Sistemas de Ecuaciones Lineales

A C23

= (1)

2+3

det

A M23

9 2 4 1

4 = (162 + 4 + 48 + 96 54 6) = 74 3 4 7 = 270 + 0 7 + 20 + 189 0 = 68

1 6 6

A C42

= (1)

4+2

det

A M42

9 1 0 5 1

3 6 4 = 81 + 0 24 + 48 0 + 3 = 54 3 3 6 0

A C22

= (1)

2+2

det

A M22

9 1 1 4

Pasemos ahora a denir los determinantes de orden n. En primer lugar notemos que la f ormula dada en la denici on 2.18 puede ser escrita como
A A A det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta f ormula para una matriz A de orden n. Denici on 3.5. Sea A Mnn (R). Deniremos el determinante de A, determinante de orden n, como el n umero real det(A) = |A| dado por a21 a22 a2n det(A) = |A| = . . .. . = . . . . an1 an2 ann Ejemplo 3.14. Hallar el determinante de la matriz del ejemplo 2.25 Soluci on . 9 2 1 0 8 5 1 6 4 1 4 7 3 a11 a12 a1n
n A a1j C1 j j =1 n

=
j =1

A a1j (1)1+j det M1 j

det(A) = |A| =

3 6 0

A A A = (9)(1)1+1 det M11 + 2(1)1+2 det M12 + (1)(1)1+3 det M13 A +4(1)1+4 det M14

105

III. Sistemas de Ecuaciones Lineales


8 5 1 7 3 0 5 1 4 7 3 0 8 4 1 7 3 0 8 5 1 6 4 1

det(A) = 9 6

3 6 2 0

3 6 0

1 6 6 4

3 0

= 9(72 + 0 + 30 21 0 + 90) 2(0 + 0 120 + 84 0 + 15) = 1539 + 42 343 + 884 = 956

(0 + 7 + 192 + 168 0 24) 4(0 5 96 120 0 0)

Ejemplo 3.15. Calcular el determinante de la matriz 2 0 0 0 12 1 0 A= 3 9 5 8 0 3 6 7 0 7 1

0 0 0

Soluci on. Notemos primero que A es triangular inferior. 2 12 det(A) = |A| = 3 9 0 1 0 0 0 0 0 0 0 0 0

0 0 6

5 8

0 3 6 7

7 1

A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15 A A A = 2(1)1+1 det M11 + 0(1)1+2 det M12 + 0(1)1+3 det M13 A A +0(1)1+4 det M14 + 0(1)1+5 det M15

0 6

1 = 2 8

0 0

0 0 0

0 3 6 7

7 1

0 6

106

III. Sistemas de Ecuaciones Lineales


3 7 0 0 0 + 0(1) 0 3 0 0 + 0(1)
1+4 1+2

det(A) = 2 1(1)1+1

0 6

0 0

7 1

0 6 8 7

8 1

0 6 8 0 3 0

+0(1) 3 7 0 0 0

1+3

6 7 6

7 1 6 7 0

= 21

7 1

0 6 1 0 0 6 + 0(1)1+2 7 0 7 6 + 0(1)1+3 7 7 1 0

= 2 1 (3)(1)1+1 = 2 1(3) 1 0

= 2 1(3)(1)(6) = 36 El determinante de A es el producto de las componentes de la diagonal principal. Este resultado se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

0 6

= 2 1(3)((1)(6) 0 0)

La demostraci on del teorema que enunciaremos a continuaci on escapa del objetivo del curso, sin embargo, de el se derivan el resto de las propiedades que ser an enunciadas m as adelante.el Teorema 3.9. Si A = (aij )nn Mnn (R), entonces 1. det(A) =
n A aij Cij = j =1 j =1 n A aij (1)i+j det Mij para cada i {1, . . . , n} (Desarrollo del

determinante de A mediante la la i- esima).


n n A aij Cij = i=1 i=1 A aij (1)i+j det Mij para cada j {1, . . . , n} (Desarrollo del

2. det(A) =

determinante de A mediante la columna j - esima). Demostraci on. Investigarlo .

107

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.16. Calcular el determinante de la matriz A del ejemplo 2.23 al desarrollar el de terminante mediante la tercera la y mediante la segunda columna. Soluci on. En primer lugar hallemos el determinante de A desarroll andolo mediante la tercera la. 2 3 1 1 0

det(A) = |A| =

6 7

5 6 + 0(1)3+2 2 1 + 6(1)3+3 2 3

= 7(1)3+1

3 1 1

= 7(15 + 1) + 0 + 6(2 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna. 2 3 1 1 0

det(A) = |A| =

6 7

5 6

= 3(1)1+2

6 5 7 6

+ 1(1)2+2

= 3(36 + 35) + (12 7) + 0 = 2

2 1

+ 0(1)3+2

2 1

Teorema 3.10. Si A Mn (R), entonces Demostraci on. Se deja como ejercicio.

det= det(A).

Sugerencia: proceder por inducci on sobre n y usar el teorema 2.24

Teorema 3.11. Si A = (aij )nn Mnn (R) una matriz triangular (superior o inferior), entonces det(A) = a11 a22 ann . Demostraci on. Procedamos por inducci on sobre n. Supongamos, sin perder generalidad que A es una matriz triangular superior. Veriquemos que la tesis se cumple para n = 2. Sea A= a11 a12 0 a22

108

III. Sistemas de Ecuaciones Lineales


Entonces det(A) = a11 a22 a12 0 = a11 a22 matriz triangular superior A = (aij )(n1)(n1) M(n1)(n1) (R) se cumple que det(A) = a11 a22 a(n1)(n1) (Hip otesis Inductiva). Probemos ahora que se cumple para n. Sea a11 a12 A= 0 . . 0 0 Supongamos ahora que la tesis se cumple para n 1, esto es, supongamos que para cualquier

a1n

a22 .. .. . .

Entonces, al desarrollar el determinante de A mediante la la n, obtenemos

a2n . . ann

A A A n+n A A det(A) = 0 Cn det(Mnn ) = ann det Mnn 1 + + 0 Cn(n1) + ann Cnn = ann (1)

Pero a11 a12 a1(n1) a2(n1) . a(n1)(n1)

A Mnn =

A es decir, Mnn es una matriz triangular superior de orden (n 1), por lo tanto, usando la Hip otesis A Inductiva, se tiene que det Mnn = a11 a22 a(n1)(n1) . Luego

0 . . 0

a22 .. .. . . 0

det(A) = ann a11 a22 a(n1)(n1) = a11 a22 a(n1)(n1) ann Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuaci on, nos presentan las propiedades b asicas del determinante, estas propiedades nos permitir an hallar el determinante de una matriz sin hacer demasiados c alculos. Los enunciados de estas propiedades se dar an s olo para las, sin embargo, en virtud del teorema 2.25, se pueden enunciar propiedades an alogas para columnas.
/ Teorema 3.12. Sea A Mnn (R). Si existe s {1, . . . , n} tal que A(s) = 0 1n , entonces

det(A) = 0, es decir, si A tiene una la nula, su determinante es cero.

109

III. Sistemas de Ecuaciones Lineales


/ Demostraci on. Sea A = (aij )nn . Como A(s) = 0 1n , entonces asj = 0 para cada j {1, . . . , n}.

As que, al desarrollar el determinante de A por medio de la la s, se tiene que


n n A asj Csj j =1

det(A) =

=
j =1

A 0 Csj =0

Teorema 3.14. Sean A, B Mnn (R) y R. Si existe s {1, . . . , n} tal que B(s) = A(s) y B(i) = A(i) para i = s, entonces det(B ) = det(A), esto es, si multiplicamos una la de A multiplicado por . Demostraci on. Sean A = (aij )nn y B = (bij )nn . Como B(s) = A(s) y B(i) = A(i) para i = s, entonces bsj = asj para cada j {1, . . . , n} y adem as, la matriz que se obtiene al eliminar
A B la la s de B coincide con la matriz que se obtiene al eliminar la la s de A. Luego Msj = Msj

por un escalar , entonces el determinante de la matriz resultante es igual al determinante de A

para cada j {1, . . . , n} Por lo tanto


B B A Csj = (1)s+j det(Msj ) = (1)s+j det(Msj )= A Csj para cada j {1, . . . , n}.

Ejemplo 3.17. Sea

Entonces 2 det(A) = 2 1 2

A = 12 16 4 2 0 3 2 = 2 1 2 = 4 3 2 1 2 2 3 4 1 0 3

1 2

12 16 4 0 3

4 3 4(4) 4 1 0

= 4[2(4)3 + 3 0 2 + (2)(1)1 2(4)(2) 1 0 2 3(1)3] = 4[24 + 0 + 2 16 0 + 9] = 4(29) = 116

110

III. Sistemas de Ecuaciones Lineales


Teorema 3.15. Sean A, B, C Mnn (R). Si existe s {1, . . . , n} tal que C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces det(C ) = det(A) + det(B ), dicho de otra manera, si tenemos tres matrices A, B, C cuyas las son id enticas excepto la la s, y que la la s de C es igual a la suma de la la s de A con la la s de B , entonces el determinante de C es igual a la suma del determinante de A con el determinante de B . Demostraci on. Sean A = (aij )nn , B = (bij )nn y C = (cij )nn . Sean A, B, C Mnn (R).

Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i = s, entonces csj = asj + bsj para cada
A B C iguales, as que Msj = Msj = Msj para cada j {1, . . . , n}.

j {1, . . . , n} y adem as, las matrices que se obtienen al eliminar la la s de A, B y C son Por lo tanto

C B A Csj = Csj = Csj

para cada j {1, . . . , n} En consecuencia


n n C csj Csj j =1 n n n C asj Csj j =1

det(C ) = =
j =1

=
j =1 n

(asj +

C bsj )Csj

+
j =1

C bsj Csj

A asj Csj + j =1

B bsj Csj = det(A) + det(B )

Ejemplo 3.18 Sea A la matriz del ejemplo 2.30. Entonces 2 det(A) = 2 1 2 4 + (2) 1 + (3) 1 2 0 3 4 = 1 1 2 2 3 1 2

12 16 4 0 3

6 + 6 16 4

6 16 4 + 0 3

6 16 4 0 3

= [4(16)3 + 6 0 2 + 1(1)4 2(16)1 4 0 4 3(1)6] + = [192 + 0 4 + 32 0 + 18] + [96 + 0 + 12 96 0 + 18] = 146 + 30 = 116

[2(16)3 + 6 0 2 + (3)(1)4 2(16)(3) 4 0(2) 3(1)6]

Teorema 3.16. Sean A, B Mnn (R). Si existen s, t {1, . . . , n} tales que s = t, B(s) = A(t) , si intercambiamos dos las distintas de A, el determinante de la matriz resultante es igual al determinante de A multiplicado por 1.

B(t) = A(s) y B(i) = A(i) para i = s y i = t, entonces det(B ) = det(A), en otras palabras,

111

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.19. Sea A la matriz del ejemplo 2.30 sea

2 B=

4 16

3 2

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las la 2 de B es igual a la la 2 de A. Adem as 2 det(B ) = 3 1 2 12

12 -2

4 16

= 2(16)(2) + 4 0 2 + 3(1)12 2(16)3 12 0 2 (2)(1)4 = 64 + 0 36 + 96 0 8 = 116 = det(A)

0 2

Teorema 3.17. Sea A Mnn (R). Si existen s, t {1, . . . , n} tales que s = t y A(s) = A(t) , entonces det(A) = 0, es decir, si A tiene dos las iguales, su determinante es igual a cero. Demostraci on. Sea B Mnn (R) la matriz que se obtiene al intercambiar las las s y t de A. Como A(s) = A(t) , entonces B = A y as det(B ) = det(A). Por otro lado, dado que s = t y seg un el teorema 1.30, det(B ) = det(A). As que det(A) = det(B ) = det(A) y en consecuencia det(A) = 0. Ejemplo 3.20. Sea

Entonces 2 det(A) = 2 4 16 1 2 1 2

2 1 2 A = 4 16 12 2 1 2

12

= 2(16)(2) + 4(1)(2) + 2(1)12 (2)(16)2 12(1)2 (2)(1)4 = 64 + 8 24 64 + 24 8 = 0

112

III. Sistemas de Ecuaciones Lineales

Teorema 3.18. Sean A Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t y la de A, su determinante es igual a cero.

A(s) = A(t) , entonces det(A) = 0, esto es, si una la de A es un m ultiplo escalar de alguna otra

Demostraci on. Sea B Mnn (R) tal que B(i) = A(i) para cada i {1, . . . , n} con i = s y B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B ) = 0. Por otro lado, como A(s) = A(t) = B(t) = B(s) , entonces, usando el teorema 2.28, se tiene que det(A) = det(B ) = 0 = 0.

Ejemplo 3.21. Sea

Entonces la columna A(2) = 4A(1) , adem as 2 det(A) = 3 8 2 1

1 4 16 A= 3 12 2

4 16

= 2(16)(2) + (4)12 2 + 3 8 1 2(16)3 1 12 2 (2)8(4) = 64 96 + 24 + 96 24 64 = 0

12 2

B(s) = A(s) + A(t) y B(i) = A(i) para i = s, entonces det(B ) = det(A), dicho de otra forma, si a una la de A le sumamos un m ultiplo escalar de alguna otra la de A, el determinante de la matriz resultante es igual al determinante de A. Demostraci on. Sea C Mnn (R) tal que C(i) = B(i) = A(i) para i = s y C( s) = A(t) . Por lo tanto, dado que s = t y en virtud del teorema 1.32, det(C ) = 0. Adem as, como B(s) = A(s) + A(t) = A(s) + C(s) y en virtud del teorema 1.29 det(B ) = det(A) + det(C ) = det(A) + 0 = det(A)

Teorema 3.19.Sean A, B Mnn (R) y R. Si existen s, t {1, . . . , n} tales que s = t,

113

III. Sistemas de Ecuaciones Lineales


Ejemplo 3.22. Sea A la matriz del ejemplo 2.30 y sea 2 1 2 B = 2 9 10 2 0 3 As que B(2) = A(2) 7A(1) .Adem as det(B ) = 2 9 10 2 0 2 1 2 3

= 2(9)3 + (2)0 2 + (2)(1)(10) 2(9)(2) (10)0 2 3(1)(2) = 54 + 0 20 36 0 6 = 116 = det(A)

El siguiente ejemplo nos da un m etodo para calcular el determinante de una matriz A haciendo uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el c alculo resulta mucho m as sencillo que al usar la denici on. Como se dijo en la observaci on 2.15, usaremos tanto OEF como operaciones elementales por columnas (OEC) para el c alculo de determinantes, estas operaciones las indicaremos de manera an aloga a las OEF, salvo que en lugar de usar F usaremos C . Ejemplo 3.23. Hallar el determinante de la matriz 6 1 2 13 2 1 0 1 3 1 A= 2 0 3 = 7 0 3 0 4 9 1 3 12 0 2 3 1 3 2 0 10 0 2 0 3 C4 C4 + 3C2 0

Soluci on . 6 1 0 3 7 0 2 2 0 4 13 9

det(A) =

0 1 3 1 1 3 12

6 1 0 3 7 0 2

0 1 3 1 1 3 15

por teorema 2.33

1 3

4 5 3

114

III. Sistemas de Ecuaciones Lineales


6 det(A) = 3(1)3+2 7 0 2 3 10 15 2 desarrollando el determinante mediante la tercera la 3

1 1 3 1 4 5 3

= 3

1 1 3 1 F F + 7 F 3 3 2 0 4 6 4 por teorema 1.33 0 4 5 3 4 8 4 desarrollando el determinante

0 4 8 4

F1 F1 + 6F2

mediante la primera columna 4 5 3 0 13 7 F1 F1 + F3 = 3 0 11 7 F2 F2 + F3 4 5 3 por teorema 1.33 = 3 4(1)3+1 13 7 11 7 desarrollando el determinante mediante la primera columna

= 3(1)(1)2+1 4 6 4

= 12(13(7) (7)(11)) = 12 14 = 168 Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos m etodos cu al de los dos le parece m as sencillo? Teorema 3.19. Sea A = (aij )nn Mnn (R). Entonces para cualesquiera s, t {1, . . . , n} con s = t se tiene que
n A ask Ctk =0 y k =1 k =1 n A aks Ckt =0

para cada i {1, . . . , n} con i = t y B(t) = A(s) . As que, usando el teorema 1.31, det(B ) = 0.

Demostraci on. Sea s, t {1, . . . , n} con s = t. Denamos B = (bij )nn tal que B(i) = A(i) Por otro lado, las matrices que se obtienen al eliminar la la t de B y la la t de A, son iguales,

B A B A por lo tanto Mtk = Mtk para cada k {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el

determinante de B mediante la la t, se tiene que


n

n B btk Ctk

det(B ) =
k =1 n A ask Ctk k =1

=
k =1

A ask Ctk n

En consecuencia

= 0, an alogamente se prueba que


k =1

A aks Ckt = 0.

115

III. Sistemas de Ecuaciones Lineales

Teorema 3.20. Si E Mnn (R) es una matriz elemental, entonces para cada A Mnn (R) se tiene que det(EB ) = det(E ) det(B ). Demostraci on. Como E Mnn (R) es una matriz elemental, existe una OEF f : Fn (R) f (A). Debemos proceder por casos sobre el tipo de OEF. Caso 1. f es una OEF tipo 1. As que existen s {1, . . . , n} y = 0 tales que E(s) = (In )(s) (donde (In )(s) es la la s de In ) y para i = s se tiene que E(i) = (In )(i) . Luego (f (A))(s) = A(s) y para i = s tenemos (f (A))(i) = A(i) . Por lo tanto, seg un el teorema 2.28, det(E ) = det(In ) = 1 = y det(EA) = det(f (A)) = det(A) = det(E ) det(A). Caso 2. f es una OEF tipo 2. Luego existen s, t {1, . . . , n}, con s = t, y R tales que E(s) = (In )(s) + (In )(t) y E(i) = (In )(i) para i = s. As que (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s. Usando el teorema 2.33, tenemos que det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t {1, . . . , n} tales que E(s) = (In ) (t) , E(t) = (In )(s) y E(i) = (In )(i) para i = s e i = t. De donde (f (A))(s) = A(s) + A(t) y (f (A))(i) = A(i) para i = s e i = t. Si s = t, entonces E = In y f (A) = A, as que det(E ) = det(In ) = 1

Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =

116

III. Sistemas de Ecuaciones Lineales


y det(EA) = det(f (A)) = det(A) = 1 det(A) = det(E ) det(A) Si s = t, podemos usar el teorema 1.30 y obtenemos det(E ) = det(In ) = 1 y det(EA) = det(f (A)) = det(A) = (1) det(A) = det(E ) det(A)

Observaci on De la prueba del teorema 1.35, se tiene que si E Mnn (R) es una matriz elemental, entonces det(E ) = 0. Corolario Sean E1 , E2 , . . . , Er Mnn (R) matrices elementales. Entonces, para cada A

Mnn (R), se tiene que det(E1 E2 Er A) = det(E1 ) det(E2 ) det(Er ) det(A). Demostraci on. Ejercicio!

orema 3.21. Si A Mnn (R) es una matriz ERF, entonces det(A) = 0 si y s olo si A = In . Demostraci on. Sea A = (aij )nn . Como A es ERF, entonces A es triangular superior (ver ejercicio 1.5), as que aij = 0 para i > j y det(A) = a11 a22 ann . Supongamos que det(A) = 0. Luego aii = 0 para cada i {1, . . . , n}. Como aij = 0 para i > j ,

entonces para cada i {1, . . . , n}, la primera componente no nula en la i- esima la es aii , y por ser A una matriz ERF, se tiene que aii = 1 para cada i {1, . . . , n}, es decir, aii es un pivote y por lo tanto aij = 0 para i = j (por qu e?). En resumen aij = Es decir, A = In . Rec procamente, si A = In , entonces det(A) = 1 = 0. 1 si i = j 0 si i = j

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz cuadrada.

117

III. Sistemas de Ecuaciones Lineales


Teorema 3.22. Sea A Mnn (R). Entonces A es invertible si y s olo si det(A) = 0. Demostraci on. Sea B Mnn (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que B = E1 E2 Er A. Como det(Ei ) = 0 para cada i {1, . . . , r }, entonces det(A) = 0 si y s olo si la FERF de A es In , lo cual concluye la prueba. det(A) = 0 si y s olo si det(B ) = 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto

Teorema 3.23 Sean A, B Mnn (R). Entonces det(AB ) = det(A) det(B ). Demostraci on. Caso 1. det(A) = 0. As que, en virtud del teorema 1.38, A no es invertible. Luego, usando el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se tiene que det(AB ) = 0. Por lo tanto det(AB ) = 0 = 0 det(B ) = det(A) det(B ) Caso 2. det(A) = 0. Luego A es invertible, en virtud del teorema 1.38. As que, al usar el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er Mnn (R) tales que A = E1 E2 Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 Er ) = det(E1 ) det(E2 ) det(Er ) y det(AB ) = det(E1 E2 Er B ) = det(E1 ) det(E2 ) det(Er ) det(B ) = det(A) det(B )

Regla de Cramer
En esta secci on deniremos la adjunta de una matriz y enunciaremos la regla de Cramer , que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicaci on de los determinantes. Denici on 3.22. Sea A Mnn (R). Se dene la matriz adjunta de A como la matriz adj(A)
A decir, si adj(A) = (bij )nn , entonces bij = Cji para cualesquiera i, j {1, . . . , n}.

Mnn (R) cuya ij - esima componente es el ji- esimo cofactor de A para cada i, j {1, . . . , n}, es

118

Sistemas de Ecuaciones Lineales


A Observaci on Si C = (Cij )nn , es decir, si C es la matriz real cuadrada cuya ij - esima

componente es el ij - esimo cofactor de A para cada i, j {1, . . . , n}, entonces adj(A) = C T . Ejemplo 3.24 Hallar la adjunta de A= 1 2 1 3 0 2 4 1 7

Soluci on. Necesitamos hallar cada uno de los cofactores de A. Veamos

A C11 = (1)1+1

0 2 1 7 1 3 1 7 1 3 0 2

= 2;

A C12 = (1)1+2

1 2 4 7 2 3 4 7 2 3 1 2

= 1;

A C13 = (1)1+3

4 1 2 1 4 1 1

= 1;

A C21 = (1)2+1

= 4;

A C22 = (1)2+2

= 2;

A C23 = (1)2+3

= 2; = 1;

A C31 = (1)3+1

= 2;

A C32 = (1)3+2

= 1; 2 1

A C33 = (1)3+3

2 1

As que

A A A adj(A) = C12 C22 C32 A A A C13 C23 C33

A A A C11 C21 C31

2 1 1 2 1

4 2

Teorema 3.24 Sea A Mnn (R). Entonces A adj(A) = det(A)In = adj(A)A. Demostraci on. Hagamos adj(A) = (bjk )nn . As que para cada j, k {1, . . . , n}, se tiene que
A bjk = Ckj .

Si hacemos A adj(A) = D = (dik )nn , entonces, para cada i, k {1, . . . , n}, tenemos que
n n

dik =
j =1

aij bjk =
j =1

A aij Ckj .

Pero

n A aij Cij = det(A) j =1

119

III. Sistemas de Ecuaciones Lineales


, si i = k , entonces
n A aij Ckj =0 j =1

Por lo tanto dik = det(A) si i = k 0 si i = k 1 si i = k 0 si i = k

= det(A) = det(A)ik

donde In = (ik )nn . En consecuencia A adj(A) = det(A)In . De manera an aloga se prueba que adj(A)A = det(A)In , lo cual concluye la prueba. 1 1 y A1 = adj(A). det(A) det(A)

Teorema 3.25. Si A Mnn (R) es invertible, entonces det(A1 ) = A1 A, y por el teorema 1.39

Demostraci on. Como A es invertible, entonces existe A1 Mnn (R) tal que AA1 = In = det(A) det(A1 ) = det(AA1 ) = det(In ) = 1.

Luego det(A1 ) =

1 . det(A)

Por otro lado, usando el teorema 1.40, se tiene que A De donde A1 = 1 adj(A) det(A) = 1 1 A adj(A) = det(A)In = In . det(A) det(A) 1 adj(A). det(A)

Ejercicio Sea A Mnn (R) una matriz invertible. Pruebe que adj(A) tambi en es invertible y adem as (adj(A))1 = adj(A1 ).

120

III. Sistemas de Ecuaciones Lineales


Consideremos la ecuaci on matricial Ax = b, donde A Mnn (R). Si A es invertible, entonces

la u nica soluci on de dicha ecuaci on est a dada por x = A1 b, as que, una forma de hallar la soluci on de la ecuaci on en cuesti on, es calcular la inversa de A y multiplicarla por b, pero quiz as esto es mucho m as complicado y costoso (en t erminos de c alculos) que hallar la FERF de la matriz [A|b]. En el siguiente teorema presentaremos una herramienta que permite resolver la ecuaci on an-

terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha herramienta se conoce con el nombre de la regla de Cramer . Teorema 3.25(Regla de Cramer). Sea A Mnn (R) una matriz invertible y b Mn1 (R). Si x1 x2 det(Ab j) es la soluci on de la ecuaci on Ax = b, entonces, para cada j {1, . . . , n}, xj = , x= . det(A) xn (j ) donde Ab (la columna j ) por b, esto es, j es la matriz que se obtiene de A al reemplazar A Ab j = A(1) A(j 1) b A(j +1) A(n) b1

Demostraci on. Como A = (aij )nn es invertible, entonces la u nica soluci on del sistema Ax = b es x = A b, pero A
1 1

1 entonces xj = C A bi para cada j {1, . . . , n}. det(A) i=1 ij Por otro lado, para cada j {1, . . . , n}, se tiene que a11 a1(j 1) b1 a1(j +1) . . . . . . . . Ab j = ai1 ai(j 1) bi ai(j +1)

b 1 1 2 = adj(A), as que x = adj(A)b, por lo tanto, si b = . , det(A) det(A) . bn

a1n . . ain

a(i1)1 a(i1)(j 1) bi1 a(i1)(j +1) a(i1)n a(i+1)1 a(i+1)(j 1) bi+1 a(i+1)(j +1) a(i+1)n . . . . . . an1 an(j 1) bn an(j +1) ann
Ab Ab Ab

A Por lo tanto, para cada i {1, . . . , n}, tenemos que Mij j = Mij y as

A A Cij j = (1)i+j det Mij j = (1)i+j det Mij = Cij

121

III. Sistemas de Ecuaciones Lineales


Luego, al desarrollar el determinante de Ab esima columna, obtenemos j por medio de la j -
n

det(Ab j) =
i=1

Cij j bi =
i=1

Ab

n A Cij bi

En consecuencia, para cada j {1, . . . , n} tenemos que xj = det(Ab j) det(A)

Ejemplo 3.25. Vericar que la matriz del sistema +2z x

2y +z +4w = 1 es invertible y usar la regla de Cramer para hallar la soluci on del sistema. Soluci on. La matriz del sistema es 1 0 2 1

x +y +2z +w = 2 4x +2y +2z 3w = 1

w = 3

A=

hallemos su determinante 1 0 2 1 det(A) = 1 1 2 0 2 1 = 4 2 2 3 6 3 1

1 1 1 2 4 2 2 3 0 2 1 4 2 1 0 1 1 = 2 0 2 = 1 4 1 2 0 1 0 0

1 0 = 0 1 0 2

1 4

2 4

0 2 6

2 6 1

2 6 3

= 3 = 0.

Por lo tanto la matriz del sistema es invertible, as que podemos aplicar la regla de Cramer para resolverlo. En este caso la matriz de t erminos independientes es 3 b= 2 1 1

122

III. Sistemas de Ecuaciones Lineales


Luego 3 0 2 1 det Ab 1 = 2 1 2 1 2 1 1 2 2 3 0 6 1 13 = 0 3 0 1 0 0 2 1 1 7 7 6 1 13 0 1 0 7 7

1 4

= 3

= 3 0 0 1

6 0 20 7 7

6 20 3 7

= 42 60 = 18.

1 3 2 1 det Ab 2 = 1 2 2 0 1 1 1 4 1 2 3 0 1

1 = 0 0 0 = 6

3 1

1 4

2 1

2 4

0 11 6 1

11 6 1 1

0 2 1 4

11 6 21 1

6 21 1

= (36 + 21) = 15.

1 0 3 1 det Ab 3 = 1 1 2 0 2 1 = 4 2 1 3 9 3 3

1 0 = 0 1 0 2

1 4

0 2 11

2 1

2 1 4

1 = 2

2 11 1

1 2

1 4

0 9 3 0 3

1 1

2 0

= 9.

1 0 2 3 det Ab 4 = 1 1 2 2 4 2 2 1 0 2 1 1 = 6 9 1 =

1 0 0 1 0 2

2 0 1

3 1 =

1 2

0 1

0 2 6 11

2 6 11

1 = 2

0 1

0 3

2 6 9

= 18 + 9 = 9.

123

Sistemas de Ecuaciones Lineales det Ab det Ab det Ab 18 15 9 1 2 3 = = 6; y = = = 5; z = = = 3; det(A) 3 det(A) 3 det(A) 3

En consecuencia x =

3.5.

det Ab 9 4 w= = = 3, es decir, la soluci on del sistema dado es: det(A) 3 x 6 y 5 = z 3 w 3

Aplicaciones

Ejemplo 3.26 Una f abrica produce tres tipos de productos, mezclando para ello tres materias primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima 2; nalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la f abrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y seis millones de la materia prima 3 cu antas unidades de cada producto puede producir la f abrica usando el total de las materias primas? Soluci on. Para cada i {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede producir la f abrica. Por lo tanto, la cantidad de unidades (en millones) que se usar an es: x1 + x2 + 3x3 3x1 + 3x2 + 3x3 2x1 + 2x3 de la materia 1 de la materia 2

de la materia 3

Como se quiere usar el total de las materias primas, entonces x1 +x2 +3x3 = 6 3x +3x2 +3x3 = 12 1 2x +2x = 6
1 3

124

III. Sistemas de Ecuaciones Lineales


En este caso, la matriz del sistema, la matriz de inc ognitas y la matriz de t erminos independientes son, respectivamente:

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la matriz del sistema. 1 1 3 det(A) = 3 3 3 2 0 2 = 1 1 2 0 3 = 2 0 6 2

A = 3 3 3 ; 2 0 2

1 1 3

x = x2 x3

x1

y b = 12 6

0 0 6

= 12 = 0.

Como la matriz del sistema es invertible, podemos usar la regla de Cramer. 6 1 3 det Ab 1 = 12 3 3 6 0 2 1 det Ab 2 = 2 6 3 = 6 2 1 1 det Ab 3 = 2 0 Por lo tanto x1 = 6 = 6 = 6 1 6 0 1 3 = 2 3 = 6 6 6

6 0 6

= (12 + 36) = 24.

3 12 3

0 6 6 0 6 4 1 1 2 0

6 6 6 4

= 24 36 = 12.

6 = 6

3 3 12

0 0 6

0 6 2

= 12.

24 12 12 = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de 12 12 12 la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un mill on de unidades de cada uno de los productos 2 y 3.

Los sistemas de ecuaciones, en conjuncin con las matrices son ampliamente usados en el planteamiento y resolucin de problemas que aparecen en la tecnologa; por ejemplo en el anlisis de circuitos elctricos, problemas de qumica como dce mezclado y de determinacin de los coeficientes en las ecuaciones qumicas. Aparte de los problemas mencionados, el uso de sistemas de ecuaciones es comn en la ingeniera civil en el anlisis de fuerzas que intervienen en estructuras. Tambin encontramos aplicaciones en el anlisis de sistemas econmicos.

125

UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En un curso de Algebra Lineal elemental, no es posible dar una visin amplia acerca de las extensas aplicaciones que tendran los sistemas lineales y las matrices o sus derivados que son los determinantes; ms bien, en un cursos de este estilo, es convenienete adaptarse a la enseanza y manejo de los principios bsicos. Desde luego, lo anterior no significa que los ejemplos simples que se den en este curso no tengan posteriormente que ver con la formulacin de sistemas en problemas de Investigacin de Operaciones, o en la teora de la Regresin Lineal y Multilineal, materias fundamentales de los ingenieros industriales o en sistemas computacionales.

Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasicar valores num ericos atendiendo a dos criterios o variables. Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la tabla siguiente: A Color N Color F 2 unid. 00 004 4 003 5 unid. 008 005 10 unid. 012 008

Sabiendo que en un a no se venden el siguiente n umero de paquetes: 2 unid. 5 unid. 10 unid. Color N 700000 600000 500000 Color F 50000 40000 500000

Resumir la informaci on anterior en 2 matrices A y B, de tama no respectivo 2x3 y 3x2 que recojan las ventas en un a no (A) y los precios (B). Nos piden que organicemos la informaci on anterior en dos matrices de tama no concreto. Si nos jamos en las tablas, es sencillo obtener las matrices: N 2 ud 5 ud 10 ud 0 04 700000 600000 500000 N B = 0 08 50000 40000 500000 F 0 12 F 0 03 2 ud 0 05 5 ud 0 08 10 ud

A=

Estas matrices se denominan matrices de informaci on, y simplemente recogen los datos num ericos del problema en cuesti on. Otras matrices son las llamadas matrices de relaci on, que indican si ciertos elementos est an o no relacionados entre s . En general, la existencia de relaci on se expresa con un 1 en la matriz y la ausencia de dicha relaci on de expresa con un 0. Estas matrices se utilizan cuando queremos trasladar la informaci on dada por un grafo y expresarla num ericamente.

126

UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En Matem aticas, un grafo es una colecci on cualquiera de puntos conectados por lineas. Existen muchos tipos de grafos. Entre ellos, podemos destacar: * Grafo simple : Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos. * Grafo dirigido : Es el grafo que indica un sentido de recorrido de cada linea, mediante una echa. Estos tipos de grafo pueden verse en la gura:

Fig. Grafo, Grafo simple y Grafo dirigido.

Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas, nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente, de tal forma que: * un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de la columna j mediante una linea que los una directamente. * un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una linea que los una directamente. La matriz de adyacencia del grafo dirigido de la gura anterior ser a: A A 0 B 0 C 1 D 0 B 1 0 0 0 C 0 1 0 0 D 1 0 0 0

Ejercicio 1) Escribe las correspondientes matrices de adyacencia de los grafos:

2) Dibuja los grafos dirigidos que correspondan a las matrices de adyacencia: A A 0 B 1 C 0 B 1 0 0 C 0 1 0 A A 0 B 0 C 1 D 0 B 1 0 0 1 C 1 0 0 1 D 1 1 0 0

127

UNIDAD IV

Espacios Vectoriales
Espacios Vectoriales, subespacios, combinaciones lineales y bases.

4.1.Definici on de espacio vectorial


DdenEspacios Vectoriales Denici on 4.1. Un espacio vectorial real es una terna (V, +, ) formada por un
V V conjunto no vac o V, cuyos elementos llamaremos vectores, y dos operaciones binarias + :

V, llamada adici on vectorial, y : R V V, llamada multiplicaci on por escalar, satisfaciendo las siguientes condiciones

A0. u + v V para cualesquiera u, v V (cerradura de la adici on vectorial) A1. u + v = v + u para cualesquiera u, v V (conmutatividad de la adici on vectorial) A2. (u + v ) + w = u + (v + w ) para cualesquiera u, v, w V (asociatividad de la adici on on vectorial) A3. neutro Existe 0 para la adici vectorial) / / V V tal que v + 0V = v para cada v V (existencia de un elemento

/ A4. Para cada v V existe v V tal que v + v = 0 V (existencia de un elemento

opuesto para la adici on vectorial)

M0. v V para cualesquiera R y v V (cerradura de la multiplicaci on por escalar) M1. ( + ) v = v + v para cualesquiera , R y v V (distributividad

de la multiplicaci on por escalar respecto a la adici on escalar)

M2. (u + v ) = u + v para cualesquiera R y u, v V (distributividad de la multiplicaci on por escalar respecto a la adici on vectorial)

128

IV.Espacios Vectoriales
M3. ( ) v = ( v ) = ( v ) para cualesquiera , R y v V

(asociatividad de la multiplicaci on escalar y la multiplicaci on por escalar)

M4. 1 v = v para cada v V (existencia de un elemento neutro para la multiplicaci on por escalar)

Observaci on 4.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1. y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operaci on + tiene mayor jerarqu a que la operaci on , esto es, ( u) + v puede ser escrito como u + v pero en la expresi on (u + v ) no pueden suprimirse los par entesis. Observaci on 4.2. La denici on 2.1 se puede extender considerando un campo cualquiera K (ver ap endices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este caso V es llamado espacio vectorial complejo. En lo que resta del curso, s olo consideraremos espacios vectoriales reales, salvo que se diga lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios vectoriales reales, a menos que haya error a confusi on. Observaci on 4.3. En adelante, siempre que no haya error a confusi on, en lugar de escribir v escribiremos v.

Observaci on 4.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se ), sobrentendiendo las operaciones + y tienda a confusi on, en lugar de la terna (V, +, Ejemplo 4.1. 1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi R para cada i {1, . . . , n}} junto con las operaciones + y dadas como sigue

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) (x1 , x2 , . . . , xn ) = (x1 , x 2 , . . . , x n ) donde R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) Rn , es un espacio vectorial (verif quelo!)

129

IV.Espacios Vectoriales
2. El conjunto Mmn (R) junto con las operaciones + y , dadas en las deniciones 1.4 y 1.5 respectivamente, del cap tulo 1, es un espacio vectorial

3. Consideremos una matriz A Mmn (R). Los conjuntos


/ S = {x Mn1 (R) : Ax = 0 m1 }

junto con las operaciones + y denidas en el cap tulo 1, son espacios vectoriales (pru ebelo!) S es llamado espacio soluci on del sistema homog eneo Ax = 0 / y en detalle en la secci on 2.6 del presente cap tulo. 4. Sea n N. Denamos Pn [x] = {a0 + a1 x + + an xn : a0 , a1 , . . . , an R} Es decir, Pn [x] est a formado por todos los polinomios con coecientes reales en la variable x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las operaciones usuales de adici on de polinomios y multiplicaci on de un n umero real por un polinomio. Entonces Pn [x] es un espacio vectorial (pru ebelo!) En general, si denimos el conjunto P [x] = {p(x) : p(x) es un polinomio en la variable x} entonces P [x] es un espacio vectorial junto con las operaciones usuales antes mencionadas (pru ebelo!) Es de hacer notar que el polinomio nulo O(x) = 0 no tiene grado! (por qu e?), adem as, o espacio nulo de

R = {y Mm1 (R) : Ax = y para alg un x Mn1 (R)}

m1

A, y R es llamado el espacio imagen de A. Estos espacios ser an tratados formalmente

para cada n N se tiene que Pn [x] = (por qu e?) y Pn [x] Pn+1 [x] P [x] (por qu e?)

5. Sean a, b R con a < b. Denamos el conjunto F [ a , b ] de todas las funciones reales funciones y multiplicaci on de una funci on por un n umero real, entonces F [ a , b ] es un espacio vectorial (pru ebelo!)

denidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adici on de

130

Espacios Vectoriales 6. El conjunto V = {(x, y ) R2 : y = x + 1} junto con las operaciones denidas en la parte 1 de este ejemplo, no es un espacio vectorial ya que (2, 3), (0, 1) V (por qu e?) pero (2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) /V pues 4 = 3 = 2 + 1, es decir, la adici on no es cerrada en V o V no es cerrado bajo la adici on. Sin embargo, si denimos sobre V las operaciones (x, y ) + (z, w ) = (x + z, y + w 1) (x, y ) = (x, (y 1) + 1) entonces V es un espacio vectorial, en efecto, sean (x, y ), (z, w ), (a, b) V y , R cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1. De donde y + w 1 = x + 1 + z + 1 1 = (x + z ) + 1 y por lo tanto (x, y ) + (z, w ) = (x + z, y + w 1) V cumpli endose A0. (x, y ) + (z, w ) = (x + z, y + w 1) = (z + x, w + y 1) = (z, w ) + (x, y ) por lo que A1. es satisfecha. ((x, y ) + (z, w )) + (a, b) = (x + z, y + w 1) + (a, b) = ((x + z ) + a, (y + w 1) + b 1) = (x + (z + a), y + (w + b 1) 1) = (x, y ) + (z + a, w + b 1) = (x, y ) + ((z, w ) + (a, b)) as que A2. se cumple.

131

IV. Espacios Vectoriales


/ / Denamos 0 e?) y adem as V = (0, 1). Entonces 0V V (por qu

(x, y ) + (0, 1) = (x + 0, y + 1 1) = (x, y ) luego se satisface A3. Si (x, y ) V, entonces (x, y + 2) V ya que y + 2 = (x + 1) + 2 (por qu e?)

= x 1 + 2 = x + 1 Adem as
/ (x, y ) + (x, y + 2) = (x + (x), y + (y + 2) 1) = (0, 1) = 0 V

en consecuencia se cumple A4. Verique que se cumple el resto de la propiedades en la denici on 2.1. Qu e podr a concluir a partir de este ejemplo?
/ }, junto con las operaciones 7. Dado un espacio vectorial V. Es f acil probar que el conjunto {0 V

+ y denidas sobre V, es un espacio vectorial.

/ Teorema 4.1. Los elementos 0 V y v dados en A3. y A4. respectivamente, son u nicoselementos de V que satisfacen dichas propiedades.

Demostraci on. Supongamos que existe x V tal que v + x = v para cada v V. Luego, para / V, se tiene que v = 0V / +x = 0 / (4.1) 0 V V Por lo tanto
/ x = x+0 V

(por A3.)

/ +x = 0 (por A1.) V / = 0 V

(por (2.1))

/ . Lo que prueba la unicidad de 0 V

Supongamos ahora que para v V existen v , v V tales que


/ v + v = 0 V / v+v = 0 V

(4.2) (4.3)

132

IV.Espacios Vectoriales
Luego
/ v = v+0 V

(por A3.)

= v + (v + v ) (por 4.2) = (v + v ) + v = (v + v ) + v
/ +v = 0 V / = v + 0 V

(por A2.) (por A1.)

(por 4.3) (por A1.)

= v

(por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

/ Observaci on 4.5. Al vector 0 V se le denomina vector nulo y el vector v es llamado opuesto

(aditivo) de v y es denotado por v . sigue.

Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como

/ / A3. Existe un u nico 0 V V tal que v + 0V = v para cada v V (existencia y unicidad

del elemento neutro para la adici on vectorial)

/ A4. Para cada v V existe un u nico v V tal que v + (v ) = v v = 0 V (existencia

y unicidad del elemento opuesto para la adici on vectorial)

Denici on 4.2. Sean V un espacio vectorial y u, v V cualesquiera. Deniremos el vector u v , vector diferencia de u con v , como u v = u + (v ) cualesquiera. Pruebe que Ejercicio 4.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v V y 1 , 2, . . . , n, R

1. ( 1 + 2 + + n )v = 1 v + 2 v + + n v . 2. (v1 + v2 + + vn ) = v1 + v2 + + vn . Ejercicio 4.2 (Ley de Cancelaci on). Sea V un espacio vectorial y u, v, w V. Si u + v = u + w , entonces v = w .

133

IV. Espacios Vectoriales


Teorema 4.2. Sea V un espacio vectorial. Entonces
/ / 1. 0 V = 0V para cada R. / 2. 0v = 0 V para cada v V. / . 3. Si v = / 0 ov=0 V , entonces = 0 V 4. ()v = (v ) = (v ) para cualesquiera R y v V. En consecuencia (1)v = v .

Demostraci on. 1. Sea R cualquiera. Entonces


/ + 0 / / / 0 V V = (0V + 0V ) (por M2.) / = 0 V

(por A3.) (por A3.)

/ +0 / = 0 V V

/ / Y por la ley de cancelaci on (ejercicio 2.2) se tiene que 0 V = 0V .

2. Ejercicio!
/ . 3. Supongamos que v = 0 V / . Si = 0, no hay nada que probar, supongamos entonces que = 0 y probemos que v = 0 V

Por ser = 0, existe 1 R tal que 1 = 1 = 1 . Por lo tanto v = 1v (por M4.)

= ( 1 )v = 1 (v ) (por M3.)
/ = 1 0 (por hip otesis) V / (por la parte 1) V = 0 Con lo que culmina la prueba de la parte 3.

4. Sean R y v V cualesquiera. Entonces v + ()v = ( + ())v = 0v


/ = 0 V

(por M1.)

(por la parte 2)

134

IV. Espacios Vectoriales


Luego, por A4. (unicidad del opuesto aditivo), se tiene que ()v = (v ). De manera an aloga se prueba que (v ) = (v ). Finalmente, haciendo = 1 y por M4., obtenemos (1)v = (1v ) = v.

Observaci on 4.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir v en lugar de ( v ) sin error a confusi on.

4.2.

Definicion de subespaciovectorial y sus propiedades.

Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, considerando sobre ellos las operaciones + y de V. En esta secci on nos ocuparemos de dichos espacios vectoriales los cuales son llamados subespacios vectoriales de V. Denici on 4.3. Sea W un subconjunto no vac o de un espacio vectorial V. Diremos que W es un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y de V es un espacio vectorial. Ejemplo 4.2.1. Dado un espacio vectorial V, entonces W = {0 / } es un subespacio de V, el cual es llamado V son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado subespacio propio. 2. Dada una matriz real A Mmn (R). Los espacios S y R, dados en la parte 3 del ejemplo

espacio vectorial nulo, as como tambi en V (ver ejemplo 4.1 parte 7). Estos subespacios

4.1, son subespacios de Mn1 (R) y Mm1 (R) respectivamente.

3. De la parte 4 del ejemplo 4.1 podemos garantizar que para cada n N se tiene que Pn [x] es un subespacio de Pn+1 [x] y de P [x]. 4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo cerrado [ a , b ], es un subespacio de F [ a , b ]. En efecto, es claro que C [ a , b ] F [ a , b ] (por qu e?) y adem as, la funci on nula est a en C [ a , b ] (por qu e?), por lo tanto C [ a , b ] es un subconjunto no vac o de F [ a , b ].

135

IV. Espacios Vectoriales


Si f, g C [ a , b ] y R, entonces, por un resultado de C alculo, f + g, f C [ a , b ], cumpli endose A0. y M0. Finalmente, no es dif cil probar que el resto de las propiedades en la denici on 2.1 son satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. Antes de dar alg un otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad, para probar que un subconjunto no vac o de un espacio vectorial es un subespacio de este u ltimo, s olo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente teorema. Teorema 4.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial de V si y s olo si 1. W = . 2. u + v W para cualesquiera u, v W, es decir, W es cerrado bajo la adici on vectorial (denida sobre V). 3. v W para cualesquiera R y v V, es decir, W es cerrado bajo la multiplicaci on por escalar (denida sobre V).

Demostraci on. Sean V un espacio vectorial y W V.

ademas W es un espacio vectorial con las operaciones + y denidas sobre V, por lo tanto u + v, v W para cualesquiera R y u, v W. Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.

Supongamos que W es un subespacio de V. Entonces por denici on 4.3 tenemos que W = y

Debemos probar que W junto con las operaciones + y denidas sobre V es un espacio vectorial.

Segun las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W V

y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w V,
0 0

/ , as / / que 0 2 del teorema 4.2 se tiene que 0v0 = 0 V V W y en consecuencia existe 0V W tal que

entonces dichas condiciones s cumplen c ua a lesquiera , / e v W pa r ad v W. u, v, w W y W W y qu R . As que s, olo resta probar que 0 en virtud de la condici Como W = existe v W. Entonces, on 3, 0v W, pero por la parte

/ para cada v W se tiene que v + 0 on A3. se satisface si sustituimos V V = v , es decir, la condici / / por W. Esto u ltimo signica que 0 W = 0V , es decir, el vector nulo en todos los subespacios de V

es el mismo.

136

IV. Espacios Vectoriales


Finalmente, sea v W cualquiera. Entonces, por la condici on 3, tenemos que (1)v W y dado
/

que (1)v = v (por la parte 4 del teorema 4.2), entonces v W, en consecuencia para cada v W existe v W tal que v + (v) = 0
V,

es decir, la condici on A4. se satisface si

sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto aditivo de cualquier vector en un subespacio, es tambi en un vector del subespacio.

Observaci on 4.7. Seg un la demostraci on del teorema 4.3, si W es un subespacio vectorial de / V W. unAs espacio vectorial V , entonces 0 que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
/ u ltimo, lo primero que debemos probar es que 0 V W, esto a su vez garantiza que W = . Si / 0 / W, entonces W no es un subespacio de V. V

El teorema 4.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio de este s olo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la misma pruebo con s olo vericar dos condiciones. Corolario 4.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y s olo si 1. W = . 2. u + v W para cualesquiera R y u, v W. Demostraci on. Supongamos primero que W es un subespacio vectorial de V y probemos que las condiciones 1 y 2 se cumplen. En primer lugar W = por denicion 2.3. Sean R y u, v W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que v W, luego, por la parte 2 del mismo teorema, se tiene que u + v W. vectorial de V. Como W del teorema 2.3. de la hip otesis). Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio = , s olo debemos probar que se satisfacen las condiciones 2 y 3

Sean u, v W cualesquiera. Entonces u + v = u + 1v W (tomando = 1 en la condici on 2


/ Por otro lado, sean R y v W cualesquiera. Entonces 0 V = v + (v ) = v + (1)v W / = v vW V +0 (tomando

(tomando = 1 y u = v en la condici on 2 de la hip otesis) as que


/ u=0 on 2 de la hip otesis). Lo cual concluye la prueba. V en la condici

137

IV. Espacios Vectoriales


Observaci on 4.8. Seg un la observaci on 2.7, la condici on 1 en el teorema 2.3 y la condici on 1 en el corolario 2.4, pueden ser sustituidas por la siguiente condici on. / V W. 1. 0 Observaci on 4.9. Recordemos que para probar que los conjuntos S y R, denidos en la parte 3

del ejemplo 4.1, son subespacios de Mn1 (R) y Mm1 (R), respectivamente (ver parte 2 del ejemplo

4.2), fue necesario probar que eran espacios vectoriales (se dej o como ejercicio), sin embargo, al
usar el teorema 4.3 o el corolario 4.4, vemos que no es necesario. Ejercicio 4.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y V es un subespacio de U, entonces W es un subespacio de U. Ejemplo 4.3. Pruebe que W = {a + bx + cx2 + dx3 P3 [x] : 2a b +3c d = 0; a + b 4c 2d = 0} es un subespacio de P3 [x]. Soluci on. Es claro que W P3 [x]. a W ya que

Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece

2 0 0 +3 0

0 +0 4 0 2 0 = 0

0 = 0

Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q (x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en W y R cualquiera. Entonces 2a1 b1 +3c1 d1 = 0 y 2a2 b2 +3c2 d2 = 0

a1 +b1 4c1 2d1 = 0

a2 +b2 4c2 2d2 = 0

Seg un el corolario 2.4 y la observaci on 2.8, s olo falta probar que p(x) + q (x) W. Pero p(x) + q (x) = (a1 + b1 x + c1 x2 + d1 x3 ) + (a2 + b2 x + c2 x2 + d2 x3 ) = (a1 + a2 ) + (b1 + b2 )x + (c1 + c2 )x2 + (d1 + d2 )x3 Adem as 2(a1 + a2 ) (b1 + b2 ) + 3(c1 + c2 ) (d1 + d2 ) = 2a1 + 2a2 b1 b2 + 3c1 + 3c2 d1 d2 = (2a1 b1 + 3c1 d1 ) + (2a2 b2 + 3c2 d2 ) = 0 (por qu e?)

138

IV. Espacios Vectoriales


y (a1 + a2 ) + (b1 + b2 ) 4(c1 + c2 ) 2(d1 + d2 ) = a1 + a2 + b1 + b2 4c1 4c2 2d1 2d2 = (a1 + b1 4c1 2d1) + (a2 + b2 4c2 2d2 ) = 0 (por qu e?) Por lo tanto p(x) + q (x) W y en consecuencia, W es un subespacio de P3 [x]. Teorema 4.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 W2 es un subespacio de V. Demostraci on. Dado que W1 , W2 V (ya que W1 y W2 son subespacios de V), entonces
/ tanto 0 V W1 W2 .

/ / W1 W2 V, adem as, debido a la observaci on 4.7, se tiene que 0 V W1 y 0V W2 y por lo

son subespacios de V, tenemos que u + v W1 y u + v W2 y por lo tanto u + v W1 W2 . de V. Luego, en virtud del corolario 4.4 y la observaci on 4.8, tenemos que W1 W2 es un subespacio

Sean R, u, v W1 W2 cualesquiera. Entonces u, v W1 y u, v W2 y dado que W1 y W2

Ejercicio 4.4. Dados dos subconjuntos A y B de un espacio vectorial V, denamos el conjunto A + B = {a + b : a A y b B } Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.
/ } Ejercicio 4.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 W2 = {0 V

y V = W1 + W2 . Pruebe que para cada v V existen u nicos vectores w1 W1 y w2 W2 tales que v = w1 + w2 . Ejercicio 4.6. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que W1 W2 Wn es un subespacio de V. Sugerencia: Proceda por inducci on matem atica sobre n y use el teorema 4.5.

139

IV. Espacios Vectoriales

4.3.

Combinaci on Lineal.Indepencia Lineal.

Consideremos una matriz real cuadrada de orden 2 a b c d Entonces a b c d =a 1 0 0 0 +b 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1

Esta expresi on es llamada combinaci on lineal , denamos formalmente este concepto. Denici on 4.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v V. Diremos que v es

combinaci on lineal de v1 , v2 , . . . , vn si existen escalares 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn .

Observaci on 4.10. En la denici on 2.4, podemos escoger una cantidad innita de vectores en V, en lugar de v1 , v2 , . . . , vn V, para denir combinaci on lineal (ver ap endice B). Ejemplo 4.4. 1. El ejemplo hecho al comienzo de la secci on nos dice que cualquier matriz real cuadrada de orden 2 es combinaci on lineal de las matrices 1 0 0 0 , 0 1 0 0 , 0 0 1 0 , 0 0 0 1 .

En general, si para cada i {1, . . . , m} y cada j {1, . . . , n} denimos la matriz Eij entonces toda matriz A Mmn (R) es combinaci on lineal de las matrices E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn

Mmn (R) como aquella matriz cuya ij - esima componente es igual a 1 y el resto es 0,

2. Cualquier vector p(x) Pn [x] es combinaci on lineal de los polinomios 1, x, . . . , xn (por qu e?)

140

Espacios Vectoriales 3. Cualquier vector (x1 , x2 , . . . , xn ) Rn es combinaci on lineal de los vectores de Rn e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

Ejemplo 4.5. Determine si el vector v = (9, 5, 6) es combinaci on lineal o no de los vectores v1 = (3, 2, 6) y v2 = (1, 3, 2) Soluci on. Supongamos que el vector v es combinaci on lineal de los vectores v1 y v2 . Entonces existen 1 , 2 R tales que v = 1 v1 + 2 v2 , es decir, (9, 5, 6) = 1 (3, 2, 6) + 2 (1, 3, 2) = (3 1 2 , 21 32 , 61 + 22 ) de donde 31 2 = 9

21 32 = 5 61 +22 = 6

Hallemos la FERF de esta matriz 3 1 9

Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es 3 1 9 2 3 5 6 2 6

F F + F 2 3 5 2 3 5 1 1 2 6 2 6 6 2 6 1 4 14 F1 F1 + 4F2 1 F2 11 F2 0 1 3 F3 F3 26F2 0 26 78 v1 y v2 .

1 4 14

Obteniedo 1 = 2 y 2 = 3, por lo tanto v = 2v1 3v2 , es decir, v es combinaci on lineal de

F2 F2 + 2F1 0 11 33 F3 F3 6F1 0 26 78 1 0 2 0 1 3 0 0 0

14

Ejemplo 4.6. Consideremos los polinomios p(x) = 5 4x + 9x2 , p1 (x) = 2 x + 2x2 , p2 (x) = 2 2x + 6x2 y p3 (x) = x 4x2 Es p combinaci on lineal de p1 , p2 y p3 ?

141

IV. Espacios Vectoriales


Soluci on. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta es s , entonces existen 1 , 2 , 3 R tales que p(x) = 1 p1 (x) + 2 p2 (x) + 3 p3 (x), para cada x R, esto es, 5 4x + 9x2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) (para cada x R) obteniendo el sistema de ecuaciones 21 +22 = 5 1 22 +3 = 4 2 +6 4 = 9 1 2 3

La matriz ampliada de este sistema es equivalente por las a la matriz 1 0 1 9 1 (verif quelo!) 0 1 1 2 0 0 0 12 naci on lineal de p1 , p2 y p3 .

por lo tanto, el sistema original no tiene soluci on (por qu e?), en consecuencia, p no es combi Si consideramos el polinomio p4 (x) = 1 2x + 3x2 Es p combinaci on lineal de p1 , p2 , p3 y p4 ?

Observaci on 4.11. En t erminos generales, el problema de decidir si un vector v en un espacio vectorial V es combinaci on lineal de algunos vectores v1 , v2 , . . . , vn V, est a relacionado con la resoluci on de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 4.5 y 4.6. Ejercicio 4.7. Pruebe que si A, B Mmn (R) son equivalentes por las, entonces cada la de B es combinaci on lineal de las las de A y viceversa. Denici on 4.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. El conjunto para algunos escalares 1 , 2 , . . . , n R} v {w V : w = 1 v1 + 2 v2 + + n n es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn . gen({v1 , v2 , . . . , vn }) =

142

IV. Espacios Vectoriales


1. Seg un la parte 1 del ejemplo 4.4 se tiene que Mmn (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn }) y seg un las partes 2 y 3 del mismo ejemplo, tenemos que Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en })

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, 2, 6), (1, 3, 2)}) (ver ejemplo 4.5)

3. Del ejemplo 4.6 podemos garantizar que 5 4x + 9x2 / gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 })

Ejemplo 4.8. Hallar gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) Soluci on. N otese primero que a + bx + cx2 gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) si y s olo si existen escalares 1 , 2 , 3 R tales que, para cada x R, a + bx + cx2 = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) = (2
1

+ 22 ) + (1 22 + 3 )x + (21 + 62 43 )x2

Lo que equivale a decir que el sistema de ecuaciones 21 +22 1 22 tiene al menos una soluci on. Resolvamos este sistema. La matriz ampliada del sistema es 2 2 0 a 1 2 1 b 2 6 4 c = a +3 = b

21 +62 43 = c

143

IV. Espacios Vectoriales


Hallemos la FERF de esta matriz 2 2 0 a 1 0 1 a+b

F F + F 1 2 1 b 1 2 1 b 1 1 2 2 6 4 c 2 6 4 c 1 0 1 a+b 1 0 1 a+b F2 F2 + F1 1 1 F F 0 2 2 a + 2 b 0 1 1 a b 2 2 2 2 F3 F3 2F1 0 6 6 2a 2b + c 0 6 6 2a 2b + c 1 0 1 a+b F3 F3 6F2 0 1 1 1 a b 2 0 0 0 a + 4b + c si y s olo si a + 4b + c = 0. En consecuencia gen({2 x + 2x2 , 2 2x + 6x2 , x 4x2 }) = {a + bx + cx2 P3 [x] : a + 4b + c = 0}

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene soluci on

Es de hacer notar que el conjunto W, hallado en el ejemplo 4.8, es un subespacio de P3 [x] . Este resultado no es casual, como veremos en el siguiente teorema. Teorema 4.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Entonces gen({v1 , v2 , . . . , vn }) es un subespacio de V. Demostraci on. Denamos S = {v1 , v2 , . . . , vn }. Por denici on, gen(S ) = gen({v1 , v2 , . . . , vn }) es un subconjunto de V. Adem as, por la parte 2 del teorema 4.2 y la parte 2 del ejercicio 4.1
/ 0 V = 0(v1 + v2 + + vn ) = 0 v1 + 0 v2 + + 0 vn gen(S ).

existen 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que u = 1 v1 + 2 v2 + + n vn Por lo tanto

Finalmente, sean R y u, v gen(S ) cualesquiera. Entonces, por denici on de gen(S ), y v = 1 v1 + 2 v2 + + n vn

u + v = (1 v1 + 2 v2 + + n vn ) + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + (2 + 2 )v2 + + (n + n )vn

144

IV. Espacios Vectoriales


As que u + v gen(S ) y en consecuencia gen(S ) es un subespacio de V. Denicion 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn V. Diremos que v1, v2, . . . , vn

generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que S es un conjunto generador de V si V = gen(S) = gen({v1, v2, . . . , vn}). Ejemplo 4.9. Por la parte 1 del ejemplo 4.7 podemos decir que: 1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan a Mmn (R). 2. El conjunto {1, x, . . . , xn } genera a Pn [x]. 3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . Ejemplo 4.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3 Soluci on. Sabemos que W = {a + bx + cx2 + dx3 P3 [x] : 2a b + 3c d = 0; a + b 4c 2d = 0} As que a + bx + cx2 + dx3 W si y s olo si 2a b +3c a +b 4c 2d = 0 d = 0

resolvamos este sistema homog eneo. La matriz del sistema es 2 1 1 La FERF de esta matriz es 1 0 1 1 3 (verif quelo!) 3 1

1 4 2

0 1 11 1 3 Por lo tanto, a + bx + cx2 + dx3 W si y s olo si a

b 11 c d = 0 3

1 c d = 0 3

145

IVEspacios Vectoriales
o equivalentemente a = b =
1 c 3 11 c 3

+d +d

Haciendo c = 3 y d = , con , R, obtenemos a + bx + cx2 + dx3 = ( + ) + (11 + )x + 3x2 + x3 = (1 + 11x + 3x2 ) + (1 + x + x3 ) para cada x R. Luego

W = gen({1 + 11x + 3x2 , 1 + x + x3 })

En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W. Teorema 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u V. Si u gen({v1 , v2 , . . . , vn }), entonces gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) 1 , 2 , . . . , n , R tales que v = 1 v1 + 2 v2 + + n vn + u. u = 1 v1 + 2 v2 + + n vn . Luego Demostraci on. Escojamos un vector v gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen Pero por hip otesis u gen({v1 , v2 , . . . , vn }), entonces existen 1 , 2 , . . . , n R tales que

v = 1 v1 + 2 v2 + + n vn + (1 v1 + 2 v2 + + n vn ) = (1 + 1 )v1 + + (n + n )vn en consecuencia v gen({v1 , v2 , . . . , vn }) por lo tanto gen({v1 , v2 , . . . , vn , u}) gen({v1 , v2 , . . . , vn }) tales que v = 1 v1 + 2 v2 + + n vn as que es decir, v gen({v1 , v2 , . . . , vn , u}) de donde gen({v1 , v2 , . . . , vn }) gen({v1 , v2 , . . . , vn , u}) De (4.4) y (4.5) obtenemos que gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn }) (4.5) (4.4)

Por otro lado, sea v gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen 1 , 2 , . . . , n R

/ v = 1 v1 + 2 v2 + + n vn = 1 v1 + 2 v2 + + n vn + 0 V = 1 v1 + 2 v2 + + n vn + 0u

146

IV. Espacios Vectoriales

Independencia y Dependencia Lineal


Uno de los conceptos m as importantes en espacios vectoriales, y en el algebra lineal en general, es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado la presente secci on del cap tulo. Daremos una variedad de ejemplos para tratar de explicar lo mejor posible dicho concepto.
/ decir, siempre podemos escribir el vector nulo 0 on lineal de cualquier cantidad V como combinaci / Dados un espacio vectorial V y vectores v1 , v2 , . . . , vn V, entonces 0 V = 0v1 +0v2 + +0vn , es

nita de vectores en V. Ahora bien, en M23 (R) escojamos los vectores A1 = entonces 0 0 0 0 0 0 = 2 A1 3 A2 A3 = 2 1 0 2 3 2 3 4 1 4 9 8 1 0 2 , A2 = 2 3 4 1 y A3 = 4 9 8

2 5 3

1 7 6

2 5 3

1 7 6

En conclusi on, la u nica manera de escribir al vector nulo, como combinaci on lineal de una cantidad nita de vectores, no necesariamente es u nica. Estos dos ejemplos dan pie a la siguiente denici on. Denici on 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn V. Diremos v1 , v2 , . . . , vn son
/ , como combinacion lineal de los vecdiente si la u nica manera de escribir el vector nulo 0 V

linealmente independientes o que {v1 , v2 , . . . , vn } es un conjunto linealmente indepen

tores v1, v2, . . . , vn, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si 1v1 + 2v2 + + nvn = 0
n

junto linealmente dependiente si v1 , v2 , . . . , vn no son linealmente independientes, es de=0

Diremos que v1 , v2 , . . . , vn son linealmente dependientes o que {v1 , v2 , . . . , vn } es un con-

= 0. /V , entonces 1 = 2 = =

v .n cir, existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que 1 v1 + 2 v2 + + /n V Ejemplo 4.11.

1. Seg un el ejemplo dado previamente a la denici on 4.7, se tiene que A1 , A2 , A3 son lineal mente dependientes.

147

IV. Espacios Vectoriales


2. No es dif cil probar que los conjuntos {1, x, . . . , xn }, {e1 , e2 , . . . , en } y

{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } son linealmente independientes (en sus correspondientes espacios).
/ } es linealmen3. Dados un espacio vectorial V y v1 , v2 , . . . , vn V, entonces {v1 , v2 , . . . , vn , 0 V

te dependiente pues

/ / 0 V = 0v1 + 0v2 + + 0vn + 1 0V

es decir, en un espacio vectorial, cualquier conjunto nito de vectores que contenga al vector nulo, es linealmente dependiente. 4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v } es linealmente
/ / independiente ya que si v = 0 V y dado que v = 0V , entonces = 0 (en virtud de la parte

3 del teorema 4.2). Antes de dar alg un otro ejemplo, debemos hacer notar que para determinar si un conjunto de vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
n.
/ , la cual conduce, en general, a debemos plantearnos la ecuaci on 1 v1 + 2 v2 + + n vn = 0 V

Si la soluci on de 2 , . . . , un sistema de ecuaciones homog eneo con n inc ognitas, a saber, 1 ,

este sistema es u nica, y en consecuencia 1 = 2 = = n = 0, entonces {v1 , v2 , . . . , vn } es un dependiente.

conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente Ejemplo 4.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) P2 [x] dados en el ejemplo

4.6. Decidir si estos vectores son o no linealmente independientes.


Soluci on. Como se coment o antes del ejemplo, debemos estudiar la ecuaci on (para todo x R) 1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 0 Pero 1 p1 (x) + 2 p2 (x) + 3 p3 (x) + 4 p4 (x) = 1 (2 x + 2x2 ) + 2 (2 2x + 6x2 ) + 3 (x 4x2 ) +4 (1 2x + 3x2 ) = (21 + 2 2 + 4 ) + (1 2 2 + 3 2
4 )x

+(21 + 6 2 4 3 + 3 4 )x2

148

IV. Espacios Vectoriales


Obteniendo el siguiente sistema de ecuaciones homog eneo +4 = 0 21 +22 El cual sabemos tiene innitas soluciones (por qu e?) y en consecuencia los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) son linealmente dependientes. 1 22 +3 24 = 0 2 +6 4 +3 = 0 1 2 3 4

Ejemplo 4.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior son linealmente independientes? Soluci on. Como en el ejemplo anterior, debemos plantearnos la ecuaci on 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = 0 Obteniendo el sistema (para todo x R) (4.6)

La matriz de este sistema es

21 +22 +4 = 0 1 22 24 = 0 2 +6 +3 = 0 1 2 4 1 2 2 2 6 3 1 0 1 1 0 1 2 2 1

Hallemos su FERF. 2 2 1

F F + F 1 2 2 1 1 2 1 2 2 2 6 3 2 6 3 1 0 1 1 1 3 F F 6F F2 2 F2 0 1 3 2 2 3 0 0 6 5 0 1 0 0 F1 F1 + F3 0 1 0 F2 F2 3 F 2 3 0 0 1

F2 F2 + F1 0 2 F3 F3 2F1 0 6 0 1 1 1 3 F F 0 1 4 3 2 3 0 4 0

0 1 1 0
3 2

3 5

149

IV. Espacios Vectoriales


De donde 1 = 2 = 4 = 0 En consecuencia la ecuaci on 4.6 tiene como u nica soluci on la trivial y por lo tanto p1 (x), p2 (x) y p4 (x) son linealmente independientes. 5 4 , A2 = 3 1 y A3 = 1 1 . Es

2 1 1 Ejemplo 4.14. Sean A1 = {A1 , A2 , A3 } un conjunto linealmente independiente?

/ . Entonces Soluci on. Sean 1 , 2 , 3 R tales que 1 A1 + 2 A2 + 3 A3 = 0 2

51 + 32 + 3

21 + 2 43 1 + 32 + 53 De donde 51 +32 4 2 1

41 2 3

0 0 0 0

+3 = 0 3 = 0

Resolvamos este sistema. La matriz del sistema es 5 3 1 3

21 +2 43 = 0 +3 +5 = 0 1 2 3 1 4 1 1 2 1 4 5

Hallemos su FERF. 5 3 1

4 1 1 F1 F1 F2 2 1 4 3 0 0 5 1 4 7 2

4 1 1 2 1 4 3 5 1 4

F2 F4

7 1 0 F2 1 F 7 2 0 7 7 8 0 17 9 0 17

F2 F2 4F1 0 F3 F3 2F1 0 F4 F4 + F1 0 2 F1 F1 4F2 1 F3 F3 + 7F2 8 F4 F4 + 17F2 9

17 9 7 8 7 7

1 0 1 0 0 1 0 0 8

1 0 2

150

IV. Espacios Vectoriales

F3 F3

Por lo tanto 1 = 2 = 3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente. Teorema 4.8. Sean V un espacio vectorial y u, v V. Los vectores u, v son linealmente depen dientes si y s olo si existe R tal que u = v o v = u. Demostraci on. Supongamos que u, v son linealmente dependientes. Entonces existen , R, + v = 0 / . noSi ambos nulos, talesuque u V = , obtenemos que u = v . = 0, entonces = v . Haciendo / / Si = 0, entonces v = 0 as, por hip otesis, = 0 y en consecuencia v = 0 V y adem V = 0u . Haciendo = 0, obtenemos v = u.
/ , en cualquier caso, concluimos que u, v son linealmente dependientes. o u + (1)v = 0 V / Supongamos ahora que existe R tal que u = v o v = u. En consecuencia 1u +()v = 0 V

0 1 0 0 0 0

1 0 2

1 0 F1 F1 + 2F3 1 0 1 F2 F2 F3 1 F F 8F 0 0 4 4 3 8 0 0

0 0

1 0

Teorema 4.9. Sea A Mmn (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
/ dependientes en Mm1 (R) si y s olo si el sistema Ax = 0 m1 tiene soluciones no triviales.

Demostraci on. Sea A Mmn (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes si y s olo si existen escalares 1 , 2 , . . . , n R, no todos nulos, tales que
/ 1 A(1) + 2 A(2) + + n A(n) = 0 m1

Por la observaci on 4.20 1

1 A(1) + 2 A(2) + + n A(n) = A

/ As que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y s olo si el sistema Ax = 0 m1 tiene

2 . . n

soluciones no triviales.

151

IV. Espacios Vectoriales


Como consecuencia del teorema 4.9 obtenemos los siguientes corolarios. Corolario 4.10. Sea A Mnn (R). Entonces las siguientes proposiciones son equivalentes. 1. det(A) = 0. 2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes. 3. Las las de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes. Demostraci on. (Ejercicio)

Corolario 4.11. Sea A Mmn (R). Si F es la FERF de A, entonces las columnas de F

con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas de F con los pivotes, entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son las columnas de A que son linealmente independientes. Demostraci on. (Ejercicio)

Teorema 4.12. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un espacio independiente.

vectorial V y u V tal que u / gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente Demostraci on. Sean 1 , 2 , . . . , n , R tales que
/ 1 v1 + 2 v2 + + n vn + u = 0 V

Si = 0, entonces u=

1 2 n v1 + v2 + + vn

lo que contradice la hip otesis de que u / gen({v1 , v2 , . . . , vn }). Por lo tanto = 0, de donde
/ 1 v1 + 2 v2 + + n vn = 0 V

y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que 1 = 2 = = n = 0. En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.

152

IV. Espacios Vectoriales

4.4.Base y dimensi on un espacio vectorial,cambio de base.


Seg un el ejemplo 4.9 y la parte 2 del ejemplo 4.11 tenemos que: 1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y adem as es linealmente independiente. 2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn . 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de Mmn (R) y es linealmente independiente.

Conjuntos con estas caracter sticas nos son de mucha utilidad en el estudio de los espacios vectoriales y dan pie a la siguiente denici on. Denici on 4.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } V es una base de V si gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.2. {v1 , v2 , . . . , vn } es linealmente independiente.

Ejemplo 4.15. 1. {1, x, . . . , xn } es una base de Pn [x]. 2. {e1 , e2 , . . . , en } es una base de Rn . 3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mmn (R).

Cada una de estas bases es llamada base can onica o est andar del correspondiente espacio. Ejemplo 4.16. Ning un conjunto nito de polinomios en x es una base de P [x], en efecto, consi deremos un conjunto nito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces a lo sumo de grado k , donde k es el m aximo entre los grados de los polinomios p1 , p2 , . . . , pn , para cualesquiera 1 , 2 , . . . , n R tenemos que 1 p1 (x)+2 p2 (x)+ +n pn (x) es un polinomio es decir, cualquier combinaci on lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo

153

IV. Espacios Vectoriales


de grado k , en consecuencia p(x) = xk+1 P [x] pero p(x) / gen({p1 (x), p2 (x), . . . , pn (x)}), de donde gen({p1 (x), p2 (x), . . . , pn (x)}) = P [x]. Lo cual prueba lo armado al principio. las bases innitas (ver ap endice B), armamos que una base para P [x] es {1, x, x2 , . . . , xn , . . .} Lo anterior nos dice que P [x] no tiene una base nita. Aunque en este cap tulo no trataremos

Ejemplo 4.17. Hallar una base del subespacio W= a b c d : 5a + 6b + 4c 2d = 0

Soluci on . As que a b c d

a b c d

5 W si y s olo si 5a + 6b + 4c 2d = 0 o bien, si y s olo si d = a + 3b + 2c. 2

W si y s olo si a b c d a b 1 0 0 1 0 3 0 0 1 2

c 5 a + 3b + 2c 2 1

=a

0 5 2 0 1 0 3

+b

+c

Por lo tanto W = gen No es dif cil probar que 1 0 0 5 2 , 0 1 0 3 , 0 0 1 2 0 0 5 2 , , 0 0 1 2

es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 4.18. Considere los polinomios p1 (x), p2 (2), p4 (x) P2 [x] del ejemplo 4.13. Pruebe que = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x]. Soluci on. Sabemos que el conjunto = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en bx + cx2 P2 [x] cualquiera, queremos probar que la ecuaci on 1 p1 (x) + 2 p2 (x) + 4 p4 (x) = p(x),

virtud del ejemplo 4.13, as que s olo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a +

154

IV. Espacios Vectoriales


para todo x R, tiene soluci on para 1 , 2 , 4 R. Pero dicha ecuaci on es equivalente al sistema de ecuaciones 21 +22 +4 = a 1 22 24 = b 2 +6 +3 = c 1 2 4

La matriz de este sistema es

y por el ejemplo 4.13, sabemos que es equivalente por las a I3 , en consecuencia, el sistema en cuesti on, tiene soluci on ( unica), lo cual concluye la prueba.

2 2 1 1 2 2 2 6 3

Ejemplo 4.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces es un conjunto generador de P2[x]. El conjunto {p1(x), p2(x)} tampoco es una base de P2[x], por no ser un conjunto generador de P2[x], pero es linealmente independiente. La unicidad de los escalares en el ejemplo 4.18 es una regla la cual enunciaremos en el siguiente teorema. Teorema 4.13. Sea = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada v V existen u nicos escalares 1 , 2, . . . , n R tales que v = 1 v1 + 2 v2 + + n vn . Demostraci on. Sea v V un vector cualquiera. Dado que = {v1 , v2 , . . . , vn } es una base est a garantizada. Supongamos que existen escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn Luego
/ 0 V = vv

{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x], por ser linealmente dependiente, sin embargo

de V, entonces genera a V, as que la existencia de los escalares en el enunciado del teorema

y v = 1 v1 + 2 v2 + + n vn

= (1 v1 + 2 v2 + + n vn ) (1 v1 + 2 v2 + + n vn ) = (1 1 )v1 + (2 2 )v2 + + (n n )vn Como = {v1 , v2 , . . . , vn } es una base, entonces es linealmente independiente, por lo tanto 1 1 = 2 2 = = n n = 0

155

IV. Espacios Vectoriales


es decir, 1 = 1 , 2 = 2 , . . . , n = n con lo cual obtenemos la unicidad de los escalares.

base = {p1(x), p2(x), p4(x)} del ejemplo 4.18, y ambas tienen la misma cantidad de vectores, en este caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema. Teorema 4.14.Sean 1 = {u1 , u2 , . . . , un } y
2

Notese que hemos hallado dos bases de P2[x], a saber la base canonica c = {1, x, x2} y la

espacio vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base nita,entonces todas sus bases tienen la misma cantidad de elementos.

= {v1 , v2 , . . . , vm } dos bases de un

Demostraci on. Supongamos que m < n. Dado que 2 es una base de V, entonces, para cada
1j , 2j , . . . , mj

R tales que j {1, . . . , n}, existen escalares uj = 1j v1 + 2j v2 + + mj vm

Sean 1 , 2 , . . . , n R tales que Luego

1 u1 + 2 u2 + + n un = 0

/ 0 V = 1 (11 v1 + 21 v2 + + m1 vm ) + 2 (12 v1 + 22 v2 + + m2 vm ) + +

+n (1n v1 + 2n v2 + + mn vm ) = (11 1 + 12 2 + + 1n n )v1 + (21 1 + 22 2 + + 2n n )v2 + + +(m1 1 + m2 2 + + mn n )vm Pero 2 = {v1 , v2 , . . . , vm } es linealmente independiente, por 11 1 + 12 2 + + 1n n + ++ 21 1 22 2 2n n . . . . m1 1 + m2 2 + + mn n ser una base de V, as que = 0 = 0 . . . = 0

Este es un sistema de ecuaciones lineales con m ecuaciones y n inc ognitas que son 1 , 2 , . . . , n . Como m < n, al usar el teorema 4.16, concluimos que el sistema anterior tiene soluciones no triviales, es decir, existen 1 , 2 , . . . , n R, no todos nulos, tales que
/ 1 u 1 + 2 u 2 + + n u n = 0 V

156

IV. Espacios Vectoriales


es decir, 1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que 1

es una base de V, por lo tanto m n. An alogamente se prueba que m n y por lo tanto m = n. El teorema 2.14 da pie a la siguiente denici on. Denici on 4.9. Sea V un espacio vectorial. Diremos que V tiene dimensi on cero o dimen
/ }, diremos que la dimensi on de V es n si V tiene una base con n elementos, si on nula si V = {0 V

en ambos casos diremos que V tiene dimensi on nita. Si V no posee una base nita, diremos que V tiene dimensi on innita. En todos los casos la dimensi on de V se denota por dim(V). Ejemplo 4.20. 1. Del ejemplo 4.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mmn (R)) = mn y dim(Rn ) = n. 2. Si W es el subespacio del ejemplo 4.17, entonces dim(W) = 3. 3. El espacio vectorial P [x] es un espacio de dimensi on innita (ver ejemplo 4.16). Observaci on 4.13. El problema de encontrar la dimensi on de un espacio vectorial est a rela cionado con la b usqueda de una base de dicho espacio, como vimos en el ejemplo 4.20. Teorema 4.15. Sean V un espacio vectorial de dimensi on n y v1 , v2 , . . . , vm V. 1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m n. 2. Si {v1 , v2 , . . . , vm } genera a V, entonces m n. Demostraci on. Sea = {u1 , u2 , . . . , un } una base de V. 1. Suponga que m > n y haga una prueba an aloga a la del teorema 4.14. 2. Ejercicio!

Como consecuencia del teorema 4.15 se tiene el siguiente teorema.

157

IV. Espacios Vectoriales


Teorema 4.16. Sean V un espacio vectorial de dimensi on n y S = {v1 , v2 , . . . , vn } V. 1. Si S es linealmente independiente, entonces S es una base de V. 2. Si S genera a V, entonces S es una base de V. Demostraci on. Ejercicio! Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el teorema 4.12 y para la parte 2 use el teorema 4.7.

Teorema 4.17. Sea W un subespacio de un espacio vectorial de dimensi on nita V. Entonces dim(W) dim(V). Adem as, si dim(W) = dim(V), entonces W = V. Demostraci on. Sean dim(V) = n y W una base de W. Entonces W es linealmente indepen diente en W, luego W es linealmente independiente en V (por qu e?). Por lo tanto, por la parte 1 el teorema 2.15, W tiene a lo sumo n elementos, esto es, dim(W) n = dim(V). Adem as, si dim(W) = dim(V), entonces W es un conjunto linealmente independiente con n

elementos. Por lo tanto W es una base de V (por qu e?). En consecuencia W = gen( W ) = V.

Observaci on 4.14. Todo espacio vectorial que contenga un subespacio de dimensi en innita, es tambi en de dimensi on innita. Ejemplo 4.21. Sean a, b R cualesquiera. Entonces P [x] puede verse como un subespacio de C [ a , b ] (por qu e?) y como P [x] tiene dimensi on nita (ver parte 3 de ejemplo 4.20), entonces, por la observaci on 4.14, C [ a , b ] de dimensi on innita. Teorema 4.18. Sea V un espacio vectorial de dimensi on n y S = {v1 , v2 , . . . , vm } V. 1. Si S es linealmente independiente, entonces existe una base de V tal que S . 2. Si S genera a V, entonces existe una base de V tal que S . Demostraci on. 1. Dado que S es linealmente independiente, entonces m n, seg un la parte 1 del teorema 2.15.

158

IV. Espacios Vectoriales


Si S genera a V, entonces S es una base de V, as que = S es una base de V que contiene a S . De lo contrario, existe un vector vm+1 V tal que vm+1 / gen({v1 , v2 , . . . , vm }). Luego {v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 4.12. Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces = {v1 , v2 , . . . , vm , vm+1 } es una base de V y al igual que antes {v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente.

tal que S . Sino, podemos escoger vm+2 V tal que vm+2 / gen({v1 , v2 , . . . , vm , vm+1 }) Continuamos con este proceso hasta completar un conjunto linealmente independiente = {v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y adem as S . 2. Ejercicio! Sugerencia: Si S es linealmente independiente, entonces = S es la base buscada, de lo contrario existe k {1, . . . , m} tal que vk gen({v1 , v2 , . . . , vk1, vk+1 , . . . , vm }). Continuar este proceso hasta obtener la base buscada.

4.4.2

Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz

En la observaci on 4.9 se arm o que en la presente secci on se probar a formalmente, usando el corolario 2.4, que los conjuntos S y R, denidos en la parte 3 del ejemplo 2.1, son subespacios conjuntos. Denici on 4.10. Consideremos una matriz A Mmn (R). El conjunto
/ N(A) = Ker(A) = {x Mn1 (R) : Ax = 0 m1 }

de Mn1 (R) y Mm1 (R), respectivamente. Antes que nada deniremos m as formalmente dichos

es llamado espacio nulo, n ucleo o kernel de A; y el conjunto Im(A) = {y Mm1 (R) : Ax = y se conoce como imagen o recorrido de A. Observaci on 4.15. Notemos que por denici on y Im(A) si y s olo si existe x Mn1 (R) tal que Ax = y . para alg un x Mn1 (R)}

159

IV. Espacios Vectoriales


1 0 2 3

F1 F2 0 1 1 0 0 0 x1 As que x2 x3 x4

4 0

N(A) si y s olo si

x1 x2

+2x3 3x4 = 0 x3 +4x4 = 0

o bien x1 = 2x3 + 3x4 x2 = De donde x1 x3 4x4 2 3

Por lo tanto

x2 = x 3 x4

2x3 + 3x4 x3 4x4 x3 x4

= x3

No es dif cil probar que el conjunto

3 2 1 4 N(A) = gen , 1 0 0 1 2 3 1 4 , 1 0 0 1

1 4 + x4 1 0 0 1

es linealmente independiente (pru ebelo!) y por lo tanto es una base de N(A). As que n( A) = 2. x1 y1 x2 M31 (R). Entonces y Im(A) si y s Por otro lado, sea y = o lo si existe x = y 2 x3 y3 x4 M41 (R) tal que Ax = y , es decir, y Im(A) si y s olo si el sistema Ax = y tiene soluci on.

160

IV. Espacios Vectoriales


Resolvamos entonces este sistema, la matriz ampliada de este sistema es 2 3 7 18 y1 [A|y ] = 2 0 4 6 y2 2 9 13 42 y3

La cual es equivalente por las a la matriz (verif quelo!) 1 0 2 3 1 y 2 2 1 1 0 1 1 4 y y 3 1 3 2 0 0 0 0 3y1 2y2 + y3 Por lo tanto y Im(A) si y s olo si 3y1 2y2 + y3 = 0 (por qu e?) o equivalentemente y 3 = 3y 1 + 2y 2 En consecuencia y1 y1 1

y por lo tanto

y = y2 = = y + y y2 0 1 1 1 y3 3 y 1 + 2y 2 3 2 1 0 Im(A) = gen 0 , 1 3 2

Al igual que antes, no es dif cil probar que 1 0 0 , 1 3 2

es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A est an en las columnas 1 y 2, por lo tanto las columnas 1 y 2 2 2 , 2 de A, 3 0 9

161

IV. Espacios Vectoriales


son linealmente independientes (use el corolario 2.11) y adem as 1 1 2 3 7 18 2 0 0 A = 2 = 2 0 4 6 0 0 2 9 13 42 2 0 0 y 1 0 0 0 2 3 7 18 0 3

= 2

2 9 2

0 4

es decir

y por lo tanto

, 2 0 Im(A) 2 9 2 3 2 , 0 2 9 2 3 2 , 0 2 9

1 = 0 6 0 13 42 9 0 3

es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 4.16 tenemos que

es una base para Im(A).

Este procedimiento es v alido al momento de hallar una base para Im(A) y es una manera m as sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no es necesario saber para que valores de y el sistema Ax = y tiene soluci on. Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A). Algoritmo para hallar bases para N(A) e Im(A), donde A Mmn (R). Paso 1. Hallar la FERF de la matriz A.

162

IV. Espacios Vectoriales


Paso 2. La matriz hallada en el paso previo, nos permite escribir la soluci on del sistema
/ Ax = 0 on lineal de ciertos vectores linealmente independientes, m1 como combinaci

dichos vectores forman un base para N(A). Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan las columnas de A que forman una base para Im(A). Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados. Concolumnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio generado por las las de A, el cual es llamado espacio la de A, esto es C(A) = gen({A(1) , A(2) , . . . , A(n) }) y R(A) = gen({A(1) , A(2) , . . . , A(m) }) Teorema 4.20. Si A, B Mmn (R) son tales que A y B son equivalentes por las, entonces 1. C(A) = Im(A). 2. R(A) = R(B ). 3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A). 4. r(A) = r(B ) y n(A) = n(B ). 5. r(A) + n(A) = n. Demostraci on. 1. Por denici on de Im(A) sabemos que y Im(A) si y s olo si existe x Mn1 (R) tal que Ax = y . x1 sideremos una matriz A Mmn (R). Denotaremos por C(A) al espacio generado por las

Si hacemos x =

y = Ax = x1 A(1) + x2 A(2) + + xn A(n) En consecuencia C(A) = Im(A).

x2 . , entonces . xn

(ver observaci on 1.20)

es decir, y Im(A) si y s olo si y gen({A(1) , A(2) , . . . , A(n) }) = C(A).

163

IV. Espacios Vectoriales


2. Como A y B son equivalentes por las, entonces cada la de B es combinaci on lineal de las las de A y viceversa (ver ejercicio 4.7), es decir, para cada i {1, . . . , m} se tiene que B(i) gen({A(1) , A(2) , . . . , A(m) }) y A(i) gen({B(1) , B(2) , . . . , B(m) }). En consecuencia R(A) = R(B ) 3. Sea F Mmn (R) la FERF de A. Entonces las las no nulas de F son linealmente indepen

dientes (por qu e?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el n umero de las no nulas de F , entonces dim(R(F )) = k , pero por la parte 2 R(A) = R(F ), as que dim(R(A)) = dim(R(F )) = k .

Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son linealmente independientes (en virtud del corolario 4.11) y que en consecuencia forman una base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) = k = dim(R(A)) y por la parte 1 tenemos que dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A) 4.Queda como ejercicio. 5.Queda como ejercicio.

Corolario 4.21. A Mnn (R) es invertible si y s olo si r(A) = n. Demostraci on. Ejercicio!

Corolario 4.22. Sean A Mmn (R) y b Mm1 (R). Entonces el sistema Ax = b tiene al menos una soluci on si y s olo si r([A|b]) = r(A). Demostraci on. Ejercicio!

Ejemplo 4.23. Hallar el espacio la, el espacio columna, el espacio nulo, la imagen, y una base para cada uno de estos espacios; y la nulidad y 2 2 4 1 A= 1 1 2 4 el rango de la matriz 6 1 8 3 2 19 16 3 1 3 6 14

164

IV. Espacios Vectoriales


Soluci on. S olo hace falta hallar la FERF de A. 2 2 6 1 8 1 1 3 1 6

A=

4 1 3 2 19 F1 F3 2 1 1 3 1 6 2 6 1 8 2 4 16 3 14 2 4 16 3 14 1 1 3 1 6 1 1 3 1 6 F2 F2 + 4F1 0 1 5 0 3 15 2 5 1 3 F2 F2 F4 F3 F3 2F1 0 0 0 0 0 1 4 0 1 4 F4 F4 2F1 0 2 10 1 2 0 2 10 1 2 1 0 2 0 3 1 0 2 0 3 F1 F1 F2 0 1 5 1 3 F2 F2 + F3 0 1 5 0 1 0 1 4 F4 F4 F3 0 1 4 F4 F4 2F2 0 0 0 0 0 0 0 1 4 0 0 0 0 0 1 0 2 0 3 0 1 5 0 1 F3 F3 0 0 0 1 4 0 0 0 0 0 x1 4 1 x2 As que olo si x3 N(A) si y s x4 x5 x1 +2x3 x2 5x3 +3x5 = 0 x4 +4x5 = 0 x5 = 0

3 2 19

o equivalentemente

x1 = 2x3 3x5 x = 5x3 + x5 2 x = 4x 4 5

165

IV. Espacios Vectoriales


Luego

x1

y as

Por lo tanto, una base para el espacio nulo de A es: 2 3 5 1 0 1 , 0 4 0 1 2 5

x3 = x 4 x5

x2

2x3 3x5 5x3 + x5 x3 4x5 x5

= x3

5 1 0 0

+ x5

0 4 1

N(A) = gen

Adem as, una base para el espacio la de A es: 1 0 2 0 3 luego R(A) = gen 1 0 2 0 3 , ,

1 1 , 0 0 4 0 1 , 0 0 0 1 4

0 1 5 0 1

0 1 5 0 1

0 0 0 1 4

Como los pivotes de la FERF de A est an en las columnas 1,2 y 4, entonces las columnas 1,2 y 4 de A forman una base para el espacio imagen o 2 2 4 1 , 1 1 2 4 espacio columna de A, es decir, 1 2 , 1 3

es una base para C(A) = Im(A) y en consecuencia

166

IV. Espacios Vectoriales


2 2 1 4 1 2 C(A) = Im(A) = gen , , 1 1 1 2 4 3

Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) = dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 4.8. Pruebe que si A Mnn (R), entonces existe k n tal que para cada r k se cumple 1. N (A ) = N A 2. Im (Ar ) = Im Ak e Im Ak Im(A2 ) Im(A) Mn1 (R). Adem as, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.
r k 2 k / y {0 n1 } N(A) N(A ) N A .

167

IV. Espacios Vectoriales

Matriz de Cambio de Base.

En este cap tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales reales, salvo que se indique lo contrario, sin embargo, muchas de las deniciones y teoremas expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales reales.

muchas formas de ordenar los vectores en , a saber n! formas distintas, haremos una diferencia entre unas y otras deniendo lo que llamaremos base ordenada . Denici on 4.3.1. Sea V un espacio vectorial de dimensi on n. Una base ordenada de V es una n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V. Observaci on 4.3.1. Para no recargar mucho la notaci on escribiremos {v1 , v2 , . . . , vn } en lugar de (v1 , v2 , . . . , vn ) y para no caer en confusi on diremos {v1 , v2 , . . . , vn } es una base ordenada de

Sea V un espacio vectorial de dimensi on n. Dada una base = {v1 , v2 , . . . , vn } de V, existen

V. Ejemplo 4.3.1. 1. En R2 dos bases ordenadas distintas son: c = {(1, 0), (0, 1)} y = {(0, 1), (1, 0)} la primera 2. se Endenomina Rn las bases ordenadas c ordenada = {(1, 0, . . . , simplemente 0), (0, 1, 0, . . . base , 0), . .can . , (0 ,nica . . . , 0de , 1)R } 2 .yN = la base can onica o o o tese {(0, . . . ,y0 , 1) , (0,iguales . . . , 0, 1 , 0), . .bases . , (1, de 0, . R . .2,,0) } son distintas, pero como bases son iguales. c que son como pero distintas como bases ordenadas.
c

es llamada base can onica ordenada o simplemente base can onica de Rn .

3. En Pn [x] las siguientes bases c = {1, x, . . . , xn } y = {xn , . . . , x, 1} son bases ordenadas distintas, pero como bases iguales. c es llamada base can onica ordenada o simplemente base can onica de Pn [x].

168

IV. Espacios Vectoriales


4. En el espacio de las matrices Mmn (R), para cada i {1, . . . , n} y j {1, . . . , m}, con(cero). La base c = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } es llamada la base can onica ordenada o simplemente base can onica de Mmn (R). Las siguientes son bases ordenadas de Mmn (R), distintas entre si y distintas de c : a) 1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn } b) 2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 } c) 3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 } d) 4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 } Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v V existen u nicos escalares Todas estas bases son iguales como bases (no ordenadas). 1 , 2 , . . . , n R tales que v = 1 v1 + 2 v2 + + n vn . est an ordenados de forma u nica, lo que da pie a la siguiente denici on. Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares 1 , 2 , . . . , n R son u nicos y

sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0

Denici on 4.3.2. Sea = {v1 , v2 , . . . , vn } una base ordenada de V y sea v V. Deniremos la matriz de coordenadas de v en la base como la u nica matriz 1 2 [v ] = . . n tal que v = 1 v1 + 2 v2 + + n vn .

Ejemplo 4.3.2. El conjunto = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (pru ebelo!). Para cualquier p(x) P2 [x], encuentre [p(x)] . Soluci on. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 R y sea 1 [p(x)] = 2 3

169

IV. Espacios Vectoriales


Entonces, para cada x R, tenemos p(x) = 1 (1 + x) + 2 (x + x2 ) + 3 (1 + x2 ) = (1 + 3 ) + (1 + 2 )x + (2 + 3 )x2 De donde se obtiene el sistema 1 Resolvemos el sistema 1 0 1 a0 +3 = a0 = a1 2 +3 = a2

1 +2

1 1 0 a1 F2 F2 F1 0 1 1 a + a 0 1 0 1 1 a3 0 1 1 a2 1 0 1 a0 1 1 F3 F3 F2 0 1 1 a0 + a1 F3 2 F3 0 0 0 2 a0 a1 + a2 0 1 0 0 1 a +1 a 1 a 2 0 2 1 2 2 F1 F1 F3 1 1 1 0 1 0 2 a0 + 2 a1 + 2 a2 F2 F2 + F3 0 0 1 1 a 1 a +1 a 2 0 2 1 2 2 Luego 1 1 1 a0 + 2 a1 2 a2 2 2 1 1 [p(x)] = [a0 + a1 x + a2 x ] = 2 a0 + 1 a + a 1 2 2 2 1 1 1 a 2 a1 + 2 a2 2 0 1 1 1 a0 1 1 1 1 = 1 1 1 a1 = 1 1 2 2 1 1 1 a2 1 1

1 0

a0

0 0

1 1
1 a 2 0

a0 a0 + a1 1 a +1 a 2 1 2 2

1 1

a0 + a1 a2 1 = a0 + a1 + a2 2 a0 a1 + a2 1 1 [p(x)]c 1

Teorema 4.3.1. Sea una base ordenada de un espacio vectorial V de dimensi on n. Para cualesquiera u, v V y R se cumple que 1. [u + v ] = [u] + [v ]

170

IV. Espacios Vectoriales

2. [u] = [u] Demostraci on. Ejercicio!

Teorema 4.3.2. Sean 1 = {v1 , v2 , . . . , vn } y

espacio vectorial V. Entonces existe una u nica matriz A Mnn (R) tal que [v ]2 = A[v ]1 para cada v V

= {u1 , u2, . . . , un } bases ordenadas de un

(4.1)

Demostraci on. Para cada j {1, . . . , n} hagamos 1j [vj ]2 =

Entonces

2j . . nj

vj = 1j u1 + 2j u2 + + nj un Sea v V cualquiera. Hagamos

[v ]1

Entonces 1 u1 + 2 u2 + + n un = v

2 = . . n

y [v ]2

2 = . . n

= 1 v1 + 2 v2 + + n vn = 1 (11 u1 + 21 u2 + + n1 un ) + 2 (12 u1 + 22 u2 + + n2 un ) + + +n (1n u1 + 2n u2 + + nn un ) = (11 1 + 12 2 + + 1n n )u1 + (21 1 + 22 2 + + 2n n )u2 + + +(n1 1 + n2 2 + + nn n )un

171

IV. Espacios Vectoriales

Por lo tanto

1
2

De donde

. n

+ + + 2n 2 21 1 22 2 2n n 21 22 = . . . . . . n1 1 + n2 2 + + nn n n1 n2 nn n 11 12 1n 2n 21 22 = [v ] . . . 1 n1 n2 nn 1n

11 1 + 12 2 + + 1n n

11 12

1n

[v ]2

Haciendo

A = [ij ]nn =

obtenemos la existencia de la matriz A que satisface (3.1) Para probar la unicidad de A, notemos primero que la j - esima columna de A est a dada por 1j 2j (j ) A = = [vj ]2 . . nj

2n 21 22 = . . . . . . n1 n2 nn

11 12

[v1 ]2 [v2 ]2 [vn ]2

Supongamos que B Mnn (R) es tal que

[v ]2 = B [v ]1 As que, para cada j {1, . . . , n}, tenemos que

para cada v V

[vj ]2 = B [vj ]1

172

IV. Espacios Vectoriales

Pero

[vj ]1

0 = 1 j - esima la 0 . 0

0 . .

Luego

0 . . 0 A
(j )

= [vj ]2 = B [vj ]1 = B 1 = B (j ) 0 . . 0

Por lo tanto B = A.

Denici on 4.4.3. La matriz A en el teorema anterior es llamada matriz de transici on o matriz de cambio de base de 1 a 2 y se denota por M 1 , 2 . Como su nombre lo indica, la matriz M1 ,2 permite hallar la matriz de coordenadas de un vector v V en la base 2 conociendo la matriz de coordenadas de v en la base 1 . N otese del j - esimo vector de 1 respecto a la base 2 , esto es, si 1 = {v1 , v2 , . . . , vn }, entonces M1 ,2 = . Ejemplo 4.3.3. Sea la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, seg un el ejemplo en cuesti on, tenemos que 1 1 1 2 1 1 1 1 1 [v1 ]2 [v2 ]2 [vn ]2 adem as que por su denici on, la columna j - esima de M1 ,2 , representa la matriz de coordenadas

Mc , =

1 1

(por qu e?)

173

IV. Espacios Vectoriales


donde c es la base can onica ordenada de P2 [x]. Antes de dar alg un otro ejemplo, enunciaremos un primer resultado que involucra matrices de transici on. Teorema 4.3.3. Si V es un espacio vectorial de dimensi on n y 1 y 2 son dos bases ordenadas de V, entonces la matriz M 1 , 2 es invertible y su inversa es M 2 , 1 . y [v ]1 = M2 ,1 [v ]2 Demostraci on. Sea v V cualquiera. Entonces
1 Por lo tanto, si 2 = {v1 , v2[,v.]. vnM }, entonces para cada j {1, . . . , n} se tiene que . 2 ,= 1 , 2 [v ] 0 .

0 j - esima la 1 = [vj ]2 = M1 ,2 [vj ]1 = M1 ,2 M2 ,1 [vj ]2 = C (j ) 0 . . 0

donde C (j ) es la j - esima columna de M1 ,2 M2 ,1 . En consecuencia M1 ,2 M2 ,1 = In y por lo tanto (M1 ,2 )1 = M2 ,1 .

Ejemplo 4.3.4. Consideremos las siguientes bases ordenadas de R3 1 = {(1, 2, 0), (3, 1, 1), (0, 1, 3)} 2 = {(0, 2, 1), (1, 0, 1), (3, 1, 2)} c la base can onica. Hallar M1 ,2 , Mc ,2 y M2 ,1 . Soluci on. Para hallar M1 ,2 debemos hallar las matrices de coordenadas de cada uno de los vectores de 1 respecto a la base 2 . Sean 11 12 [(1, 2, 0)]2 = , [(3 , 1 , 1)] = 2 21 22 31 32 13 = 23 33

y [(0, 1, 3)]2

174

IV. Espacios Vectoriales

Entonces (1, 2, 0) =
21 (1, 0, 1)

+ 31 (3, 1, 2)
11

11 (0, 2, 1)

= (21 + 3 31 , 2 (3, 1, 1) =
32 ) 12 (0, 2, 1)

31 ,

11

+ 21 + 2 31 )

+ 22 (1, 0, 1) + 32 (3, 1, 2)
12

= (22 + 3 32 , 2

32 ,

12

+ 22 + 2

De donde

(0, 1, 3) =

13 (0, 2, 1)

+ 23 (1, 0, 1) + 33 (3, 1, 2)

211 11

= (23 + 3 33 , 2 13 33 , 13 + 23 + 2 21 +331 = 1 22 +332 = 3 33 ) 31 = 2 , 212 32 = 1 +21 +231 = 0 12 +22 +232 = 1 y 213 33 = 1 13 +23 +233 = 3 23 +333 = 0

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de manera simult anea considerando la siguiente matriz tres veces ampliada 0 1 3 1 3 0

N otese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de cada uno de los vectores de la base 2 respecto a la base can onica, y las tres u ltimas colum nas, son las matrices de coordenadas de cada uno de los vectores de la base 1 respecto a la base can onica. Este procedimiento es est andar cada vez que busquemos una matriz de cambio de base. 3 1 3 0 1 1 2 0 1 3 0 1 2 0 1 2 1 1 0 1 2 1 1 F1 F3 2 1 1 2 0 1 3 0 1 3 1 3 0

2 1

0 1 2 1 1 1 2 0 1 3

175

IV. Espacios Vectoriales


F2 F2 2F1 0 0 1 1 F2 F2 0 1 0 2 1 0 1 F3 11 F3 0 1 0 0 As que

2 5 2 3 5 F2 F3 0 1 3 1 3 0 1 3 1 3 0 0 2 5 2 3 5 2 0 1 3 1 0 5 1 4 3 F1 F1 F2 3 1 3 0 0 1 3 1 3 0 F3 F3 + 2F2 5 2 3 5 0 0 11 4 9 5 9 1 8 5 1 4 3 1 0 0 11 11 11 F1 F1 5F3 1 6 15 3 1 3 0 0 1 0 11 11 11 F2 F2 + 3F3 4 9 5 4 9 5 1 11 11 11 0 0 1 11 11 11


9 1 11 11 1 11 4 11 6 11 9 11 8 11 15 11 5 11

Hallemos ahora Mc ,2 . En este caso la matriz aumentada que obtenemos es 0 1 3 1 0 0

M1 ,2 =

1 = 11

9 1

1 6 15 4 9 5

Vemos que para obtener Mc ,2 necesitamos aplicar, en el mismo orden, las mismas OEF que aplicamos anteriormente (por qu e?), y obtenemos 1 0 0
1 11 5 11 2 11 5 11 3 11 1 11 1 11 6 11 2 11

2 1

0 1 0 1 0 1 2 0 0 1

Por lo tanto

0 1 0 0 0 1
1 11 5 11 2 11 5 11 3 11 1 11

1 5 1

N otese que la matriz obtenida no es mas que la inversa de 0 1 3

Mc ,2 =

1 11 6 11 2 11

= 1 5 3 6 11 2 1 2

M2 ,c = 2 1

0 1 1 2

176

IV. Espacios Vectoriales

Finalmente (verif quelo!) 15 14


1 2 1 2 1 2 3 14 13 14 5 14

M2 ,1 = (M1 ,2 )1 =

5 14 3 14

1 = 14

15

5 7 13 3 7 5

Algoritmo para hallar la matriz de transici on M1 ,2 , donde 1 y 2 son bases ordenadas de un espacio vectorial V de dimensi on n y c es la base can onica ordenada de V. En general V = Rn , V = Pn1 [x] o V = Mpq (R) con pq = n. Paso 1. Hallar las matrices M2 ,c y M1 ,c . Paso 2. Formar la la matriz ampliada [M2 ,c |M1 ,c ]. Paso 3. Hallar la FERF de la matriz en el paso previo. Paso 4. La matriz hallada en el paso previo tiene la forma [In |B ]. Entonces M1 ,2 = B . Ejemplo 3.5. Sean 1 , 2 y c como en el ejemplo anterior. Dado (x, y, z ) R3 , hallar [(x, y, z )]2 y [(x, y, z )]1 . x = y por lo tanto z 1

Soluci on. Sabemos que [(x, y, z )]c

[(x, y, z )]2 = Mc ,2 [(x, y, z )]c

x x + 5y + z 1 1 = = 5 3 6 y 5 x 3 y + 6 z 11 11 2 1 2 z 2x y + 2z 5 1 1 14 1 5 7 13 5 x 3 y + 6 z 11 3 7 5 2x y + 2z 4x 9y + 3z 1 = 6x + 3y z 14 2x y + 5z 15 7 3 x + 5y + z

[(x, y, z )]1 = M2 ,1 [(x, y, z )]2 =

[(x, y, z )]1

177

IV. Espacios Vectoriales


En este u ltimo ejemplo se verica que 1 14 15 1 5 7 13 11 5 3 6 3 7 5 2 1 2 4 9 6 3 1 2 1 5 3 7 3 1 5 1

Mc ,1 = M2 ,1 Mc ,2 =

Mc ,1

Este resultado no es casual, como se puede ver en el siguiente teorema Teorema 4.4.4. Sean 1 , 2 y 3 bases ordenadas de un espacio vectorial V de dimensi on n. Entonces M1 ,3 = M2 ,3 M1 ,2 Demostraci on. Sea v V cualquiera. Entonces [v ]3 = M2 ,3 [v ]2 Luego [v ]3 = M2 ,3 [v ]2 = M2 ,3 M1 ,2 [v ]1 Por unicidad de la matriz M1 ,3 concluimos que M1 ,3 = M2 ,3 M1 ,2 y [v ]2 = M1 ,2 [v ]1

1 = 14

Teorema 4.4.5. Sea una base ordenada de un espacio vectorial V de dimensi on n. Entonces es [vj ] , tiene determinante distinto de cero. {v1 , v2 , . . . , vn } es una base de V si y s olo si la matriz cuadrada de orden n, cuya j - esima columna

Demostraci on. Sea A Mnn (R) la matriz cuya j - esima columna es [vj ] . Sean 1 , 2 , . . . , n R tales que As que 1 v1 + 2 v2 + + n vn = 0

178

IV. Espacios Vectoriales

/ / 0 n1 = [0V ] = [1 v1 + 2 v2 + + n vn ] = 1 [v1 ] + 2 [v2 ] + + n [vn ] 1 1 2 2 = [[v1 ] [v2 ] [vn ] ] =A . . n n

2 / =0 nica soluci on la trivial, es n1 tiene como u . n decir, si y s olo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n, Pero det(A) = 0 si y s olo si el sistema A equivale a que {v1 , v2 , . . . , vn } es una base de V.

en un espacio vectorial de dimensi on n, es una base para dicho espacio.

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },

4.5.

Espacio vectorial con producto interno y sus propiedades.

Denici on 4.5.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funci on que asocia, a cada par de vectores u, v V, un u nico n umero real denotado por u , v , u v ouv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w V y cada R 1. u , v = v , u . 2. u + v , w = u , w + v , w . 3. u , v = u , v .. / . v , v 0 y adem as v , v = 0 si y s olo si v = 0 V Un espacio vectorial real, en el cual se dene un producto interno, es llamado espacio (vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a los productos internos son producto interior, producto escalar y producto punto. Ejemplo 4.5.6. Las siguientes funciones son productos internos sobre Rn

179

IV. Espacios Vectoriales


n

1. u , v =
i=1

ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).

En efecto, sean u, v, w Rn y R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y w = (w1 , w2 , . . . , wn ). Entonces


n n

u, v =
i=1

ui vi =
i=1

vi ui = v , u

u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), as que


n n n n

u+v, w =
i=1

(ui + vi )wi =
i=1

(ui wi + vi wi ) =
i=1

u i wi +
i=1

vi wi = u , w + v , w

u = (u1, u2 , . . . , un ) = (u1 , u2, . . . , un ), luego


n n

u , v =
i=1

uivi =
i=1

uivi = u , v

Finalmente u, u =

ui ui =
i=1 i=1

u2 i 0

Adem as, u , u = 0 si y s olo si


/ n. s olo si u = 0 R

u2 i

= 0 para cada i {1, . . . , n} (por qu e?), esto es, si y

Este producto interno es llamado producto interno euclidiano, usual o est andar de Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre Rn .
n

2. u , v =
i=1

pi ui vi donde p1 , p2 , . . . , pn son n umeros reales positivos jos, u = (u1 , u2, . . . , un )

y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno ponderado, si p1 = = pn = 1, este producto interno coincide con el producto interno euclidiano. Pruebe que esta funci on es un producto interno. Ejemplo 4.5.7. En Mmn (R) la siguiente funci on dene un producto interno (pru ebelo!), el cual se conoce como producto interno euclidiano, usual o est andar, al igual que en el caso de Rn , salvo que se indique otra cosa, este es el producto interno que consideraremos sobre Mmn (R). m n aij bij A, B = donde A = (aij )mn y B = (bij )mn .
i=1 j =1

180

IV. Espacios Vectoriales


Ejemplo 4.5.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a,b], la funci on
b

f,g =
a

f (x)g (x)dx

es un producto interno, en efecto, sean f, g, h C [ a , b ] y R. Entonces


b b

f,g =
a

f (x)g (x)dx =
a

g (x)f (x)dx = g , f

f +g, h

=
a b

(f (x) + g (x))h(x)dx =
a b

(f (x)h(x) + g (x)h(x))dx

=
a

f (x)h(x)dx +
a b

g (x)h(x)dx = f , h + g , h
b

f , g =
a

f (x)g (x)dx =
a b

f (x)g (x)dx = f , g
b

f,f =
a

f (x)f (x)dx =
a

[f (x)]2 dx 0

si f = O, donde O es la funci on nula sobre [ a , b ], esto es, O(x) = 0 para todo x [ a , b ]. C [ a , b ]. Ejemplo 4.5.9. En Pn [x] las siguientes funciones son productos internos.

Adem as f , f = 0 si y s olo si f (x) = 0 para cada x [ a , b ] (por qu e?), es decir, si y s olo Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre

1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno denido en el ejemplo anterior, es un producto interno sobre Pn [x].
n

2. p , q =
i=0 n

p(i)q (i). En Efecto, sean p, q, r Pn [x] y R. Entonces


n

p, q =
i=0

p(i)q (i) =
i=0 n

q (i)p(i) = q , p .
n

p+q, r =
i=0 n

[p(i) + q (i)]r (i) =


n i=0

[p(i)r (i) + q (i)r (i)]

=
i=0

p(i)r (i) +
i=0

q (i)r (i) = p , r + q , r .

181

IV. Espacios Vectoriales


n n

p, p =
i=0

p(i)p(i) =
i=0

[p(i)]2 0.

Adem as, p , p = 0 si y s olo si p(i) = 0 para cada i {0, . . . , n}. Pero el u nico polinomio en Pn [x], que tiene m as de n ra ces, es el polinomio nulo (por qu e?), es decir, p , p = 0 si y s olo si p es el polinomio nulo.
n

3. p , q =
i=0

ai bi , con p(x) = a0 + a1 x + + an xn y q (x) = b0 + b1 x + + bn xn . (pru ebe-

lo!). Teorema 4.5.6. Sea V un espacio con producto interno , . Entonces 1. u , v + w = u , v + u , w para cualesquiera u, v, w V. 2. u , v = u , v para cualesquiera u, v V y R. 3. u v , w = u , w v , w para cualesquiera u, v, w V. 4. u , v w = u , v u , w para cualesquiera u, v, w V. / / V = 0 = 0V , v para todo v V. 5. v , 0 / . 6. Si u , v = 0 para cada v V, entonces u = 0 V Demostraci on. 1. Sean u, v, w V cualesquiera. Entonces u, v +w = v +w, u = v, u + w, u = u, v + u, w . 2. Sean u, v V y R cualesquiera. As que ello debemos hallar la FERF de A. u , v = v , u = v , u = u , v . 3.=Sean u, v, w V cualesquiera. Luego A uv, w = = u + (v ) , w = u , w + v , w u , w + (1) v , w = = u , w + (1)v , w

u, w v, w .

182

IV. Espacios Vectoriales


4. Sean u, v, w V cualesquiera. As que u, v w = v w, u = v, u w, u = u, v u, w . 5. Sea v V cualquiera. Entonces
/ / / / / v, 0 V = v , 0V + 0V = v , 0V + v , 0V .

/ / , v = v, 0 / As que v , 0 as 0 V = 0 y adem V V = 0.

/ 6. Como u , v = 0 para cada v V, entonces u , u = 0 (tomando v = u), luego u = 0 V

(por qu e?).

4.6.

Bases Ortonormales . Proceso de Ortonormalizaci on de Gram-Schmidt

Denici on 4.6.5. Sea ,

V. Diremos que u es ortogonal a v si u , v = 0, en cuyo caso escribiremos u v .

un producto interno sobre un espacio vectorial V y sean u, v

Observaci on 4.6.2. Si u es ortogonal a v , entonces v es ortogonal a u. En consecuencia, podemos escribir u y v son ortogonales en lugar de u es ortogonal a v . Ejemplo 4.6.10. 1. Sean x = (2, 1, 3) e y = (3, 3, 1). Entonces x , y = (2)(3) + (1)(3) + (3)(1) = 6 3 3 = 0 as que x y . 2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto mismo teorema, nos dice que el u nico vector que es ortogonal a todo vector v V, es el vector nulo. 3. Las funciones f (x) = sen(x) y g (x) = cos(x), en C [ , ], son ortogonales.
/ interno, el vector nulo 0 as, la parte 6 de este V es ortogonal a cualquier vector v V, adem

183

IV. Espacios Vectoriales


4. En P2 [x], los polinomios p(x) = 1+2x2 y q (x) = 2+ x2 son ortogonales si consideramos el

producto interno denido en la parte 3 del ejemplo 3.9 (verif quelo!), pero si consideramos el producto interno denido en la parte 2 del mismo ejemplo, estos polinomios no son ortogonales (verif quelo!).

Denici on 4.6.6. Sea

un producto interno sobre el espacio vectorial V. Deniremos la

nor-ma, magnitud, m odulo o longitud (inducida por el producto interno) de v V, como el n umero real v dado por v = Diremos que v V es unitario si v = 1. Observaci on 4.6.3. La norma de un vector no siempre est a denida en t erminos del producto interno (ver B), sin embargo, en este cap tulo nos ocuparemos de las normas inducidas por un producto interno. Dado que v , v 0 para cada v V, entonces la denici on anterior est a bien fundada. Ejemplo 4.6.11. Consideremos sobre R4 el producto interno euclidiano. Entonces 0, 3, 2) , (1, 0, 3, 2) = 12 + 02 + (3)2 + 22 = 14 (1, 0, 3, 2) = (1, Ejem. 4.6.12. En P2 [x] consideremos el polinomio p(x) = 3 x2 . Hallar p considerando: 1. El producto interno denido en la parte 1 del ejemplo 3.9 con a = 1 y b = 1. 2. El producto interno denido en la parte 2 del ejemplo 3.9. 3. El producto interno denido en la parte 3 del ejemplo 3.9. Soluci on .
1 1

v, v

1. p =
1

(3

x2 )2 dx

=
1

(9 2

6x2

x4 )dx 2 5

9x

2x3

x5 + 5

1 1

= 2. p =

2 92+

1 5

36 =6 5

[p(0)]2 + [p(1)]2 + [p(2)]2 =

32 + 22 + (1)2 =

14

184

IV. Espacios Vectoriales


3. p = 32 + 02 + (1)2 = 10

A continuaci on enunciaremos un teorema donde se dan a conocer algunas propiedades de la norma, y que son consecuencia directa las propiedades del producto interno, su demostraci on se deja como ejercicio. Teo.4.6.7. Sea V un EPI. Entonces para cada R y cualesquiera u, v V se cumple que:
/ . 1. u 0 y u = 0 si y s olo si u = 0 V

2. u = || u . 3. u v
2

= u

2 u , v + v 2.

El siguiente lema nos permitir a demostrar el teorema que le sigue. Lema 4.6..1. Sean u y v dos vectores unitarios en un EPI. Entonces | u , v | 1. Demostraci on. Usando la parte 3 del teorema 3.7, tenemos que 0 u+v As que u , v 1 Nuevamente, por la parte 3 del teorema 4.6.7, obtenemos 0 uv luego u, v 1 En consecuencia | u, v | 1
2 2

= u

+2 u, v + v

= 1 + 2 u , v + 1 = 2[1 + u , v ]

= u

2 u, v + v

= 1 2 u , v + 1 = 2[1 u , v ]

En el teorema que enunciaremos a continuaci on, se dan dos propiedades muy importantes de la norma.

185

IV. Espacios Vectoriales


Teo-4.6.8. Sean u y v dos vectores en un EPI. Entonces 1. | u , v | u v (Desigualdad de Cauchy-Schwarz). 2. u + v u + v (Desigualdad Triangular). Las igualdades se cumplen si y s olo si uno de los vectores es m ultiplo escalar del otro (pru ebelo!) Demostraci on.
/ / 1. Si u = 0 u v V o v = 0V , entonces | u , v | = 0 = u v . / yv= son unitarios, V = v y por lo tanto los vectores u = u v En caso y por el contrario, lema 4.1 u = 0

| u, v | 1 Pero u, v = Por lo tanto 1 u v u v , u v = 1 u v u, v

u , v 1, es decir, u , v u v .

2. Por la parte 3 del teorema 4.7 tenemos que u+v


2

= u

+2 u, v + v

y por la parte 1 (desigualdad de Cauchy-Schwarz) u, v | u, v | u v As que u+v


2

+2 u v + v

= ( u + v )2

Luego u + v u + v .

Def.4.6.7. Sea V un EPI y sean u, v V vectores no nulos. Deniremos el angulo entre u y v como el n umero real (u, v ) [ 0 , ] tal que es decir, u, v cos((u, v )) = u v u, v u v

(u, v ) = arc cos

186

IV. Espacios Vectoriales


Ejem. 4.6.13. Hallar el angulo entre los vectores u = (0, 3, 3) y v = (2, 2, 1) Soluci on. u , v = 0 2 + (3)2 + 3(1) = 9 u = 02 + (3)2 + 32 = 18 = 3 2 v 22 + 22 + (1)2 = 9 = 3 As que u, v u v 9 = arc cos 3 23 2 2 3 4

(u, v ) = arc cos

= arc cos

Def.4.6.8. Sea V un EPI y sea S = {v1, v2, . . . , vk} V. Diremos que S es un conjunto ortogonal si vi vj para cualesquiera i, j {1, . . . , k} con i = j. Si adicionalmente vi es unitario para cada i {1, . . . , k}, diremos que S es un conjunto ortonormal. Ejem. 4.6.14. Consideremos las siguientes matrices en M22 (R) A1 = 1 0 0 0 ; A2 = 0 2 2 0 y A3 = 0 1 1 3

Es S = {A1 , A2 , A3 } un conjunto ortogonal? Es S ortonormal? Soluci on . A1 , A2 = 1 0 + 0 2 + 0(2) + 0 0 = 0 A1 , A3 = 1 0 + 0 1 + 0 1 + 0 3 = 0 A2 , A3 = 0 0 + 2 1 + (2)1 + 0 3 = 0 As que S es ortogonal. Pero A2 = 02 + 22 + (2)2 + 02 = 2 2 = 1

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde 1 1 A2 = A2 A2 2 2 s es un conjunto ortonormal (verif quelo!). B1 = B2 = 1 A1 = A1 , A1 1 1 A3 = A3 y B3 = A3 11

Teorema4.6.9. Todo conjunto ortogonal nito de vectores no nulos en un EPI es linealmente independiente.

187

IV. Espacios Vectoriales


Demostraci on. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } V un conjunto ortogonal de vectores no nulos. Sean 1 , 2 , . . . , k R tales que
/ 1 v1 + 2 v2 + + k vk = 0 V

Entonces, para cada j {1, . . . , k }, se tiene que 0 = vj , 0V = vj , 1 v1 + 2 v2 + + k vk =


/

vj , i vi =
i=1 i=1

i vj , vi = j vj , vj

= j vj

y dado que vj es no nulo, entonces j = 0. Por lo tanto S es linealmente independiente.

Def.4.6.9. Sean V un .EPI y = {v1 , v2 , . . . , vn } una base de V. Diremos que es una ortonormal). Ejemplo 4.6.15. 1. Las bases can onicas de Rn y Mmn (R) son bases ortonormales. 2. Una base ortogonal de M22 (R) es = pero no es ortonormal. 1 0 0 0 ; 0 2 2 0 ; 0 1 1 3 ; 0 3

base ortogonal (respectivamente ortonormal) si es un conjunto ortogonal (respectivamente

3 2

3. Una base ortonormal de P2 [x], considerando el producto interno denido en la parte 1 del ejemplo 4.6 .9 con a = 1 y b = 1, es = En efecto, 1 2 3 x 2
2

1 , 2 1 2 3 2
2

3 5 x , 1 + 3x2 2 2 2
2

1 x
2

1 = 2
1

1 dx = 2 = 1 2 1
1 2

3 = 2

3 x3 x dx = 2 3 1

=1
1

188

IV. Espacios Vectoriales


5 1 + 3x2 2 2
2

= 5 = 8

5 2 2
1 1

1 + 3x2 1 6x + 9x
2 4

5 8

1 1

1 + 3x2
3

dx
1

5 dx = 8

9 x 2x + x5 5

dx = 1
1

Adem as

3 3 1 1, x = xdx = 0 2 2 1 1 5 1 5 5 1 2 2 , 1 + 3x = 1 , 1 + 3x = 1 + 3x2 dx 4 2 2 2 22 2 1 5 1 = x + x3 1 = 0 4 3 5 3 5 15 1 2 2 x , 1 + 3x = x , 1 + 3x = x 1 + 3x2 dx = 0 2 2 4 2 2 2 2 1 1 , 2 3 x 2 1 = 2

Para nalizar esta secci on, nos plantearemos y solucionaremos el problema de hallar una base ortonormal para un EPI de dimensi on nita o para un subespacio de dimensi on nita de un EPI, comenzaremos con un ejemplo el cual ilustrar a un procedimiento, conocido como proceso de ortonormalizaci on de Gram-Schmidt , que nos permite encontrar tal base. Ejem. 4.6.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere. mos la base de P2 [x] = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base

Soluci on. Hagamos v1 = 1 , Entonces


1

v2 = x y v3 = x2

v1 =
1

dx =

Sea u1 = As que u1 = 1. Ahora hagamos

1 1 v1 = v1 2

w2 = v2 v2 , u1 u1

189

IV. Espacios Vectoriales


Pero v2 , u1 = Luego w2 = v2 = x, adem as
1

1 x, 2

1 1 = x, 1 = 2 2

xdx = 0.
1

w2 =
1

x2 dx

x3 3

=
1

2 3

Si hacemos u2 =

1 w2 = w2

3 x 2

entonces u2 = 1 y u1 u2 (ver ejemplo 3.15). Consideremos w3 = v3 v3 , u1 u1 v3 , u2 u2 Pero v3 , u1 = 1 x2 , 2


2

1 1 = x2 , 1 = 2 2 3 x 2 =

1 x3 x2 dx = 2 3 1 3 2
1

1 1

2 = 3 2

v3 , u2 = De donde

x ,

3 2 x ,x = 2

x3 dx = 0
1

2 1 1 w3 = x2 = + x2 3 3 2 2 1 + x2 3 1 8 2 2 = 45 3 5
1 2 1

y w3 = = dx =
1

1 2 2 x + x4 dx = 9 3

1 2 x5 x x3 + 9 9 5

1 1

Finalmente, hagamos 1 3 5 u3 = w3 = w3 2 2 1 + x2 3 5 = 1 + 3x2 2 2

Entonces u3 = 1 , u3 u1 y u3 u2 (ver ejemplo 3.15). Por lo tanto {u 1 , u 2 , u 3 } = 1 , 2 3 5 x , 1 + 3x2 2 2 2

es una base ortonormal de P2 [x], la cual se obtuvo de .

190

IV. Espacios Vectoriales

El teorema siguiente generaliza el procedimiento que se us o en ejemplo anterior. Teo.4.6.10 (Proceso de Ortonormalizaci on de Gram-Schmidt). Sea V un EPI. Si W es un subespacio de dimensi on nita de V, entonces W posee una base ortonormal. En Particular, si V tiene dimensi on nita, entonces V posee una base ortonormal. Demostraci on. Sea W = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base
/ En primer lugar, notemos que vi = 0 V para cada i {1, . . . , m}.

ortonormal de W a partir de W .

Paso 1. Sea u1 =

1 v1 v1 = . Entonces gen({u1 }) = gen({v1 }) (por qu e?) y v1 v1 u1 = v1 v1 = 1 v1 v1 = 1

/ , pues de lo contrario Paso 2. Sea w2 = v2 v2 , u1 u1 . Entonces w2 = 0 V

v2 = v2 , u1 u1 =

v2 , u1 v1 v1

lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente. Adem as w2 , u1 = v2 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 u1 , u1 Con lo que w2 u1 . Paso 3. Sea u2 =

= v2 , u1 v2 , u1 u1 , u1 = v2 , u1 v2 , u1 = 0

1 w2 w2 = . Entonces u2 = 1 y u1 u2 . As que {u1 , u2} es un w2 w2 conjunto ortonormal. Adem as gen({u1, u2 }) = gen({v1 , v2 }). En efecto, sea v gen({u1, u2 } cualquiera. Entonces existen 1 , 2 R tales que v = 1 u1 + 2 u2 . Luego v = 1 u1 + 2 u2 1 1 = 1 v1 + 2 w2 v1 w2 1 2 = v1 + (v2 v2 , u1 u1 ) v1 w2 1 2 1 = v1 + v2 v2 , u1 v1 v1 w2 v1 1 2 v2 , u1 2 = v1 + v2 v1 w2 v1 w2

191

IV. Espacios Vectoriales


De donde v gen({v1 , v2 }), por tanto gen({u1 , u2 }) gen({v1 , v2 }) y as gen({u1 , u2}) consecuencia linealmente independiente (por qu e?), entonces dim(gen({u1, u2 })) = 2 = dim(gen({v1 , v2 })), as que gen({u1 , u2 }) = gen({v1 , v2 }) (por qu e?) De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1 , u2 , . . . , uk } tal que gen({u1 , u2, . . . , uk }) = gen({v1 , v2 , . . . , vk }) Paso 4. Sea wk+1 = vk+1 vk+1 , u1 u1 vk+1 , u2 u2 vk+1 , uk uk
k

es un subespacio de gen({v1 , v2 }), como {u1 , u2} es un conjunto ortonormal, y en

= vk+1

vk+1 , ui ui
i=1

/ Entonces wk+1 W, wk+1 = 0 V y para cada j {1, . . . , k } tenemos que

wk+1 , uj

= = = =

vk+1

vk+1 , ui ui , uj
i=1 k

vk+1 , uj
k

vk+1 , ui ui , uj
i=1

vk+1 , uj vk+1 , uj

vk+1 , ui ui , uj
i=1 k

i=1

vk+1 , ui ui , uj (por qu e?) uj , uj (por qu e?)

= =

vk+1 , uj vk+1 , uj vk+1 , uj vk+1 , uj

= 0 es decir, wk+1 uj para cada j {1, . . . , k }. 1 wk+1 =

Paso 5. Hagamos uk+1 = qu e?).

wk+1 . Entonces {u1 , u2, . . . , uk , uk+1} es un wk+1 wk+1 conjunto ortonormal y gen({u1 , u2 , . . . , uk , uk+1}) = gen({v1 , v2 , . . . , vk , vk+1}) (por

en W, y por lo tanto, una base ortonormal de W.

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}

192

Cap tulo V
Transformaciones Lineales. Autovalores y Autovectores de una Matriz

5.1.

Introducci on a lasTransformaciones Lineales

Denici on 5.1. Sean V y W dos espacios vectoriales y T : V W una funci on. Diremos que T es una transformaci on lineal si para cualesquiera u, v V y R se cumple que 1. T (u + v ) = T (u) + T (v ). 2. T (u) = T (u). Ejemplo 5.11. Sean V y W dos espacios vectoriales. La transformaci on O : V W, dada por O (v ) = 0
/

para cada v V, es una transformaci on lineal (pru ebelo!), llamada transformaci on nula.

2. Sea V un espacio vectorial. Denamos IV : V V como sigue, IV (v ) = v para cada v V. identidad sobre V.

Entonces IV es una transformaci on lineal (pru ebelo!), la cual es llamada transformaci on

3. Sean V un espacio vectorial de dimensi on n y una base ordenada de V. Entonces T : V Mn1 (R) dada por T (v ) = [v ] es una transformaci on lineal (ver teorema 3.1 en el cap tulo anterior). 4. T : R3 R2 , dada por T (x, y, z ) = (2x + y, x z ), es una transformaci on lineal, en efecto, dados (x, y, z ), (a, b, c) R3 y R, se tiene que T ((x, y, z ) + (a, b, c)) = T (x + a, y + b, z + c) = (2(x + a) + (y + b), (x + a) (z + c)) = (2x + 2a + y + b, x + a z c) = (2x + y, x z ) + (2a + b, a c) = T (x, y, z ) + T (a, b, c)

193

V.Transformaciones Lineales.
T ((x, y, z )) = T (x, y, z ) = (2(x) + (y ), (x) (z )) = ((2x + y ), (x z )) = (2x + y, x z ) = T (x, y, z )

5. La funci on T : R2 R3 dada por T (x, y ) = (x2 , x + y, xy ) no es una transformaci on lineal, en efecto, T (1, 0) = (12 , 1 + 0, 1 0) = (1, 1, 0) T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 0) = (4, 2, 0) 2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) = (4, 2, 0) = T (2(1, 0)) 6. T : P2 [x] R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b c) no es una transformaci on lineal, en efecto, T (0) = (2 0 + 0 + 3, 0 0) = (3, 0) T (0) + T (0) = (3, 0) + (3, 0) = (6, 0) T (0 + 0) = T (0) = (3, 0) = (6, 0) = T (0) + T (0) 7. Consideremos T : M22 (R) P3 [x] dada por T a b c d = a + bx + cx2 + dx3

Entonces T es lineal (pru ebelo!). 8. T : R3 P3 [x] dada por T (a, b, c) = b + (2a + c)x + (b 3c)x3

194

V. Transformaciones Lineales.
es lineal. En efecto, sean u, v R3 y R cualesquiera, con u = (a1 , b1 , c1 ) y v = (a2 , b2 , c2 ). Entonces

T (u + v ) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 )) = T (a1 + a2 , b1 + b2 , c1 + c2 ) = (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) 3(c1 + c2 )]x3 = (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 3c1 3c2 )x3 = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 3c2 )x3 ] = T (a1 , b1 , c1 ) + T (a2 , b2 , c2 ) = T (u ) + T (v )

T (u) = T ((a1 , b1 , c1 ))
1,

c)= T (a1 , b

= b1 + (2 a1 + c1 )x + (b1 3 c1 )x3 = b1 + (2a1 + c1 )x + (b1 3c1 )x3 = [b1 + (2a1 + c1 )x + (b1 3c1 )x3 ] = T (a1 , b1 , c1 ) = T (u)

9. Sea A Mmn (R). Denamos T : Mn1 (R) Mm1 (R) como T (x) = Ax. No es dif cil probar que T es una transformaci on lineal . Este ultimo ejemplo nos dice que toda matriz dene una transformacion lineal, mas adelante veremos que toda transformacion lineal, entre espacios vectoriales de dimension nita, esta asociada con una matriz. El siguiente teorema nos ser a de gran utilidad a la hora de decidir si una funci on T es una transformaci on lineal. Teorema 5.1. Sean V y W dos espacios vectoriales. Una funci on T : V W es una transformaci on lineal si y s olo si para cualesquiera u, v V y R se cumple que T (u + v ) =T (u) + T (v ) T (u) + T (v ).

195

V.Transformaciones Lineales.
Demostraci on. Supongamos que T : V W es una transformaci on lineal. Sean u, v V y R cualesquiera. Entonces T (u + v ) = T (u) + T (v ) (por la condicin 1 de la denici on 4.1) = T (u) + T (v ) (por la condicin 2 de la denici on 4.1) Supongamos ahora que T : V W es tal que para cualesquiera u, v V y R se cumple T (u + v ) = T (u) + T (v ) Sean u, v V y R cualesquiera. Entonces T (u + v ) = T (u + 1 v ) = T (u) + 1 T (v ) = T (u) + T (v ) y adem as
/ ) = T (u + (1)u) = T (u) + (1)T (u) = 0 / T (0 V W

que

luego
/ +v ) = T (0 / ) + T (v ) = 0 / T (v ) = T (0 V V W +T (v ) = T (v )

Por lo tanto T es lineal.

De ahora en adelante, gracias a este u ltimo teorema, cuando queramos probar que una funci on T, entre espacios vectoriales, es una transformaci on lineal, no ser a necesario probar las dos condiciones en la denici on 4.1, s olo bastar a probar la condici on en el teorema anterior. Teorema 5.2. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal.

Entonces, para cualesquiera u, v, v1 , v2 , . . . , vn V y 1 , 2 , . . . , n R, se cumple que


/ ) = 0 / . 1. T (0 V W

2. T (u v ) = T (u) T (v ). 3. T (1 v1 + 2 v2 + + n vn ) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) Demostraci on. 1. Sea v0 V cualquiera pero jo. Entonces
/ ) = T (0 v ) = 0 T (v ) = 0 / T (0 V 0 0 W

196

V.Transformaciones Lineales.
2. En virtud del teorema 4.1 T (u v ) = T (u + (1)v ) = T (u) + (1)T (v ) = T (u) T (v ) 3. Procederemos por inducci on. a ) Veamos que se cumple para n = 2. T (1 v1 + 2 v2 ) = T (1 v1 ) + T (2 v2 ) = 1 T (v1 ) + 2 T (v2 ) b ) (Hip otesis Inductiva) Supongamos que se cumple para n 1, esto es, supongamos que T (1 v1 + 2 v2 + + n1 vn1 ) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) c ) Probemos que se cumple para n. T (1 v1 + 2 v2 + + n1 vn1 + n vn ) = T ((1 v1 + 2 v2 + + n1 vn1 ) + n vn ) = T (1 v1 + 2 v2 + + n1 vn1 ) + T (n vn ) (Hip otesis Inductiva) = 1 T (v1 ) + 2 T (v2 ) + + n1 T (vn1 ) + n T (vn )

Teorema 5.3. Sean U, V y W espacios vectoriales y L : U V y T : V W dos transformaciones lineales. Entonces T L : U W es tambi en una transformaci on lineal. Demostraci on. Sean u1 , u2 U y R cualesquiera. Entonces (T L)(u1 + u2 ) = T (L(u1 + u2)) (denici on de composici on de funciones) = T (L(u1 ) + L(u2 )) (ya que L es lineal) = T (L(u1 )) + T (L(u2)) (ya que T es lineal) = (T L)(u1 ) + (T L)(u2 ) (denici on de composici on de funciones) Por lo tanto T L es lineal. Teorema 5.4. Sean V y W dos espacios vectoriales, T, L : V W dos transformaciones

lineales y R. Entonces T + L : V W es tambi en una transformaci on lineal.

197

V.Transformaciones Lineales.
Demostraci on. Sean v1 , v2 V y R cualesquiera. Entonces (T + L)(v1 + v2 ) = T (v1 + v2 ) + (L)(v1 + v2 ) (denici on de suma de funciones)

= T (v1 + v2 ) + L(v1 + v2 ) (denici on de m ultiplo escalar de funciones) = T (v1 ) + T (v2 ) + (L(v1 ) + L(v2 )) (pues T y L son lineales) = T (v1 ) + T (v2 ) + L(v1 ) + L(v2 ) = T (v1 ) + L(v1 ) + T (v2 ) + L(v2 ) = T (v1 ) + L(v1 ) + (T (v2 ) + L(v2 )) = T (v1 ) + (L)(v1 ) + (T (v2 ) + (L)(v2 )) (denici on de m ultiplo escalar de funciones) = (T + L)(v1 ) + (T + L)(v2 ) (denici on de suma de funciones) En consecuencia T + L es lineal.

Dado dos espacios vectoriales V y W, este u ltimo teorema nos dice que el conjunto formado por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de funciones y multiplicaci on por escalar, forman un espacio vectorial. Teorema 5.5. Sean V y W dos espacios vectoriales y = {v1 , v2 , . . . , vn } una base de V. Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) = L(vi ) para cada i {1, . . . , n}. Entonces T = L, esto es, T (v ) = L(v ) para cada v V.
1, 2, . . . , n

R tales que Demostraci on. Sea v V cualquiera. Existen ( unicos) escalares


n vn

v = 1 v1 + 2 v2 + +

as que
n vn )

(teorema 5.2 parte 3) T (v ) = T (1 v1 + 2 v2 + + = 1 L(v1 ) + 2 L(v2 ) + + n L(vn ) (hip otesis) = 1 T (v1 ) + 2 T (v2 ) + + n T (vn ) = L( 1 v1 + 2 v2 + + n vn ) (teorema 5.2 parte 3) = L(v )

198

V.Transformaciones Lineales.
Luego T = L.

dimensi on nita, basta con conocer como act ua T en una base cualquiera de V, para saber como act ua T en cualquier v V. Ejemplo 5.2. Hallar la transformaci on lineal T de P2 [x] en R2 tal que T (1) = (2, 1); Soluci on . T (a0 + a1 x + a2 x2 ) = T (a0 1 + a1 x + a2 x2 ) = a0 T (1) + a1 T (x) + a2 T (x2 ) = a0 (2, 1) + a1 (3, 4) + a2 (1, 5) = (2a0 + 3a1 a2 , a0 + 4a1 + 5a2 ) T (x) = (3, 4); T (x2 ) = (1, 5)

El teorema anterior nos dice que si T : V W es una transformaci on lineal y V tiene

Teorema 5.6 (Existencia y Unicidad de una Transformaci on Lineal). Sean V y W dos espacios u nica transformaci on lineal T : V W tal que T (vi ) = wi para cada i {1, . . . , n}. vectoriales, = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn W. Entonces existe una Demostraci on. Dado v V cualquiera, existen u nicos escalares, 1 , 2 , . . . , n R, tales que
n

v = 1 v1 + 2 v2 + + n vn = Denamos

i vi
i=1 n

T (v ) = 1 w1 + 2 w2 + + n wn =

i wi
i=1

La unicidad de los escalares 1 , 2 , . . . , n R, garantiza que T es una funci on, adem as, dado que w1 , w2 , . . . , wn W y W es un espacio vectorial, se tiene que T (v ) W, por lo tanto T es una funci on de V en W.
n

Por otro lado, para cada j {1, . . . , n}, se tiene que vj = j = 1, as que T (vj ) =
i=1 n

i vi , donde i = 0 si i = j y
i=1

i w i = j w j = w j

199

V. Transformaciones Lineales.
Probemos ahora que T es lineal. Sean u, v V y R cualesquiera, entonces existen u nicos
n

escalares 1 , 2 , . . . , n , 1 , 2 , . . . , n R tales que

u = 1 v1 + 2 v2 + + n vn = v = 1 v1 + 2 v2 + + n vn = As que

i vi
i=1 n

i vi
i=1 n

T (u) = 1 w1 + 2 w2 + + n wn = T (v ) = 1 w1 + 2 w2 + + n wn = Adem as u + v =
i=1 n n n

i wi
i=1 n

i wi
i=1

i vi +
i=1

i vi =
i=1

(i + i )vi

Por lo tanto
n n n

T (u + v ) =
i=1

(i + i )wi =
i=1

i wi +
i=1

i wi = T (u) + T (v )

En consecuencia T es lineal. Finalmente, probemos que T es u nica. Supongamos que existe otra transformaci on lineal L : V W tal que L(vi ) = wi para cada i {1, . . . , n}. Luego, por el teorema 5.5, se tiene que L = T .

Ejemplo 5.3. Hallar una transformaci on lineal T : R3 M22 (R) (si existe) tal que T (2, 2, 1) = T (2, 1, 2) = 2 0 1 2 2 1 3 5 ; T (0, 1, 3) = T (1, 1, 0) = 0 1 4 3 ;

4 2 1

Soluci on. Veamos cuales de los vectores (2, 2, 1), (0, 1, 3), (2, 1, 2), (1, 1, 0) son linealmente independientes, para ello, consideremos la matriz 2 0 2 1 1 1 1 2 1 3 2 0

200

V. Transformaciones Lineales.
y hallemos su FERF. 2 0 2 1 1 1 3 2 0 1 3 2 0

1 1 F1 F3 2 1 1 1 F1 F1 2 1 1 1 1 3 2 0 2 0 2 1 2 0 2 1 1 3 2 0 1 3 2 0 F2 F2 2F1 F F + F 0 5 5 1 0 1 1 0 2 2 3 F3 F3 + 2F1 0 6 6 1 0 6 6 1 1 0 1 0 F1 F1 3F2 0 1 1 0 F3 F3 6F2 0 0 0 1 Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores 2 (2, 2, 1), (0, 1, 3), (1, 1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema 4.6, concluimos que existe una u nica transformaci on lineal tal que T (2, 2, 1) = 2 0 ; T (0, 1, 3) = 4 2 1 0 1 4 ;

1 2

T (1, 1, 0) =

Hallemos T . Sea (x, y, z ) R3 cualquiera. Hagamos = {(2, 2, 1), (0, 1, 3), (1, 1, 0)} debemos hallar [(x, y, z )] , para ello hallemos la matriz Mc , . 2 0 1 1 0 0 1 3 2 0 0 0 1

1 1 0 1 0 F1 1 3 0 0 0 1 1 3 0 0 F1 F1 2 1 1 0 2 0 1 1 2

F3

1 1 0 1 0 2 0 1 1 0 0 0 1 1 3 0 0 0 1 F2 F2 2F1 0 5 1 0 1 1 0 2 F3 F3 + 2F1 0 0 0 6 1 1 0 2

201

V. Transformaciones Lineales.
1 3 0 0 0 1 1 0 0 3 3 1

En consecuencia

F1 F1 3F2 F2 F2 + F3 0 1 0 1 1 0 0 1 0 1 1 0 F3 F3 6F2 0 6 1 1 0 2 0 0 1 5 6 2 Por lo tanto 3 3 1 Mc , = 1 1 0 5 6 2 [(x, y, z )] = Mc , [(x, y, z )]c = 3 3 1 1 1 0 y = x+y 5 6 2 z 5x 6y 2z x 3x 3y z

Es decir

(x, y, z ) = (3x 3y z )(2, 2, 1) + (x + y )(0, 1, 3) + (5x 6y 2z )(1, 1, 0) De donde T (x, y, z ) = (3x 3y z )T (2, 2, 1) + (x + y )T (0, 1, 3) +(5x 6y 2z )T (1, 1, 0) = (3x 3y z ) 2 0 1 2 1 + (x + y ) 0 1 4 3

+(5x 6y 2z ) = Por u ltimo T (2, 1, 2) =

4 2

26x 30y 10z 9x + 11y + 4z 4x 5y 3z 9 x + 9y + 2z

26(2) 30(1) 10(2) 9(2) + 11(1) + 4(2) 4(2) 5(1) 3(2) 9(2) + 9(1) + 2(2)

3 5

Por lo tanto, T es la transformaci on lineal requerida (adem as, es u nica).

Ejemplo 5.4. Hallar una transformaci on lineal (si existe) T : R4 M31 (R) tal que 1 0 T (1, 2, 1, 1) = 2 ; T (2, 1, 3, 0) = 1 3 2

202

V.Transformaciones Lineales.
2 3

Soluci on. Veamos si el conjunto S = {(1, 2, 1, 1); (2, 1, 3, 0); (0, 5, 1, 2); (1, 7, 0, 3)} es linealmente independiente, para ello consideremos la matriz 1 2 0 1 2 1 1 3 1 5 1 7 0 2 0 3

T (0, 5, 1, 2) = 5 ; 8

T (1, 7, 0, 3) =

7 11

y hallemos su FERF 1 2 0 1

2 1 1 3

5 7 5 5 5 1 1 1 0 0 F2 F3 F3 F3 F1 1 0 0 1 1 1 5 5 5 0 F4 F4 F1 1 0 2 3 0 2 2 2 0 2 2 2 1 0 2 3 F1 F1 2F2 1 1 0 1 F3 F3 5F2 0 0 0 0 F4 F4 + 2F2 0 0 0 0 Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos

F2 F2 + 2F1

proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo de estos dos vectores (el teorema de completaci on de bases nos lo permite) c omo hacerlo?, escojamos estos vectores entre los can onicos, para saber cu al de ellos escoger, consideremos la siguiente matriz 1 2 1 0 0 0

2 1 0 1 0 0 hallemos su FERF. 1 3 0 0 1 0 1 0 0 0 0 1

203

V. Transformaciones Lineales.
1 2 1 0 0 0 1 2 1 0 0 0

5 2 1 0 0 2 1 0 1 0 0 0 F3 F3 F1 1 1 0 1 0 1 3 0 0 1 0 F F F 0 4 4 1 1 0 0 0 0 1 0 2 1 0 0 1 1 2 1 0 0 0 1 0 3 0 F1 F1 2F2 1 1 0 1 0 0 0 1 1 0 F2 F3 F F 5 F 3 3 2 0 5 2 1 0 0 7 1 F F + 2F 0 0 4 4 2 0 2 1 0 0 1 0 0 3 0 1 0 3 0 2 0 1 0 0 3 7 F1 F1 3F3 1 1 0 0 1 0 0 1 1 0 7 F3 1 F F F + F 3 2 2 3 7 1 5 1 0 0 1 7 7 0 0 0 1 7 F4 F4 + 3F3 3 0 0 3 0 2 1 0 0 0 7 de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir, = {(1, 2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)} es una base de R4 , haciendo 0

F2 F2 + 2F1

2 0

1 0

5 0 2 1 1 0 7
2 7 5 7 1 7

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base

0 0 1

garantizamos, seg un el teorema 4.6, que existe una u nica transformaci on lineal T : R4 M13 (R) que satisface las dos primeras igualdades en el enunciado del ejercicio y 0 T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0 base , obtenemos (vericarlo!)

T (1, 0, 0, 0) = T (0, 1, 0, 0) = 0 0

Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w ) R4 cualquiera, respecto a la w


1 z1 w 3 3 2 z1 w 3 3 1 z+7 w 3 3

(x, y, z, w )

x y

204

V. Transformaciones Lineales.
Por lo tanto T (x, y, z, w ) = T 1 1 z w (2, 1, 3, 0) 3 3 2 1 1 7 + x z (1, 0, 0, 0) + y z + w (0, 1, 0, 0) 3 3 3 3 1 1 = wT (1, 2, 1, 1) + z w T (2, 1, 3, 0) 3 3 2 1 1 7 + x z T (1, 0, 0, 0) + y z + w T (0, 1, 0, 0) 3 3 3 3 1 0 0 1 1 1 1 = w 2 + z w 1 + z w 0 3 3 3 3 3 2 0 0 1 7 + y z+ w 0 3 3 0 w (1, 2, 1, 1) + w

Se puede vericar que T satisface las u ltimas dos igualdades en el enunciado del ejercicio, as que T es la transformaci on buscada, pero a diferencia de la transformaci on hallada en el ejercicio anterior, esta no es u nica, depende de la escogencia de los vectores que completan la base del espacio de partida y la escogencia de las im agenes de estos.

7 T (x, y, z, w ) = 1 z + w 3 3 2 11 z 3w 3

5.2.

Matriz de una Transformaci on Lineal

de Mn1 (R) en Mm1 (R), adem as, se coment o que toda transformaci on lineal, entre espacios demostraremos un teorema que garantiza esta u ltima armaci on.

En la secci on anterior, vimos que toda matriz A Mmn (R), dene una transformaci on lineal

vectoriales de dimensi on nita, est a asociada con una matriz, a continuaci on enunciaremos y

205

V. Transformaciones Lineales.
Teorema 5.7. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformaci on lineal.

Entonces existe un u nica matriz A Mmn (R) tal que para cada v V [T (v )]W = A[v ] V
1j , 2j , . . . , mj

R tales que Demostraci on. Para cada j {1, . . . , n}, existen escalares mj wm T (vj ) = 1j w1 + 2j w + 2 + 1j 2j . . mj 1

es decir

Dado v V cualquiera, hagamos

[T (vj )]W = [v ]V =

es decir

2 . . n

v = 1 v1 + 2 v2 + + n vn De donde n vn ) T (v ) = T (1 v1 + 2 v2 + +
n T (vn )

= 1 T (v1 ) + 2 T (v2 ) + +

= 1 (11 w1 + 21 w2 + + m1 wm ) + 2 (12 w1 + 22 w2 + + m2 wm ) + +
mn wm )

+ n (1n w1 + 2n w2 + +

[T (v )]W = Por lo tanto

= (11 1 + 12 2 + + 1n n )w1 + (21 1 + 22 2 + + 2n n )w2 + + n ) w 1 11 + + + mn m +( + + + 11 12 1n 1 12 2 m1 1 m1 2n2 n

21 1 + 22 2 + + 2n n 21 22 2n 2 = A[v ]V = . . . . . m1 1 + m2 2 + + mn n m1 m2 mn n

206

V. Transformaciones Lineales.
donde

11

12

A=

Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos ahora su unicidad. Supongamos que B Mmn (R) es tal que para cada v V [T (v )]W = B [v ]V Luego, para cada j {1, . . . , n}, tenemos que [T (vj )]W = B [vj ]V Pero 0 . . 0 . . 0

21 22 2n = . . . . . . m1 m2 mn

1n

[T (v1 )]W [T (vn )]W

[vj ]V

0 = 1 j - esima la

Luego

A(j ) = [T (vj )]W = B [vj ]V = B (j ) Por lo tanto B = A.

Denici on 5.2. La matriz A en el teorema anterior, se denomina representaci on matricial de T respecto a las bases V y W , y la denotaremos por [T ]V ,W . Observaci on 5.1. Cuando W = V y W = V = , escribiremos [T ] en lugar de [T ],. Ejemplo 5.5. 1. Si Ves un espacio vectorial de dimensi on n, W es un espacio vectorial de dimensi on m,
V

y W son bases ordenadas de V y W respectivamente, entonces [O] V , W = /0 mn , donde O es la transformaci on nula de V en W.

207

V. Transformaciones Lineales.
2. Si V es un espacio vectorial de dimensi on n y es una base ordenada de V, entonces [IV ] = In , donde IV es la transformaci on identidad sobre V. Ejemplo 5.6. Denamos T : M22 (R) R3 como sigue T x y z w = (2y z, x y + w, 3x y z + w )

no es dif cil probar que T es lineal (pru ebelo!). Consideremos las bases can onicas ordenadas V de M22 (R) y W de R3 . Hallar [T ]V ,W . Soluci on. En primer lugar T 1 0 0 0 0 0 1 0 = (0, 1, 3) ; T 0 1 0 0 T = (2, 1, 1) = (0, 1, 1)

= (1, 0, 1) ;

0 0 0 1

y as, por denici on de la matriz [T ]V ,W 1 0 [T ]V ,W = T T 0 0


W

0 1 0 0
W

0 0 1 0
W

0 0 0 1
W

[(0, 1, 3)]W [(2, 1, 1)]W [(1, 0, 1)]W [(0, 1, 1)]W 0 2 1 0 = 1 1 0 1 3 1 1 1 =

Ejemplo 5.7. Consideremos la transformaci on lineal T : M22 (R) P2 [x] dada por T a b c d = (a + b c) + (a + 2b + c + d)x + (a 3b 3c 2d)x2

Sean V la base can onica ordenada de M22 (R), W la base can onica ordenada de P2 [x] y V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2

1 1

W = 1 + x; x + x2 ; 1 2x2 bases ordenadas de M22 (R) y P2 [x], respectivamente. Hallar [T ]V ,W y [T ] bV , bW .

208

V. Transformaciones Lineales.
Soluci on. En primer lugar, hallaremos las im agenes, a trav es de T , de cada uno de los vectores de la base can onica V . 1 0 0 0 0 0 1 0 = 1 + x x2 ; = 1 + x 3x2 ; 0 1 0 0 T = 1 + 2x 3x2 = x 2x2

0 0 0 1

Al igual que en ejemplo 4.6, por denici on de la matriz [T ]V ,W 1 0 0 1 0 0 [T ]V ,W = T T T 0 0 0 0 1 0


W W

T
W W

0 0 0 1
W W

An alogamente, para hallar [T ] agenes, a trav es de T , de cada uno bV , bW , hallemos primero las im de los vectores de la base V . 1 2 1 0 2 3 1 1 = 4 + 4x 4x2 ; = 4 + 8x 12x2 ; 1 0 1 1 2 1 3 2 = 2 + x 4x2 = 4 + 5x 14x2

1 + 2x 3x2 1 1 1 0 = 1 2 1 1 1 3 3 2 =
W

1 + x x2

1 + x 3x2

x 2x2

Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base W . Para ello consideremos la siguiente matriz cuatro veces ampliada (por qu e?). 1 0 1 4 2 4 4

las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base W , respecto a la base can onica W , el resto de las columnas, son las coordenadas de los vectores, hallados previamente, respecto a la base can onica W , esto es, las tres primeras columnas de esta matriz representan la matriz M ltimas 4 columnas reperesentan la matriz [T ] bW ,W y las u bV ,W . La FERF de esta matriz es

1 1 0 4 1 8 5 0 1 2 4 4 12 14

209

V. Transformaciones Lineales.

Por lo tanto

0 1 0 4 0 0 1 4

1 0 0 0 9 12 27 10 7 20 16

32 23

[T ] bW = 4 bV , 4

0 9 12 27 10 7 20 16

32 23

El ejemplo 5.7 nos permite escribir el siguiente algoritmo. V = {v1 , v2 , . . . , vn } es una base ordenada de V; W es una base ordenada del espacio vectorial o W = Mpq (R) con pq = m. Paso 1. Hallar T (v1 ), T (v2 ), . . . , T (vn ).
c y [T ] , c . Paso 2. Hallar las matrices MW ,W V W

Algoritmo para hallar la matriz [T ]V ,W , donde T : V W es una transformaci on lineal;

c W de dimensi on m; y W es la base can onica ordenada de W. En general W = Rm , W = Pm1 [x]

c |[T ] , c . Paso 3. Formar la la matriz ampliada MW ,W V W

Paso 4. Hallar la FERF de la matriz en el paso previo. Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B ]. Entonces [T ]V ,W = B . Teorema 5.8. Sean U, V y W espacios vectoriales, L : U V y T : V W dos trans-

formaciones lineales y U , V y W bases ordenadas de U, V y W respectivamente. Entonces [T L]U ,W = [T ]V ,W [L]U ,V Demostraci on. Sea u U cualquiera. Entonces ([T ]V ,W [L]U ,V )[u]U = [T ]V ,W ([L]U ,V [u]U ) = [T ]V ,W [L(u)]V ([T ]V ,W [L]U ,V )[u]U = [T (L(u))]W = [(T L)(u)]W .

210

V. Transformaciones Lineales.
Luego, por unicidad de la matriz [T L]U ,W , se tiene que [T L]U ,W = [T ]V ,W [L]U ,V

Teorema 5.9. Sean V y W dos espacios vectoriales de dimensi on nita; V y V bases ordenadas de V; W y W bases ordenadas de W y T : V W una transformaci on lineal. Entonces [T ] bW = MW , bW [T ]V ,W M bV , bV ,V Demostraci on. Sea v V cualquiera. Entonces [T (v )]W = [T ]V ,W [v ]V [v ]V = M bV ,V [v ] bV Luego [T (v )] bW = MW , bW [T (v )]W = MW , bW [T ]V ,W [v ]V = MW , bW [T ]V ,W M bV ,V [v ] bV Por unicidad de la matriz [T ] bV , bW , se tiene que [T ] bV , bW = MW , bW [T ]V ,W M bV ,V

Ejemplo 5.8. Consideremos T , V , W , V y W como en el ejemplo 5.7. Vericar el teorema

5.9.
Soluci on. Sabemos que

[T ] bV , bW = 4 4 [T ]V ,W Por otro lado, f acilmente obtenemos que

32 7 16 23 1 1 1 0 = 2 1 1 1 1 3 3 2 10 20 1 1 2 2 2 3 1

0 9 12 27

M bV ,V =

0 1

1 0

1 1

1 3

211

V. Transformaciones Lineales.
y haciendo algunos c alculos (no muchos ni muy complicados) obtenemos 2 1 1 MW , 2 1 bW , = 2 1 1 1 Al sustituir, se obtiene que [T ] bV , bW = MW , bW [T ]V ,W M bV ,V

Corolario 5.10. Sea V un espacio vectorial de dimensi on nita; V y V dos bases ordenadas de V y T : V V una transformaci on lineal. Entonces [T ] bV [T ]V M bV = MV , bV ,V Demostraci on. Ejercicio!

5.3.

N ucleo e Imagen de una Transformaci on Lineal

Denici on 5.3. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Deniremos

1. El n ucleo o kernel de T como el conjunto


/ } N(T ) = Ker(T ) = {v V : T (v ) = 0 W

2. La imagen o recorrido de T como el conjunto Im(T ) = {w W : T (v ) = w para alg un v V}

Observaci on 5.2. w Im(T ) si y s olo si existe v V tal que T (v ) = w . Teorema 5.11. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.

212

V. Transformaciones Lineales.
Demostraci on. Es claro que N(T ) V e Im(T ) W. donde, N(T ) = e Im(T ) = .

/ ) = 0 / , as / / Por la parte 1 del teorema 4.2, se tiene que T (0 que 0 V W V N(T ) y 0W Im(T ), de

Por otro lado, sean v1 , v2 N(T ) y R cualesquiera. Entonces


/ T (v1 ) = 0 W = T (v2 )

As que
/ / / T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0 W + 0W = 0W

Por lo tanto v1 + v2 N(T ), en consecuencia, N(T ) es un subespacio de V. T (v1 ) = w1 y T (v2 ) = w2 .

Finalmente, sean w1 , w2 Im(T ) y R cualesquiera. Entonces, existen v1 , v2 V tales que Consideremos v = v1 + v2 . As que v V y T (v ) = T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2

De donde w1 + w2 Im(T ), luego Im(T ) es un subespacio de W. Denici on 5.4. Sean V y W dos espacios vectoriales y T : V W una transformaci on lineal. Deniremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )). 2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )). Ejemplo 5.9.
/ } 1. Consideremos la transformaci on nula O : V W. Entonces N(O) = V e Im(O) = {0 W

(pru ebelo!).

2. Para la transformaci on identidad sobre V, IV : V V, se puede probar que Im(IV ) = V


/ } (pru y N(IV ) = {0 ebelo!). V

Ejemplo 5.10. Sea T la transformaci on dada en el ejemplo 4.6. Hallar n(T ) y r(T ).

213

V. Transformaciones Lineales.
Soluci on. Por denici on N(T ) = x y M22 (R) : T x y = (0, 0, 0)

z w

z w

Pero T

z w

= (0, 0, 0) si y s olo si y 2y z = 0 (5.1)

Es decir

z w

N(T ) si y s olo si se satisface el sistema (4.1). Resolvamos este sistema.

x y +w = 0 3x y z +w = 0

0 2 1 0 1 1 0 1 1 1 0 1 0 1 F1 F2 0 2 1 0 F3 F3 3F1 0 2 1 0 1 1 3 1 1 1 3 1 1 1 0 2 1 2 1 1 0 1 1 0 1 1 2 F F + F 1 1 2 1 1 F2 2 F2 0 1 1 0 0 1 0 2 2 F3 F3 2F2 0 2 1 2 0 0 0 2 1 1 0 1 1 1 0 0 2 2 1 1 F3 2 F3 0 1 2 0 F1 F1 F3 0 1 1 0 2 0 0 0 1 0 0 0 1 De donde x 1 z 2 1 2z = 0 = 0 ; w = 0 o bien x = y = w = 1 1 2 0


1 z 2 1 z 2

Haciendo z = 2, con R, obtenemos x y z w Por lo tanto N(T ) = gen 1 1 2 0 = =

2 0

214

V. Transformaciones Lineales.
y la nulidad de T es n(T ) = dim(N(T )) = 1 Por otro lado Im(T ) = (a, b, c) R3 : T y x y = (a, b, c) para alg un x y M22 (R)

z w

z w

Pero T

z w

= (a, b, c) si y s olo si 2y z = a (5.2)

sistema, obtenemos x

En consecuencia (a, b, c) Im(T ) si y s olo si el sistema (4.2) tiene soluci on. Al resolver este x = y = w =

x y +w = b 3x y z +w = c

1 z 2 1 2z

= = w =
1 a 2

1 b 2

+3 b 2

1 c 2 1 a 2 1 c 2

1 z 2

o bien

1 b+ 1 c 2 2
1 z+ 2 3 + 2b 1 a 2 1 c 2

1 a 2

y r(T ) = 3.

Por lo tanto, el sistema (4.2) tiene soluci on para cada (a, b, c) R3 , en consecuencia Im(T ) = R3

Observaci o n 5.3. N otese que la matriz de los sistemas (5.2) y (5.1) no es otra que la que la matriz [T ]V,W, donde V y W son las bases can onicas de lo5 espacios M22(R) y R3 respectivamente .

Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz de este sistema nos da toda la informaci on, pero a diferencia del caso matricial, los pivotes de esta matriz nos dan las coordenadas, respecto a la base can onica de R3, de los vectores que forman una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo. Ejemplo 5.11. Hallar el n ucleo, la nulidad, la imagen y el rango de la transformaci on lineal T dada en el ejemplo 4.7. Soluci on . a b c d N(T ) si y s olo si

215

V. Transformaciones Lineales.
La matriz de este sistema es

+b

a +2b +c +d = 0 a 3b 3c 2d = 0 [T ]V ,W = 1 1 1 1 2 0 1

= 0 (5.3)

donde V y W son las bases can onicas de M22 (R) y P2 [x] respectivamente. Su FERF es 1 0 3 1 2 0

1 1 3 3 2

Por lo tanto a As que a b c d En consecuencia N(T ) = gen y una base para N(T ) es =

0 1 0 0 3c d = 0

1 0 a = 3c + d

b +2c +d = 0

o bien

b = 2c d 3 2 1 +d 1 1 0

3c + d 2c d c d

=c

3 2 1 3 2 1

1 1

1 1 0

luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, est an en las columnas 1 y 2, as que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto a W , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2, adem as Im(T ) = gen 1 + x x2 ; 1 + 2x 3x2

216

V. Transformaciones Lineales.
y una base para Im(T ) es 1 + x x2 ; 1 + 2x 3x2

La observaci on 5.3 puede ser generalizada de la siguiente manera. Teorema 5.12. Sean V y W dos espacios vectoriales, V = {v1 , v2 , . . . , vn } una base ordenada de V, W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V W una transformaci on lineal.

Entonces 1. {u1 , u2 , . . . , uk } es una base para N(T ) si y s olo si {[u1 ] V , [u2 ] V , . . . , [uk ] V } es una base para N([T ] , W ) V 2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y s olo si {[z1 ] W , [z2 ] W , . . . , [zr ] W } es una base para Im([T ] , W ) V

Demostraci on. Ver Ap endice D. Corolario 5.13. Sean V, W, V , W y T como en el teorema 5.12. Entonces 1. n(T ) = n ([T ] , W ) V 2. r(T ) = r ([T ] , W ) V 3. n(T ) + r(T ) = n = dim(V) Demostraci on. Ejercicio!

El siguiente ejemplo ilustra estos resultados. Sean V y W como en el ejemplo 5.7. Usar la matriz [T ] b b para hallar el V , W n ucleo, la nulidad, la imagen y el rango de la transformaci on lineal T . Ejemplo Sean T , Soluci on.4.12. En primer lugar, recordemos que V = 1 2 1 0 ; 1 0 1 1 ; 2 3 ; 2 1 3 2

1 1

217

V. Transformaciones Lineales.

W = 1 + x; x + x2 ; 1 2x2 Sabemos que 0 9 12 27 10 7 20 16

Sin mucha dicultad, obtenemos que la FERF de esta matriz es 1 1 0 5 3 2 4 0 1 3 3 0 0 0 0 Luego una base para N [T ] bV , bW es 5 1 4 6 ; 3 0 0 2

[T ] bW = 4 bV , 4

32 23

y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resdpecto a la base V de dos vectores que forman una base para N(T ), hallemos estos vectores. (5) 1 2 1 0 1 2 1 0 + (4) 1 0 1 1 +3 2 3 +0 2 1 3 2 = 5 1 4 7 1 0

1 1 2 3

(1)

+ (6)

1 0 1 1

+0

1 1

+2

2 1 3 2

1 2

Luego, una base para N(T ) es 5 1 4 7 y as N(T ) = gen y n(T ) = 2. 5 1 4 7 ; 1 0 1 2 ; 1 0

1 2

Calcular el conjunto imagen y su dimensise queda como ejercicio.

218

5.4. Aplicaciones de las transformaciones: reflexin, dilatacin,contraccin y rotacin.


Dilatacin o escalamiento 2D

El escalamiento 2D implica el cambio de tamao de un polgono, donde cada punto


p = ( x1 , x 2 ) es transformado por la multiplicacin de dos factores de escalamiento: s1 y s2 a

lo largo de los ejes X1 y X2 respectivamente, de esta forma, las coordenadas del nuevo punto
p ' = ( x1 ' , x 2 ' ) se obtienen como:

x1 ' = x1 s1 x2 ' = x2 s2 Sea s = ( s1 , s 2 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 2D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
s1 1] 0 0 0 s2 0 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.1: Expresin matricial para el escalamiento 2D.

La Figura 5.1 muestra el efecto de escalamiento de una figura con s1 = 1.5 y s2 = 2.


X2 X2
5 4 3 2 1 5 4 3 2 1

X1
1 2 3 4 5 1 2 3 4 5

X1

Figura 5.1: Ejemplo de escalamiento 2D.

219

V. Transformaciones Lineales.

Dilatacin o escalamineto 3D

Extendiendo la idea anterior a 3D, el escalamiento implica el cambio de tamao de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es transformado por la multiplicacin de tres factores de escalamiento: s1, s2 y s3 a lo largo de los ejes X1, X2 y X3 respectivamente, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 Sea s = ( s1 , s 2 , s3 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 3D se puede expresar como el producto matricial p' = p S ( s ) , es decir: s1 0 1] 0 0 0 s2 0 0 0 0 s3 0 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.2: Expresin matricial para el escalamiento 3D.

La Figura 5.2 muestra el efecto de escalamiento de una figura con s1 = 2, s2 = 2.5 y s3 = 1.5.

220

V. Transformaciones Lineales.

X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.2: Ejemplo de escalamiento 3D.

Escalamiento o dilatacin 4D

Extendiendo nuevamente la idea anterior a 4D, el escalamiento implica el cambio de tamao de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es transformado por la multiplicacin de cuatro factores de escalamiento: s1, s2, s3 y s4 a lo largo de ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto

p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtienen como: x1 ' = x1 s1 x2 ' = x2 s2 x3 ' = x3 s 3 x4 ' = x4 s4 Sea s = ( s1 , s 2 , s3 , s 4 ) el vector de factores de escalamiento, y S(s) la matriz de escalamiento, en coordenadas homogneas el escalamiento de un punto p en 4D se puede expresar como el producto matricial p' = p S ( s ) , es decir:
221

V. Transformaciones Lineales.

[x1 '

x 2 ' x3 ' x 4 ' 1] = [x1

x2

x3

x4

s1 0 1] 0 0 0

0 s2 0 0 0

0 0 s3 0 0

0 0 0 s4 0

0 0 0 0 1

Ecuacin 5.3: Expresin matricial para el escalamiento 4D.

Escalamiento o dilatacin nD

De esta forma, el escalamiento nD implica el cambio de tamao de un politopo nD en todas sus dimensiones, como se observ anteriormente, se puede representar el escalamiento nD en su forma matricial, donde los factores de escalamiento se localizan en la diagonal principal, cada uno colocado en la columna que le corresponde a su respectivo eje. As, se obtiene la expresin matricial de escalamiento para cualquier dimensin: s1 0 0 1] M 0 0 0 s2 0 M 0 0 0 0 s3 M 0 0
K 0 K 0 K 0 O M K sn K 0

[x1 '

x 2 ' x3 ' K x n ' 1] = [x1

x2

x3 K x n

0 0 0 M 0 1

Ecuacin 5.4: Expresin matricial para el escalamiento nD.

En general, la matriz de escalamiento S(s) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se sustituyen los valores para n=2 y n=3, se obtienen las matrices de escalamiento 2D y 3D respectivamente.

Translacin
La translacin permite desplazar un objeto a lo largo de sus dimensiones, como resultado se obtiene un cambio de posicin.

222

V. Transformaciones Lineales Lineales. Translacin 2D

La translacin 2D implica el desplazamiento de un polgono, donde cada punto


p = ( x1 , x 2 ) es trasladado d1 unidades en el eje X1 y d2 unidades en el eje X2, de esta forma,

las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' ) , se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 Sea d = (d 1 , d 2 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 2D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 1] 0 d1 0 1 d2 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.5: Expresin matricial para la translacin 2D.

La Figura 3.3 muestra el efecto de translacin de una figura con d1 = 1 y d2 = 2.


X2
5 4 3 2 1 5 4 3 2 1

X2

X1

X1

Figura 5.3: Ejemplo de translacin 2D.

Translacin 3D

Basndose en la idea anterior, se tiene que la translacin 3D implica el desplazamiento de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es trasladado d1 unidades
223

V. Transformaciones Lineales.

en el eje X1 , d2 unidades en el eje X2 y d3 unidades en el eje X3, de esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 Sea d = (d1 , d 2 , d 3 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 3D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 d1 0 1 0 d2 0 0 1 d3 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.6: Expresin matricial para la translacin 3D.

La Figura 5.4 muestra el efecto de translacin de una figura con d1 = 2, d2 = 0 y d3 = 2.


X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.4: Ejemplo de translacin 3D.

224

V. Transformaciones Lineales. Translacin 4D

Nuevamente tomando como base esta idea, se tiene que la translacin 4D implica el desplazamiento de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es trasladado por la suma de cuatro distancias: d1, d2, d3, d4 a cada uno de los ejes que forman el espacio 4D, de esta forma, las coordenadas del nuevo punto p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtiene como: x1 ' = x1 + d1 x2 ' = x2 + d 2 x3 ' = x 3 + d 3 x4 ' = x4 + d 4 Sea d = (d1 , d 2 , d 3 ,d 4 ) el vector de distancias, y T(d) la matriz de translacin, en coordenadas homogneas la translacin de un punto p en 4D se puede expresar como el producto matricial p' = p T (d ) , es decir:
1 0 1] 0 0 d1 0 1 0 0 d2 0 0 1 0 d3 0 0 0 1 d4 0 0 0 0 1

[x1 '

x 2 ' x3 ' x 4 ' 1] = [x1

x2

x3

x4

Ecuacin 5.7: Expresin matricial para la translacin 4D.

Translacin nD

De esta forma, la translacin nD implica el desplazamiento de un politopo nD sumando parmetros de distancias a todas sus dimensiones, como se observ anteriormente, se puede representar la translacin nD en su forma matricial, donde los parmetros de distancia se localizan en el ltimo rengln de la matriz, cada uno colocado en la columna que le corresponde a su respectivo eje, y colocando valores de 1 en la diagonal principal. As, se obtiene la expresin matricial de translacin para cualquier dimensin:

225

V. Transformaciones Lineales.
1 0 0 1] M 0 d1 0 1 0 M 0 d2 0 0 1 M 0 K K K O K 0 0 0 M 1 0 0 0 M 0 1

[x1 '

x 2 ' x3 ' K x n ' 1] = [x1

x2

x3 K x n

d3 K d n

Ecuacin 5.8: Expresin matricial para la translacin nD.

En general, la matriz de translacin T(d) para nD en coordenadas homogneas tendr un tamao de (n+1) (n+1), en la cual, si se substituyen los valores para n=2 y n=3, se obtienen las matrices de translacin 2D y 3D respectivamente.

Rotacin
La rotacin permite girar un objeto sobre un eje de rotacin, dado un valor de ngulo de rotacin y su direccin.

Rotaciones 2D

La rotacin de un objeto en 2D se lleva a cabo alrededor de un punto, que es el eje puntual (cero-dimensional) de rotacin. Las rotaciones principales 2D son aquellas que se llevan a cabo alrededor del origen, las rotaciones sobre cualquier otro punto arbitrario se llaman rotaciones generales 2D. En esta Seccin 5.5 , se analizan slo las rotaciones principales para todas las dimensiones, en la Seccin 5.6 se discuten las rotaciones generales. Para generar una rotacin, se especifica el ngulo de rotacin , y el punto de rotacin (pivote) sobre el cul el objeto ser rotado. Los ngulos de rotacin positivos definen una rotacin en sentido contrario a las manecillas del reloj sobre el punto pivote (del eje X1 al eje X2), entonces los ngulos de rotacin negativos producen una rotacin en el sentido de

226

V. Transformaciones Lineales.

las manecillas (del eje X2 al eje X1). [Hearn 95] describe la rotacin 2D como el giro sobre el eje de rotacin que es perpendicular al plano X1X2 (mejor conocido como plano XY) y que pasa a travs del punto pivote. Si el punto pivote se encuentra sobre el origen (Figura 5.5), se tiene que: r es la distancia del punto p = ( x1 , x 2 ) al origen, define la posicin angular del punto p desde la horizontal, y el ngulo de rotacin de p para producir el nuevo punto p ' = ( x1 ' , x 2 ' ) .
X2

p=(x1,x2)

r
p=(x1,x2)

r
X1

Figura 5.5: Rotacin de un punto en 2D alrededor del origen.

Utilizando coordenadas polares, el punto p = ( x1 , x 2 ) se puede escribir como p = (r , ) y el punto p ' = ( x1 ' , x 2 ' ) como p ' = (r , + ) . Pasando despus estos puntos de coordenadas polares a rectangulares se tiene que:
x1 = r cos( ) x1 ' = r cos( + ) x 2 = r sin( ) x 2 ' = r sin( + )

Aplicando algunas propiedades trigonomtricas:


x1 ' = r cos( + ) = r cos cos r sin sin x 2 ' = r sin( + ) = r cos sin + r sin cos

Substituyendo los valores de x1 = r cos( ) y x 2 = r sin( ) se obtienen las ecuaciones para rotar un punto p = ( x1 , x 2 ) alrededor del origen dado un ngulo :

227

V. Transformaciones Lineales.

x1 ' = x1 cos x 2 sin

x2 ' = x1 sin + x2 cos


Ecuacin 5.9: Frmulas para la rotacin 2D alrededor del origen.

Sea R() la matriz de rotacin sobre el origen, en coordenadas homogneas la rotacin de un punto p alrededor del origen en 2D se puede expresar como el producto matricial p = pR , es decir:
cos 1] sin 0 sin cos 0 0 0 1

[x1 '

x 2 ' 1] = [x1

x2

Ecuacin 5.10: Expresin matricial para la rotacin 2D.

La Figura 5.6 muestra el efecto de rotacin de una figura con = 45.


X2
2 1 2 1

X2

X1
-1 -2 -1 -2 1 2 -1 -2 -1 -2 1 2

X1

Figura 5.6: Ejemplo de rotacin 2D.

Rotaciones 3D

A diferencia de la rotacin en el espacio 2D, donde para hacer rotar un objeto se necesita un punto (cero-dimensional), en 3D para hacer rotar un objeto se necesitan dos puntos no coincidentes que determinan un segmento de recta, cuya lnea de soporte define un eje lineal (uni-dimensional) de rotacin.
228

V. Transformaciones Lineales.

Las rotaciones principales 3D, son aquellas cuando el eje de rotacin se encuentra sobre alguno de los tres ejes principales: X1, X2 o X3, las rotaciones sobre cualquier otro eje arbitrario son llamadas rotaciones generales 3D. Se recuerda que inicialmente, se analizan las rotaciones principales. Por convencin, los ngulos de rotacin positivos producen rotaciones en contra de las manecillas del reloj sobre el eje de rotacin, esto es si se observa el giro desde la parte positiva del eje hacia el origen. Otra forma de determinar la direccin de un giro positivo es mediante la regla de la mano derecha (Figura 5.7), que dice que: Si se coloca el dedo pulgar de la mano derecha sobre el eje de rotacin apuntando hacia la parte positiva de dicho eje, el giro natural del resto de los dedos indica la direccin positiva del giro.
X2 X2 X2

X1 X3 X3

X1 X3

X1

Figura 5.7: Regla de la mano derecha para obtener la direccin de un giro positivo en 3D.

Para entender el concepto de rotacin en 3D como una extensin de la rotacin 2D, hay que recordar que la rotacin 2D es el giro sobre el eje de rotacin, que es perpendicular al plano X1X2, el cual en 3D corresponde al eje X3, entonces se tiene la primera de las rotaciones principales . De esta forma, por cada punto p = ( x1 , x 2 , x3 ) dado un ngulo , puede ser rotado sobre el eje X3 en sentido contrario a las manecillas del reloj, obteniendo las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) de la misma forma en como se analiz en el espacio 2D

229

V. Transformaciones Lineales.

quedando la coordenada x3 sin cambio, entonces, se extienden las formulas para la rotacin 2D (Ecuacin 3.9) a 3D como:
x1 ' = x1 cos x 2 sin x 2 ' = x1 sin + x 2 cos
x3 ' = x3
Ecuacin 5.11: Frmulas para la rotacin 3D alrededor del eje X3.

Sea R3() la matriz de rotacin alrededor del eje X3, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial ( ) ' p = p R3 , es decir: cos sin 1] 0 0 sin cos 0 0 0 0 1 0 0 0 0 1

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

Ecuacin 5.12: Expresin matricial para la rotacin 3D alrededor del eje X3.

La Figura 5.8 muestra el efecto de rotacin sobre el eje X3 de una figura con = 20.
X2
5 4 3 2 1 5 4 3 2 1

X2

1 2 3 4 5

X1
1 2 3 4 5

X1

X3

X3

Figura 5.8: Ejemplo de rotacin 3D sobre el eje X3.

230

V. Transformaciones Lineales.

Las ecuaciones para las rotaciones sobre el eje X1, y eje X2, pueden ser obtenidas mediante las permutaciones cclicas de los parmetros x1, x2, x3:
x1 x2 x3 x1

como se muestra en la Figura 3.9


X2 X3 X1

X1 X3 X1

X2 X2

X3

Figura 5.9: Permutaciones cclicas de los ejes coordenados

Entonces, aplicando estas substituciones cclicas en la Ecuacin 5.11, se obtienen las ecuaciones para la rotacin alrededor del eje X1 dado un ngulo .
x 2 ' = x 2 cos x 3 sin x 3 ' = x 2 sin + x 3 cos x1 ' = x1
x1 ' = x1

x 2 ' = x 2 cos x 3 sin x 3 ' = x 2 sin + x 3 cos

Ecuacin 5.13: Frmulas para la rotacin 3D alrededor del eje X1.

Sea R1() la matriz de rotacin alrededor del eje X1, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R1 , es decir:

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

0 1 0 cos 1] 0 sin 0 0

0 sin cos 0

0 0 0 1

Ecuacin 5.14: Expresin matricial para la rotacin 3D alrededor del eje X1.

231

V. Transformaciones Lineales.

Aplicando nuevamente las substituciones cclicas en la Ecuacin 3.13, se obtienen las frmulas para la rotacin alrededor del eje X2 dado un ngulo .
x 3 ' = x 3 cos x1 sin x1 ' = x 3 sin + x1 cos
x2 ' = x2

x1 ' = x1 cos + x 3 sin


x2 ' = x2

x 3 ' = x1 sin + x 3 cos

Ecuacin 5.15: Frmulas para la rotacin 3D alrededor del eje X2.

Sea R2() la matriz de rotacin alrededor del eje X2, en coordenadas homogneas la rotacin de un punto p alrededor de dicho eje, se puede expresar como el producto matricial
p = p R2 , es decir:

[x1 '

x 2 ' x3 ' 1] = [x1

x2

x3

cos 0 1] sin 0

0 sin 1 0 0 cos 0 0

0 0 0 1

Ecuacin 3.16: Expresin matricial para la rotacin 3D alrededor del eje X2.

232

You might also like