You are on page 1of 109

UNIVERSIDAD DE CHILE

FACULTAD DE ECONOMIA Y NEGOCIOS


DEPARTAMENTO DE ECONOMIA

ALGEBRA LINEAL
Apunte del Curso

Mauricio Vargas S.
mauvarga@fen.uchile.cl
Apunte del Curso Algebra Lineal 1

Mauricio Vargas S.

Universidad de Chile

9 de agosto de 2009

1
Este apunte se encuentra en estado de correccion y evolucion. Los contenidos se basan en
las clases del profesor Maximo Lira y de ninguna forma este apunte reemplaza las clases. La
finalidad es reforzar las ideas principales y entregar demostraciones que no se tratan en clase.
Puede contener y seguramente contiene errores, favor de comunicarlos a mauvarga@fen.uchile.cl.
Derechos reservados bajo licencia CreativeCommons (CC-BY-NC-ND)
Indice general

Contenidos I

1. Definiciones Previas 1
1.1. Ley de Composicion Interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Ley de Composicion Externa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Estructuras Algebraicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1. Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2. Grupo Abeliano o Conmutativo . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3. Anillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.4. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Propiedades de los Numeros Reales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1. Axiomas en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2. Matrices 11
2.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1. Igualdad de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1. Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Propiedades de la Suma de Matrices . . . . . . . . . . . . . . . . . . . 12
2.2.3. Ponderacion de Matriz por Escalar . . . . . . . . . . . . . . . . . . . . 13
2.2.4. Propiedades de la Ponderacion de Matriz por Escalar . . . . . . . . 13
ii INDICE GENERAL

2.2.5. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14


2.2.6. Propiedades del Producto de Matrices . . . . . . . . . . . . . . . . . . 14
2.2.7. Transposicion de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.8. Propiedades de la Transposicion de Matrices . . . . . . . . . . . . . . 17
2.2.9. Operaciones Elementales de Fila . . . . . . . . . . . . . . . . . . . . . 20
2.2.10. Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.11. Operaciones Inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.1. Matriz Fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.2. Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.3. Matriz Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.4. Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.5. Matriz Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.6. Matriz Identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.7. Matriz Simetrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.8. Matriz Antisimetrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.9. Matriz Nula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.3.10. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.11. Propiedades de la Inversa . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4. Polinomios de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5. Polinomio Caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6. Metodos Para Invertir Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.1. Matriz Ampliada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.2. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6.3. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 35
2.7. Equivalencia por Filas de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3. Sistemas de Ecuaciones Lineales 41


iii

3.1. Notacion Matricial de un Sistema de Ecuaciones . . . . . . . . . . . . . . . . 41


3.1.1. Rango por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2. Algoritmo tipo solucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3. Soluciones de un S.E.L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1. Solucion general de un S.E.L . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2. Solucion Particular de un S.E.L . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Sistemas Homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.5. Formas de Resolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.1. Metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.2. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4. Escalares, Vectores y Espacios Vectoriales 53


4.1. Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4. Espacios Vectoriales Usuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.1. Espacio Vectorial R2 /R . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.2. Rn /R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.4.3. Rn [x]/R (Polinomios reales de grado n sobre R) . . . . . . . . . . . . 59
4.4.4. C[a, b] (Funciones reales continuas sobre [a, b]) . . . . . . . . . . . . 59
4.5. Base de V/K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.1. Bases Canonicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6. Dimension de V/K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.7. Vector de Coordenadas de x . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8. Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.1. Combinacion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.8.2. Independencia Lineal de un Conjunto . . . . . . . . . . . . . . . . . . 63
4.9. Operatoria Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.9.1. Suma de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
iv INDICE GENERAL

4.9.2. Ponderacion por Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . 66


4.9.3. Producto Cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.9.4. Norma de un Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.9.5. Normas en Rn /R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.9.6. Angulo Entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.9.7. Producto Punto (o Producto Interno) . . . . . . . . . . . . . . . . . . 70
4.9.8. Propiedades del Producto Punto . . . . . . . . . . . . . . . . . . . . . 70
4.9.9. Productos Punto Usuales . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.9.10. Producto Cruz (o Producto Vectorial) . . . . . . . . . . . . . . . . . . 75
4.9.11. Propiedades del Producto Cruz . . . . . . . . . . . . . . . . . . . . . . 75

5. Transformaciones Lineales 77
5.1. Transformacion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1.1. Nucleo de una Trasformacion Lineal . . . . . . . . . . . . . . . . . . . 79
5.1.2. Imagen de una Transformacion Lineal . . . . . . . . . . . . . . . . . . 79
5.1.3. Teorema de las Dimensiones (Nucleo - Imagen) . . . . . . . . . . . . 80
5.1.4. Tranformaciones Lineales e Independencia Lineal . . . . . . . . . . . 81
5.1.5. Transformacion Lineal Inyectiva . . . . . . . . . . . . . . . . . . . . . 83
5.1.6. Transformacion Lineal Biyectiva . . . . . . . . . . . . . . . . . . . . . 83
5.1.7. Matriz Reprensentante de una Transformacion Lineal . . . . . . . . 84
5.1.8. Propiedades de Transformaciones Lineales . . . . . . . . . . . . . . . 86
5.1.9. Como se Aplica la Matriz Representante? . . . . . . . . . . . . . . . 87
5.1.10. Matriz de Pasaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.1.11. Como se Relacionan las Matrices Representantes? . . . . . . . . . . 91
5.1.12. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2. Cambio de Base y Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6. Formas Bilineales 95
6.1. Formas Bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
v

6.2. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97


6.3. Simetra y Antisimetra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.4. Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

7. Referencias 99
Captulo 1

Definiciones Previas

1.1. Ley de Composicion Interna


Sean A, B conjuntos no vacos. Una LCI sobre A es cualquier aplicacion o funcion de la
forma:
f AAA
(a, b) f (a, b) A a A, b B

Tambien se usa la denominacion operacion para una LCI . En ese caso, en lugar de la
notacion funcional f (a, b) se usa la notacion operacional (Ejemplo: ab ). As la operacion
se denota:
AAA
(a, b) a b A a A, b B

1.2. Ley de Composicion Externa


Sean A, B conjuntos no vacos. Una LCI sobre A es cualquier aplicacion de la forma:

g AAB

(a, b) g(a, b) B a A, b B

En este caso la LCE tiene dominio de operadores en A


2 Definiciones Previas

1. La LCE opera sobre otro conjunto

2. En este dominio de operadores no llega la funcion

Tambien se usa la notacion operacional para una LCI :

AAB

(a, b) ab B a A, b B

Ejemplos :

1. R p(x) p(x)
3(1 + 3x x2 ) 3 + 9x 3x2
Los operadores son reales y polinomios
El dominio es de polinomios

2. (a + bx + cx2 , d) ad + (a + b + c)
(1 + 3x 5x2 , 2) 2 + (1) = 1

1.3. Estructuras Algebraicas


Una estructura algebraica es un ente matematico construido por:

1. Un conjunto y una o mas LCI

2. Dos o mas conjuntos, una o mas LCI y una o mas LCE

1.3.1. Grupo
Sea (A, ) una estructura algebraica. Se cumple que es grupo si y solo si:

1. posee neutro, es decir: e A/a e = e a = a a A

2. es asociativa, es decir: a (b c) = (a b) c a, b, c A

3. es simetizable , es decir cada elemento de A posee un inverso a1 y se cumple:


a a1 = a1 a = e
3

1.3.2. Grupo Abeliano o Conmutativo


Sea (A, ) una estructura algebraica que tiene estructura de grupo y ademas es conmu-
tativa. Se cumple que es grupo abeliano si y solo si:

1. posee neutro, es decir: e A/a e = e a = a a A

2. es asociativa, es decir: a (b c) = (a b) c a, b, c A

3. es simetizable , es decir cada elemento de A posee un inverso a1 y se cumple:


a a1 = a1 a = e

4. es conmutativa , es decir para todos los elementos de A, a b c ... n genera un


mismo resultado independientemente de como se altere el orden en que operan los
elementos. Tomando (a, b) A se cumple que a b = b a

1.3.3. Anillo
Sea (A, , ) una estructura algebraica con 2 LCI . Se cumple que esta es estructura de
anillo si y solo si:

1. (A, ) es grupo abeliano

2. es asociativa.

3. distribuye con respecto a

1.3.4. Cuerpo
Sea (A, , ) una estructura algebraica con 2 LCI y que ambas tienen estructura de
grupo abeliano. Se cumple que esta es estructura de cuerpo 1 si y solo si:

1. posee un neutro, todos sus elementos tienen un inverso contenido en A y esta


operacion es conmutativa
1
Para la conmutatividad y clausura estas necesariamente se extienden para el caso en que se aplica
o a (a, b, c, ..., n). Es decir a+b+c+...+n A abc...n A como tambien a+b+c...+n = n+...+c+b+a
a b c... n = n ... c b a y todas las combinaciones posibles para la suma y el producto. En el caso
de la distributividad es analogo, la propiedad se cumple para a (bc...n), (ab) c ... n y
todas las combinaciones posibles.
4 Definiciones Previas

2. posee un neutro, todos sus elementos tienen un inverso contenido en A y esta


operacion es conmutativa
3. A, , es distributiva de la forma a(b c) = (ab) (ac)
4. Tanto como cumplen con la propiedad de clausura, es decir al efectuar una
operacion entre dos o mas elementos de A el resultado debe pertenecer a A

Ejemplos :

1. (R, +, )
a) Neutro:
a+0=0+a=a
a1=1a=a
b) Inverso:
a + (a) = (a) + a = 0
a a1 = a1 a = 1
c) Conmutatividad:
a+b=b+a
ab=ba
d ) Distributividad:
a(b + c) = (a b) + (a c)
e) Clausura:
(a + b) R (a b) R
2. (C, +, )
a) Neutro:
(a + bi) + (0 + 0i) = (0 + 0i) + (a + bi) = a + bi
(a + bi) (1 + 0i) = (1 + 0i) (a + bi) = a + bi
b) Inverso:
(a + bi) + [(a + bi)] = [(a + bi)] + (a + bi) = 0 + 0i
(a + bi) (a + bi)1 = (a + bi)1 (a + bi) = 1 + 0i
c) Conmutatividad:
(a + bi) + (c + di) = (c + di) + (a + bi)
(a + bi) (c + di) = (c + di) (a + bi)
d ) Distributividad:
(a + bi)[(c + di) + (e + f i)] = [(a + bi) (c + di)] + [(a + bi) (e + f i)]
5

e) Clausura:
[(a + bi) + (c + di)] C [(a + bi) (c + di)] C

Observacion :

El neutro y el inverso deben estar contenidos en el conjunto. De esta forma los numeros
reales tienen estructura de cuerpo (R, +, ) y el neutro de la suma se asocia con 0, el
neutro de la multiplicacion se asocia con 1 como tambien el inverso de la suma se asocia
con a, b, c, etc y el inverso del producto (siempre que a 0) estara contenido en R.

1.4. Propiedades de los Numeros Reales


Con lo expuesto anteriormente se sabe que los numeros reales forman un conjunto con
estructura de grupo y por lo tanto estan sujetos a las propiedades de esta estructura. Sin
embargo, estas propiedades pueden o no cumplirse dado un grupo cualquiera pero para
el caso de los numeros reales se garantiza que estas propiedades se cumplen definiendo
axiomas (propiedades tautologicas que no se demuestran) pero que si permiten demostrar
propiedades del conjunto R.

1.4.1. Axiomas en R
1. Conmutatividad

a) Dados dos numeros reales x, y cualquiera, su suma tiene como resultado un


numero real, es decir:
(x, y R) x + y = y + x

b) Para el producto se cumple la misma propiedad, es decir:


(x, y R) x y = y x

2. Asociatividad

a) Dados tres numeros reales x, y, z cualquiera, su suma tiene como resultado un


numero real, es decir:
(x, y, z R) x + (y + z) = (x + y) + z
6 Definiciones Previas

b) Para el producto se cumple la misma propiedad, es decir:

(x, y.z R) x (y z) = (x y) z

Demostracion :
x + (y + z) = (x + z) + y
El axioma de asociatividad no dice que x + (y + z) = (x + z) + y pero usando los
axiomas ya dados se tiene que:
x + (y + z) = x + (z + y) /conmutatividad
x + (y + z) = (x + z) + y /asociatividad
En relacion con lo anterior se concluye que la suma con n terminos es conmutativa
sin alterar el resultado y es analogo para la multiplicacion.

3. Distributividad

a) (x, y, z R) x(y + z) = xy + xz
b) (x, y, z R) (x + y)z = xz + yz

4. Existencia de elementos neutros

a) Elementos neutros para la suma


Con las propiedades de grupo se sabe que en R se cumple que

(x R) x + e = x

Esta propiedad garantiza a lo menos la existencia de un elemento neutro (puede


haber mas de uno) pero para el caso de la suma en R se sabe que el neutro es
0 y por lo tanto es unico.

Demostracion : El neutro para la suma es unico


En base al axioma anterior sabemos que existe al menos un neutro e1 que
corresponde al cero. Supongamos que por otro camino hemos encontrado otro
neutro e2 para la suma, de forma tal que se cumple:

(x R) x + e1 = x x + e2 = x

Si el neutro es unico entonces necesariamente e1 = e2 , formando un sistema con


las ecuaciones enteriores se obtiene:
7

x + e1 = x
x + e2 = x
Reemplazando x = e2 en (1) y x = e1 en (2) nos queda:
e2 + e1 = e2
e1 + e2 = e1
De lo anterior se tiene que:

e1 = e1 + e2 = e2 + e1 = e2

b) Elementos neutros para el producto


Es analogo al caso de la suma. Con las propiedades de grupo se sabe que en R
se cumple que
(x R) x e = x
Demostracion : El neutro para el producto es unico
En base al axioma anterior sabemos que existe al menos un neutro e1 que
corresponde al uno. Supongamos que por otro camino hemos encontrado otro
neutro e2 para la suma, de forma tal que se cumple:

(x R) x e1 = x x e2 = x

Si el neutro es unico entonces necesariamente e1 = e2 , formando un sistema con


las ecuaciones enteriores se obtiene:
x e1 = x
x e2 = x
Reemplazando x = e2 en (1) y x = e1 en (2) nos queda:
e2 e1 = e2
e1 e2 = e1
De lo anterior se tiene que:

e1 = e1 e2 = e2 e1 = e2

5. Existencia de elementos inversos

a) Elementos inversos para la suma


Con las propiedades de grupo se sabe que en R se cumple que

(x R) x + opuesto(x) = 0
8 Definiciones Previas

Esta propiedad senala que existen elementos neutros asociados a x pero para
el caso de la suma en R se sabe que el opuesto es x y por lo tanto es unico.
Demostracion : El inverso para la suma es unico
En base al axioma anterior sabemos que existe al menos un inverso c1 que
corresponde al cero. Supongamos que por otro camino hemos encontrado otro
neutro c2 para la suma, de forma tal que se cumple:

(x R) x + c1 = 0 x + c2 = 0

Si el neutro es unico entonces necesariamente c1 = c2 , formando un sistema con


las ecuaciones enteriores se obtiene:
x + c1 = 0
x + c2 = 0

Lo que se debe demostrar es que c1 = c2

PD c1 = c2
En efecto, usando los axiomas anteriores:
c1 = c1 + 0
c1 = c1 + (x + c2 )
c1 = (c1 + x) + c2
c1 = (x + c1 ) + c2
c1 = 0 + c2
c1 = c2
b) Elementos inversos para el producto
Es analogo al caso de la suma. Con las propiedades de grupo se sabe que en R
se cumple que
(x R) x reciproco(x) = 1
Demostracion : El inverso para el producto es unico
En base al axioma anterior sabemos que existe al menos un neutro c1 que
corresponde al uno. Supongamos que por otro camino hemos encontrado otro
neutro c2 para la suma, de forma tal que se cumple:

(x R) x c1 = 1 x c2 = 1

Si el inverso es unico entonces necesariamente c1 = c2 , formando un sistema con


las ecuaciones enteriores se obtiene:
9

x c1 = 1
x c2 = 1

PD c1 = c2
En efecto, usando los axiomas anteriores: c1 = c1 1
c1 = c1 (x c2 )
c1 = (c1 x) c2
c1 = (x c1 ) c2
c1 = 1 c2
c1 = c2
Captulo 2

Matrices

2.1. Matrices
Una matriz es una tabla de doble entrada de m filas y n columnas con coeficientes en el
cuerpo K (que puede ser R o C).
I = {1, 2, 3, . . . , m}
Considerando los subconjuntos de N: {
J = {1, 2, 3, . . . , n}

Toda matriz es, ademas, una funcion del tipo:

MIJK

(i, j) Mij K

Sea la matriz Amn , se denota genericamente:


a11 a12 a13 . . . a1n
a a22 a23 . . . a2n
A = 21 aij K, i = {1, 2, 3, . . . , m}, j = {1, 2, 3, . . . , n}

am1 am2 am3 . . . amn

Mmn (K) corresponde a todas las matrices de m filas, n columnas y coeficientes en el


cuerpo K incluyendo a la matriz Amn .
12 Matrices

2.1.1. Igualdad de Matrices


Dadas dos matrices Amn Mmn (K), Bm n Mm n (K), diremos que son iguales si y solo
si:

(m = m ) (n = n ) ( i = {1, 2, 3, . . . , m} , j = {1, 2, 3, . . . , n} , aij = bij )

2.2. Operaciones con Matrices

2.2.1. Suma de Matrices


Definiendo una aplicacion (o funcion) sobre Mmn (K) a partir de las operaciones definidas
en el cuerpo K de la forma:
Mmn Mmn Mmn
(Amn , Bmn ) (A + B)mn

Se define la suma de matrices como: A, B Mmn (K), A + B = aij + bij

Observacion : La suma de matrices (Mmn , +) tiene estructura de grupo abeliano.

Demostracion : Es directa (lo cual no quiere decir que es trivial o evidente) con las
propiedades del cuerpo K se cumple que la suma es asociativa y conmutativa.

2.2.2. Propiedades de la Suma de Matrices


1. Admite un neutro aditivo tal que Amn + 0mn = Amn
El neutro aditivo corresponde a M es decir:

0 ... 0
0 = Mmn (K)
0 ... 0

Es sumamente importante senalar que el neutro aditivo para las matrices no es


unico. Como se define la suma de matrices, la operacion suma sobre estas genera
13

otra matriz si y solo si sumamos matrices de igual orden ya que de otra manera la
operacion no esta definida.
El neutro aditivo para las matrices de 2 3 es 0M = 023 , para las de de 5 2 es
0M = 052 , etc.
Generalizando para las matrices de m n es 0M = 0mn con cualquier m, n N. Por
lo tanto, a diferencia de las propiedades de R en que el neutro aditivo es unico para
Mmn K existen tantos neutros como ordenes de matrices posibles.

2. Admite un inverso aditivo tal que Amn + (Amn ) = 0mn


El inverso aditivo de Mmn = mmn es Mmn = mmn

Por ejemplo en M23 (C)

1 + i 0 2 + 3i 1 i 0 2 3i 0 0 0
( )+( )=( ) = 0M
i 1 0 i 1 0 0 0 0

Por lo tanto,
1 + i 0 2 + 3i 1 i 0 2 3i
( )=( )
i 1 0 i 1 0

3. La suma de matrices es asociativa tal que: Amn + (Bmn + Cmn ) = (Amn + Bmn ) + Cmn

2.2.3. Ponderacion de Matriz por Escalar


Definiendo una aplicacion (o funcion) sobre Mmn (K) a partir de las operaciones definidas
en el cuerpo K de la forma:
K Mmn Mmn
(, Amn ) Amn

Sea la matriz Pmn = Amn esta se define por: Pij = Aij

2.2.4. Propiedades de la Ponderacion de Matriz por Escalar


Las siguientes propiedades se cumplen A, B Mmn , , K :

1. (Amn + Bmn ) = Amn + Bmn


14 Matrices

2. ( + )Amn = Amn + Amn

3. (Amn ) = ()Amn

4. 1Amn = Amn

Estas propiedades son las mismas de las de un espacio vectorial y su demostracion par-
ticular puede hacerse en forma analoga al caso de un espacio vectorial R2 /R tomando dos
matrices cualquiera con n vectores de 2 componentes.
El conjunto de las matrices Mmn sobre el cuerpo K con la LCI suma de matrices y la
LCE ponderacion por escalar constituye un espacio vectorial Mmn /K

2.2.5. Producto de Matrices


Dadas las matrices:
A = aij Mmr (K), B = bij Mrn

Se define la aplicacion
Mmr Mrn Mmn
(Amn , Bmn ) (A + B)mn

y el producto C = AB como la matriz C Mmn (K) tal que:


r
Cmn = aik bkj , i = {1, 2, 3, . . . , m} j = {1, 2, 3, . . . , n}
k=1

2.2.6. Propiedades del Producto de Matrices


1. Asociatividad
Dadas las matrices A Mpq , B Mqr , C Mrs , entonces:

A(BC) = (AB)C Mps

Demostracion :

Para la matriz A en (i, j) se tiene aij = nk=1 aij


15

Para la matriz B en (j, k) se tiene bjk = nk=1 bjk

Para la matriz C en (k, l) se tiene ckl = nk=1 ckl

En efecto,
Para la matriz AB en (i, k) se tiene
n
AB = aij bjk
k=1

Luego,
n
(AB)C = (aij bjk )ckl
k=1

De manera analoga, para la matriz BC en (j, l) se tiene


n
BC = bjk ckl
k=1

Luego,
n
A(BC) = aij bjk ckl
k=1

Finalmente,
(AB)C = nk=1 (aij bjk )ckl



A(BC) = nk=1 (aij bjk )ckl = (AB)C
A(BC) = k=1 aij (bjk ckl )
n

2. Distributividad con Respecto a la Suma


Dadas las matrices A Mpq , B, C Mqs , se cumple que:

A(B + C) = (AB) + (AC) Mps

Demostracion :

Definiendo Dpr = Apq (Bqr + Cqr ) se tiene que:


n
eij = aik (bkj + ckj ) i {1, 2, 3, . . . p, }, j {1, 2, 3, . . . , s}
k=1
16 Matrices

En efecto,

n
dij = aik (bkj + ckj )
k=1

n
dij = aik bkj + aik ckj
k=1

n n
dij = aik bkj + aik ckj
k=1 k=1

Con la definicion de producto de matrices se puede formar una expresion equivalente


a la anterior:

Dpr = (AB)ps + (AC)ps

Observacion : La multiplicacion de matrices no es conmutativa, notese que como se


define la aplicacion y la distributividad el producto entre matrices con distinto numero
de columnas no esta definido.
En el caso de matrices con igual numero de columnas o de matrices cuadradas de igual
orden el producto tampoco es una conmutativo. Se puede observar claramente con el
siguiente ejemplo:

1 0 0 0 0 0 0 0 1 0 0 0
( )( )=( ) ( )( )=( )
0 0 2 0 0 0 2 0 0 0 2 0

Como se senalo existe el caso particular de la matriz cuadrada y la matriz identidad, para
este caso la matriz identidad es un neutro en la estructura algebraica (Mnn (K), )
En efecto, dada A Mnn (K) se tiene que Ann Inn = Ann

Demostracion :

n
aik ikj = aij ijj = aij = Ann
k=1

Se concluye que para el caso de las matrices cuadradas la suma y el producto constituyen
una estructura algebraica (Mnn (K), +, ) que es un anillo con unidad (existe un neutro
para )
17

2.2.7. Transposicion de matrices


Dada una matriz A = aij Mmn se define la aplicacion:

Mmn Mnm

A T (A) = AT

Es decir, la matriz transpuesta de A, AT , corresponde a una matriz de orden n m a


partir de una matriz de orden m n de igual cantidad de elementos.
En esta aplicacion la transpuesta de AP Q = nk=1 aij se define:

n n
AT = aji A = aij
k=1 k=1

Ejemplos :

1 3
T
1 2 5 8 2 4
1. ( ) =
3 4 1 2 5 1
8 2

1 5 3 2
5 2 0 1
2.
3 0 3 6
2 1 6 4

Para este caso la matriz es simetrica

3. x = (2, 4, 1) A = ( 2 4 1 )
2
AT = 4
1

2.2.8. Propiedades de la Transposicion de Matrices


1. (AT )T = A

Demostracion :
18 Matrices

((A)Tij )T = (A)Tji = Aij

2. (A + B)T = AT + B T

Demostracion :
Sean A, B Mmn A + B Mmn y definiendo C = A + B

En efecto,
Para la matriz C en (i, j) se tiene cij = nk=1 aij + bij = nk=1 aij + nk=1 bij

Para la matriz C T en (i, j) se tiene cji = nk=1 aji + bij = nk=1 aji + nk=1 bji

Luego, para A, B en (i, j)

(A)Tij = Aji = nk=1 aji




T
A + B T = nk=1 aji + nk=1 bji = C T
(B)Tij = Bji = k=1 bji
n

3. (A)T = aAT

Demostracion :
a11 . . . a1n
Sea Amn = A =
am1 . . . amn

Entonces,
a11 . . . a1n a11 . . . a1n
Amn = A = =
am1 . . . amn am1 . . . amn

a11 . . . am1
(A)Tmn = Anm =
a1n . . . anm

a11 . . . am1 a11 . . . am1


Anm = = = AT
a1n . . . anm a1n . . . anm
19

4. (AB)T = B T AT

Demostracion :
Sean las matrices A Mpq y B Mqr tal que C = AB

En efecto,
Para (i, j) de la matriz C se tiene que

n
cij = aik bkj
k=1

mientras que para (i, j) de la matriz C T se tiene que

n
cji = aki bjk
k=1

debido a la transposicion.

Luego, cji = nk=1 aki bjk = nk=1 bjk aki

Sea la matriz D = B T AT

Para (i, j) se cumple que dij = nk=1 (B)Tqr (A)Tpq

dij = k = 1n (B)Tik (A)Tkj dij = k = 1n bki ajk

dij = k = 1n bki ajk = k = 1n ajk bki = (AB)ji = (C T )ij

Finalmente,

C = AB C T = (AB)
T
20 Matrices

2.2.9. Operaciones Elementales de Fila


Se definen como aplicaciones del tipo:

Mmn Mmn

AP Q e(AP Q )

Existen 3 clases de operaciones inversas:

1. Operacion eij
Consiste en intercambiar de posicion las filas (i, j).

Ejemplo :
a11 a12 a13 a14 a31 a32 a33 a34
a21 a22 a23 a24 e13 a21 a22 a23 a24
AP Q = BP Q =
a31 a32 a33 a34 a11 a12 a13 a14
a41 a42 a43 a44 a41 a42 a43 a44

Observacion : AP Q BP Q = BP Q

2. Operacion ej ()
Consiste en ponderar la fila j por el escalar 0

Ejemplo :
a11 a12 a13 a14 a31 a32 a33 a34
a21 a22 a23 a24 e2 (5) 5a21 5a22 5a23 5a24
AP Q = BP Q =
a31 a32 a33 a34 a11 a12 a13 a14
a41 a42 a43 a44 a41 a42 a43 a44

3. Operacion eij ()
Consiste en sumar a la fila i, la fila j ponderada por el escalar 0. El resultado
queda en la fila i

Ejemplo :
e31 (5)
AP Q BP Q
21

a11 a12 a13 a14 a31 a32 a33 a34


a21 a22 a23 a24 e31 (5) a a a a
21 22 23 24

a31 a32 a33 a34 a11 5a31 a12 5a32 a13 5a33 a14 5a34
a41 a42 a43 a44 a41 a42 a43 a44

Tambien se definen operaciones inversas . Cada operacion elemental de fila posee una
inversa que es tambien una operacion de fila.
En efecto,

1. (eij )1 = eij

2. [ej ()]1 = ej ()

3. [eij ()]1 = eij ()

2.2.10. Determinante de una Matriz


Esta aplicacion de define:

Mmn /K K
AP Q det(AP Q ) K

El determinante ses la suma de todos los productos posibles entre elementos de AP Q,


a los que se atribuye un signo, con la condicion de no repetir filas ni columnas en cada
producto.
El signo atribuido a cada producto es del de (1)n en el que n es el numero de cmabios
al orden de columnas.

Ejemplos :

a11 a12
1. AP P = ( )
a21 a22

Los productos posibles son: b11 b22 , (n = 0) signo+ b12 b21 , (n = 1) signo
Luego, det(AP P ) = b11 b22 b12 b21
22 Matrices

1 5
2. BP P = ( )
2 4
det(AP P ) = 1 4 5 2 = 6

2.2.11. Operaciones Inversas


Cada operacion elemental de fila posee una inversa que tambien es una operacion ele-
mental de fila.
Ya definidas las operaciones elementales de fila, se tiene que:

1. (eij )1 = eij

2. [ej ()]1 = ej (1 )

3. [eij ()]1 = eij ()

2.3. Tipos de Matrices

2.3.1. Matriz Fila


El caso especial de las matrices de 1 n es una notacion alternativa para un vector k Kn
De esto
es decir, la matriz M1n contiene las componentes (k1 , k2 , k3 , . . . , kn ) del vector k.
fluye que una matriz de orden m n contiene las componentes de m vectores Kn .
Ejemplo :
k K3 = (x, y, z) M13 = ( a11 a21 a31 ) = ( x y z )

2.3.2. Matriz Cuadrada


Son aquellas matrices Mmn tal que m = n es decir, el numero de filas es igual al numero
de columnas.
En las matrices cuadradas se denomina diagonal principal al subconjunto de elementos
(entradas) de la matriz amn que cumplen que i = j.
Ejemplo :
23

1 3 2
A= 6 5 4
7 2 4

Diagonal principal: {a11 , a22 , a33 } = {1, 5, 4}

2.3.3. Matriz Triangular

Matriz Triangular Superior

Sea Bmn una matriz cuadrada, esta es ademas triangular superior si:
bij = 0 si i > j
{
m=n
Ejemplo :
1 4 2
B= 0 6 8
0 0 7

Matriz Triangular inferior

Sea Bmn una matriz cuadrada, esta es ademas triangular inferior si:
bij = 0 si i < j
{
m=n

Ejemplo :
1 4 2
B= 0 6 8
0 0 7

2.3.4. Matriz Diagonal

Sea Cmn una matriz cuadrada, esta es ademas diagonal si es superior e inferior a la vez si:
cij = 0 si i j
{
m=n
24 Matrices

Ejemplo :
1 0 0
C= 0 3 0
0 0 2

2.3.5. Matriz Escalar

Sea Dmn una matriz cuadrada y diagonal, esta es ademas escalar si:

d = 0 si i j

ij
dij = k si i = j

m=n

Ejemplo :
7 0 0 1 0 0
C = 0 7 0 =7 0 1 0
0 0 7 0 0 1

2.3.6. Matriz Identidad

Sea Imn una matriz escalar, esta es ademas identidad si y solo si:

d = 0 si i j

ij
dij = 1 si i = j

m=n

Ejemplo :
1 0 0
C= 0 1 0
0 0 1

Que corresponde a una matriz identidad de 3 3.


Observacion: La matriz identidad se denota Imn y se cumple que siempre es una matriz
cuadrada. La matriz identidad no es unica, existen matrices identidad de orden m n que
puede ser 1 1, 2 2, etc.
25

2.3.7. Matriz Simetrica


La matriz Smn es simetrica si y solo si:
Es una matriz cuadrada (m = n)
{
sij = sji i, j

Ejemplo :
1 5 3 2 0
5 2 0 1 8

C=
3 0 3 6 7 Que corresponde a una matriz simetrica de 5 5.


2 1 6 4 0
0 8 7 0 5

2.3.8. Matriz Antisimetrica


La matriz S mn es antisimetrica si y solo si:

Es una matriz cuadrada (m = n)

sij = sji si i j

sij = 0 si i = j

Ejemplo :
0 5 3 2 0
5 0 0 1 8

C=
3 0 0 6 7
2 1 6 0 0

0 8 7 0 0

Se verifica que a31 = 3 a13 = 3, a24 = 1 a42 = 1, etc.

2.3.9. Matriz Nula


La matriz Nmn correponde al neutro aditivo para las matrices, es decir correponde al 0M
y se cumple que: nij = 0 i, j

Ejemplo:
26 Matrices

0 0
C= 0 0
0 0

Que corresponde a una matriz de 3 2


Observacion : La matriz nula no es unica, existen matrices nulas de orden m n pero a
diferencia de la matriz identidad esta no necesariamente es cuadrada.

2.3.10. Matriz Inversa

Para algunas matrices cuadradas existe la matriz inversa y esta cuando existe al multi-
plicarse con su inversa (la matriz original) genera una matriz identidad. Tal condicion se
expresa:
Sea Ann esta matriz es invertible si y solo si A1
nn tal que:

Ann A1
nn = Ann Ann = Inn
1

Observacion : Este es un caso particular en que se cumple la conmutatividad en el


producto de matrices.

Ejemplos :

1 5
1. Sea A = ( )
1 6

De manera temporal supondremos que existe A1


x1 y 1
Sea A1 = ( )
x2 y 2

1 5 x y 1 0
Entonces, A A1 = ( )( 1 1 )=( )
2 6 x2 y2 0 1

x1 + 5x2 y1 + 5y1 1 0
( )=( )
x2 + 6x2 y2 + 6y2 0 1
27

x1 + 5x2 = 1
x + 6x2 = 0
2
y1 + 5y1 = 0
y2 + 6y2 = 1

x1 + 5x2 = 1
x1 = 6, x2 = 1
x2 + 6x2 = 0

y1 + 5y1 = 0
y1 = 5, y2 = 1
y2 + 6y2 = 1

Por lo tanto,
6 5
A1 = ( )
1 1
A es invertible.

1 2
2. Sea B = ( )
2 4

De manera temporal supondremos que existe A1

x1 y 1
Sea A1 = ( )
x2 y 2
1 2 x y 1 0
Entonces, A A1 = ( )( 1 1 )=( )
2 4 x2 y 2 0 1

x1 + 2x2 y1 + 2y1 1 0
( )=( )
2x2 + 4x2 2y2 + 4y2 0 1

x1 + 2x2 = 1
2x2 + 4x2 = 0

y1 + 2y1 = 0
2y2 + 4y2 = 1

x1 + 2x2 = 1 2x1 + 4x2 = 1


Contradicccion
2x2 + 4x2 = 0 2x2 + 4x2 = 0

Por lo tanto,
28 Matrices

A no es invertible ya que el sistema no tiene solucion.

2.3.11. Propiedades de la Inversa


1. Si A es invertible, entonces A1 es unica

Demostracion :

Sea A Mnn (K) es invertible si y solo si existe A1 Mnn (K) tal que:
AA1 = A1 A = Inn

Supongamos que existen dos inversas para A tal que:


AB = AC = Inn
BA = CA = Inn

Luego,
B = B(AC)
B = (BA)C
B = Inn C
B=C

2. (A1 )1 = A

Demostracion :

Sea A Mnn (K) tal que det(A) 0 entonces A1 esta definida.


Entonces,

(A1 )1 A1 = A A1
(A1 )1 A1 = Inn
[(A1 )1 A1 ]A = Inn A
(A1 )1 [A1 A] = A
(A1 )1 [A A1 ] = A
(A1 )1 Inn = A
29

(A1 )1 = A

3. (AB) = B 1 A1
1

Demostracion :

Sea Ann y Bnn entonces AB esta definida y AB Mnn (K)


Luego, si A y B admiten inversa ya que ambas Mnn (K) con n cualquier entero
finito.

AB(B 1 A1 )
A(BB 1 )A1
A(Inn )A1
AA1
Inn

Tambien se debe demostrar para B 1 A1 (AB)


[B 1 A1 (AB)]T
(AB)T (B 1 A1 )T
(B T AT )[(AT )1 (B T )1 ]
B T [AT (AT )1 ](B T )1
B T Inn (B T )1
B T (B T )1
Inn

4. (AT )1 = (A1 )T

Demostracion :

Sea A Mnn (K) y det(A) 0 entonces, A es invertible. Para AT Mnn si det(AT )


0 entonces AT es invertible.

AT (AT )1 = AT (A1 )T
Inn = AT (A1 )T
30 Matrices

(AT )1 Inn = AT (A1 )T


(AT )1 = (AT )1 [AT (A1 )T ]
(AT )1 = [(AT )1 AT ](A1 )T
(AT )1 = [AT (AT )1 ](A1 )T
(AT )1 = Inn (A1 )T
(AT )1 = A1 )T

5. (A + B)1 A1 + B 1 salvo en casos particulares

Observacion : Solo algunas matrices son invertibles, como ya se vio existen casos en que
una matriz no admite inversa y que algunas matrices cuadradas son invertibles. Se puede
comprobar que existe la inversa verificando que el determinante sea distinto a cero para
una matriz dada.

2.4. Polinomios de Matrices


Tomando la forma generica de un polinomio p(x) = an xn +an1 xn1 +. . .+a1 x+a0 se define,
a partir de esto, el polinomio de matrices de la forma:

p Mnn (K) Mnn (K)

Ann p(A)

De esta forma se tiene que p(A) = bn An + bn1 An1 + . . . + b1 A + b0


(bn corresponde a un coeficiente cualquiera como puede ser an , cn , etc. Se denota b para
evitar confusiones con algun aij Ann .)

2.5. Polinomio Caracterstico


Sea la matriz A Mnn (K). El polinomio caracterstico de A se define:

p() = det(A Inn ) = n + an1 n1 + . . . + a1 + a0


31

El polinomio caracterstico cumple las siguientes propiedades:

1. Es de grado n

2. Es monico

3. det(A) = a0 tal que si = 0 entonces, det(A) = a0



4. Como consecuencia del item anterior, (1)n det(A) = a0

Sustituyendo por la matriz A se tiene que:

p(A) = An + an1 An1 + . . . + a1 A + a0

A partir de esta sustitucion se tiene la ecuacion caracterstica de una matriz que consiste
en igualar el polinomio caracterstico de esta a cero.

2.6. Metodos Para Invertir Matrices

2.6.1. Matriz Ampliada


Para una matriz A Mnn (K) se puede escribir la matriz identidad correspondiente anexa
a la matriz A, es decir:

a11 a12 a13 . . . a1n 1 0 0 0


0 1 0 0

a21 a22 a23 . . . a2n 0 0 1 0

A=







an1 an2 an3 . . . ann 0 0 0 1

Luego se aplican operaciones elementales hasta obtener una matriz identidad al lado
izquierdo (la matriz original) y el resultado que se obtiene a partir de la matriz identidad
anexa corresponde a la inversa de A.

Ejemplo :
32 Matrices

2 1 1
Invertir, si es posible, la matriz A = 5 2 3
0 2 1

1 1 1 1 0 0
2 2 2

2 1 1 1 0 0

5 2 3 0 1 0
e1 (1/2)
5 2 3 0 1 0 e21 (5)


0 2 1 0 0 1

0 2 1 0 0 1


1 1 1 1 1 1 1 1 0
0 0 0
2 2 2 2 2 2

e2 (2) e32 (2)
0 1 0 0 1 1 5 2 0

1 1 5
2 2 2

0 2 1 0 0 1 0 2 1 0 0 1
1 1 1 1 1 1 1 1 0
0
0 0
2 2 2 2 2 2

e23 (1) e3 (1)
0 5 2 0 0 1 0 5 2 1
1 1


0 0 1 10 4 1 0 0 1 10 4 1
1 1 1 1 1 0 1 3 1 1
0 0
2 2 2 2 2

e12 (1/2) e13 (1/2)
0 5 2 1 0 1 0 5 2 1
1 0


0 0 1 10 4 1 0 0 1 10 4 1
1 0 0 8 3 1


0 1 0 5 2 1



0 0 1 10 4 1

8 3 1
A1 = 5 2 1
10 4 1
33

2.6.2. Matriz Adjunta

Sea la matriz A Mnn (K) se define la adjunta como la transpuesta de la matriz de


cofactores. Cada cofactor Aij corresponde al determinante de la matriz AT Mnn (K) sin
considerar la columna i y la columna j cuyo resultado se multiplica por (1)i+j :

a11 a12 a13 . . . a1n a11 a21 a31 . . . an1





a21 a22 a23 . . . a2n a12 a22 a32 . . . an2

A=

AT =







an1 an2 an3 . . . ann a1n a2n a3n . . . ann

A modo de simplificar se pueden renombrar los elementos de la matriz AT tal que:


b11 b12 a13 . . . b1n


b21 b22 b23 . . . b2n

A =
T







bn1 bn2 bn3 . . . bnn

T
A11 A12 A13 . . . A1n A11 A21 A31 . . . An1


A21 a22 A23 . . . A2n A12 A22 A32 . . . An2

adj(A) =

adj(A) =







An1 An2 An3 . . . Ann A1n A2n A3n . . . Ann
34 Matrices

b22 . . . b2n b21 . . . b2i


(1)i+j det . . . (1)i+j det


bn2 . . . bnn bn1 . . . bnj




adj(A) =




b12 . . . b1n b11 . . . b1j

(1)i+j det . . . (1)i+j det
bi2 . . . bin bij . . . bij

Considerando el producto
a11 a12 a13 . . . a1n A11 A21 A31 . . . An1
a21 a22 a23 . . . a2n A12 A22 A32 . . . An2
P = A adj(A) =

an1 an2 an3 . . . ann A1n A2n A3n . . . Ann

Si i = j entonces,

n
pjj = aj1 Aj1 + aj2 Aj2 + . . . + ajn Ajn = ajk Ajk = det(A)
1

Si i j entonces,

pij = ai1 Aj1 + ai2 Aj2 + . . . + ain Ajn

Para este caso pij = 0 ya que corresponde al determinante de una matriz con filas repetidas
(filas L.D ).

det(A) 0 0 ... 0 1 0 0 ... 0


0 det(A) 0 . . . 0 0 1 0 ... 0
A adj(A) = = det(A)

0 0 0 . . . det(A) 0 0 0 ... 1

Por lo tanto, A adj(A) es una matriz diagonal y se tiene que:

A adj(A) = det(A) Inn

A1 [A adj(A)] = A1 det(A)
35

adj(A)
A1 =
det(A)

Teorema 2.6.1 Una matriz A Mnn (K) es invertible si y solo si det(A) 0

Ejemplo :
1 3 5
Invertir (si es posible) la matriz A = 2 1 8
3 1 4

det(A) = 39

T
1 8 2 8 2 1
det ( ) det ( ) det ( )
1 4 3 4 3 1 T
30 16 1
3 5 1 5 1 3
adj(A) = det ( ) det ( ) det ( ) = 7 11 8
1 4 3 4 3 1 19



2 5
3 5 1 5 1 3
det ( ) det ( ) det ( )
1 8 2 8 2 1

30 7 19
adj(A) = 16 11 2
1 8 5

30 7 19

39 39 39


adj(A) 16 11 2
A = =
det(A) 39
1
39 39


1 8 5

39 39 39

2.6.3. Teorema de Cayley-Hamilton

A partir de la definicion de polinomio caracterstico de una matriz, se puede enunciar el


teorema de Cayley-Hamilton :
36 Matrices

Teorema 2.6.2 Toda matriz cuadrada es raz de su polinomio caracterstico que se


define pA () = det(A I)
Es decir, A + an1 An1 + . . . + a1 A + a0 I = 0
Sea la matriz A Mnn (K). Entonces por definicion de polinomio caracterstico se tiene:

p() = det(A Inn ) = n + an1 n1 + . . . + a1 + a0

Sustituyendo por la matriz A e igualando a cero se tiene que:

p(A) = An + an1 An1 + . . . + a1 A + a0 ) = 0(x)

Ejemplo :
1 2
A32 = ( )
3 4

1 2
p() = det(A I) = det ( ) = (1 )(4 ) 6 = 2 5 2
3 4

Luego, 2 5 2 = 0

Reemplazando por la matriz A e igualando a cero

A2 5A 2I = 0

7 10 5 10 2 0 0 0
( )( )( )=( )
15 22 15 20 0 2 0 0

Se comprueba que:

752 10 10 0 0
( )=( )
15 15 22 20 2 0 0

Aplicando el teorema de Cayley-Hamilton para invertir la matriz del ejemplo anterior se


tiene que para el polinomio caracterstico 1
p() = 2 5 2 si = 0 entonces, det(A) = 2
El polinomio caracterstico de una matriz corresponde a p() = n + an1 n1 + . . . + a1 + a0 mientras
1

que la ecuacion caracterstica corresponde al polinomio n + an1 n1 + . . . + a1 + a0 = 0


37

Luego, a partir de A2 5A 2I = 0 se puede formar la expresion A 5I 2A1 = 0

En consecuencia,
A 5I
A1 =
2
1 2 5 0
( )( )
3 4 0 5
A =
1
2
4 2
( )
3 1
A1 =
2

2 1
A1 =
3 1

2 2
Comprobando,
2 1
1 2 =( 1 0 )
( )

3 4 3 1 0 1

2 2

2.7. Equivalencia por Filas de una Matriz

Sea AP Q definimos el espacio fila de A como el subespacio KQ /K generado por sus filas
ledas como n-tuplas .

Ejemplo :
1 2
A32 = 3 5
1 8

El espacio fila de A equivale a lin(A) = {(1, 2), (3, 5), (1, 8)} R2 /R y es L.D.
La dimension del espacio fila se denomina rango por filas .
38 Matrices

2.8. Valores y Vectores Propios


Para una matriz de n n. A partir del polinomio caracterstico se obtiene un valor que
corresponde a las soluciones del polinomio caracterstico tal.
A partir de los valores propios se obtiene un vector propio asociado de la forma
a
b

c


...
z

Ejemplo :
4 5
Sea A = ( )
2 3

El polinomio caracterstico corresponde a


4 5
P () = A = ( ) = (4 )(3 ) + 10 = (4 )(3 + ) + 10 = 0
2 3
P () = (12 + 2 ) + 10 = 2 2 = ( 2)( + 1)

Los valores propios son:


1 = 2 con multiplicidad algebraica igual a 1
2 = 1 con multiplicidad algebraica igual a 1

El vector propio se obtiene a partir de


x 0
(A I) ( )=( )
y 0

Para 1 se obtiene el vector propio


x 2 5 x 0
(A I) ( )=( ) ( )( )
y 2 1 y 0
2x + 5y = 0

2x y = 0
39

0
y = 0 x = 0 v1 = ( )
0

Propuesto : Resolver para 2


Captulo 3

Sistemas de Ecuaciones Lineales

3.1. Notacion Matricial de un Sistema de Ecuaciones

Un sistema de ecuaciones tiene una notacion de la forma:

a11 x1 + a12 y1 + ... + a1n z1 = b1


a21 x2 + a22 y2 + ... + a2n z2 = b2

am1 xm + am2 ym + ... + amn zm = bm

La notacion matricial de esta forma es:

a11 a12 a1n x b1


a21 a22 a2n y b2
=

am1 am2 amn z bm

Esto ultimo se puede expresar como A x = b.


De esta forma, aplicando operaciones elementales se puede resolver un sistema de ecua-
ciones ya que mediante esta operacion se puede despejar una componente (o incognita)
y tambien se pueden encontrar incompatibilidades determinando los tipos de solucion
encontrando filas L.D .
42 Sistemas de Ecuaciones Lineales

Ejemplo :

x + y = 3
2x + 2y = 6

La notacion matricial es:

1 1 x 3
( )( )=( )
2 2 y 6

Para la matriz A se obtiene:

1 1 e21 (2) 1 1
( ) ( )
2 2 0 0

Con esto se obtiene:

1 1 x 3
( )( )=( )
0 0 y 6

x + y = 3, 0 = 6

Por lo tanto el sistema es incompatible y no hay solucion.

Otra forma de saber las soluciones o si existe solucion es usando el determinante de la


matriz

1 1
det ( )=1221=0
2 2

Si el determinante es cero entonces hay filas L.D y no se puede determinar la solucion.

3.1.1. Rango por Filas

Definiendo r = rango y n = numero de incognitas. El rango por filas de una matriz corre-
sponde al numero de filas L.I que contiene. Se determina escalonando la matriz y segun
el numero de filas L.I que se encuentren se dan los siguientes casos:
43

1. Solucion unica: Si y solo si existe un vector c que es solucion del sistema.

Ejemplo :
3x + y = 5
5x + 2y = 8

Como se senalo, si la solucion es unica se debe buscar un vector solucion c. Para


esto se puede obtener [I c]. Es decir, se obtiene x = c1 , y = c2 , . . . , z = cn

3 1 5 e1 ( 31 ) 1 31 53 e2 (5) 1 1 5 e12 (1) 1 0 2 e2 (3)


( ) ( ) ( 3
1
3 ) ( )
5 2 8 5 2 8 0 3
1
3 0 13 1
3

1 0 2
( )
0 1 1
x 2
( )=( )
y 1

2. Infinitas soluciones: Si se da el caso de que se pueda formar uno o mas pivotes


irreparables, vale decir, una fila que inevitablemente contendra al 0 entonces el
rango de la matriz sera menor a la cantidad de filas y para esta situacion se tiene
que r < n

Ejemplo :
x + 2y 3z = 6
2x y + 4z = 2
4x + 3y 2z = 14

Para desarrollar esto se escalona el sistema A x = b y se obtiene [A b]

1 2 3 6 e21 (2) 1 2 3 6 e31 (4)


2 1 4 2 0 5 10 10
4 3 2 14 4 3 2 14

1 2 3 6 e32 (1) 1 2 3 6
0 5 10 10 0 5 10 10
0 5 10 10 0 0 0 0

Entonces, r = 2, n = 3 r < n y las soluciones son infinitas.


44 Sistemas de Ecuaciones Lineales

3. No hay solucion: Si el sistema es incompatible y esto se puede verificar luego de


escalonar o directamente.

Ejemplo :
x + 2y = 6
2x + 4y = 2

1 2 6 e21 (1) 1 2 6
( ) ( )
2 4 2 1 2 4
1 2 x 6
( )( )=( ) x + 2y = 6 x + 2y = 4 C
1 2 y 4

3.2. Algoritmo tipo solucion


Para el sistem A x = b si r = n entonces hay solucion unica y si r < n soluciones.
Para determinar las soluciones de un sistema de puede realizar lo siguiente:

1. Definir la matriz ampliada [AI]

2. Escalonar y obtener el rango.

3. Si se obtiene [0M c] c 0 entonces el sistema es incompatible.

4. En caso de que no ocurra lo senalado en el punto (3) entonces se tienen dos casos
posibles: r = n r < n
Para r = n existen soluciones particulares y una solucion general.

3.3. Soluciones de un S.E.L

3.3.1. Solucion general de un S.E.L


El conjunto de todas las soluciones particulares del S.E.L A x = b corresponde a la
solucion general del sistema.

Ejemplos :
45

x + y + z = 0
1.
2x + 3y z = 4

De la ecuacion (1) se obtiene z = x y


4 3x 3x
Reemplazando en (2) se obtiene 3x + 4y = 4 y = =1
4 4

x
x
La solucion general sera y = 1 3x
z
4
1 x4

x + 2y 3z = 6
2. 2x y + 4z = 2
4x + 3y 2z = 14

La matriz aumentada queda:

1 2 3 6 e21 (2) 1 2 3 6 e31 (4) 1 2 3 6 e32 (1)


2 1 4 2 0 5 10 10 0 5 10 10
4 3 2 14 4 3 2 14 0 5 10 10

1 2 3 6
0 5 10 10
0 0 0 0

La variable libre es z por lo que despejando se obtiene:


x = 6 2y + 3z
y= 1010z
5 = 2 + 2z
x=2z

La solucion general del sistema es:





x x 2z 2 1


S = y R / y = 2 + 2z = 2 + z 2
3

1
z
z z 0

46 Sistemas de Ecuaciones Lineales

3.3.2. Solucion Particular de un S.E.L

Las soluciones particulares son todos los valores que se admiten en la solucion general.
Para el caso anterior una solucion particular esta dada por un valor de x que este definido
en las componentes (x, y, z).
0
El ejemplo anterior admite, entre otros valores, x = 0 tal que x1 = 1 y x = 1 tal que
1
1
1
x1 = 4

5
4

Estos valores corresponden a soluciones particulares del sistema y existen tantas soluciones
como valores que no indefinan las ecuaciones dadas.

3.4. Sistemas Homogeneos

Para un sistema de la forma A x = b si se cumple que b = 0 se tiene A x = 0 y entonces


el sistema sera homogeneo. Entonces, todo sistema homogeneo tiene como solucion x1 =
0, x2 = 0, x3 = 0, . . . , xn = 0.
Si las filas de A son L.I , es decir det(A) 0, entonces el sistema admite otras soluciones.

Teorema 3.4.1 La solucion de un sistemas homogeneo es s.e.v en Kn . Si llamamos S al


conjunto solucion de A x = b entonces:
1. 0 S
2. a, b S (
a b) S
3. c S
cS
47

3.5. Formas de Resolucion

3.5.1. Metodo de Gauss


Si el sistema A x = b es un S.E.L compatible y tiene tantas ecuaciones como incognitas,
es decir que tiene solucion unica se tienen la siguiente implicancia: Las filas de la matriz
A son L.I det(A) 0
Dadas estas condiciones se puede invertir la matriz A y se obtiene:

A x = b

A1 A x = A1b

x = A1b

Otra forma de obtener la solucion es de la siguiente forma:

1. Se escribe la matriz aumentada [Ab]

2. Se aplican operaciones elementales hasta obtener [I


c]

3. x = c es la solucion del sistema.

Ejemplo :
Obtener las soluciones para el sistema:
1 1 1
+ + = 10
x y z

2 3 4
= 22
x y z

3 2 1
+ = 12
x y z

Primero, se puede aplicar un cambio de variable para simplificar la resolucion:


1 1 1
Sea = x , = y, = z
x y z
48 Sistemas de Ecuaciones Lineales

x + y + z = 10
2x 3y 4z = 22
3x + 2y z = 12

Luego, la notacion matricial corresponde a:


1 1 1 10 e21 (2) 1 1 1 10 e31 (3)
2 3 4 22 0 5 6 42
3 2 1 12 3 2 1 12

1 1 1 10 e21 (5) 1 1 1 10 1
e2 ( 14 )
0 5 6 42 0 0 14 168
0 1 4 42 0 1 4 42

1 1 1 10 e32 (4) 1 1 1 10 e3 (1)


0 0 1 12 0 0 1 12
0 1 4 42 0 1 0 6

1 1 1 10 e3 (1) 1 1 0 2 e13 (1)


0 0 1 12 0 0 1 12
0 1 0 6 0 1 0 6

1 0 0 4 e23
1 0 0 4
0 0 1 12 0 1 0 6
0 1 0 6 0 0 1 12

1 1 1
Entonces, x = 4, y = 6, z = 12 x = , y = , z=
4 6 12

3.5.2. Regla de Cramer


Tal como en el caso anterior se tiene que si el sistema A x = b es un S.E.L compatible
y tiene tantas ecuaciones como incognitas, es decir que tiene solucion unica se tienen la
siguiente implicancia: Las filas de la matriz A son L.I det(A) 0
Dadas estas condiciones se puede invertir la matriz A y se obtiene:

A x = b
A1 A x = A1b
49

x = A1b

Bajo estas condiciones la solucion x = A1b se determina a partir de la matriz A1 tal que:

adj(A)
A1 =
det(A)

a11 a12 a13 . . . a1n


a a22 a23 . . . a2n
Sea la matriz A = 21

am1 am2 am3 . . . amn

T
A11 A12 A13 . . . A1n
A21 A22 A23 . . . A2n


adj(A) Am1 am2 Am3 . . . Amn
A1 = =
det(A) det(A)

Se tiene que Aij = (1)i+j det(A ) siendo A la matriz resultante de aplicar el desarrollo
l.c j
de Laplace a la columna j. Es decir, A aij A
En la matriz adjunta no se consideran los factores que ponderan a la matriz A .
Considerando la componente j-esima de la ecuacion anterior se obtiene:

b1
b2

( Aj1 Aj2 Aj3 . . . Ajn )
b3



bn Aj1 b1 + Aj2 b2 + Aj3 b3 + . . . + Ajn bn
xj = =
det(A) det(A)
n
1
xj = Ajn bn
1 det(A)

j
Entonces, xj = con j = det(A ) siendo A la matriz que se obtiene reemplazando la

columna j por el vector b, es decir:
50 Sistemas de Ecuaciones Lineales

a11 a12 a13 . . . a1n a11 a12 a13 . . . b1


a a22 a23 . . . a2n a a22 a23 . . . b2
A = 21 Ab = 21

am1 am2 am3 . . . amn am1 am2 am3 . . . bn

Ejemplo :

Resolver el sistema usando la Regla de Cramer

1 1 1
+ + = 5
x y z

2 3 4
= 11
x y z

3 2 1
+ = 6
x y z

Como en el caso anterior se puede aplicar un cambio de variable para simplificar la res-
olucion:

1 1 1
Sea = x , = y, = z
x y z

x + y + z = 5
2x 3y 4z = 11
3x + 2y z = 6

5 1 1
det 11 3 4
x 6 2 1 15 + 24 + (22) 18 (40) 11 28
x = = = = =2
1 1 1 3 + (12) + 4 (9) (2) (8) 14
det 2 3 4
3 2 1
1 1
x= =
x 2
51

1 5 1
det 2 11 4
y 3 6 1 15 + 24 + (22) 18 (40) 11 42
y = = = = = 3
1 1 1 14 14
det 2 3 4
3 2 1
1 1
y= =
y 3
1 1 5
det 2 3 11
y 3 2 6 18 + (33) + 20 (45) (22) (12) 84
z = = = = =6
1 1 1 14 14
det 2 3 4
3 2 1
1 1
z= =
z 6
Captulo 4

Escalares, Vectores y Espacios


Vectoriales

4.1. Escalar
Se define escalar como toda maginitud que queda expresada cuando se conoce su mag-
nitud y la unidad de medicion.
Ejemplos :

1. Masa: 50kg, 16oz

2. Temperatura: -6C, 32F, 273K

3. Tiempo: 5 segundos

4. Rapidez: 10 km/h, 36 m/s

5. Volumen: 4 m3

4.2. Vector
Se define vector como una magnitud que se define con tres propiedades que le son carac-
tersticas:
54 Escalares, Vectores y Espacios Vectoriales

1. Modulo: La longitud del vector (un


vector contiene un segmento). En este caso es
el segmento OA y corresponde a 32 + 42 .

2. Direccion: Recta que contiene al vector. En este caso el vector esta contenido en la
4
recta de forma canonica y = x
3

3. Sentido: La orientacion que toma el vector. En este caso es desde el punto (0,0)
hasta el punto (3,4) y se ubica en el cuadrante I). Por convenio se divide el plano
cartesiano en cuatro cuadrantes de la forma siguiente:

II) I)

III) IV)
55

Si no se especifican las 3 propiedades anteriores, el vector no esta definido. Los vectores


se denotan a, b, c, ..., n
y su expresion en el plano es de la forma a
= {ax , ay , az , ..., an }.

Ejemplos :

1. Velocidad: Un movil se mueve en uno o mas ejes respecto de un centro de referencia.


La velocidad es la variacion de distancia respecto del tiempo y puede tomar valores
negativos, no as la rapidez que correponde al modulo de la velocidad.

2. Desplazamiento: Un movil puede ir de A a B que no es lo mismo que de B a A.


Entonces, es importante especificar el sentido de la flecha que describe el vector
desplazamiento.

3. Aceleracion: Dependiendo del sentido una fuerza puede acelerar o desacelerar un


movil por lo que el modulo por si solo no define la aceleracion.

Los vectores de la figura son todos de igual modulo pero su direccion y sentido no son
iguales. Por esto que es importante definir que un vector se define mediante estas tres
propiedades.
56 Escalares, Vectores y Espacios Vectoriales

Los vectores son n-dimensionales , es decir, estan contenidos en planos en Kn (K puede ser
R o C) pero por razones geometricas (no es posible graficar en mas de tres dimensiones)
todo vector en el espacio esta contenido en planos en R2 o R3 .
Todo vector en Kn se denota a = (a1 , a2 , . . . , an ) y tambien se puede denotar en forma de
matriz . Un vector de n-componentes , en este caso 3, se denota mediante una matriz fila
como se vio en el captulo 2 tal que:
R3 = ( ax ay az )
a

Para esclarecer aun mas sirve como ejemplo el caso de un alumna que llamaremos Trixi
. El desplazamiento de su casa, que queda en Diagonal Paraguay, desde un punto A a la

facultad ubicada en un punto B es el vector AB que no es lo mismo que el desplazamiento

opuesto BA. Ambas distancias tienen igual modulo, misma direccion pero sentido inverso.
Mediante graficos esto queda expresado claramente en los ejes (x, y) y (x, y, z). Existen
muchos mas ejemplos como el de la velocidad de una piedra que cae con moudulo igual a
su rapidez, direccion vertical y sentido hacia el centro de la tierra.

4.3. Espacio Vectorial


Sea V un conjunto de vectores { a, b, c, ..., n
} dotado de una LCI denominada suma y
que ademas este conjunto tiene estructura de grupo abeliano.
Sea ademas, K un conjunto de escalares {, , , ..., } dotado de dos LCI (+, ) tal que
(K, +, ) tiene estructura de cuerpo. Entonces, V/K es un ejjespacio vectorial.

4.4. Espacios Vectoriales Usuales

4.4.1. Espacio Vectorial R2 /R

Consideremos V = R2 = R R = {(x, y)/x R y R} que corresponde a vectores pares


ordenados de numeros reales.

La suma en este caso se define:


= (x, y)
a
b = (x, y) (p, q) = (x + p, y + q)
b = (p, q) } a
57

Con esta definicion el neutro de la suma de vectores en R2 es:


0 = (0, 0) En efecto, a
+ 0 = (x, y) + (0, 0) = (x + 0, y + 0) = (x, y)

Para el caso de un vector polinomio cabe senalar que el neutro no correponde al 0 sino al
p(x) = a + bx + cx2 + . . . + nxn
0(x), es decir: }
0(x) = 0 + 0x + 0x2 + . . . + 0xn

Para el cuerpo K tomamos el cuerpo (R, +, ) y finalmente consideramos la LCE entre R


y R2 que se define:
R R2 R2

) = ((x, y))
(, a a = (x, y) = (x, y)

Demostracion : R2 /R es un espacio vectorial


Se pueden verificar las propiedades ya senaladas de la LCE K V:

a b) =
1. ( a b
a b) = [(x, y) (p, q)]
En efecto, (
a b) = (x + p, y + q)
(
a b) = ((x + p), (y + q))
(
a b) = (x + p), y + q)
(
a b) = (x, y) (p, q)
(
a b) = (x, y) (p, q)
(
a b) =
( a b

2. ( + )
a =
a
a
En efecto,
( + )
a = ( + )(x, y)
( + )
a = (( + )x , ( + )y)
( + )
a = (x + x , y + y)
( + )
a = (x, y) + (x + y)
( + )
a =
a +
a
58 Escalares, Vectores y Espacios Vectoriales

a) = ()
3. ( a
En efecto,
a) = ((x, y))
(
a) = [(x, y)]
(
a) = (x, y)
(
a) = (x, y)
(


a=a
4. 1
En efecto,
a = 1(x, y)
1
a = (1x, 1y)
1
a = (x, y)
1

a=a
1

Las propiedades se han verificado con pares ordenados de numeros reales por lo que se
demuestra que R2 /R es un espacio vectorial.
Observacion : Aqu solo se ha demostrado un caso particular. La demostracion es valida
para R2 /R y no para cualquier espacio vectorial que puede ser R3 /R, Rn /R, etc.

4.4.2. Rn /R
nveces

Corresponde a: Rn /R = (R R R . . . R)
Todo vector en Rn /R se denota x = {(x1 , x2 , x3 , . . . , xn )/xj R j = {1, 2, 3, . . . , n}}

La suma en este espacio es analoga al caso de pares ordenados, es decir:


x y = (x1 , x2 , x3 , . . . , xn ) (y1 , y2 , y3 , . . . , yn ) = (x1 + y1 , x2 + y2 , x3 + y3 , . . . , xn + yn )

La ponderacion por escalar tambien es analoga al caso de pares ordenados, se cumple:


x = (x1 , x2 , x3 , . . . , xn ) = (x1 , x2 , x3 , . . . , xn )

Observacion : Los vectores en Rn /R se denominan n-tuplas


59

4.4.3. Rn [x]/R (Polinomios reales de grado n sobre R)


Corresponde a :
Rn [x] /R = {
p(x) = a0 + a1 x + a2 x2 + . . . + an xn /aj R j = {(1, 2, 3, . . . , n}}

pol

La suma en este espacio es analoga al caso de pares ordenados, es decir:


p q)(x) = (a0 + a1 x + a2 x2 + . . . + an xn ) (b0 + b1 x + b2 x2 + . . . + bn xn )
(
p q)(x) = (a0 + b0 ) + (a1 x + b1 x) + (a2 x2 + b2 x2 ) + . . . + (an xn + bn xn )
(

La ponderacion por escalar en este espacio es analoga al caso de pares ordenados, es decir:
p(x) = p(x) = (a0 + a1 x + a2 x2 + . . . + an xn )

p(x) = a0 + a1 x + a2 x2 + . . . + an xn

El neutro para este espacio corresponde a 0(x), es decir: 0 + 0x + 0x2 + . . . + 0xn


Observaciones :

1. 0(x) numericamente es cero pero conceptualmente es un polinomio.

2. n indica el grado mayor de un polinomio, de esta forma un espacio de orden n


contiene todos los polimios de grado n.

3. Un polinomio se puede expresar como n-tupla, ejemplo: 2 + 3x + 4x2 (2, 3, 4)

4.4.4. C[a, b] (Funciones reales continuas sobre [a, b])




Suma de vectores: f + g(x) = f (x) + g (x)


Ponderacion por escalar: (f )(x) = f (x)


Elemento neutro: 0 (x) = 0 x [a, b]

4.5. Base de V/K


Sea V/K un espacio vectorial, entonces el conjunto A = { 2 , a
a1 , a 3 , . . . , a
n } es una base de
V/K si y solo si:
60 Escalares, Vectores y Espacios Vectoriales

1. A es linealmente independiente

2. lin(A) = V/K

Cuando se cumplen ambas condiciones A es un conjunto libre (linealmente independiente)


y generador , es decir que con combinaciones lineales de A se puede formar cualquier vector
de V/K.
Ejemplo :
E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base de R3 /R

1. E es linealmente independiente.
En efecto, (1, 0, 0) + (0, 1, 0) + (0, 0, 1) = (0, 0, 0)
(, 0, 0) + (0, , 0) + (0, 0, ) = (0, 0, 0)
===0

2. E es generador de R3 /R
En efecto, sea (x, y, z) cualquier vector de R3 /R se cumple que:
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
(x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z)
(x, y, z) = (x, y, z)
(x, y, z) lin(E) (x, y, z) R3

4.5.1. Bases Canonicas


Se define base canonica como toda base formada unicamente por vectores unitarios tal
que solo una de las componentes de cada vector es no nula e igual a 1. Para toda base
canonica se cumple lo siguiente:
0 si i j
Sea ci el i-esimo vector canonico, necesariamente ci { Siendo j la componente
1 si i = j
j-esima del vector i-esimo . Es decir, cuando la componente tiene la misma cardinalidad
que el vector entonces la componente toma el valor 1.
Para el caso de un vector polinomio la base canonica se define: E = {1, x, x2 , . . . , xn }
61

4.6. Dimension de V/K


Sea V/K un espacio vectorial, entonces todas las bases de V/K tienen la misma cardinal-
idad.
Se define dimension del espacio V/K a la cardinalidad de sus bases. De este concepto
surge el de vector de coordenadas de x que se define:

4.7. Vector de Coordenadas de x


Sea A = { 2 , a
a1 , a 3 , . . . , a
n } y x V cualquier vector. Entonces se puede expresar x de la
forma: n
x = 1 a
1 + 2 a
2 + 3 a
3 + . . . + n a
n = k xk
k=1

Es decir, x se puede formar a partir de una combinacion lineal de vectores del conjunto
al que pertenece.
El vector de coordenadas de x con respecto a la base A corresponde a la n-tupla:
1

2


x]A = 3
[




n

Ejemplo :

1. En R3 /R sea la base D = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} y el vector x = (2, 8, 5)
Se tiene que x = 6(1, 0, 0) + 3(1, 1, 0) + 5(1, 1, 1)
6


x]D = 3
Por lo tanto el vector de coordenadas corresponde a: [

5

2. Determine base y dimension para W1 W2 si
W1 = {(x, y, z, w) R4 /x + y w = 0}
W2 = {(x, y, z, w) R4 /x w = 0}

Sea u W1 W2 tal que:


62 Escalares, Vectores y Espacios Vectoriales

a + b d = 0
a d 0
a+bd=0b=0
a=d
u = (a, b, c, d) = (a, 0, c, a) = a(1, 0, 0, 1) + c(0, 0, 1, 0)
u es generado por {(1, 0, 0, 1), (0, 0, 1, 0)} que es linealmente independiente
{(1, 0, 0, 1), (0, 0, 1, 0)} es base de dimension (cardinalidad) 2 de W1 W2

4.8. Subespacio Vectorial


Sea V/K un espacio vectorial y W V tal que W . Entonces W/K es un s.e.v. de V/K
si y solo si cumple con el teorema de caracterizacion:

Teorema 4.8.1 W V es s.e.v. de V/K si y solo si:




1. 0 W lo cual comprueba que W


2. (
a , b ) W (

a b ) W (
a , b ) W, K

3.
a W
a W ( a , b ) W, K
Ejemplo :

En R2 /R sea W R2 [x]/W = {p(x) = a + bx + cx2 , p(1) = 0}


Probar que W/R es un s.e.v. de R2 [x]/R




1. Sea 0 (x) = 0 + 0x + 0x2 tenemos que 0 (x)x=1 = 0 + 0 1 + 0 12 = 0


0 (x) W W


p (x) = a + bx + cx2
2. Sean } W
p (1) +
q (1) = 0
q (x) = d + ex + f x2

Entonces, (p + q)(x) = p (x) +
q (x)

Por lo tanto (p + q)(1) = p (1) +

q (1) = 0 + 0 = 0 (p + q)(x) W
63

3. Sea

p x = a + bx + cx2 W p(1) = 0 y ademas R
Entonces, (p )(x) =

p (x)
(

p )(1) =

p (1) = 0 = 0
(

p W)

W es un s.e.v

4.8.1. Combinacion Lineal


Sea A = {x1 , x2 , x3 , . . . , xn } V/K que puede ser un conjunto de caracter finito o infinito.
Una combinacion lineal de A es todo vector de la forma:
n
= j xj a
a = lin(A)
k=1

El concepto de combinacion lineal lleva al concepto de independencia lineal que se define


como sigue:

4.8.2. Independencia Lineal de un Conjunto


Sea A = {x1 , x2 , x3 , . . . , xn } V/K, se cumple que A es linealmente independiente si y solo
si:

n
= k xk = 0 (1 = 2 = 3 = . . . = n = 0)
a
k=1

Es decir, A es un conjunto linealmente independiente cuando la unica forma de obtener


una combinacion lineal nula es que todos los escalares de la combinacion sean 0. Si esto
no se cumple, entonces el conjunto necesariamente es linealmente dependiente.
Ejemplos :

1. Verificar que (3, 25 ) es combinacion lineal de A = {(1, 0), (0, 2)}


5
En efecto, (1, 0) + (0, 2) = (3, )
2
5
(, 2) = (3, )
2
64 Escalares, Vectores y Espacios Vectoriales

= 3
5
2 =
2
5
= 3, =
4
es combinacion lineal de A

2. Demostrar que B = A {
aj } con (A, B) V/K es un conjunto linealmente dependi-
ente.
j V/K a
En efecto, a j lin(B)

n
j = k xk a
a j = 1 a
1 + 2 a
2 + 3 a
3 + . . . + j1 a
j1 + j+1 a
j+1 + . . . + n a
n
k=1,kj

0 = 1 a
1 + 2 a j1 a
3 + . . . + j1 a
2 + 3 a j a j+1 + . . . + n
j + j+1 a an

j esta ponderado por


La combinacion lineal nula es linealmente dependiente ya que a
1.

4.9. Operatoria Vectorial

4.9.1. Suma de Vectores


Dados dos o mas vectores estos se pueden sumar directamente. Para el caso de dos vec-
tores a = (x1 , y1 ) , b = (x2 , y2 ) estos se suman componente a componente1 , es decir
+ b = (x1 + x2 , y1 + y2 ). As se establece la regla del paralelogramo que define que para
a
sumar dos vectores cualquiera se debe hacer lo siguiente:

y b para obtener a
1. Dados a + b se dibuja b a continuacion de a
.

2. Ambos vectores se trasladan hasta completar un paralelogramo.


Componente de un vector: La componente de un vector es la proyeccion de un vector sobre uno de
1

los ejes en que esta contenido, es decir es el valor que el vector tiene en un eje.
Ejemplo : a = (3, 2) ax = 3 (componente x) y a y = 2 (componente y)
65

hasta el final de b es a
3. El vector que va desde el inicio de a + b. Una consecuencia
importante de esto es que la suma de vectores no es conmutativa ya que invertir el
orden de la suma invierte el sentido del vector resultante.

y z

a
b'
a+b
a'
a a+b

b
y
x x b

En caso de tener dos o mas vectores sumados se hace de la misma manera. Para el caso
del paralelogramo deberan sumarse los vectores de a pares para as poder formar el
paralelogramo y no otra figura. En forma algebraica la suma de n-vectores no presenta
diferencia con la suma de dos vectores. Es importante senalar que la suma de vectores
esta definida solo cuando se aplica a vectores de igual numero de componentes.
De otra forma, se pueden sumar vectores mediante la regla del triangulo que consiste
en copiar el vector que se suma a continuacion de otro y el vector resultante va desde el
origen del primer vector hasta el final del vector sumado.

a+b
66 Escalares, Vectores y Espacios Vectoriales

Resta de Vectores

Como tal la resta de vectores no existe. La resta de vectores consiste en sumar el inverso
de un vector a otro.

= (4, 2) , b = (2, 1) , c = (1, 0) , d = (3, 8) , e = (2, 7)


Ejemplos : Dados a

+ b = (2, 3)
1. a
c = a
2. a + (
c) = (4, 2) + [(1, 0)] = (4, 2) + (1, 0) = (5, 2)
+ b + c + d + e = ([4 2 1 + 3 2], [2 + 1 + 0 8 7]) = (2, 12)
3. a
b c d e = ([4 + 2 + 1 3 + 2], [2 1 0 + 8 + 7]) = (2, 12)
4. a
+ b + d + c = ([4 2 + 3 1], [2 + 1 8 + 0]) = (4, 5)
5. a

4.9.2. Ponderacion por Escalar


Dado un vector cualquiera ponderar por un escalar consiste en multiplicar todas las
componentes del vector por un mismo valor. De este modo si a = (x, y, z) entonces,
a = (x, y, z) tal que puede alterar el modulo y el sentido del vector.

= (1, 2, 4) , b = (2, 0, 1) , c = (4, 6, 3)


Ejemplos : Dados a

1 3
1. c = (2, 3, )
2 2

a c + 10b = (2, 4, 8) + (4, 6, 3) + (20, 0, 10) = (12, 2, 15)


2. 2

Si consideramos una LCE entre K y V de la forma:


KVV
)
(, a a
ponderado por escalar .
a es vector a

Se cumple que:
67

a b) =
1. ( a b

2. ( + )
a =
a
a

a) = ()
3. ( a


a=a
4. 1

Entonces la estructura (V, K, , +, , K V) es un espacio vectorial.

Notacion de espacio vectorial:


(V, K, , +, , K V) V/K

4.9.3. Producto Cartesiano


Sean A, B conjuntos de vectores no vacos. Definimos el producto cartesiano de A, B como
el conjunto:
A B = {(A, B)/a A b B}

Es decir, al efectuar producto cartesiano a dos conjuntos de vectores, se obtiene un


conjunto de combinaciones de vectores contenidos tanto en A como en B. Es importante
senalar que tal operacion no contiene todas las combinaciones posibles ya que al efectuar
A B se obtienen combinaciones de B sobre A y en otros casos es el segundo termino que
opera sobre el primero. Adicionalmente, el producto cartesiano se puede realizar entre
conjuntos de vectores de distinto numero de componentes.
Ejemplos :

1. A = (1, 2) B = (, , )
A B = {(1, ), (1, ), (1, ), (2, ), (2, ), (2, )}

2. B A = {(, 1), (, 2), (, 1), (, 2), (, 1), (, 2)}

3. A A = {(1, 1), (1, 2), (2, 1), (2, 2)}

Por igualdad de pares ordenados:

(a, b) = (x, y) (a = x) (b = y))

De lo anterior se tiene que A B B A


68 Escalares, Vectores y Espacios Vectoriales

4.9.4. Norma de un Vector


Dado un vector en Kn este cumple con las propiedades de un vector ya senaladas. Para
el caso de vectores de R2 y R3 se puede emplear el teorema de pitagoras para determinar
el modulo de un vector que en forma general se denomina norma . En todo espacio V/K
se puede definir una aplicacion:

V R+ {0}

a a

Esta aplicacion cumple las siguiente propiedades:

1.
a 0

2. =0
a = 0 a

3.
a = a

a + b
4. a + b (desigualdad triangular)

4.9.5. Normas en Rn /R
La norma de un vector se clasifica arbitrariamente asignando numeros:

1. Norma 1
n

a1 = (a1 , a2 , a3 , . . . , an )1 = aj
k=1

2. Norma 2 (o Norma Eucldea , esta es la que se usa comunmente a menos que se


indique otra cosa)
n 1/2


a2 = [ aj ]
2
= a1 2 + a2 2 + a1 3 + . . . + an 2
k=1

3. Norma 3
n 1/3


a3 = [ aj ]
3
= 3
a1 3 + a2 3 + a1 3 + . . . + an 3
k=1
69

4. Norma infinito (o del supremo)


a = sup{ak }nk=1

Ejemplo :

(2, 8, 3, 0) = 8

En efecto,

lm n
2n + 8n + 3n
n


2n + 8n + 3n
lm

n
8n
n 8n


1 n 3 n

8 lm +1 +
n
n
n
4 8

0 0


8 lm n
1n = 8
n

4.9.6. Angulo Entre Vectores

, b de este espacio se define


Dado un espacio vectorial V/K, el angulo entre dos vectores a
segun la relacion:

<a , b >
a, b) =
cos(
a b

Ejemplo en R2
70 Escalares, Vectores y Espacios Vectoriales

Para determinar el angulo sera as:

< (2, [4 1]), (3, [3 1]) > 6+6 12


a, b) =
cos( = =
22 + (4 1)2 32 + (3 1)2 13 13 13
12
Luego, el angulo correspondiente es: arccos( 13 ) = 22 37 12

4.9.7. Producto Punto (o Producto Interno)


Sea V/K un espacio vectorial . Se define el producto punto sobre V como cualquier
aplicacion del tipo:
VVK
a, b) < a
( , b > K a
, b V

, b > o en forma alternativa


Es una operacion cuyo resultado es un escalar . Se denota < a
b
a

4.9.8. Propiedades del Producto Punto


El producto punto cumple lo siguiente:

1. Asociatividad: Si aparece una suma junto con el producto punto se puede asociar
respecto de la suma.
71

a) Para el caso de vectores:


+ b, c >=< a
<a , c > + < b, c >

b) Para el caso de matrices (siempre y cuando las operaciones esten bien definidas):
< A + B, C >= tr(C T A) + tr(C T B)

c) Para el caso de polinomios:


< p(x) + q(x), r(x) >=< p(x), r(x) > + < q(x), r(x) >

d) Para el caso de funciones reales continuas en [a, b]


< f (x) + g(x), h(x) >=< f (x), h(x) > + < g(x), h(x) >

2. Distributividad: Si el producto punto se pondera por un escalar, este distribuye


respecto de cada termino del producto punto

a) Para el caso de vectores:


<a, b >=<
a, b >=< a
, b >

b) Para el caso de matrices (siempre y cuando las operaciones esten bien definidas):
< A, B >= tr(B T A)

c) Para el caso de polinomios:


< p(x), q(x) >=< p(x), q(x) >=< p(x), q(x) >

d) Para el caso de funciones reales continuas en [a, b]


< f (x), g(x) >=< f (x), g(x) >=< f (x), g(x) >

3. Conmutatividad: En Rn el producto punto es conmutativo tal que:

a) Para el caso de vectores:


, b >=< b, a
<a >

Para el caso de Cn se cumple que el producto punto es conmutativo respecto


de su conjugacion, es decir, se cumple que:
<a, b >= < b, a
>
b = b a
a
72 Escalares, Vectores y Espacios Vectoriales

, b >= 3 + 2i entonces, < b, a


Ejemplo en C : Si < a >= 3 2i < b, a
> = 3 + 2i

b) Para el caso de matrices (siempre y cuando las operaciones esten bien definidas):
< A, B >=< B, A >
tr(B T A) = tr(AT B)

c) Para el caso de polinomios:


< p(x), q(x) >=< q(x), p(x) >

d) Para el caso de funciones reales continuas en [a, b]


< f (x), g(x) >=< g(x), f (x) >

4. Otra propiedad, no menos importante, es que el producto punto es siempre mayor


, b > 0) y esto se cumple con todos los casos ya mencionados.
o igual a cero (< a

Ejemplo :
Demostrar que en M22 < A, A >= tr(AT A) es producto punto
Se debe demostrar que se cumplen las propiedades mencionadas

1. PD < A, A > 0
a11 a12 a a
Como < A, A >= ( ) , ( 11 12 )
a21 a22 a21 a22

Se tiene entonces que

a11 a12 a a
( ) , ( 11 12 ) = tr(AT A)
a21 a22 a21 a22

Luego,
a211 + a221 a11 a12 + a21 a22
tr(AT A) = tr = a211 + a212 + a221 + a222
a11 a12 + a21 a22 a212 + a222

En base a lo anterior se tienen dos casos,


73

a) (A A = 0) (a211 + a212 + a221 + a222 = 0)


Es directo que si a11 = a12 = a21 = a22 = 0

b) (A A > 0) (a11 2 + a212 + a221 + a222 > 0)

Esto implica que se debe demostrar lo siguiente:


0 0
A A > 0 M22 {( )}
0 0

En efecto, si {a11 , a12 , a21 , a22 } R {0}

(a211 + a212 + a221 + a222 ) > 0

a211 + a221 a11 a12 + a21 a22


tr + >0
a11 a12 + a21 a22 a212 + a222

2. Conmutatividad
PD < A, A >=< A, A >

Es directo que se cumple la igualdad.

3. Distributividad
PD < A, A >=< A, A >=< A, A >

a211 + a221 a11 a12 + a21 a22


a) < A, A >= tr
a11 a12 + a21 a22 a12 + a22
2 2

a11 a12 a a
b) < A, A >= tr [ ( ) ( 11 12 )]
a21 a22 a21 a22
a211 + a221 a11 a12 + a21 a22


< A, A >= tr

a11 a12 + a21 a22 a212 + a222

a211 + a221 a11 a12 + a21 a22


< A, A >= tr

a11 a12 + a21 a22 a212 + a222

74 Escalares, Vectores y Espacios Vectoriales

a11 a12 a a
c) < A, A >= tr [( ) ( 11 12 )]
a21 a22 a21 a22
a211 + a221 a11 a12 + a21 a22


< A, A >= tr

a11 a12 + a21 a22 a212 + a222

a211 + a221 a11 a12 + a21 a22


< A, A >= tr

a11 a12 + a21 a22 a212 + a222

Se cumple que 1) = 2) = 3)

4. Asociatividad
PD < A + B, C >=< A, C > + < B, C >

< A + B, C >= tr(C T [A + B])


< A + B, C >= tr(C T A + C T B)
< A + B, C >= tr(C T A) + tr(C T B)
< A + B, C >=< A, C > + < B, C >

tr(B T A) es producto punto en M2 (R)

4.9.9. Productos Punto Usuales


1. Producto punto entre vectores en Rn
, b >=< (a1 , a2 , a3 , . . . , an ), (b1 , b2 , b3 , . . . , bn ) >= a1 b1 + a2 b2 + a3 b3 + . . . + an bn
<a
, b >= nk=1 ak bk
<a

Para el caso de R2 o R3 se puede emplear < a , b >=


ab cos(). En la esta ecuacion
b
a
corresponde a ( a, b) = arc cos ( )

x
y

2. Producto punto entre matrices


< A, B >= tr(B T A) = tr(AT B) si y solo si B T A esta definida.
75

3. Producto punto entre polinomios en Rn


< p(x), q(x) >=< a0 + a1 x + a2 x2 , . . . , an xn , b0 + b1 x + b2 x2 , . . . , bn xn >
< p(x), q(x) >= nk=1 ak bk

4. Producto punto entre funciones reales continuas en [a, b]


< f (x), g(x) >= a [f (x)g(x)]dx
b

4.9.10. Producto Cruz (o Producto Vectorial)


En R3 puede definirse una aplicacion que define producto entre vectores tal que al efectuar
la operacion producto cruz (denotada con el operador ) se obtiene como resultado otro
vector. Entonces, se tiene lo siguiente:

R3 R3 R3
a, b) a
( b R3 (
a, b) R3

4.9.11. Propiedades del Producto Cruz


a b) a
1. Se cumple que el producto cruz genera otro vector tal que: ( a b) b
(

a b =
2. La forma operacional es: a b sen()

b, a
3. Se cumple que < a b, b >= 0 dada la condicion de ortogonalidad
>=< a

4. Para calcular producto cruz mediante determinantrs (as no se consideran las nor-
mas como en el caso anterior) se toman los vectores de la base canonica R3 :
a, b) R3 . Con esto
i = (1, 0, 0) j = (0, 1, 0) k = (0, 0, 1) y dados los vectores (
se define a b:

i j k
b = det ax ay az
a
bx by bz

5. El producto cruz no es conmutativo y esto es claramente visible con la forma ma-


tricial aunque tal vez no lo es a primera vista por medio de las normas.
Ejemplo
76 Escalares, Vectores y Espacios Vectoriales


a = (5, 0, 2), b = (2, 1, 2)] R3 entonces,
Dados dos vectores [
RRR RRR
RR i j k RRR
b = RRRR
a 5 0 2 RRR = i( 2) j(3 2) + k(5)
RRR RRR
RRR 2 1 2 RRR
RRR RRR
RRR i j k RRR
b a R
= RR 2 1 2 RRR = i( 2) j(3 2) + k(5)
RRR RRR
RRR 5 0 2 RRR
Captulo 5

Transformaciones Lineales

5.1. Transformacion Lineal


Sean U/K y V/K espacios vectoriales sobre el mismo cuerpo K. Se define una transfor-
macion lineal de U en V como una funcion (lineal) del tipo:

f U/K B/K
x f (
x) V
xU

Toda transformacion lineal cumple las siguiente propiedades:

1. f (
x) = f (
x)
x U, K
x + y) = f (
2. f ( x) + f ( x, y U, K
y )

Notar que, si f es lineal entonces f (0U ) = 0V . Con esto, se tiene que f (0) = 0,
cabe
preguntarse: Existen otros vectores cuya imagen sea 0V ?
Efectivamente existen, se tiene que se da el caso en que x 0U /f (
x) = 0V excepto
para transformaciones lineales inyectivas (recordar que una funcion inyectiva cumple
la condicion de que cada elemento del recorrido es generado por un unico elemento del
dominio de la misma funcion.)

Ejemplos :

1. f R2 /R R/R
78 Transformaciones Lineales

(a, b) f (a, b) = 2a 5b es lineal

En efecto,

a) f [(a, b) + (x, y)] = f [(a + x, b + y)]


f [(a, b) + (x, y)] = 2(a + x) 5(b + y)
f [(a, b) + (x, y)] = (2a 5b) + (2x 5y)
f [(a, b) + (x, y)] = f (a, b) + f (x, y)

b) f [(a, b)] = f (a, b)


f [(a, b)] = 2a 5b
f [(a, b)] = (2a 5b)
f [(a, b)] = f (a, b)

f (a, b) es una transformacion lineal .

2. Sea G M33 /R R/R


A G(A) = tr(A)
Probar que es una transformacion lineal

En efecto,

n
a) G[A + B] = (ajj + bjj )
j=1
n n
G[A + B] = ajj + bjj
j=1 j=1

G[A + B] = tr(A) + tr(B)


G[A + B] = G(A) + G(B)
n
b) G(A) = ajj
j=1

G(A) = tr(A)
G(A) = G(A)

G(A) es una transformacion lineal .


79

5.1.1. Nucleo de una Trasformacion Lineal


Sea f U/K V/K una transformacion lineal . Llamaremos nucleo de f al siguiente
subconjunto de U:

ker(f ) = { x) = 0V }
x U/f (

Demostracion : ker(f ) es subespacio vectorial

1. f (0U ) = 0V 0U ker(f ) ker(f )

2. Sean (x, y) ker(f )


f (
x) = f ( y ) = 0V
f (
x) + f (y ) = 0V + 0V
x + y) = 0V
f (
x + y) ker(f )
(

3. Sea x ker(f )
f (x) = 0V
x) = 0V
f (
x) = 0V
f (

x ker(f )

ker(f ) es subespacio vectorial .

5.1.2. Imagen de una Transformacion Lineal


Dada una transformacion lineal f U/K V/K, la imagen de f es el conjunto:

im(f ) = {
y V/ x) = y}
x U, f (

Demostracion : im(f ) es subespacio vectorial


Usando el teorema de caracterizacion se tiene:

1. f (0 x) = 0 0 V im(f )
x) = 0 f (
80 Transformaciones Lineales

2. Si (y1 , y2 ) im(f ) y ademas (, ) K entonces, existen x1 + x2 U tales que


f (
x1 ) = x2 ) = y2 . De esta forma se tiene que:
y1 f (

y1 + y2 = f (
x1 + x2 )
y1 + y2 = f (
x1 ) + f ( x2 )

5.1.3. Teorema de las Dimensiones (Nucleo - Imagen)


Sea f U/K V/K una transformacion lineal la dimension de esta se puede descomponer
de la forma:

dim(U) = dim[ker(f )] + dim[im(f )]

Demostracion :
Dada una transformacion lineal f cualquiera, supongamos los conjuntos
A = { 2 , a
a1 , a 3 , . . . , a
v } base de ker(f )
{
B = { 2 , a
a1 , a 3 , . . . , a
v , a
v+1 , . . . , a
n } base de U

Es decir, B es una extension de A tal que cumple con ser base de U


Sea ademas C = {f (
av+1 ), . . . , f (
an )} base de im(f ).
Tomando un vector v im(f ) cualquiera, es decir v V, supongamos que existe un vector
u U tal que f (
u) = v.
Como B es base de U se tiene que

u = 1 a
1 + 2 a
2 + 3 a
3 + . . . + v a
v + v+1 a
v+1 + . . . + n a
n

Y debido a esto ultimo tambien se tiene

v = f (
u) = 1 f (
a1 ) + 2 f (
a2 ) + 3 f (
a3 ) + . . . + v f (
av ) + v+1 f (
av+1 ) + . . . + n f (
an )

Ya que { 2 , a
a1 , a 3 , . . . , a
v } es base de ker(f ) se tiene que
f (
u1 ) = f (
u2 ) = f ( u3 ) = . . . = f (
uv ) = 0
De acuerdo al ultimo parrafo v se reduce a

v = f (
u) = v+1 f (
av+1 ) + . . . + n f (
an )
81

v es combinacion lineal de C. Se debe probar que C es linealmente independiente .


Supongamos que v+1 f ( an ) = 0V , reescribiendo queda
av+1 ) + . . . + n f (

n ) = 0V
v+1 + . . . + n a
f (v+1 a
v+1 + . . . + n a
(v+1 a n ) ker(f )

v+1 + . . . + n a
Debido a que el vector (v+1 a n ) ker(f ) existiran escalares no nulos tales
que

v+1 + . . . + n a
v+1 a n = 1 a
1 + 2 a
2 + 3 a
3 + . . . + v a
v
v+1 + . . . + n a
v+1 a n 1 a
1 2 a
2 3 a v = 0V
3 . . . v a

1 , a
De las condiciones iniciales, a partir de B se tiene que a 2 , a
3 , . . . , a
v , a
v+1 , . . . , a
n es
linealmente independiente y por lo tanto se cumple que

v+1 = . . . = n = 0

C es base de im(f ) y se tiene entonces que

dim(U) = v + (n v) = n
dim(U) = dim[ker(f )] + dim[im(f )]

5.1.4. Tranformaciones Lineales e Independencia Lineal


Sea U/K V/K una transformacion lineal cualquiera. Considerando los conjuntos:
A = {x1 , x2 , x3 . . . , xn } U
{
B = {f (x1 ), f (x2 ), f (x3 ) . . . , f (xn )} V
cabe preguntarse si el conjunto y su respectiva transformacion son L.I , en caso de no
cumplirse esto se origina una combinacion nula de vectores en A
Suponiendo B L.I , Es A L.I ?
Respuesta
f (1 x1 + 2 x2 + . . . + n xn ) = f (0U )
1 f x1 + 2 f x2 + . . . + n f xn = 0V
82 Transformaciones Lineales

1 = 2 = . . . = n
A es L.I

Suponiendo A L.I , Es B L.I ?


Respuesta
f (1 x1 + 2 x2 + . . . + n xn ) = 0V
(1 x1 + 2 x2 + . . . + n xn ) ker(f )

Suponiendo ker(f ) = 0U
1 x1 + 2 x2 + . . . + n xn = 0U
1 = 2 = . . . = n
B es L.I
Si B = f (A) es L.I entonces A es L.I . Ademas si A es L.I y ker(f ) = 0U entonces B es
L.I

Importante : Si f U/K V/K es una transformacion lineal y ademas se tiene que



1. ker(f ) = 0U

2. f (
x) = f (
y)




De la condicion 2. se obtiene: f (
x) f ( x y) = 0V
y ) = 0V f (

Es decir, (x y) ker(f )

De la condicion 1. se tiene que (x y) = 0U . Por lo tanto, x = y

Conclusion : ker(f ) = 0U f es inyectiva.

Supongamos ahora que se cumple:

1. f U/K V/K es una transformacion lineal inyectiva.

x) = 0V
2. f (

De esta forma se tiene que: x y f (


x) f (
y)
83

5.1.5. Transformacion Lineal Inyectiva

Sea f U/K V/K una transformacion lineal . Sera biyectiva a partir de la condicion:
[f (
u1 = f ( u1 = u2 ]
u2 ) [

x) = 0V
Sea x ker(f ), entonces para obtener ker(f ) se tiene f (
Se sabe ademas que f (0U ) = 0V a partir de lo cual se tiene x = 0U

Entonces, ker(f ) = {0U }

Inversamente, supongamos ker(f ) = {0V } y ademas f (


x) = f (
y)

f (
x) f (y ) = 0V
x y) = 0V
f (
x y) ker(f )
(
x y) = 0U (a partir de la hipotesis ker(f ) = 0U )
(
x = y
f es inyectiva
f es una transformacion lineal inyectiva ker(f ) = {0U }

5.1.6. Transformacion Lineal Biyectiva

Sea f U/K V/K una transformacion lineal . Sera biyectiva a partir de dos condiciones:
que sea inyectiva y sobreyectiva.
La dimension de la transformacion lineal se puede separar de la siguiente forma:

dim(U) = dim[ker(f )] + dim[im(f )]

f es inyectiva ker(f ) = 0U
f es sobreyectiva im(f ) = V
Cumpliendose estas dos condiciones con f biyectiva se tiene que

dim(U) = dim(V)
84 Transformaciones Lineales

5.1.7. Matriz Reprensentante de una Transformacion Lineal


Sean

f U/K V/K una transformacion lineal

A = {a1 , a2 , a3 . . . , ap } U


B = {b1 , b2 , b3 . . . , bq } V

Tal que A y B son bases de U y V respectivamente. Se tiene que f (


aj ) V j = {1, 2, . . . p}
y se tiene la relacion
j f (
a aj )
UV

Entonces, se puede escribir

a1 ) = 11b1 + 21b2 + . . . + q1bq


f (
a2 ) = 12b1 + 22b2 + . . . + q2bq
f (

aj ) = 1j b1 + 2j b2 + . . . + qj bq
f (

ap ) = 1pb1 + 2pb2 + . . . + qpbq


f (

Tal que q y p son las dimensiones de A y B respectivamente.


A partir del sistema anterior definimos la matriz representante de f (con respecto a las
bases de A y B) como:

11 12 13 . . . 1j . . . 1p
21 22 23 . . . 2j . . . 2p
([f ]A,B )QP =

q1 q2 q3 . . . qj . . . qp

Ejemplo

Sea f R2 [x]/R M22 (R)


85

a c a + 2c
f (a + bx + cx2 ) = ( )
2a 3c 2a

1. Hallar ker(f ), im(f ) y sus dimensiones


Para hallar ker(f )
a c a + 2c 0 0
f (a + bx + cx2 ) = ( )=( )
2a 3c 2a 0 0
a =
c 0
a + =
2c 0

2a = 0
3c 2a = 0

Se tiene que a = 0 (ecuacion 3) y reemplazando en la ecuacion 2 se obtiene c = 0. De


esta forma

p(x) ker(f ) p(x) = bx

La base de ker(f ) es {x} y es de dimension 1.

Para hallar im(f )

Si lin[p(x)] = U < lin[p(x)] >= im(f )


Descomponemos f de la forma {1, x, x2 }, entonces reemplazando en f (a + bx + cx2 )
1 1
f (1) = ( )
2 3
0 0
f (x) = ( )
0 0
1 2
f (x2 ) = ( )
0 3

Por lo tanto, un generador de im(f )es:


1 1 0 0 1 2
{( ),( ),( )}
2 3 0 0 0 3

Dado que 0M una base de im(f ) es:


86 Transformaciones Lineales

1 1 1 2
{( ),( )}
2 3 0 3

dim[im(f )] = 2

2. Hallar la matriz representante con respecto a las bases



{1, 1 + 2x, x2 } = A









1 0 1 1 1 1 1 1

( ),( ),( ),( )=B

0 0 0 0 1 0 1 1

1 1 1 0 1 1 1 1 1 1
f (1) = ( )=0( )1( )+5( )3( )
2 3 0 0 0 0 1 0 1 1

1 1 1 0 1 1 1 1 1 1
f (1 + 2x) = ( )=0( )1( )+5( )3( )
2 3 0 0 0 0 1 0 1 1

1 2 1 0 1 1 1 1 1 1
f (x2 ) = ( ) = 3 ( )+2( )3( )+3( )
0 3 0 0 0 0 1 0 1 1

De esto obtenemos la transpuesta de la matriz de factores, es decir


T 0 0 3
0 1 5 3 1 1 2
0 1 5 3 =
3 2 3 3 5 5 3
3 3 3
Que corresponde a [f ]A,B

5.1.8. Propiedades de Transformaciones Lineales

1. Suma
Sean f U/K V/K y g U/K V/K transformaciones lineales .
Entonces, f + g U/K V/K tal que (f + g)(
x) = f (
x) + f (
x) es lineal.
Se cumple que [f + g]A,B = [f ]A,B + [g]A,B
87

2. Ponderacion por escalar


Sea f U/K V/K una transformacion lineal.
Entonces, f U/K V/K es lineal.
Se cumple que [f ]A,B = [f ]A,B + [g]A,B
Es importante senalar que
(f + g) = (f ) + (g)
( + )f = (f ) + (f )
()f = (f )
f = f

3. Composicion
Sean f U/K V/K y g U/K V/K transformaciones lineales .
Entonces, g(f ) U/K V/K tal que (g f )(
x) = g(f (
x)) es lineal.
Se cumple que [g f ]A,C = [g]B,C + [f ]A,B . Es importante senalar que las matrices
representantes de este caso van en conjuntos distintos entre si.

5.1.9. Como se Aplica la Matriz Representante?

Tal como aparece en las secciones anteriores partimos de la condicion:


Sean

f U/K V/K una transformacion lineal

A = {a1 , a2 , a3 . . . , ap } U


B = {b1 , b2 , b3 . . . , bq } V

Tal que A y B son bases de U y V respectivamente. Tomando un vector x U se tiene la


siguiente relacion: A B A E E B
88 Transformaciones Lineales

Para el caso de la matriz representante la lectura es de derecha a izquierda tal que

[f ]A,B = [I]E,E [f ]A,B [I]A,E

Denotar la transformacion lineal [f ]A,B como [I]A,E [f ]A,B [I]E,E es incorrecto y cabe
senalar que [I]E,E y [I]A,E corresponden a matrices de cambio de base

Observacion :
En una matriz representante de vectores propios, los valores propios correspondientes se
ubican en la diagonal. Es decir la suma de los valores propios es igual a la traza de la
matriz representante y el producto de los valores propios es igual al determinante de la
matriz representante.

Dada una base de vectores propios A = { 2 + . . . + a


a1 + a n } se cumple que:

f ( 1 + 0 + . . . + 0
a1 ) = 1 a
f ( 1 + . . . + 0
a2 ) = 0 + 1 a

f ( n
an ) = 0 + 0 + . . . + n a

Propiedad Basica de la Matriz representante


[f ]A,B [
x]A = [f (
x)]B
89

Ejemplo :
Sea f R1 [x]/R M22 (R)
a b
p(x) = a + bx ( )
ab a+b

Obtener la matriz representante de las bases canonicas


1 0 0 1 0 0 0 0
{1, x} y {( ),( ),( ),( )}
0 0 0 0 1 0 0 1
90 Transformaciones Lineales

1 0 1 0 0 1 0 0 0 0
f (1) = ( )=1( )+0( )+1( )+1( )
1 1 0 0 0 0 1 0 0 1

0 1 1 0 0 1 0 0 0 0
f (x) = ( )=0( )+1( )1( )+1( )
1 1 0 0 0 0 1 0 0 1

Por lo tanto, la matriz representante es


1 0
0 1

1 1
1 1

A partir de esto se puede calcular la transformacion lineal correspondiente a un vector


de coordenadas. Para calcular la transformacion correspondiente al vector 5 3x se tiene

1 0 1 0 5
0 1 0 1 5 3 5 3
[f (5 3x)] = (5 3x) = ( )= p(5 3x) = ( )
1 1 1 1 3 8 8 2
1 1 1 1 2

5.1.10. Matriz de Pasaje


Sea U/K un espacio vectorial de dimension n. Definimos la aplicacion lineal:

I Kn /K Kn /K
[
x]A [
x]B

Lo cual corresponde a un cambio de base. Cada vector de la base de partida se puede


expresar como combinacion lineal de los vectores de la base de llegada.
Ejemplo :
Dadas las bases de R2
1 1
A = {( ) , ( )}
0 1
1 0
E = {( ) , ( )}
0 1
91

La matriz de pasaje de A a E corresponde a


1 1
[I]A,E = ( )
0 1
Se obtiene a partir de la descomposicion
1 1 0
( )=1( )+0( )
0 0 1
1 1 0
( )=1( )+1( )
1 0 1

La matriz de pasaje de E a A corresponde a


1 1
[I]E,A = ( )
0 1
Se obtiene a partir de la descomposicion
1 1 1
( )=1( )+0( )
0 0 1
0 1 1
( ) = 1 ( ) + 1 ( )
1 0 1

A partir de esto se tiene que [I]A,E = [I]1


E,A

5.1.11. Como se Relacionan las Matrices Representantes?

Con respecto a distintas bases, para las matrices representantes de f U/K V/K se
tiene la siguiente relacion:

[f ]C,D = [I]B,D [f ]A,B [I]C,A


92 Transformaciones Lineales

Un caso particular de lo anterior es cuando se tiene una transformacion lineal


f U/K U/K tal que la representacion esquematica sera as:

Entonces, para este ultimo caso se tiene:

[f ]B,B = [I]A,B [f ]A,A [I]B,A

Si denotamos [I]B,A = P y [I]A,B = P 1


Entonces, [f ]B,B = P 1 [f ]A,A P

5.1.12. Matrices Similares


Basandose en el apartado anterior, si tomamos un caso particular en que dadas las matrices
cuadradas A, D, P tal que P es invertible y se cumple la relacion A = P 1 DP
93

Entonces, A y D son matrices similares tal que:


A2 = A A = (P 1 DP) (P 1 DP) = P 1 D2 P

A3 = A2 A = (P 1 D2 P) (P 1 DP) = P 1 D3 P

An = P 1 Dn P

5.2. Cambio de Base y Similaridad


A partir de lo ya expuesto en este captulo asumamos una transformacion lineal tal que
f U U. Definimos la matriz representante (tal como se vio con lectura de izquierda a
derecha) de la forma
Captulo 6

Formas Bilineales

6.1. Formas Bilineales


Supongamos un espacio vectorial B/K sobre el cual se define la aplicacion

f VVK

x, y) f (
( x, y)

Tal aplicacion es una forma bilineal si y solo si se cumple:

x1 + x2 , y) = f (
1. f ( x1 , y) + f (
x2 , y)

x, y) = f (
2. f ( x, y)

x, y1 + y2 ) = f (
3. f ( x, y1 ) + f (
x, y2 )

x, y) = f (
4. f ( x, y)

Dado un conjunto cualquiera de vectores A = { 2 , a


a1 , a 3 , . . . , a
n } que supondremos es base
de V. Se puede formar la matriz de Gram de una forma bilineal generica.
Se expresa:
f ( 1 ) f (
a1 , a 2 )
a1 , a . . . f ( n )
a1 , a
f ( 1 ) f (
a2 , a 2 )
a2 , a . . . f ( n )
a2 , a
G=
...
f ( 1 ) f (
an , a 2 )
an , a . . . f ( n )
an , a
96 Formas Bilineales

G corresponde a la matriz de Gram de f respecto de la base A y se cumple

x, y) = [
f ( x]TA G[
y ]A

En esta relacion [
x], [
y ] son los vectores de coordenadas con respecto a la base a la que
esta referida G

Ejemplo :
f [(x, y)(, )] = 3x 2x + 5y

Respecto de la base canonica en R2 : {(1, 0), (0, 1)} se tiene


f [(1, 0), (1, 0)]3 1 1 2 1 0 + 5 0 1 = 3
f [(1, 0), (0, 1)] = 3 1 0 2 1 1 + 5 0 1 = 2
f [(0, 1), (1, 0)] = 3 0 1 2 0 0 + 5 1 1 = 5
f [(0, 1), (0, 1)] = 3 0 0 2 0 1 + 5 1 0 = 0
As la matriz de Gram correspondiente es:
3 2
G=( )
5 0

Cabe senalar que en este ejemplo se presenta lo siguiente:


[(x, y)] = ( x y )

[(, )] = ( )

3 2 3 2
f [(x, y), (, )] = ( x y ) ( )( )=( x y )( )
5 0 5
f [(x, y), (, )] = 3x 2x + 5y
97

6.2. Cambio de Base


Sean F y G son matrices de Gram asociadas a una forma bilineal f con respecto a las
bases de A y B respectivamente y P la matriz de pasaje de A a B entonces, se tiene que

f = P T GP

6.3. Simetra y Antisimetra


Dada f U U K una forma bilineal . Se establece que las condiciones de simetra o
antisimetra son:

x, y) = f (
1. Simetrica: Si f ( y , x)
x, y) = f (
2. Antisimetrica: Si f ( y , x)

Ejemplo :
f R2 R2 R
f [(x, y), (, )] = 5x + 8x + 8y + 20y
Corresponde a una forma bilineal simetrica ya que los coeficientes cruzados son iguales.
Importante : Toda forma bilineal se puede expresar como la suma de uan forma bilineal
simetrica con una forma bilineal antisimetrica.

6.4. Formas Cuadraticas


Sea f U U K es una forma bilineal simetrica . Entonces, la aplicacion

wUK
x w( x, x)
x) = f (
es una forma cuadratica
Se tien ademas que x w( x, x) es forma cuadratica si y solo si:
x) = f (

x) = 2 w(
1. w( x) K
98 Formas Bilineales

2. f U U K
1
x, y) f (
( x, y) = [w(
x + y) w(
x) w(
y )] es bilineal simetrica
2
Captulo 7

Referencias

1. Algebra Lineal, Stanley, Grossman. Editorial Mc Graw Hill, 1996

2. Algebra Lineal Teora y Ejercicios, Seymour Lipschutz, Editorial McGraw Hill, 1995.

3. Teora y Problemas de Matrices. Frank Ayres, Serie Schaum, 1969.

4. Tutora de Algebra Lineal, Publicaciones DIM/CMM, 2008

You might also like