You are on page 1of 110

VECTOR

En fsica, un vector (tambin llamado vector euclidiano o vector geomtrico) es


una herramienta geomtrica utilizada para representar una magnitud
fsica definida por su mdulo, su direccin y su sentido.
En matemticas se define un vector como un elemento de un espacio vectorial,
esta nocin es ms abstracta y para muchos espacios vectoriales no es posible
representar sus vectores mediante el mdulo, la longitud y la orientacin.
Los vectores en un espacio eucldeo se pueden representar geomtricamente
como segmentos de recta dirigidos en el plano R
2
o en el espacio R
3
.

Definicin
Se llama vector de dimensin n a una tupla de n nmeros reales (que se llaman
componentes del vector). El conjunto de todos los vectores de dimensin n se
representa como R
n
.

As, un vector perteneciente a un espacio se representa como:

, donde



Un vector fijo del plano es un segmento orientado, en el que hay que distinguir tres
caractersticas:
mdulo: la longitud del segmento.
direccin: la orientacin de la recta.
sentido: indica cual es el origen y cual es el extremo final de la recta.



Componentes de un vector
Un vector en el espacio se puede expresar como una combinacin lineal de tres
vectores unitarios o versores perpendiculares entre s que constituyen una base
vectorial.


En coordenadas cartesianas, los vectores unitarios se representan por i, j, k
paralelos a los ejes de coordenadas x, y, z positivos.



Las componentes del vector en una base vectorial predeterminada pueden
escribirse entre parntesis y separadas con comas:



o expresarse como una combinacin de los vectores unitarios definidos en la base
vectorial. As, en un sistema de coordenadas cartesiano, ser:



Estas representaciones son equivalentes entre s, y los valores a
x
, a
y
, a
z
son las
componentes de un vector que, salvo que se indique lo contrario, son nmeros
reales.

Una representacin conveniente de las magnitudes vectoriales es mediante un
vector columna o un vector fila, particularmente cuando estn implicadas
operaciones matrices, del modo siguiente:

[

] [

]

Suma de vectores
Para sumar dos vectores libres (vector y vector) se escogen como representantes
dos vectores tales que el extremo final de uno coincida con el extremo origen del
otro vector.
Mtodo del paralelogramo

Este mtodo permite solamente sumar vectores de dos en dos. Consiste en
disponer grficamente los dos vectores de manera que los orgenes de ambos
coincidan en un punto, trazando rectas paralelas a cada uno de los vectores, en el
extremo del otro y de igual longitud, formando as un paralelogramo. El vector
resultado de la suma es la diagonal de dicho paralelogramo que parte del origen
comn de ambos vectores.

Mtodo del tringulo o mtodo poligonal

Consiste en disponer grficamente un vector a continuacin de otro,
ordenadamente: el origen de cada uno de los vectores coincidir con el extremo
del siguiente. El vector resultante es aquel cuyo origen coincide con el del primer
vector y termina en el extremo del ltimo.

Mtodo analtico para la suma y diferencia de vectores

Dados dos vectores libres:
(

)
(

)
El resultado de su suma o de su diferencia se expresa en la forma

(

) (

)
y ordenando las componentes,





EJEMPLOS
Dibujar las siguientes combinaciones lineales con los vectores:

*

+ *

+.
a)


b)
c)


d)



Solucin

a)



b)
6 5 4 3 2 1 1 2 3 4 5 6 7
6
5
4
3
2
1
1
2
3
4
5
6
x
y
u = (2,4)
v = (-1,1)
3v = (-3,3)
1/2u = (1,2)
-3v = (3, -3)
1/2u - 3v = (4,-1)


c)





14 13 12 11 10 9 8 7 6 5 4 3 2 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14
13
12
11
10
9
8
7
6
5
4
3
2
1
1
2
3
4
5
6
7
8
9
10
11
12
13
x
y
u = (2,4)
v = (-1,1)
2u = (4,8)
4v = (-4,4)
-4v = (4,-4)
-2u = (-4,-8)
-2u -4v = (0,-12)
6 5 4 3 2 1 1 2 3 4 5 6
5
4
3
2
1
1
2
3
4
5
x
y
u = (2,4)
v = (-1,1)
3/4v = (-3/4,3/4)
u + 3/4v = (13/10,47/10)



d)






PRODUCTO PUNTO
Es una operacin definida sobre dos vectores de un espacio eucldeo cuyo
resultado es un nmero o escalar. Esta operacin permite explotar los conceptos
de la geometra euclidiana tradicional: longitudes, ngulos, ortogonalidad en dos y
tres dimensiones. El producto escalar puede definirse tambin en los espacios
eucldeos de dimensin mayor a tres, y en general en los espacios
vectoriales reales y complejos. Los espacios vectoriales dotados de producto
escalar reciben el nombre de espacios prehilbertianos

Definicin:
El producto punto entre dos vectores A y B denotados por , se define como
sigue:
a) Si

son dos vectores de V


2
entonces


8 7 6 5 4 3 2 1 1 2 3 4 5 6 7 8
8
7
6
5
4
3
2
1
1
2
3
4
5
6
7
8
x
y
u = (2,4)
2v = (-2,2)
1/3 u = (2/3, 4/3)
-1/3 u = (-2/3,- 4/3)
-1/3 u + 2v = (-59/20, 27/40)
b) Si

son dos vectores de V


3
entonces



Definicin geomtrica en un espacio eucldeo:
El producto escalar de dos vectores en un espacio eucldeo se define como el
producto de sus mdulos por el coseno del ngulo que forman.


||||


ngulos entre dos vectores
La expresin geomtrica del producto escalar permite calcular el coseno del
ngulo existente entre los vectores, mediante la siguiente definicin formal:


||||




Vectores ortogonales
Dos vectores son ortogonales o perpendiculares cuando forman ngulo recto entre
s. Si el producto escalar de dos vectores es cero, ambos vectores son
ortogonales.

ya que el

.

Propiedades del producto punto
1. Conmutativa


Demostracin
Sean

vectores en R
2

Definicin de vectores

Definicin Producto Punto

Propiedad Conmutativa en R

Definicin de vectores


2. Distributiva respecto a la suma vectorial


Demostracin
Sean

en R
2

Definicin de vectores

Definicin suma de vectores

Definicin Producto Punto

Propiedad Distributiva en R

Definicin Producto Punto

Definicin suma de vectores




3. Asociatividad respecto al producto por un escalar m


Demostracin
Sean

en R
2
, m un escalar en R

Definicin de vectores

Definicin Producto Punto

Propiedad Distributiva en R

Propiedad Asociativa en R

Definicin de Producto Punto


Definicin de vectores

Definicin de vectores

Definicin de Producto Punto

Propiedad Asociativa en R

Propiedad Conmutativa en R

Propiedad Asociativa en R

) Definicin de Producto Punto


Definicin de vectores



EJERCICIOS
1. Demostrar que el producto punto cuando hay un ngulo entre ellos, es decir,
.

Para hacer esta demostracin haremos uso de la ley de cosenos



Despejando para coseno obtenemos:



Aplicando Propiedad punto notable

[ ]



Haciendo propiedad distributiva

[ ]



Aplicando propiedad distributiva nuevamente

[ ]



Aplicando Propiedad punto notable



Eliminando trminos semejantes



Terminando de simplificar



Queda demostrado el producto punto







2. Demostrar que el producto punto

Sean A,B y C tres vectores que pertenecen a R
n

Definicin de vectores

Suma de vectores

Definicin producto punto

Prop. Distributiva

Prop. Asociativa




3. Demostrar que
Sean dos vectores A y B que pertenecen a R
n



Definicin de vectores


Propiedad Distributiva en R


Suma de vectores


Definicin de vectores

4. Demostrar la desigualdad triangular

Sean U y V vectores en R
n

Propiedad Producto punto notable


Propiedad Distributiva en R

Propiedad Producto punto notable


| |

Propiedad Valor Absoluto


Teoremas ya demostrado

Factorizacin





5. Demostrar



Tomamos dos vectores U y V en R
n

Propiedad producto punto notable


Propiedad Distributiva en R

Propiedad producto punto notable





PRODUCTO CRUZ
En lgebra lineal, el producto vectorial es una operacin binaria entre
dos vectores de un espacio eucldeo tridimensional que da como resultado un
vector ortogonal a los dos vectores originales.

Definicin:
Sean dos vectores a y b en el espacio vectorial R
3
. El producto vectorial
entre a y b da como resultado un nuevo vector, c. Para definir este nuevo vector
es necesario especificar su mdulo y direccin:
El mdulo de c est dado por
; donde es el ngulo determinado por los vectores a y b.
La direccin del vector c, que es ortogonal a a y ortogonal a b, est dada por
la regla de la mano derecha.
El producto vectorial entre a y b se denota mediante a b, por ello se lo llama
tambin producto cruz. En los textos manuscritos, para evitar confusiones con la
letra x (equis), es frecuente denotar el producto vectorial mediante a b.
El producto vectorial puede definirse de una manera ms compacta de la siguiente
manera:
, donde es el vector unitario y ortogonal a los
vectores a y b y su direccin est dada por la regla de la mano derecha y es,
como antes, el ngulo entre a y b. A la regla de la mano derecha se la llama a
menudo tambin regla del sacacorcho.


Producto vectorial entre dos vectores
Sean

dos vectores concurrentes de


R
3
el espacio afn tridimensional segn la base anterior.
Se define el producto cruz como el vector:
|

| |

| |


| , en el que

|


| , es el determinante de orden 2.


Propiedades importantes
Cualesquiera que sean los vectores A, B y C:
1. , anticonmutividad (demostrada en ejercicio 5).
2. , cancelacin por ortogonalidad (demostrada en ejercicio 2).


EJERCICIOS
1. Demostrar que
Sean U, V y W tres vectores en R
3

Definicin de vectores

Def. Prod. Cruz

Definicin Producto Punto

Propiedad asociativa en R

Propiedad Conmutativa en R
Propiedad Distributiva en R

Definicin de vectores


2. Demostrar que
Sean A y B dos vectores en R
3

) Definicin de Vectores

Def. Prod. Cruz

Definicin Producto Punto




3. Demostrar que
Sean A y B dos vectores en R
3

Def. de Vectores
Suma y resta de vectores


Definicin Producto Cruz
<

>
Propiedad Distributiva
<

>

Suma y resta en R

Definicin de vectores

4. Demostrar que
Sean U y V dos vectores en R
3
y c cualquier escalar en R

) Definicin de vectores

Definicin Producto cruz


Multiplicacin por un escalar


Propiedad Asociativa en R

Definicin Producto Cruz




Definicin de vectores
Definicin Producto cruz


Propiedad Conmutativa en R


Propiedad asociativa en R

Definicin Producto Cruz




5. Demostrar que
Sean U y V dos vectores en R
3

Definicin de vectores

Definicin Producto Cruz

Factor comn en R

Propiedad Conmutativa en R

Definicin Producto Cruz




6. Demostrar que
Sean A, B y C tres vectores en R
3

Definicin de vectores

Def. Producto Cruz

Def. Prod. Punto


Propiedad Distributiva en R


Propiedad Asociativa en R

Factor Comn

Def. Prod. Punto

Definicin Producto Cruz

























ESPACIOS VECTORIALES

Recordemos que en las secciones anteriores los vectores en el plano y en espacio
tienen propiedades comunes como la suma, multiplicacin por un escalar y el
producto punto. Estas dos propiedades nos conducen a establecer la definicin de
espacio vectorial que es el objeto de estudio de la rama de la matemtica llamada
algebra lineal y una herramienta clave para el estudio y la compresin de los
conceptos del algebra lineal que ms adelante estudiaremos.

Definicin de Espacio vectorial Real
Un espacio vectorial real V es un conjunto de objetos, denominados vectores,
junto con dos operaciones binarias llamadas suma y multiplicacin por un
escalar que satisfacen los diez axiomas enumerados a continuacin:
I. Cerradura bajo la suma
Si
II. Ley asociativa de la suma de vectores

III. Existencia del vector cero o idntico aditivo

IV. Existencia del inverso aditivo
Si
V. Ley conmutativa de la suma
Si
VI. Cerradura bajo la multiplicacin por un escalar
Si
VII. Primera ley distributiva
Si
VIII. Segunda ley distributiva
Si
IX. Ley asociativa de la multiplicacin por escalares
Si
X.

Como podemos notar la definicin nos dice espacio vectorial real, esto significa
que los escalares que se utilizan son nmeros reales, de igual manera podramos
utilizar escalares complejos y extender estas definiciones al espacio complejo.
Salvo que se indique lo contrario en esta seccin solo la dedicaremos a espacios
vectoriales reales.
La definicin nos dice que el conjunto debe satisfacer los diez axiomas anteriores,
podemos inferir que si uno de los diez axiomas no se cumplen para un conjunto
especifico entonces este no es un espacio vectorial real.
A continuacin veremos ejemplos demostrados paso a paso de los axiomas de
espacios vectoriales.
Ejemplo 1
Demostrar que el siguiente conjunto es un espacio vectorial


Demostracin: sean



i. Cerradura bajo la suma


Definicin de vectores

suma de vectores


ii. Ley asociativa de la suma de vectores



) Def. De vectores


Suma de vectores



Prop.Asociativa en

Suma de vectores
(

Suma de vectores

iii. Existencia del idntico aditivo
Sabemos que existe es fcil verificar esta propiedad

iv. Existencia del idntico aditivo



Definicin de vectores


Suma de vectores

Igualando coordenadas

Despejando





v. Ley conmutativa de la suma
Como hemos visto en el capitulo anterior este axioma tambin se cumple que si



vi. Cerradura bajo la multiplicacin por un escalar


Definicin de vector


Def. De multiplicacin por escalares


vii. Primera ley distributiva



Definicin de vectores


Suma de vectores


Multiplicacin por escalar


Propiedad distributiva en


Suma de vectores



Se cumple la primera ley distributiva
viii. Segunda ley distributiva



Definicin de vectores


Multiplicacin por escalar



Propiedad distributiva en


Suma de vectores
Se cumple la segunda ley distributiva

ix. Ley asociativa de la multiplicacin por escalares



Definicin de vector


Multiplicacin por escalar




Multiplicacin por escalar




Propiedad asociativa del producto en




Multiplicacin por escalar


Se cumple la ley asociativa de multiplicacin por escalares

x. Es obvio que

Algunas de las propiedades ya han sido estudiadas anteriormente, debido a eso
no las describimos tan minuciosamente. Vemos que Todas las propiedades se
cumplen.

El conjunto de vectores de

constituyen un Espacio Vectorial Real



Como veremos en algunos de los ejemplos siguientes las definiciones de suma y
multiplicacin por escalares no son las usuales ni las muy comunes por lo que se
pide no dar ninguna conclusin antes de verificar los diez axiomas de espacio
vectorial real.
Ejemplo2
Demostrar que los vectores pertenecientes a

con las siguientes operaciones


forman un espacio vectorial:





Demostracin:
Sean los vectores


i.

Definicin de vectores

Definicin de suma de puntos


Se cumple la cerradura bajo la suma.

ii.

Def. De vectores

Def. De suma

Def. De suma

Conmutatividad de suma

Definicin de suma

Definicin de suma

Se cumple la propiedad asociativa de la suma de vectores.

iii.

Definicin de vectores

Definicin de suma

Igualando componentes

Despejando para


Vemos que existe el idntico aditivo.
iv.

Definicin de vectores

Definicin de suma

Igualando componentes

Despejando para

Definicin de multiplicacin por escalar




Prueba

Def. Multiplicacin escalar


Definicin De suma


v.

Definicin de vectores

Definicin de suma

Conmutatividad en

Definicin de suma
Definicin de vectores

Se cumple la propiedad conmutativa de la suma de vectores

vi.


Vemos que esta es la definicin de la multiplicacin por escalares
vii.

Definicin de vectores

Definicin de suma de puntos


Def. Multiplicacin

Distributiva

def de suma

Definicin de multiplicacin por escalares



Se cumple la primera ley distributiva.
viii.

Definicin de vectores

Def. De producto

Distributiva en

Def.suma

Definicin de multiplicacin por escalar


Definicin de vectores
Vemos que se cumple la segunda ley distributiva.
ix.

Definicin de vectores

Def. De multiplicacin por escalares


Def. Por escalar


Cancelacin en

Def. De multiplicacin por escalar



De igual manera se cumple la propiedad asociativa de la multiplicacin por
escalares.
x.

Definicin de vectores

Definicin de multiplicacin

Igualando componentes

Factorizando

Despejando


Debido a que todos los axiomas se cumplen entonces podemos concluir que los
vectores en

con las dos operaciones utilizadas constituyen un espacio vectorial


real.

Ejemplo 3
Sea Demuestre si V es un espacio vectorial.
Vemos que V es una recta en

veremos si se cumplen los diez axiomas de un


espacio vectorial.
Demostracin:
Sean

entonces:
i. Vemos que no cumple la cerradura bajo la suma

Definicin de vectores

Suma de vectores

Conmutatividad en

ii. La ley asociativa si se cumple

Definicin de vectores

Asociatividad en

iii. El idntico aditivo no existe
Definicin de vectores
Igualando componentes
Despejando t
El origen no est sobre la recta.

iv. El axioma del inverso aditivo tampoco se cumple. Puesto que
entonces no existir
v. La propiedad conmutativa para la suma de vectores si se cumple. Es fcil verificar
que



vi. No se cumple la cerradura bajo la multiplicacin por escalar.
Def. Multiplicacin por escalar
Propiedad distributiva en
Excepto cuando

vii. Es fcil verificar que si se cumple la primera ley distributiva.

Def. De multiplicacin por escalar


Propiedad distributiva en

viii. La segunda ley distributiva tambin se cumple
Def. De multiplicacin por escalar
Propiedad distributiva en


ix. Tambin cumple la ley asociativa de la multiplicacin por escalares.
Definicin de Vectores
( ) ()
Asciatividad del producto en

x. El axioma diez tambin se cumple, es fcil verificarlo


=
Como pudimos ver algunos de los axiomas si se cumplen pero no cumplen los
axiomas i) iii) iv) vi). Debido a esto llegamos a la conclusin de que los vectores
que pertenecen a V no constituyen un espacio vectorial.
Recordemos que con uno de los diez axiomas que no se cumplan entonces el
conjunto no es un espacio vectorial, no es necesario verificarlos todos si antes ya
hemos comprobado que alguno de ellos no se cumplen. En el caso anterior los
hemos demostrado todos aun cuando no era necesario, esto fue para dar un poco
mas de ejemplos, a partir de este momento no sabemos de antemano que un
conjunto no es un espacio vectorial, solo buscaremos cual de los axiomas no se
cumple, para demostrar ms rpidamente que el conjunto no constituye un
espacio vectorial real.

Ejemplo 4
Demuestre que el si

el conjunto de polinomios de grado menor que o igual


a constituyen en espacio vectorial real.
Demostracin:
Se define

donde los coeficientes son


nmeros reales y es un entero mayor que cero. Sean los siguientes polinomios:


i. Cerradura bajo la suma

Definicin de vectores

Cerradura en


ii. Ley asociativa de la suma

Definicin de polinomios


iii. Existencia del idntico aditivo


iv. Existencia del inverso aditivo
Es claro que si




Se cumple el axioma del inverso aditivo.

v. Ley conmutativa de la suma de vectores

Conmutatividad
en


La suma de polinomios es conmutativa

vi. Cerradura bajo la multiplicacin por un escalar.


Vemos que se cumple la cerradura bajo la multiplicacin por un escalar.

vii. Primera ley distributiva


Esta propiedad es muy clara y tambin se cumple

viii. Segunda ley distributiva


ix. Ley asociativa de la multiplicacin por escalares

Definicin de vectores

Distributiva en

Asociatividad en



x. Es claro que

tambin se cumple el axioma 10


Todos los axiomas se cumplen, algunas de las propiedades y operaciones ya son
conocidas por ello no se describen minuciosamente.

Constituye un espacio vectorial Real.



Ya hemos estudiado varios ejemplos, ahora veamos varios teoremas que surgen
de la definicin de Espacio Vectorial y sus axiomas.

Teorema
Sea un espacio Vectorial, si entonces:
1.
Demostracin:
Partiremos de que V es un espacio vectorial:
Axioma iii) existencia del idntico aditivo
Axioma vi) multiplicacin por escalares
Axioma Vii) primera ley distributiva
Axioma iv) existencia del inverso aditivo
[ ] Axioma ii) ley asociativa de la suma
Axioma iii) existencia del idntico aditivo
Axioma iii) existencia del idntico aditivo

2.
Demostracin:
Por hiptesis V es un espacio vectorial, entonces:

Axioma vii) cerradura de la multiplicacin por escalares
Axioma viii) primera ley distributiva
Axioma iv) existe el inverso aditivo
[ ] Axioma ii) ley asociativa
Axioma iv) existe el inverso aditivo
Axioma iii)existe el idntico aditivo
3.
Demostracin:
Utilizamos el hecho de que:

[ ] Multiplicamos por en la igualdad
Axioma viii) y teorema 2
Axioma x)
Sumando ) en la igualdad
[ ] Axioma ii) Axioma iii)
Axioma iv) inverso aditivo
Axioma iii) idntico aditivo
Vemos que de la definicin de espacios vectoriales, surgen muchos teoremas que
se relacionan con esta definicin. A continuacin estudiaremos un teorema clave
en el estudio de espacios vectoriales.

Teorema
Sea V un espacio vectorial real, entonces:
i. El idntico aditivo es nico.
ii. El inverso aditivo tambin es nico.
Demostracin:
i. Sabemos que V es un espacio vectorial, entonces si , debe existir un
idntico aditivo nico que tambin est en . Supongamos que existen dos
ambos idnticos aditivos, entonces:

Definicin del idntico aditivo


Igualando

Sumando a la igualdad
[ ]

[ ] Propiedad asociativa

Idntico aditivo
Idntico aditivo
Concluimos que si existen dos idnticos aditivos, entonces se trata del mismo.
ii. De la misma manera que el anterior, supongamos que existen dos inversos
aditivos de respectivamente, entonces:
Definicin del inverso aditivo
Igualando miembros
Sumando a la igualdad
[ ] [ ] Propiedad asociativa
Propiedad del inverso aditivo
Existe el idntico aditivo

Por lo que concluimos de nuevo que si existen dos inversos aditivos para un
mismo vector de un espacio vectorial, entonces ambos son iguales o se trata del
mismo.
Existe una gran cantidad de ejemplos sobre espacios vectoriales, en este captulo
solamente abordamos unos pocos ejemplos que son casos muy generales, como
hemos visto demostrar si un conjunto constituye o no un espacio vectorial es muy
extenso y tedioso, lleva mucho trabajo y tiempo.
A continuacin veremos unos ejemplos en los que no desarrollaremos todos los
pasos pero si las propiedades mas esenciales que son la cerradura bajo la suma y
la multiplicacin por un escalar, ya que el resto de las propiedades se deducen a
partir de estos dos axiomas.

Ejemplo 5
El conjunto de vectores en

que estn sobre un plano que pasa por el origen es


un espacio vectorial real.
Sea

esta es la ecuacin de un plano que pasa


por el origen. Vemos que contiene puesto que pasa por el origen, es fcil
comprobar la cerradura bajo la suma,

estn en entonces:


El resto de las propiedades se comprueban de la misma manera, este es un
ejemplo clsico igual a los que veremos en el siguiente captulo sobre los su
espacios vectoriales en los que solo se deben demostrar las propiedades de
cerradura.
Con esto concluimos esta parte de nuestro material, esperamos que haya sido de
utilidad y que al llegar hasta estas lneas ya se comprendan todos los conceptos
que hasta aqu hemos descrito


























Sub Espacio Vectorial

Definicin:
Es un subconjunto que tambin es un espacio vectorial, de hecho todos los
espacios vectoriales tienen subconjuntos que tambin son espacios vectoriales.
Si H es un subconjunto no vacio de un espacio vectorial V y suponga que H es en
si un espacio vectorial bajo las operaciones de suma y multiplicacin por un
escalar definidas en V entonces se dice que H es un sub espacio de V.

Teorema
Es un subconjunto no vacio de H de un espacio vectorial V es un sub espacio de V
si se cumplen las dos reglas de cerradura.
1) Si
2) Si


Ejemplos de Sub espacio Vectoriales
Si

son sub espacios vectoriales de un espacio vectorial, entonces la


interseccin de ellos es un sub espacio vectorial.
1) Si
2) Si

Demostracin:


es un subespacio vectorial, no vacio


es un subespacio vectorial, no vacio


i.




ii.



Demostrar si el subsiguiente subconjunto es un subespacio vectorial:
Sea


{(




, }
Primera condicin (




,

i.

(




, ;

(

(




, (

,
(



ii.

(




, (




, (




,
1) Si es un espacio vectorial. Demostrar que

si
.
0




2) -1


Sabemos que

( )



-1














Trabajo Individual

Determinar si los conjuntos dados de vectores n son sub espacios de

.
1) ,*

+ -

2) ,*

+ -

3) ,*

-

4) El plano determinado por los puntos con coordenados (1,0,0), (0,0,1), (0,0,0).

5) Sea un espacio vectorial y sean / para algn escolar .
Demuestre mediante axiomas que o bien

6) Sea un espacio vectorial y sea tales que
Mediante axiomas demuestre que .

7) Determine si el subconjunto dado de Matrices

es un sub espacio de


a. Conjunto de Matrices de la Forma
*


+

b. Conjunto de Matrices de la forma
*


+/
Desarrollo
1) ,*

+ - *

+ , 0

i.

+ ,

+ *

+ [

]

ii.

+ *


+

2) ,*

+ -

i.

+ *

+ [

]


ii.

+ *


+

3) {*

} *



i)

+ *

+ [

]
ii.

+ *


+ (1,0,0), (0,0,1), (0,0,0).













i)

(1,0,0) ,

(0,0,1) ;

(0,0,0)

(1,0,0) (0,0,1)
(1,0,1)





4) Partimos de q , existe

; por hiptesis


[

]
(

) (

) por el axioma i
1
por el axioma 10 I

Definamos






.) Por Hiptesis



; ;




5) Determine si el subconjunto dado de matrices

es un sub espacio de


1)
*


+
i)

*


+ ;

*


+ *

+ [

]
[


]

ii)

*


+ *


+ *


+

2) ,*


+ -

*


+

*


+ *

+ [

] [

]


iii)

*


+ [


] *


+













Combinacin lineal
Un vector x se dice que es combinacin lineal de un conjunto de vectores
A= {x
1
,x
2
,x
3
,,x
n
} al espacio vectorial V si se puede expresar como una suma de
los vectores de A multiplicados cada uno de ellos por un coeficiente escalar a
1
, a
2
,
a
3
,,a
n
R es decir:
x = a
1
x
1
+ a
2
x
2
+ a
3
x
3
++ a
n
x
n

As, x es combinacin lineal de vectores de A si podemos expresar x como una
suma de productos por escalar de una cantidad finita de elementos de A.

Ejemplo 1
El vector (20, 12, 37) es una combinacin lineal de los vectores (1, 3, 5) y (6, 2, 9)
(

+ (

+ (

+

Ejemplo 2
2x + 3y - 2z = 0 Se dice que z es combinacin lineal de x y de y, porque podemos
escribir z = x +

y sin ms que despejar la z. De la misma manera, despejando


oportunamente, cada una de estas variables se podra expresar como
combinacin lineal de las otras dos.
Los escalares dicen cunto de cada vector del conjunto A necesito para que,
cuando se combinen linealmente dichos elementos, pueda formar el vector x en
cuestin.




Espacio Generado
En lgebra lineal, dado un espacio vectorial V, se llama sistema de
generador s al conjunto de vectores, pertenecientes a V, a partir del cual se
puede generar el espacio vectorial V completo.
No confundir este concepto con el de base, ya que si bien toda base es un sistema
generador, la implicacin inversa no es cierta. Mientras que una base ha de ser
obligatoriamente un sistema donde todos sus elementos han de ser linealmente
independientes, un sistema generador puede ser linealmente dependiente.

Conjunto Generador
Se dice que los vectores v
1
, v
2
,, v
n
de un espacio vectorial V generan a V si todo
vector en V se puede escribir como una combinacin lineal de los mismos. Es
decir, para todo vector v V, existen escalares a
1
, a
2
,, a
n
tales que
v = a
1
v
1
+ a
2
v
2
++ a
n
v
n
Ejemplo 1
Demostrar que el conjunto de vectores S = {(1, 0), (0, 1), (1, 2), (3, 4)} genera al
espacio IR
2
.
Solucin:
En efecto, note que todo vector de IR
2
se puede expresar como combinacin lineal
de esta vectores:

(a, b) = a(1, 0) + b(0, 1) + 0(1, 2) + 0(3, 4).

Como puede verse no hay nada especial con los vectores (1, 2) y (3, 4). Estos
vectores pueden ser remplazados por cualquier par de vectores y el resultado
sigue siendo valido. Ms an, se pueden seguir agregando ms vectores al
conjunto S y el resultado no vara siempre que cada escalar que sea mltiplo de l
sea cero.

Teorema 1
Un conjunto de n vectores linealmente independientes en R
n
genera a R
n
.
Demostracin
Sea v
1
= (

,, v
2
= (

, , v
n
= (

, y v =(

, vectores en R
n
. Debemos
demostrar que existen escalares c
1
, c
2
,, c
n
tales que
v = c
1
v
1
+ c
2
v
2
++ c
n
v
n

Esto es,
(

, = c
1
(

, + c
2
(

, ++ c
n
(

, (1)


Al resolver las multiplicaciones e igualando componentes obtenemos el siguiente
sistema de n ecuaciones y n variables c
1
, c
2
,, c
n :

c
1

+ c
2

+ + c
n


c
1

+ c
2

+ + c
n


. . . (2)
. . .
c
1

+ c
2

+ + c
n


Este sistema lo podemos escribir de la forma Ac = v, en donde

A= (

, y c = (

,

Pero el sistema (2) posee una nica solucin si y solo si el detA0. Pero si el
detA0 es porque las columnas de A son linealmente independientes. As pues,
existe un solo vector c que satisface el sistema y el teorema queda demostrado.
Teorema 2
Si v
1
, v
2
,, v
n
son vectores en un espacio vectorial V. Entonces gen {v
1
, v
2
,, v
n
}
es un subespacio de V.
Demostracin
Sea u = a
1
v
1
+ a
2
v
2
++ a
n
v
n
y v = d
1
v
1
+ d
2
v
2
++ d
n
v
n
vectores
que gen {v
1
, v
2
,, v
n
}, entonces,
i) u + v = (a
1
+ d
1
)v
1
+ (a
2
+ d
2
)v
2
++ (a
n
+ d
n
)v
n
gen {v
1
, v
2
,, v
n
}

ii) u = (a
1
)v
1
+ ( a
2
)v
2
++ (a
n
)v
n
gen {v
1
, v
2
,, v
n
}
Por lo tanto el gen {v
1
, v
2
,, v
n
} es un subespacio de V.

Teorema 3
Si uno de los v
1
, v
2
,, v
n
del espacio vectorial V es combinacin lineal de los
restantes, el generador permanece igual si se elimina dicho vector.




Teorema 4
Sea S = { v
1
, v
2
,, v
n
} un conjunto de vectores que son linealmente
independientes entonces
i) Si v es un vector que pertenece al generado por S, entonces v se escribe de
forma nica
como combinacin lineal de S. esto es, si
v = a
1
v
1
+ a
2
v
2
++ a
n
v
n
= d
1
v
1
+ d
2
v
2
++ d
n
v
n
entonces a
1 =
d
1,
a
2 =
d
2 ,,
a
n =
d
n
ii) ) Si v es un vector que no pertenece al generado por S, entonces { v
1
, v
2
,,
v
n
,v } es linealmente independientes

Espacio Generado por un Conjunto de Vectores
Sean los vectores v
1
, v
2
,...,v
k
en un espacio vectorial V. El espacio generado por
{v
1
, v
2
,..., v
k
} es el conjunto de combinaciones lineales de v
1
, v
2
,..., v
k
. Es decir,
gen { v
1
, v
2
,..., v
k
} = {v : v =
1
v
1
+
2
v
2
+ +
k
v
k
}
Ejemplo 2
Demostrar que los monomios 1, x, x
2
generan el subespacio de polinomios de
grado menor o igual a 2.
Solucin:
gen = {1, x, x
2
} = {p(x) : p(x) = a
0
+ a
1
x + a
2
x
2
} = P
2

Ntese que los escalares son a
0
, a
1
, a
2
. Hemos usado esta notacin por la
costumbre de denotar polinomios de esta forma. Claramente, este conjunto no es
el nico conjunto que genera a P
2
. Por ejemplo, el conjunto {1, x, x
2
, x
3
, x
4
}
tambin genera a P
2
. En efecto, cualquier polinomio de grado 2 se puede expresar
de la forma:
p(x) = a
0
+ a
1
x + a
2
x
2
+ 0x
3
+ 0x
4
.
En los ejemplos anteriores se aprecia que el conjunto de generadores de un
subespacio no es nico.
Ejemplo 3
Sea U = { (x, y) IR
2
/ 2x + y = 0 } < IR
2
Determinar un conjunto generador
de U

Solucin:
Dado (x, y) U tenemos que 2x + y = 0 es decir, y = -2x por lo tanto
(x, y) = (x, -2x) = x (1, -2) luego todos los elementos de U se pueden escribir como
combinacin lineal del vector (1, -2)
As
U = (1, -2)
Por lo tanto (1, -2) genera a U


Ejemplo 4
Sea U = { (x, y, z) IR
3
/ 2x + y + z = 0 , x+ y - z = 0} < IR
3
Determinar un
conjunto generador de U

Solucin:

Dado (x, y) U tenemos que:
2x + y + z = 0 (1)
x + y- z = 0 (2)

Despejando en trminos de z en (2), obtenemos
z = x + y (3)

Sustituyendo (3) en (1), obtenemos
3x + 2y = 0 (4)

Despejando en trminos de y en (2), obtenemos
y = z - x (5)

Sustituyendo (5) en (4), obtenemos
x + 2 z= 0 por lo tanto x = -2z

De forma anloga encontramos que y = 3z.
Por lo tanto podemos escribir (x, y, z) = (-2z, 3z, z) = z(-2, 3, 1) luego todo los
elementos de U se pueden escribir como combinacin lineal del vector (-2, 3, 1)
As

U= (-2, 3, 1)

Por lo tanto (-2, 3, 1) genera a U

Ejemplo 5
Sea U = {A M
22

/ A = -A
t
} < M
22

Determinar un conjunto generador de U

Solucin:
Dado (


) U se tiene

(


) = - (


)

As obtenemos que x=-x, y=-z, z=-y, t=-t.
Por lo tanto x=0, -y=z, t=0 Remplazando en la matriz tenemos que

( x, y, z, t ) = ( 0, y, -y, 0 )
= y( 0, 1, -1, 0 )
Luego todos los elementos de se pueden escribir como combinacin lineal del
vector (


) asi,
(


)
Por lo tanto (


) genera a U




















Independencia lineal

En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o
independencia lineal de los vectores. Se define el significado de independencia
lineal y se muestra su relacin con la teora de sistemas homogneos de
ecuaciones y determinantes.
Existe una relacin especial entre los vectores

) Por
supuesto, se puede apreciar que

; o si se escribe esta ecuacin de otra


manera ,



En otras palabras, el vector cero se puede escribir como una combinacin no
trivial de

( es decir, donde los coeficientes en la combinacin lineal no son


ambos ceros). Qu tienen de especial los vectores



+ La respuesta a esta
pregunta es mas difcil a simple vista. Sin embargo, es sencillo verificar que

; rescribiendo esto se obtiene




Se ha escrito el vector cero como una combinacin lineal de

. Parece que
los dos vectores en la ecuacin (1) y los tres vectores en la ecuacin (2) tienen
una relacin ms cercana que un par arbitrario de 2-vectores o una terna arbitraria
de 3-vectores.En cada caso, se dice que los vectores son linealmente
dependientes. En trminos generales se tiene la importante definicin que a
continuacin se presenta.


Dependencia e independencia lineal

Definicin:
Sean

vectores en un espacio vectorial V, entonces se dice que


los vectores son linealmente dependientes si existen n escalares


no todos cero tales que



Si los vectores no son linealmente dependientes, se dice que son linealmente
independientes.
Para decirlo de otra forma

son linealmente independientes si la


ecuacin

se cumple nicamente para


Son linealmente dependientes si el vector cero en V se


puede expresar como una combinacin lineal de

con coeficientes no
todos iguales a cero.

entonces se dice que los vectores

son linealmente independientes (o


dependientes), o que el conjunto de vectores

es linealmente
dependientes (o dependiente). Esto es, se usan las dos frases indistintamente.

Cmo se determina si un conjunto de vectores es linealmente dependiente o
independiente? El caso de 2- vectores es sencillo.

Teorema
Dependencia e independencia lineal
Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno
de ellos es un mltiplo escalar del otro.
Primero suponga que

Para algn escalar entonces

son linealmente dependientes. Por otra parte, suponga que

son
linealmente dependientes. Entonces existen constantes

al menos uno
distinto de cero, tales que

Si

entonces dividendo entre


se obtiene

o sea,



Es decir

es un mltiplo escalar de

. Si

, entonces

y, por lo tanto,



Dos vectores linealmente dependientes en


Los vectores (

+ (

+ son linealmente independientes, si no lo fueran, se


tendra (

+ c(

+ .

/ entonces 2=c,5=2c y -3=4c,Lo cual es evidentemente


imposible para cualquier numero c

Determinacin de la dependencia o independencia lineal de tres vectores en


Determine si los vectores (

+ (

+ (

+ son linealmente dependientes o


independientes.
Suponga que

+ (

+.Entonces multiplicando y
sumando se obtiene4

5=(

+.Esto lleva al sistema homogneo


de tres ecuaciones con tres incgnitas

+2

=0
-2

+2

=0
3

+7

=0
De este modo, los vectores sern linealmente dependientes si solo si el sistema
(4) tiene soluciones no triviales. Se escribe el sistema (4) usando una matriz
aumentada y despus se reduce por reglones. La forma escalonada reducida por
reglones de
(
|
|
|
+ es (
|
|
|
+.
Este ultimo de sistema se lee

=0,

=0,

=0. Por lo tanto,(4) no tienen


soluciones no triviales y los vectores dados son linealmente independientes.

Determinacin de la dependencia lineal de tres vectores en


Determine si los vectores(

+ (

+ (

+ son linealmente dependientes o


independientes.

La ecuacin

+ (

+ conduce al sistema homogneo


+11

=0
-3

- 6

=0 (*)
4

+12

=0
Escribiendo el sistema (5) en la forma de la matriz aumentada y reduciendo por
reglones, se obtiene
(
|
|
|
+ (
|
|
|
+

(
|
|
|
+ (
|
|
|
+
Nos podemos detener aqu ya que se muestra que el sistema (*) tiene un numero
infinito de soluciones. Por ejemplo, la ultima matriz aumnetada se lee

+2

=0

+3

=0
Si se hace

=1, se tiene

=-3 y

=-2, de manera que, como puede verificarse,


-2(

+ (

+ (

+ (

+ y los vectores son linealmente dependientes.



Dependencia e independencia lineal

En lgebra lineal, un conjunto de vectores es linealmente independiente si ninguno
de ellos puede ser escrito con una combinacin lineal de los restantes. Por
ejemplo, en R
3
, el conjunto de vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) es linealmente
independiente, mientras que (2, 1, 1), (1, 0, 1) y (3, 1, 2) no lo es, ya que el
tercero es la suma de los dos primeros.

Definicin:

Sea un conjunto de vectores. Decimos que son linealmente
dependientes si existen nmeros , no todos iguales a cero, tal que:

Ntese que el smbolo a la derecha del signo igual no es cero, sino que simboliza
al vector nulo . El conjunto de vectores nulos forma la matriz nula. Si tales
nmeros no existen, entonces los vectores son linealmente independientes.
Utilizando conceptos de espacios vectoriales podemos redefinir la independencia
lineal as:
Un conjunto de vectores de un espacio vectorial es linealmente independiente
si
Esta idea es importante porque los conjuntos de vectores que son linealmente
independientes, generan un espacio vectorial y forman una base para dicho
espacio. Entre las propiedades de los vectores linealmente dependientes e
independientes encontramos:
1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de
los vectores es combinacin lineal de los dems.
2. Si un conjunto de vectores es linealmente independiente cualquier subconjunto
suyo tambin lo es. Obviamente, si tenemos un conjunto de vectores tales que
ninguno de ellos es combinacin de los dems, escogiendo solamente unos
cuantos, no podrn ser combinacin de los otros.
3. Si un conjunto de vectores es linealmente dependiente, tambin lo es todo
conjunto que lo contenga. Ya que un conjunto de vectores es linealmente
dependiente si y solo si tiene algn vector que es combinacin lineal de los
dems, si metemos este conjunto de vectores en otro ms grande, seguimos
teniendo el vector que es combinacin lineal de otros, por tanto, el conjunto ms
grande ser linealmente dependiente.


Interpretacion geometrica de la dependencia lineal de



En el ejemplo 3 se encontraron tres vectores en

que eran linealmente


independientes. En el ejemplo 4 se encontraron tres vectores que eran linealmente
dependientes. Que significado geometrico tiene esto?
Suponga que u, v y w son tres vectores linealmente dependientes en

. Se
pueden tratar los vectores como si tuvieran un punto terminal en el
origen.Entonces existen constantes

, no todas cero tales que

u+

v+

w=0
Suponga que

0 (un resultado similar se cumple si

0 o

0). Entonces se
puede dividirambos lado de (6) entre

y reacomodar los terminos para obtener


W=

v=Au + Bv
Donde A=-

y B=-

. Ahora se demostrara que u, v y w son coplanares. Se


calcula
w.(u x v)=(Au x Bv)=.(u x v)= A[ ] + B[ ]
Porque u y v son ambos ortogonales a u x v.Sean n=u x v. si n=0, entonces por el
teorema 3.4.2 parte vii) u y v son paralelos (y colineales).asi u, v y w estan en
cualquier plano que contienetanto a u como a v y por consiguientes son
coplanares.si n0, son ortoganales a n. pero w esta en el mismo plano porque
w.n=w.(u x v)=0. Esto muestra que u,v y w son coplanares.
En el problema 66 se pide al lector que demuestre que si u,v y w son coplanares,
son linealmente dependientes. Se incluye que
Tres vectores en

son linealmente dependientes si y solo si son coplanares.


La figura 4.3 ilustra este hecho utilizando los vectores en los ejemplos 3 y 4.

z
(0,1,7)



0 y
x

a) a) b)
Estos tres vectores estos tres vectores son
son independientes independientes y coplanares
y no coplanares

La teora de sistemas homogneos nos habla acerca de la dependencia o
independencia lineal de los vectores.
Un conjunto de n vectores en R es siempre linealmente dependiente si n>m.
Sean

...,

vectores en R e intentemos encontrar constantes

no
todos ceros tales que


Sea

+ Entonces la ecuacion (7) se convierte


en



Pero el sistema (8) es el sistema (1.4.1) de la pagina 38 y, segn el teorema 1.4.1,
tiene un numero infinito de soluciones si n>m. De esta forma, existen escalares

no todos ceros, que satisfacen (8) y, por lo tanto, los vectores

son linealmente dependientes.



Los vectores(

+ (

+ (

+ (

+ son linealmente dependientes ya que


constituye un conjunto de 4 vectores de 3 elementos.
Existe un corolario importante (y obvio) del teorema 2.
Un conjunto de vectores linealmente independientes en

contiene a lo mas n
vectores.
Del sistema (8) se puede hacer otra observacin importante cuya prueba se deja
como ejercicio
Sea A= 4

5
Entonces las columnas de A considerados como vectores, son linealmente
dependientes si y solo si el sistema (8) q se puede escribir como

=0, tiene
soluciones no triviales.

Aqu c=4

5



Significacin geomtrica:

Geomtricamente, dos vectores son independientes si no tienen la misma
direccin. Esta definicin supone que el vector nulo tiene todas las direcciones, en
otras palabras este debe generar un rea.

Tres vectores son independientes si y solo si no estn contenidos en el mismo
plano vectorial, o sea si ninguno de ellos es una combinacin lineal de los otros
dos (en cuyo caso estara en el plano generado por estos vectores) en otras
palabras este debe generar un volumen.

El espacio generado por un sistema de vectores es el conjunto de todas las
combinaciones lineales de estos vectores. Es un espacio vectorial. El espacio
generado por un vector no nulo es la recta vectorial dirigido por este vector. El
espacio generado por dos vectores independientes es el plano que los contiene.
Resulta fcil comprobar que el espacio generado por un sistema de vectores es el
menor (por la inclusin) espacio vectorial que los contiene a todos. Se le denomina
vect A, donde A es el sistema de vectores. Si n vectores son independientes, el
espacio generado es de dimensin n (dimensin en el sentido usual: 0 para un
punto, 1 para una recta, 2 para un plano...).

Ejemplo:
En el espacio tridimensional usual:




u y j son dependientes por tener la misma direccin.
u y v son independientes y definen el plano P.
u, v y w son dependientes por estar los tres contenidos en el mismo
plano.
u, v y k son independientes por serlo u y v entre s y no ser k una
combinacin lineal de ellos o, lo que es lo mismo, por no pertenecer al
plano P. Los tres vectores definen el espacio tridimensional.
Los vectores o (vector nulo, cuyas componentes son iguales a cero)
y k son dependientes ya que o = 0 k
Ejemplo del uso de la frmula f.
Son los tres vectores siguientes independientes?


Buscamos tres valores x, y y z que satisfagan la ecuacin:


Lo que equivale al sistema de ecuaciones siguiente:

Dado que la nica solucin es la trivial (x = y = z = 0), los tres vectores son
independientes.

Mtodo alternativo usando determinantes
Un mtodo alternativo usa el hecho que n vectores en R
n
son linealmente
independientes si y solo si el determinante de la matriz formada por estos vectores
como columnas es distinto de cero.

Dados los vectores:

La matriz formada por stos es:

El determinante de esta matriz es:

Ya que el determinante es no nulo, los vectores (1, 1) y (3, 2) son linealmente
independientes.


Ejemplo 2
Sea V = R
n
y consideremos los siguientes elementos en V:


Entonces e
1
, e
2
,..., e
n
son linealmente independientes. Estos vectores constituyen
la base cannica en R.
Demostracin
Supongamos que a
1
, a
2
,..., a
n
son elementos de R tales que:

Sustituyendo e
1
, e
2
,..., e
n
resulta:

Multiplicando:

Sumando coordenadas:

Por lo que se obtiene:
As que:

Adems:
Pero 0 es un vector, entonces:
Por lo que a
i
= 0 para todo i en {1,..., n}.
Entonces los vectores son linealmente independientes


Ejemplo 3
Sea V el espacio vectorial de todas las funciones a variable real. Entonces las
funciones e
t
y e
2t
en V son linealmente independientes.
Demostracin
Supongamos que a y b son dos nmeros reales tales que:
ae
t
+ be
2t
= 0
Para todos los valores de t. Necesitamos demostrar que a = 0 y b = 0. Para hacer
esto dividimos por e
t
(que es un nmero real diferente de cero, sea cual sea t) y
restando obtenemos:
be
t
= a
En otras palabras, la funcin be
t
debe ser independiente de t, lo cual ocurre
cuando b = 0. Por lo tanto, a es cero.

Soluciones a un sistema homogneo escritas como combinacin lineal de
vectores solucin linealmente independiente

Considere el sistema homogneo


Haciendo una reduccin de reglones
(



|
|



* (



|
|

*

(



|
|
*
El ltimo sistema es

(2)


Se ve que este sistema tiene un numero infinito de soluciones, que se escriben
como una combinacin lineal de los vectores columna:
4

5 (

5 (3)

Observe que 4

5 4

5 son soluciones linealmente independiente para (2)


porque ninguno de los dos es mltiplo del otro (el lector debe verificar que sean
soluciones). Como

son nmeros reales arbitrarios, se ve de (3) que el


conjunto de soluciones al sistema (2) es un subespacio de

generado por estos


dos vectores solucin linealmente independiente.

Teorema

Sean

vectores en

y sea A una matriz de n x n cuyas columnas son

. Entonces,

son linealmente independientes si y solo si la


nica solucin al sistema homogneo Ax=0 es la solucin trivial x=0.
Este es el teorema 3 para el caso m=n







Teorema

Sea A una matriz de n x n. entonces det A0 si y solo si las columnas de A son
linealmente independientes. Del teorema 4 y del teorema del resumen (pagina
208), las columnas de A son linealmente independientes 0 es la nica solucin
a Ax=0 det A0. Aqu, significa si y solo si.


El teorema anterior nos lleva a extender nuestro teorema de resumen.
Sea A una matriz de n x n. entonces las 8 afirmaciones siguientes son
equivalentes; es decir, cada una implica a las otras siete (de manera que si una es
cierta, todas son ciertas).
i. A es invertible
ii. la nica solucin al sistema Ax=b es la solucin trivial (x=0).
iii. el sistema Ax=b tiene una solucin nica para cada n-vector b.
iv. A es equivalente por reglones a la matriz identidad de n x n,

.
v. A es el producto de matrices elementales.
vi. la forma escalonada por reglones de A tiene n pivotes
vii. det A0.
viii. las columnas ( y renglones) de A son linealmente.
Demostracin:
La nica parte que no sea demostrado hasta el momento es que los renglones de
A son linealmente independientes det A0. Las columnas son independientes det
A0 det

= det A0 las columnas de

son linealmente independiente. Pero las


columnas de

son los renglones de A. esto completa la prueba.


El siguiente teorema combina las ideas de independencia lineal y conjuntos
generadores en

.
Cualquier conjunto en n vectores linealmente independientes en

genera a

.
Sean

5, vectores linealmente
independientes y sea v=4

5 un vector en

. Debemos demostrar q existen


escalares

tales que


























Bases

Definicin de base:
Un conjunto finito de vectores {v
1
, v
2
,, v
n
} es una base para un espacio vectorial
v si
i. {v
1
, v
2
,, v
n}
es linealmente independiente.
ii. {v
1
, v
2
,, v
n}
genera a V.


Todo conjunto de n vectores linealmente independientes en R
n
es una base
de R
n
.
Ejemplo:

C
1
=
(

, C
2
=
(

, C
3
=
(

,, C
n
=
(


Puesto que los vectores c
i
son las columnas de la matriz identidad (que tiene
determinante 1), {c
1
, c
2
, . . . , c
n
} es un conjunto linealmente independiente y , por
lo tanto, constituye una base en R
n
.Esta base especial se denomina base
cannica en R
n
.

Teorema

Si {v
1
, v
2
,, v
n
} es una base para V y si v V, entonces existe un conjunto nico
de escalares c1, c2,,cn tales que v = c
1
v
1
+c
2
,v
2
++c
n
v
n
.
Demostracin:
Existe cuando menos un conjunto de dichos escalares porque {v
1
, v
2
,, v
n
}
genera a V.
Suponga entonces que v se puede escribir de dos maneras como una
combinacin lineal de los vectores de la base.
Es decir, supongamos que
V = c
1
v
1
+c
2
v
2
++c
n
v
n
= d
1
v
1
+c+d
2
v
2
++d
n
v
n
Entonces, restando se obtiene la ecuacin
(c
1
- d
1
) v
1
+ (c
2
- d
2
) v
2
++ (c
n
- d
n
) v
n
= 0
Pero como los v
i
son linealmente independientes, esta ecuacin se cumple si y
solo si
c
1
- d
1
= c
2
- d
2
=. . . = c
n
- d
n
= 0. As, c
1
=d
1
, c
2
= d
2
,. . ., c
n
=d
n
y el teorema
queda demostrado.


Teorema

Si {u
1,
u
2
,. . ., u
n
} y {v
1
, v
2
,, v
n
} son bases en un espacio vectorial V, entonces
m=n;
Es decir, cualesquiera dos bases en un espacio vectorial V tienen el mismo
nmero de vectores.

Demostracin:
Sea S
1
= {u
1,
u
2
,. . ., u
n
} y S
2
= {v
1
, v
2
,, v
n
} dos bases para V. Debemos
demostrar que m = n. esto se prueba mostrando que si m >n, entonces S
1
es un
conjunto linealmente independiente, lo que contradice la hiptesis que si de que si
S
1
es una base. Esto demostrara que m n. la misma prueba demostrara que n
m y esto prueba el teorema. As, basta demostrar que si m < n, entonces S
1
es
dependiente. Como S
1
constituye una base, todo u
n
se puede expresar como una
combinacin lineal de las v
j
. Se tiene
u
1
= a
11
v
1
+ a
12
v
2
+. . .+ a
1n
v
n

u
2
= a
21
v
1
+ a
22
v
2
+. . .+ a
2n
v
n

. . . .
. . . .
u
m
= a
m1
v
1
+ a
m2
v
2
+. . .+ a
mn
v
n

para determinar si S
1
es dependiente, deben encontrarse escalares c
1
,c
2
, . . . , c
m
,
no todos ceros, tales que
c
1
u
1
+ c
2
v
2
+. . . + c
m
v
m
= 0 (b)
Sustituyendo (a) en (b)
c
1
(a
11
v
1
+ a
12
v
2
+. . .+ a
1n
v
n
) + c
2
(a
21
v
1
+ a
22
v
2
+. . .+ a
2n
v
n
)+. . . +

c
m
(

a
m1
v
1
+
a
m2
v
2
+. . .+
a
mn
v
n
) = 0 (c)

la ecuacin (c) se puede rescribir como

(a
11
c
1
+ a
21
c
2
+ . . . + a
m1
c
m
) v
1
+ (a
12
c
1
+ a
22
c
2
+ . . . + a
m2
c
m
) v
2
+ . . . + (a
1n
c
1
+
a
2n
c
2
+ . . . +
a
mn
c
m
) v
n
= 0 (d)

Pero como v
1
, v
2
,, v
n
son linealmente independientes, se debe tener

a
11
c
1
+ a
21
c
2
+ . . . + a
m1
c
m
= 0
a
12
c
1
+ a
22
c
2
+ . . . + a
m2
c
m
= 0
. . .
. . . (e)
. . .
a
1n
c
1
+ a
2n
c
2
+. . . + a
mn
c
m
= 0

Entonces el sistema (e) es un sistema homogneo de n ecuaciones con las m
incgnitas
c
1
, c
2
,. . ., c
m
y como m > n se dice que el sistema tiene un numero infinito de
soluciones.
De esta forma, existen escalares c
1
, c
2
,. . ., c
m
, no todos cero, tales que (b) se
satisface y, por lo tanto, S
1
es un conjunto linealmente dependiente.




Ejemplo de base cannica para M
2x2

Sabemos que (


) , (


) (


) y (


) genera a M
2x2
.
Si (


) = c
1
(


) + c
2
(


) + c
3
(


) + c
4
(


) = (


),
entonces
es evidente que

c
1
= c
2
= c
3
= c
4
= 0. As, estas cuatro matrices son linealmente independientes y
forman una base para M
2x2
, lo que se denomina base cannica para M
2x2
.

Ejemplo
Encuentre una base para el conjunto que esta dado por el plano

=
{


.



/



Tomamos un x, y, z arbitrarios .

/
Tiene la forma siguiente (

+ =

(

+ + (

+

= x 4

5 + z 4

5 = 4

5 4

5
Por lo tanto forma una base del plano.



Dimensin

Definicin:
Si el espacio vectorial v tiene una base con un numero finito de elementos,
entonces la dimensin de v es el numero de vectores en todas las bases y v se
denomina espacio vectorial de dimensin finita. De otra manera, v se denomina
espacio vectorial de dimensin infinita. Si v = , entonces se dice que v tiene
dimensin cero.

Entonces se dice:
Si un espacio vectorial v tiene una base con n elementos entonces se dice que v
es dimensional finita y n es la dimensin de v y se representa dim (v) = n

La dimensin es un numero bien definido y no depende de la eleccin de una base
La dimensin del espacio , se define como cero. Por consiguiente cero es
dimensionalmente infinita.
V espacio vectorial que no tenga base finita se llama dimensionalmente finita.
En R
n
, P
n
, M
mxn
son dimensiones

finitas

Ejemplos:
a. Dim ( R
n
) = n
b. Dim ( P
n
) = n + 1
c. Dim (M
mxn
) = mxn
d. F (R) = dimensionalmente infinita
e. P = dimensionalmente infinita

Encuentre la dimensin del sub espacio v que es igual al generador de los
siguientes elementos
V = Gen R
3


generan a v tambin muestra que son linealmente
independiente
Por lo tanto es una base con dim (v) = 2

Teoremas de combinacin lineal
Sea s un sub conjunto de un espacio vectorial
Si s contiene un vector v se dice que es linealmente independiente si y solo si
V = 0.
Si s consiste en dos o mas vectores P
1
,

P
2
,,P
k
entonces s es linealmente
dependiente si y solo si cuando menos un vector sea una combinacin lineal de
los restantes.
Si s consiste en dos o mas vectores P
1
,

P
2
,, P
k
con V
1
0 entonces s es
linealmente dependiente si y solo si al menos un vector es una combinacin lineal
que le presede es decir P
1
,,P i
1
.
Cualquier conjunto de vectores que contiene al vector cero es linealmente
dependiente.
Dos vectores son linealmente dependientes si y solo si 1 es mltiplo escalar de
otro.
Cualquier conjunto de vectores que contiene a un conjunto linealmente
dependiente es a su ves linealmente dependiente
Cualquier subconjunto de un conjunto linealmente independiente tambin es
linealmente independiente.
Todo espacio vectorial tiene al menos una base.






Teorema de dimensiones
Si V es un espacio vectorial de n dimensiones y S un conjunto de m elementos.
1. Si S es linealmente independiente m n
2. Si S genera a V m n


Si V es un espacio vectorial n dimensional y sea s un conjunto con n elementos
1. Si S es linealmente independiente es una base.
2. Si S genera a V S es una base.

Sea V un espacio vectorial n dimensional y S un conjunto con m elementos
1. Si S es linealmente independiente y m n S se puede ampliar a una base
2. Si S envuelve a V S contiene una base.
















Gua de Ejercicios sobre Espacios Vectoriales, Anlisis Vectorial.


1. Qu permite una base?
R.- Permite expresar todos los vectores como una combinacin lineal de ellos.

2. Dados 2 vectores , es un sistema generador de

? .
Escribimos estos vectores como una combinacin lineal de las constantes


de esta manera:
(

) , que da el sistema de ecuaciones:

.
Al resolver este sistema da como resultado: x=y. Por lo que, estos vectores no
generan a todo

.

3. Si S= en

, obtener una base de S.



4. En

pertenece U= al subespacio generado por V= y W=


Escribimos estos vectores como una combinacin lineal: (

+,
Por lo que obtenemos: (



+ , al llevarla a la escalonada reducida la matriz
resultante es: (



+, por lo tanto

. Y el vector U
pertenece al subespacio generado por V y W.
5. Sea

en Polinomios de grado 2 donde:

. Determinar:
a) Esta

Gen {

}?


Por lo tanto,

, y se encuentra en Gen {

}.
b) Esta

Gen {

}?


Por lo tanto,

pero no cumple con la ultima ecuacin y por ello no se


encuentra en Gen {

}.

c) Determinar si el conjunto

genera a

.
Tenemos que:



Se tienen las ecuaciones:


Al resolver para:


El resultado es:
Por lo tanto, el conjunto no genera a

. Ya que est condicionado para un valor


de a y c.

6. Demuestre que los vectores siguientes estn en Gen {

}.
a)

.
Tenemos que:



, por lo que

.
b)

.
Tenemos que:


, por lo que

.

c)

.
Tenemos que:


, por lo que

.

7. Esta

en el generador de

en

.

Las ecuaciones que se obtienen son:


Por lo tanto,

se encuentra en el generador de P y Q.

8. Demuestre que generan a

.
Escribimos estos vectores como una combinacin lineal: .

++

+ Por lo que obtenemos: (





+ , al llevarla a la
escalonada reducida la matriz resultante es: (







+ , por lo
tanto

. Por lo tanto, si generan estos


vectores a

.


9. Compruebe que el conjunto

es linealmente independiente en

.

Podemos escribir el conjunto en trminos de una combinacin lineal de la forma:

, por lo que el valor de las constantes es


=0. Y el conjunto es Linealmente Independiente.




10. Compruebe que el conjunto es Linealmente Independiente.
Utilizando el Wronskiano se puede demostrar que si , los elementos son
Linealmente independientes.

|| |


|=

=1, por lo tanto son L.I.



Se puede escribir estos vectores como una combinacin lineal:

,
Si , entonces

, por lo que


Reduciendo

, por lo que



11. Demuestre que ni X= , ni Y= constituyen una base
de

.
a) Si escribimos el conjunto X como una combinacin lineal nos da:



Escribiendo las ecuaciones con las constantes tenemos:

. Donde obtenemos que:

. Por lo tanto el conjunto X no


es Linealmente Independiente, y no puede formarse una base a partir de este
conjunto.

b) Si escribimos el conjunto Y como una combinacin lineal nos da:


Escribiendo las ecuaciones con las constantes tenemos:

.
Donde obtenemos que:

. Por lo que Y es un conjunto Linealmente


Independiente.


Escribiendo las ecuaciones con las constantes tenemos:

.
Donde obtenemos que:

. Por lo que el conjunto Y constituye


una base de

.
12. genera

? .



Escribiendo las ecuaciones con las constantes tenemos:

.
Donde obtenemos que:

.

Por lo tanto, el conjunto dado genera a

.

13. Determine si el conjunto dado genera a

.
a) (


) (


) (


) (


)
Escribimos el conjunto como una combinacin lineal que genere a

(


)

(


)

(


)

(


) (


)
Escribiendo las ecuaciones con las constantes tenemos:

.

Donde obtenemos que:

.

Por lo tanto, el conjunto genera a

.
b) (


) (


) (


) (


)
Escribimos el conjunto como una combinacin lineal que genere a

(


)

(


)

(


)

(


) (


)

Escribiendo las ecuaciones con las constantes tenemos:

.

Donde obtenemos que:

.
Por lo tanto, el conjunto dado genera a

.

14. Cierto o Falso? A)

puede ser generado exactamente por 9 polinomios en el.


Falso. No puede generar a

, ya que necesitamos al menos n+1 elementos para


poder hacerlo.

B)

puede ser generado por 10 polinomios de


Falso. No se puede generar ya que no se podra obtener el trmino

a partir de
este conjunto de polinomios.


15. Determine si el conjunto es Linealmente Independiente.
a)



Escribimos el conjunto dado como una combinacin lineal de constantes:



Escribiendo las ecuaciones con las constantes tenemos:

.
Donde obtenemos que:

.

Por lo tanto, el conjunto dado es Linealmente Independiente.

c) (


) (


) (


) (


)

Escribimos el conjunto como una combinacin lineal que genere a

(


)

(


)

(


)

(


) (


)

Escribiendo las ecuaciones con las constantes tenemos:

.

Donde obtenemos que:

.
Por lo tanto, el conjunto dado es Linealmente Independiente.

16. Cierto o Falso? A) Dos vectores distintos cualesquiera de un espacio Vectorial,
son Linealmente Independientes?
Falso. Dos vectores distintos pueden pertenecer al mismo Espacio Vectorial y ser
a la vez mltiplo escalar del otro.

B) Tres polinomios Linealmente Independiente cualesquiera de

genera a

.
Falso. No se puede generar ya que no se podra obtener el trmino

a partir de
este conjunto de polinomios.

17. Sea V un Espacio Vectorial y

estan en V. Demuestre que si


es linealmente independiente, tambin lo es

.

Si escribimos el conjunto descrito anteriormente, como una combinacin lineal de
constantes:



Multiplicando cada parte:

0
Al agrupar:


Pero como

son linealmente independientes, entonces:



Por lo tanto,

son linealmente Independientes.





18. Determine la Dimensin de V.
19.
a) V= ,


- .
Escribimos este conjunto en trminos de vectores linealmente independientes:

) (

)
Obtenemos las ecuaciones:

, donde obtenemos al
resolver:

.
Por lo tanto, (

) y (

) son linealmente independientes y generan a V.


Por lo que
b) V=(

+ (

+ (

+.
Escribimos la matriz de vectores
(



+
y lo llevamos a la forma escalonada, obtenemos:

(



+
Como tenemos una fila que contiene solo ceros, entonces concluimos que este
conjunto de vectores no es Linealmente independiente. Este conjunto genera a

, Por lo que






20. Obtenga la dimensin del conjunto V de todas las matrices de la forma ,(


)-.
Escribimos este conjunto en trminos de vectores linealmente independientes:

(


)

(


)

(


) (


)

Donde obtenemos al resolver:

.
Por lo tanto, (


) , (


) (


)son linealmente independientes y generan
a V.
Por lo que















Exposiciones

Matrices de las transformaciones lineales
Los vectores y las matrices se relacionan en forma ntima a travs de la
multiplicacin matricial. Para una matriz fija A de mxn, cualquier vector x de n
componentes, corresponde al vector Ax de m componentes. Esta correspondencia
definida por el producto matricial Ax es el principal ejemplo de una transformacin
lineal.
Las transformaciones lineales desempean un papel muy importante en
matemtica, fsica, ingeniera, procesamiento de imgenes, grficas en
computadora y otras reas de la ciencia y de la vida diaria.
Ahora dirigiremos nuestra atencin a un tipo contemporneo de aplicacin.

El dilema del caricaturista
Un caricaturista emplea computadoras y algebra lineal para transformar las
imgenes que dibuja. Supongamos que trata de dar la sensacin de movimiento a
la imagen de la figura (a)
Inclinndola y estirndola (horizontalmente) en forma gradual para llegar a la de la
figura (b). Si el estiramiento necesario, por ejemplo, a lo largo del eje x es 50%,
cmo puede modelarlo matemticamente y hacer que la computadora trace la
imagen inclinada?



El mtodo debera ser independiente de la imagen inicial para poder aplicarlo a
otros cuadros.
En la respuesta interviene una sencilla multiplicacin de matriz por vector. De
hecho, necesitamos multiplicar por la izquierda el vector coordenado de cualquier
punto en el plano que deseemos transformar, por la matriz:
*


+
As,
S
x
: R
2
R
2

*

+ S
x
( *

+ )
=
*


+ *

+

es la transformacin que se desliza en direccin positiva de x en un factor de 0,5.
Transformacin Matricial
Una transformacin matricial T se expresa mediante
T:R
n
R
m
y a sta le corresponde una matriz A de mxn tal que:
T(x)=Ax
Para todo xeR
n
. A se llama matriz (estndar) de T.
Ahora generalizaremos el concepto de la matriz estndar de una transformacin
matricial.
Toda transformacin lineal entre espacios vectoriales de dimensiones finitas
puede representarse con una transformacin matricial.
Este resultado til nos permite evaluar transformaciones lineales mediante la
multiplicacin de matrices
Definicin:
Se llama Transformacin Matricial a toda funcin T: M nx 1 M mx 1 definida por
T(x) = A. x siendo A M mxn
Teorema:
Toda Transformacin Matricial es una Transformacin Lineal si:
T: M nx1 M mx1 / T (x) = A . x es una Transformacin Matricial entonces T es
una Transformacin Lineal.
Demostracin:
Sean x , y M nx1 ; k R
Sea T: M nx1M mx1 definido por T (x ) = A . x
Sabemos que para que T sea lineal debe verificarse:
1) T (x+ y) = T (x) + T (y) _____x , y M nx1
2) T (k x ) = k T (x)___________x M nx1, k R
Lo comprobamos para la transformacin matricial
1) T (x+ y) = A (x+ y) = A (x) + A (y)=T (x) + T (y)

2) T (k x ) = A(k x) = k (Ax ) = k T (x)

Nota: Ahora sabemos que toda Transformacin Matricial es tambin
Transformacin Lineal. La recproca tambin es vlida, es decir toda
Transformacin Lineal tiene asociada una Transformacin Matricial.
Ahora bien, cmo se determina la Transformacin Matricial asociada a una
Transformacin Lineal?
Para ello enunciamos la siguiente:
Proposicin:

Sean B1={u1,u2, ... ,un} base del dominio V
y B2={v1,v2, ... ,vp} base del codominio W
i) Existe una nica matriz:
A M pxn tal que: A [x]B1 = [T(x)]B2 x V
ii) La matriz A se genera en la forma:
A = [[T(u1)]B2 [T(u2)]B2 ... [T(un)]]
A la matriz "A" se la llama matriz asociada a la transformacin con respecto a las
bases B1 y B2 respectivamente y se la suele simbolizar AT = [T]B1,B2.
Ahora s: Una Transformacin Lineal T: V W puede asociarse con una
Transformacin Matricial respecto de las bases B1 y B2, definida por:
MT: M nx1 M px1 / MT(x) = Ax
Con A M pxn y x M nx1
Proposicin: Sean T: V W una funcin, sean B1 y B2 bases de V y W
respectivamente.
Si existe una matriz A tal que: A [x]B1 = [T(x)]B2 x V, entonces T es una
Transformacin Lineal.
Nota: Cuando se trabaja para ambos Espacios Vectoriales con las bases
cannicas (o naturales) a la matriz de la Representacin Matricial se la llama
Matriz Estndar, y a la representacin "Matricial Cannica".
Una familia de Transformaciones Lineales muy importantes est constituida por
aquellas que tienen Dominio y Codominio en espacios de matrices columnas.
Matriz de una transformacin lineal
Sea t: v w una transformacin lineal entre dos espacios vectoriales v y w de
dimensiones finitas. Sea b= {v
1,
,v
n}
una base de v y b= {v
1,
, v
m}
una base de
w . la matriz de a de mxn cuyas columnas son:
[T(v
1
)]
B
,, [T(v
n
)]
B

Es la nica matriz que satisface:
[T(v)]
B=
v V











Transformacin de Galileo
Sean y dos marcos de referencia con ejes coordenados, x, y, z y x, y, z.
Supongamos que el marco se aleja del marco a una velocidad relativa
constante en una direccin a lo largo de los ejes x, x. Adems, supongamos
que hay dos observadores en y , por ejemplo, un matemtico y un fsico,
respectivamente, y que ambos se comunican sus mediciones (distancias,
velocidades, etc.).

Si son las coordenadas del espacio tiempo que usa el matemtico para
sus mediciones, y son las que emplea el fsico, cul es la relacin
entre los dos marcos de coordenadas? Como no hay movimiento a lo largo de los
ejes y, y y z, z, se debe cumplir que y= y y z= z. Tambin, en la mecnica
newtoniana, t= t para ambos marcos. Para mediciones a lo largo de los ejes x, x
sucede lo siguiente: una medicin x hecha en el momento t en el marco por el
matematico, es mayor que la medicin correspondiente hecha por el fsico al
mismo tiempo, y la diferencia es . Por consiguiente, . As,

En cuanto al tiempo, se tiene que

Las anteriores relaciones se pueden reescribir en forma matricial como:


Las anteriores son las transformaciones de Galileo ms simples. Generalmente se
consideran transformaciones ms generales, de hecho el conjunto de todas las
transformaciones del tipo anterior segn cualquier direccin (no necesariamente
sobre el eje X) junto con las rotaciones constituyen el llamado grupo de Galileo. El
grupo de Galileo completo incluyendo las traslaciones espaciales y temporales, es
substancialmente ms complicado que el grupo de Lorentz.

Ncleo y Contra dominio
Definicin.- Ncleo: Sea una transformacin lineal. El ncleo,
de T contiene todos los vectores en que se mapean a cero en .



Recordemos que el contradominio de T es el conjunto de todas las imgenes
de en .

Obsrvese que tanto como de una transformacin lineal son
conjuntos no vacios: implica que esta en y que
esta en .
Ejemplos.-
1. Determine el ncleo y el contradominio de
a) La transformacin lineal cero ;
b) La transformacin identidad lineal ;
c) La proyeccin

.


Figura. El ncleo y el contradominio de la proyeccin sobre el eje x.

2. Determine el ncleo de

.

0

1 *


+
Solucin.

Es el conjunto de todos los vectores 0

1 tales que *


+ *

+. Al
resolver el sistema , , se obtiene . De ah
que,

20

1 3 {[

]}


La propiedad fundamental del ncleo y del contradominio es que ambos
son espacios vectoriales.

Teorema.- Sea una transformacin lineal. Entonces:
1. es un subespacio de ;
2. es un subespacio de .

Demostracin.-

Ya determinamos vectores y que se mapean en y en ,
respectivamente. Por tanto, y estn en . En vista de lo anterior,
es un subespacio de
La dimensin del ncleo se llama nulidad de . La dimensin del contradominio
se llama rango de .
Ejemplos.-
3. Determine la nulidad y el rango de T en el ejemplo 2.-

Solucin.- Como = , la nulidad
es 1. Puesto que

, el rango es 2.


Figura. El ncleo y el contradominio de .



Teorema de la Dimensin.- Si es una transformacin lineal de
un espacio vectorial de dimensin finita a un espacio vectorial ,
entonces:






Ejemplos.-
4. Determine el contradominio de la transformacin lineal



Solucin.- El espacio nulo de esta generado por , que se
obtiene de inmediato al resolver el sistema , ,
. Por tanto, la nulidad de es 1. As, de acuerdo con el
teorema de la dimensin.




De manera que el contradominio es un subespacio tridimensional de

, y
esto significa que es todo

.












Teorema de la Dimensin
Si T: V W es una transformacin lineal de un Espacio Vectorial V de dimensin
finita a un Espacio Vectorial W, entonces:
Nulidad (T) + Rango (T) = dim ( T)
Este teorema es muy til, porque con frecuencia es mucho mas fcil determinar
el espacio nulo y la nulidad de una Transformacin Lineal que su
contradominio y su rango.
Ejemplo 1
Determine el contradominio de la transformacin lineal T: R
4
P
2
definida por
T (a, b, c, d) =(a-b)+(c+d)x+(2a+b)x
Solucin
El espacio nulo T est generado por (0, 0, -1, 1), que se obtiene de inmediato al
resolver el sistema a-b=0, c+d=0, 2a+b=0. Por tanto la nulidad de T es 1. As
de acuerdo con el teorema de la dimensin tenemos:
Rango (T)= dim (R
4
)-Nulidad (T)
= 4 - 1
= 3
Transformaciones biunvocas, sobre e isomorfismos
- Transformacin Biunvoca
Una transformacin T : AB, o uno a uno, si para cada elemento h del
contradominio hay exactamente un elemento cuya imagen es h = T (a).
Esto puede anunciarse como sigue:
T(a
1
)=T(a
2
)a
1=
a
2
o bien en forma equivalentemente a
1
a
2
T(a
1
)
T(a
2
)
- Transformacin Sobre
Una transformacin T : AB se llama sobre si su contradominio es igual a su
codominio es decir,
R ( T ) = B




- Isomorfismo
Una transformacin lineal entre dos espacios vectoriales que es biunvoca y
sobre, al mismo tiempo, se llama isomorfismo. Se considera que los espacios
isomorfos son iguales, porque sus elementos se corresponden en forma biunvoca
y la estructura de las operaciones en el espacio vectorial se conserva a travs de
la linealidad.

Ejemplo 2
Cules de las transformaciones son biunvocas ?Cules son sobre?
a. T : R
2
R
3
, T (x, y) = (x+y, y, 0)
b. T : R
3
R
2
, T (x, y, z)= (x, z)
Solucin
a. Si T (x
1
, y
1
) = T (x
2
, y
2
) entonces (x
1
+y
1
, y, 0) = (x
2
+y
2
, y, 0). Por consiguiente
y
1
= y
2
. As x
1
= x
2
. Por lo anterior (x
1
, y
1
) = (x
2
, y
2
) y T es biunvoca. T no es
sobre porque, (0,0,1) no es la imagen de algn vector 2.
b. T no es biunvoca T (0,0,0) = T (0,0)= T (0,1,0). T es sobre porque para todo
vector 2 (a, b), hay al menos un vector 3 que se transformar en el anterior.
Ejemplo 3
Demuestre que R
n
y P
n-1
son isomorfos
Solucin
Basta con determinar un isomorfismo entre los dos espacios consideramos T :
R
n
P
n-1
definida por:
T (a
0
,, a
n-1
)= a
0
+a
1
x++ a
n-1
x
n-1
[a
0
, a
1
, a
2
] a
0
+a
1
x+a
2
x
2






TRANSFORMACIONES A FINES
Definicin:


Una translacin por un vector b desplaza a una figura sumando a b a todos sus
puntos. Una transformacin a fin es una transformacin lineal seguida de una
translacin.
Ejemplo: obtenga la transformacin a fin que convirti la imagen de la izquierda
en la de la derecha, puesto que se utilizaron los siguientes puntos:



Puntos Imgenes
(1, 0) (2, -1)
(0.7, 0.7) (2.05, -0.3)
(0, 1) (1.5, 0)
(-0.7, 0.7) (0.65, -0.3)
(-0.7, -0.7) (-0.05, -1.7)
(0, -1) (0.5, -2)
(0.7, -0.7) (1.35, -1.7)
(1, 0) (2, -1)
(-1, 0) (0, -1)













Llegamos al sistema:

Siempre y cuando la ecuacin sea vlida para todos los puntos que se utilizaron
en la figura. Si lo es, solamente debemos comprobarlo.
De lo anterior vemos que T es el deslizamiento en el eje en 0.5 o mejor dicho
Sx(x, y)= (x+0.5y, y) seguido de la traslacin por (1, -1).
Ejemplo 2: Determine las imgenes del vector cero, y las imgenes de la base
estndar en:
*


+ (

)
Solucin:
(

) *


+ (

) (

) (

)
(

) *


+ (

) (

) (

)
(

) *


+ (

) (

) (

)

Ejemplo3: Escriba la siguiente transformacin como una transformacin a fin de la
forma
(

) (

)
Solucin: vemos que:
(

) (

) (

) De esto podemos escribir:


(

) *


+ (

) (

)
La cual ya est escrita como una transformacin a fin de la forma
A las transformaciones a fines se les conoce tambin como funciones iteradas, un
conjunto de funciones que al aplicarlas un numero repetido de veces pueden
transformar una figura en otra.
Ahora veremos la siguiente definicin:
Definicin: Fractal
Un fractal es un ejemplo geomtrico cuya estructura bsica fragmentada o
irregular se repite a diferentes escalas.
El termino fractal fue propuesto por Benoit Mandeldelbrot en 1975 que se deriva
del latn fractus que significa quebrado o fracturado.
Entre algunos fractales tenemos Los conjuntos de Julia (funciones iteradas en C),
La curva de Coch, La curva de Hilbert, y el triangulo de Sierpinski que
estudiaremos en este caso.
TRIANGULO DE SIERPINSKI
Es un fractal introducido en 1919 por el polaco Maclaw Sierpinski. Este fractal lo
podemos obtener aplicando iteraciones sucesivas a las transformaciones a fines
de

definidas por:

)
Por ejemplo comenzamos por un triangulo cuyos vrtices estn en (0, 0), (1, 0),
(0,1) y elegimos un punto dentro de l, y lo graficamos, por ejemplo tomamos el
punto (, ) seleccionaremos una de las tres funciones por ejemplo

y
calculamos la imagen

y repetiremos este nuevo punto y repetiremos el


proceso tantas veces como lo deseemos. Hasta obtener una figura parecida a la
siguiente:






GRFICOS EN COMPUTADORA
A continuacin veremos un poco de grficos en computadora para lo cual
utilizaremos la hoja de clculo, aunque esta no es la herramienta ms adecuada la
utilizaremos porque si es un software que la mayora tenemos disponibles en
nuestros ordenadores. Trataremos de obtener un grafico similar al triangulo de
sierpinski.
Para empezar elegiremos tres vrtices A, B, C al azar luego encontraremos los
puntos medios de los segmentos formados por estos vrtices, se repite el proceso
unos miles de veces y se representan los puntos obtenidos, a si obtendremos un
grafico que se aproxima al triangulo de sierpinsky.
En primer lugar la hoja de clculo obtiene nmeros pseudo-aleatorios
comprendidos entre 0 y1 mediante la funcin aleatorio(); para obtener
aleatoriamente los nmeros 1, 2,3 se utiliza la formula:
Entero(3*aleatorio()+1)
La funcin Entero(x) obtiene la parte entera de x. Esta formula la colocaremos en
la celda A4. Al final daremos una imagen de cmo debemos colocar los datos para
que coincidan con los pasos dados.
Para elegir al azar un vrtice del triangulo utilizaremos la formula en la celda B4:
=(B3+ELEGIR(A4,$E$4,$E$7,$E$10))/2
Y luego a la formula en la celda C4: =(C3+ELEGIR(A4,$F$4,$F$7,$F$10))/2

Debemos obtener una hoja como en la figura. Ahora rellenemos hacia abajo unas
diez mil filas; las formulas se copiarn igual nmero de veces pero manteniendo la
referencia absoluta de las celdas de las coordenadas de los vrtices del triangulo
gracias al signo $.
Ahora representaremos grficamente los puntos cuyas coordenadas acabamos de
calcular para obtener una representacin aproximada del triangulo de sierpinski.
Para ello seleccionaremos las celdas que contienen dichas coordenadas y
elegimos la opcin optando por el diagrama
el resultado es como se muestra en la figura siguiente:







Diagonalizacion de matrices cuadradas
Un poco de historia
Los valores y vectores propios pertenecen a los temas de mayor utilidad del
lgebra lineal. Se usan en varias reas de las matemticas, fsica, mecnica,
ingeniera elctrica y nuclear, hidrodinmica, aerodinmica,etc. De hecho, es raro
encontrar un rea de la ciencia aplicada donde nunca se hayan usado.
Puede parecer muy extrao, pero los valores propios de las matrices aparecieron
publicados antes que las matrices. Esto se debe al hecho inslito de que,
parafraseando a Cailey, la teora de las matrices estaba bien desarrollada (a
travs de la teora de los determinantes) antes de que siquiera se definieran las
matrices. Segn Morris Kline, los valores propios se originaron en el contexto de
formas cuadrticas y en la mecnica celeste (el movimiento de los planetas),
conocindose como races caractersticas de la ecuacin escalar. Desde
aproximadamente 1740, Euler usaba de manera implcita los valores propios para
describir geomtricamente las formas cuadrticas en tres variables.
En la dcada de 1760, Lagrange estudi un sistema de seis ecuaciones
diferenciales del movimiento de los planetas (slo se conocan seis) y de ah
dedujo una ecuacin polinomial de sexto grado, cuyas races eran los valores
propios de una matriz 6 6. En 1820, Cauchy se dio cuenta de la importancia de
los valores propios para determinar los ejes principales de una forma cuadrtica
con n variables. Tambin aplic sus descubrimientos a la teora del movimiento
planetario. Fue Cauchy quien, en 1840, us por primera vez los trminos valores
caractersticos y ecuacin caracterstica para indicar los valores propios y la
ecuacin polinomial bsica que satisfacen.

Augustin-Louis Cauchy (1789-1857) naci en Pars. Fue educado en casa por su
padre y no ingres en la escuela hasta los trece aos, aunque pronto empez a
ganar premios acadmicos. A los diecisis entr en la cole Polytechnique
parisina y a los dieciocho asista a una escuela de ingeniera civil, donde se
gradu tres aos despus. Su primer trabajo fue como ingeniero militar para
Napolen, ayudando a construir las defensas en Cherburgo. A los veinticuatro
aos volvi a Pars y dos ms tarde demostr una conjetura de Fermat que haba
superado a Euler y Gauss. Con veintisiete aos ya era uno de los matemticos de
mayor prestigio y empez a trabajar en las funciones de variable compleja,
publicando las 300 pginas de esa investigacin once aos despus. En esta
poca public sus trabajos sobre lmites, continuidad y sobre la convergencia de
las series infinitas.
Joseph Louis Lagrange (1736-1813) Matemtico y fsico francs. En un libro de
1797 l enfatiz la importancia de la serie de Taylor y el concepto de funcin.
Trabaj en el sistema mtrico y defendi la base decimal.
Leonhard Euler (1707-1783) Matemtico suizo. Los trabajos cientficos de Euler
abarcan prcticamente todas las matemticas contemporneas a l. En todas las
ramas de las matemticas hizo descubrimientos notables, que lo situaron en el
primer lugar en el mundo. Euler fue capaz de comprender las matemticas como
un todo nico, aunque enorme en el confluan un montn de ramas importantes y
ante todo el Anlisis. Laplace indic que Euler fue el maestro comn de todos los
matemticos de la segunda mitad del siglo XVIII. Euler fue en gran medida
responsable de los smbolos e, i yt.

Valores y vectores propios
Los conceptos bsicos estudiados en este tema son tiles en todas las reas de
las matemticas puras y aplicadas, y aparecen en contextos mucho ms
generales que los que consideramos aqu.
Una de las principales aplicaciones de la teora espectral son los sistemas
dinmicos discretos (ejemplo introductorio), pero tambin pueden utilizarse los
valores propios para estudiar ecuaciones diferenciales y sistemas dinmicos
continuos, adems proporcionan informacin crtica en el diseo de ingeniera y se
presentan naturalmente en campos como la fsica y la qumica.
Un escalar se llama valor propio de A si existe una solucin no trivial
de ; una de esas soluciones no triviales se denomina vector
propio de A asociado al valor propio .
El conjunto de todos los valores propios de una matriz cuadrada A se denomina
espectro de A y se denota o (A).
Cierta informacin til de los valores propios de una matriz cuadrada A se
encuentra codificada en una ecuacin escalar llamada ecuacin caracterstica de
A. Este hecho nos va a permitir enunciar un resultado de gran importancia prctica
para el clculo de los valores propios de una matriz cuadrada.

Para que sea valor propio de la matriz cuadrada A, el sistema homogneo (-)
ha de tener soluciones no triviales, luego el determinante de la matriz cuadrada A
I ha de ser cero.




Cmo calcular los valores propios de una matriz cuadrada?
El orden del valor propio es la multiplicidad k de como raz del polinomio
caracterstico.


Si k = 1, es un valor propio simple.
Polinomio caracterstico de A
Los valores propios de una matriz cuadrada
son las races de su polinomio caracterstico
Observacin



EJEMPLO: Calcular los valores propios de A, indicando su orden o multiplicidad.






Cmo calcular los subespacios propios de una matriz cuadrada?
Para calcular los subespacios propios de una matriz cuadrada A debemos resolver
un sistema homogneo compatible indeterminado.

Si es un valor propio de orden k de una matriz A y d = dim V(), entonces:
1 s d = dim V() s k


La suma de los valores propios de una matriz, teniendo en cuenta su multiplicidad,
coincide con la traza de la matriz
Solucin






Matrices cuadradas diagonizables
En muchos casos la informacin de vector propio-valor propio contenida dentro de
una matriz A se puede mostrar con una til factorizacin de la forma:

Las ideas y mtodos aqu explicados nos permiten calcular rpidamente A
k
para
valores grandes de k, una idea fundamental en varias aplicaciones del lgebra
Lineal. Adems la teora aqu expuesta se aplica tambin en las ecuaciones
diferenciales. En sistemas dinmicos, en procesos de Markov, en el estudio de
curvas y superficies, en la teora de grficas y en muchos otros campos.
Una matriz cuadrada A se dice diagonalizable si existe una matriz regular
P que cumple que:

Es decir, A es semejante a una matriz diagonal.
La definicin anterior de matriz diagonalizable no resulta demasiado til en la
prctica. Una caracterizacin muy interesante de matrices diagonalizables es la
siguiente:
Una matriz es diagonalizable si y slo si existe una base de
formada por vectores propios de la matriz A.
Existe un resultado muy cmodo que nos permite justificar de manera muy simple
si una matriz cuadrada A es diagonalizable o no:

A es diagonalizable si y slo si se cumplen las dos condiciones siguientes:
k
1
+ k
2
+ + k
r
= n
d
i
= k
i
; i = 1, 2 , , r
Las dos condiciones del resultado anterior se pueden resumir en una nica
condicin, obteniendo el siguiente resultado: A es diagonalizable si y slo si :
d
1
+ d
2
+ + d
r
= n
Del resultado anterior se obtiene fcilmente el siguiente corolario:
Una matriz cuadrada A de orden n con n valores propios reales distintos, es
diagonalizable.
Cmo se diagonaliza una matriz cuadrada A diagonalizable?
1.- Calcular los valores propios de A indicando sus rdenes.
2.- Calcular los subespacios propios V(
i
) y bases B
i
de cada subespacio.
base de formada por v.p. de A.

3.- Escribir las matrices D y P tales que:
columnas de P: vectores de la base B de formada por v.p. de A
encontrada en 2.-
elementos de la diagonal principal de D: valores propios de A


EJEMPLO: Diagonalizar la matriz cuadrada A.

Solucin

Sabemos que:








(



+

(



+



EJEMPLO: Hallar una matriz regular P tal que:


Solucin

(



+

(



+

Como ya sabemos, el clculo de las potencias Ak puede ser bastante tedioso.
Sin embargo, si A es diagonalizable y hemos calculado P y D, entonces
sabemos que

Asi que:



Con lo cual, iterando el proceso llegamos a:



Como el clculo de Dk equivale a elevar slo los elementos diagonales de D a
la k-sima potencia, vemos que Ak es fcil de obtener.
Si sucede que A es invertible, entonces 0 no es valor propio de A. Por
consiguiente D-1 existe y