You are on page 1of 12

ESPACIO VECTORIAL

Un espacio vectorial es una estructura matemática creada a partir de un conjunto


no vacío con una operación suma interna al conjunto y una operación producto
externa entre dicho conjunto y un cuerpo, cumpliendo una serie de propiedades o
requisitos iniciales. A los elementos de un espacio vectorial se les llamará vectores
y a los elementos del cuerpo se les llamará escalares.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la


ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se
utiliza en las rutinas modernas de compresión de imágenes y sonido, o
proporcionan el marco para resolver ecuaciones en derivadas parciales. Además,
los espacios vectoriales proporcionan una forma abstracta libre de coordenadas
de tratar con objetos geométricos y físicos, tales como tensores, que a su vez
permiten estudiar las propiedades locales de variedades mediante técnicas de
linealización.

Un espacio vectorial sobre un cuerpo (como el cuerpo de los números reales o los
números complejos) es un conjunto no vacío, dotado de dos aplicaciones:

operación interna tal que:


1) tenga la propiedad conmutativa, es decir

2) tenga la propiedad asociativa, es decir

3) tenga elemento neutro 0, es decir

4) tenga elemento opuesto, es decir

operación externa tal que:


a)
b)
c)
d)

Los elementos de se llaman escalares.

Los elementos de se llaman vectores.


SUB ESPACIO VECTORIAL:

Esto dice que si W es un sub conjunto del espacio vectorial V entonces este es un
sub espacio de V. Si W es un espacio vectorial bajo las operaciones de suma y
multiplicación por un escalar definidas en V.

Para que W sea un sub espacio de V debe cumplir las propiedades de cierre de la
suma y la multiplicación por un escalar también debe cumplir la ley del elemento
neutro bajo la suma, el inverso bajo la suma y el neutro bajo la multiplicación por
un escalar.
PROPIEDADES DE LOS SUB ESPACIOS VECTORIALES
(1) La intersección de sub espacios vectoriales de E , si es sub espacio
vectorial de E
(E,+,•) es K-ev ∧ { Hi} i ∊ I una familia de S.E.V de E ⇒ ∩ H i es S.E.V de E </b>

->Demostración:
H1 = {(x, y, z) / x + y + z = 0 } ∧ H2 = { ( x, y, z ) / x - y + z = 0 } son S.E.V de R3
H1 ∩ H2 = { (x, y, z) / x + y + z = 0} = { (x, y, z) / x + z = 0 ∧ y = 0} = {(x, y, z) / x = - z
∧ y = 0}

->Caso particular:
(1, 0, -1) + (-2, 0, 2) = (-1, 0 , 1) ∊ H 1 ∩ H2 es lci α (1, 0, -1) + β (-2, 0, 2) ∊ H 1 ∩ H2
∀α, β ∊ K ⇒ La intersección es S.E.V

(2) La unión de sub espacios vectoriales de E , no es sub espacio vectorial


de E
(E,+,•) es K-ev ∧ { Hi } i ∊ I una familia de S.E.V de E ⇒ ∪ Hi no es S.E.V de E.
</b>
Demostración:
H1 = { (0,y) / y ∊ R } ∧ H2 = { ( x,0) / x∊R } son S.E.V de R2.
Si (0,1) ∊ H1 también ∊ H1 ∪ H2. Si H 1 ∪ H2 fuera S.E.V la suma seria lci y no lo és.
Si (1,0) ∊ H1 también ∊ H1 ∪ H2 (0,1) + (1,0) = (1,1) ∉ H1 ∪ H2.

(3) La suma de sub espacios vectoriales (el conjunto suma) es sub espacio
vectorial de E
(E,+,•) es K-ev ∧ H,G dos S.E.V de E ⇒ H + G es S.E.V de E
->Demostración:
H + G = { v ∊ E / v = h + g tal que h ∊ H ∧ g ∊ G}. Queremos demostrar que H + G
∊E
Sean:
h + g ∊ H+G;
h´+ g´ ∊ H+G;
α, β ∊ K
α (h + g) + β (h´+ g´) = (α h + β h´) + (α g + β g´) ∊ H+G por el teorema H+G es
S.E.V de E

CONBINACIÓN LINEAL

Un vector se dice que es combinación lineal de un conjunto de vectores


si existe una forma de expresarlo como suma de parte o
todos los vectores de multiplicados cada uno de ellos por un coeficiente escalar
, de forma que:

Así, es combinación lineal de vectores de si podemos expresar como una


suma de múltiplos de una cantidad finita de elementos de .

Ejemplo: 2x + 3y − 2z = 0. Se dice que z es combinación lineal de x y de y, porque

podemos escribir sin más que despejar la z. De la misma manera,


despejando oportunamente, cada una de estas variables se podría expresar como
combinación lineal de las otras dos.

En otras palabras, cuánto de cada vector del conjunto necesito para que,
cuando se combinen linealmente dichos elementos, pueda formar al vector en
cuestión.
DEPENDENCIA E INDEPENDENCIA LINEAL

En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno


de ellos puede ser escrito con una combinación lineal de los restantes. Por
ejemplo, en R3, los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) son linealmente
independientes, mientras que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo son, ya que el
tercero es la suma de los dos primeros.

Sea un conjunto de vectores. Decimos que son linealmente


dependientes si existen números , no todos iguales a cero, tal que:

Nótese que el símbolo a la derecha del signo igual no es cero, sino que simboliza
al vector nulo . El conjunto de vectores nulos forma la matriz nula. Si tales
números no existen, entonces los vectores son linealmente independientes.

Utilizando conceptos de espacios vectoriales podemos redefinir la independencia


lineal así:
Un conjunto de vectores de un espacio vectorial es linealmente
independiente si

Esta idea es importante porque los conjuntos de vectores que son linealmente
independientes, generan un espacio vectorial y forman una base para dicho
espacio. Entre las propiedades de los vectores linealmente dependientes e
independientes encontramos:

1. Un conjunto de vectores es linealmente dependiente si y solamente si


alguno de los vectores es combinación lineal de los demás.
2. Si un conjunto de vectores es linealmente independiente cualquier
subconjunto suyo también lo es. Obviamente, si tenemos un conjunto de
vectores tales que ninguno de ellos es combinación de los demás,
escogiendo solamente unos cuantos, no podrán ser combinación de los
otros.
3. Si un conjunto de vectores es linealmente dependiente también lo es todo
conjunto que lo contenga. Ya que un conjunto de vectores es linealmente
dependiente si y solo si tiene algún vector que es combinación lineal de los
demás, si metemos este conjunto de vectores en otro más grande,
seguimos teniendo el vector que es combinación lineal de otros, por tanto,
el conjunto más grande sigue siendo linealmente dependiente.
BASE Y DIMENSIÓN DE UN ESPACIO VECTORIAL, CAMBIO DE BASE

Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un


sistema generador de dicho espacio o subespacio, que sea a la vez linealmente
independiente.
Propiedades de las bases.
1. Una base de S es un sistema generador minimal de S (lo más pequeño
posible).
2. Además es un conjunto independiente maximal dentro de S (lo más grande
posible).
3. Una base de S permite expresar todos los vectores de S como combinación
lineal de ella, de manera única para cada vector.

En álgebra lineal, se dice que un conjunto ordenado B es base de un espacio


vectorial V si se cumplen las siguientes condiciones:

 Todos los elementos de B pertenecen al espacio vectorial V.


 Los elementos de B forman un sistema linealmente independiente.
 Todo elemento de V se puede escribir como combinación lineal de los
elementos de la base B (es decir, B es un sistema generador de V)
DIMENSIÓN VECTORIAL

La dimensión de un espacio vectorial se define


como el número de elementos o cardinal de una
base de dicho espacio. Dado que para todo
espacio de Hilbert de dimensión infinita podemos
distinguir entre bases de Hilbert y de Hamel,
podemos definir la dimensión vectorial ordinaria y
la dimensión vectorial de Hilbert. Se tiene que
para cualquier espacio vectorial V, la relación
entre dimensión de Hammel y dimensión de
Hilbert es la siguiente:

En espacios de dimensión finita también se pueden definir las bases de Hilbert


como bases de Hamel ortogonales. De hecho, para un espacio de dimensión
finita, la dimensión de Hilbert es igual a la dimensión de Hamel. En dimensión
finita toda base de Hamel es base de Hilbert y viceversa, por lo que para un
espacio de dimensión finita en (1) se da siempre la igualdad.
DEFINICIÓN: MATRIZ DEL CAMBIO DE BASE
En un espacio vectorial V, dadas dos bases B y B’ , se llama matriz de cambio de
base (o de cambio de coordenadas) de B a B’ a la matriz que contiene en sus
columnas las coordenadas de los vectores de la base B expresados en función de
la base B’.

Su utilidad es la siguiente: Conocidas las coordenadas de un vector en base B,


nos permitirá hallar las coordenadas de dicho vector en base B’.
En efecto, sean (a1, a2, . . . an) las coordenadas de un vector en base B, y sea P la
matriz de cambio de base de B a B’. Entonces:

Del mismo modo podemos construir la matriz de cambio de base de B’ a B.


Para ello expresamos los vectores de la base canónica B’ en función de la base B. Podemos
hallarlo planteando dos sistemas de ecuaciones, de los cuales se obtendrá
(1,0) = 51(2,3) + 53(1,–1) 􀃆coordenadas (51,53)
(0,1)= 51(2,3) –52(1,–1) 􀃆coordenadas (51 , –52)
Introduciendo estas coordenadas en las columnas de una matriz, tendremos la matriz de cambio
de base de B’ a B.
PROPIEDADES DE LAS MATRICES DE CAMBIO DE BASE
1. Toda matriz de cambio de base es cuadrada nxn, donde n es la dimensión del
espacio al que se refieren las bases.
2. Toda matriz de cambio de base es inversible (es decir, con determinante no
nulo).
Además, la matriz de cambio de B a B’ es inversa de la matriz de cambio de B’ a
B.
• Comprobar en el ejemplo anterior que P y Q son inversas entre sí. Por tanto,
después de hallar P, podríamos haber hallado Q como P–1.
3. La matriz de cambio de una base B a la misma base B, es la matriz identidad.

ESPACIO VECTORIAL CON PRODUCTO INTERNO Y SUS PROPIEDADES

DEFINICIÓN 1: Espacio con producto interno.- Un espacio vectorial complejo V se


llama espacio con producto interno si para cada par ordenado de vectores u y v en
V, existe un número complejo único (u,v), llamado producto interno de u y v, tal
que si u, v y w están en V y C, entonces

EJEMPLO: Un producto interno en Rn Rn .- es un espacio con producto interno


con (u, v)= u * v.

DEFINICIÓN 2: Sea V un espacio con producto interno y suponga que u y v estan


en V. Entonces i. U y v son ortogonales si (u, v) = 0 La norma de u, denota por u,
esta dada por

U=

Nota: A la u se le pone doble barra para evitar confusión con el valor absoluto

EJEMPLO: Dos vectores ortogonales en C2 En C2 los vectores (3, -1) y (2, 6i) son
ortogonales porque ((3, -1), (2, 6i)) = 3*2 + (-i)(6i) = 6 + (-i)(-6i) = 6 -6 = 0 además
(3, -i)) = = .

DEFINICIÓN 3: Conjunto ortonormal .- El conjunto de vectores v1, v2, . . ., vn es


un conjunto ortonormal en V si

(vi, vj) = 0 para i y vi = = 1

DEFINICIÓN 4: Complemento ortogonal.- Sea H un subespacio del espacio con


producto interno V. Entonces el complemento ortogonal de H, denotado por H,
está dado por

H=x

V : (x, h) = 0 para todo h H


BASE ORTONORMAL, PROCESO DE ORTONORMALIZACIÓN DE GRAM
SCHMIDT

Sea x un vector que en base B 1 (de vectores unitarios u 1, u2, ...) será igual a m1u1+
m2u2 + m3u3 + ... El mismo vector, utilizando otra base B 2 (de vectores unitarios v1,
v2, ...) será n1v1+ n2v2 + n3v3 + ...

Supongamos que u1, u2, ... se representan en la base B2 de esta forma:

u1 = a11v1 + a21v2 + ... + an1vn


u2 = a12v1 + a22v2 + ... + an2vn
.............................................................
un = a1nv1 + a2nv2 + ... + annvn

Por lo tanto, sustituyendo estas ecuaciones en la fórmula original nos queda:

x = m1(a11v1 + a21v2 + ... + an1vn ) +  m2(a12v1 + a22v2 + ... + an2vn) + ... 

Reordenando queda:

x = (m1a11 + m2a12 + ... + mna1n)v1 + ... + (m1an1 + m2an2 + ... + mnann)vn 

Comparando con la fórmula x = n1v1+ n2v2 + n3v3 + ... deducimos que:

n1 = m1a11 + m2a12 + ... + mna1n


n2 = m1a21 + m2a22 + ... + mna2n
.................................................................
nn = m1ann + m2an2 + ... + mnann

Esto se puede expresar de forma matricial:

n1     a11 + a12 + ... + a1n       m1 


n2 = a21 + a22 + ... + a2n       m2 
.....    ........................................
nn    a2n + an2 + ... + ann       mn 

Llamando A a la matriz de coeficientes, X' al vector en la base B 2 y X al vector en


la base B1 nos queda:

X' = AX 

despejando X nos queda:

X = A-1X'
EL PROCESO DE ORTOGONALIZACIÓN DE GRAM–SCHMIDT

En álgebra lineal es un proceso utilizado en matemática y análisis numérico, para


ortogonalizar un conjunto de vectores en un espacio prehilbertiano, más
comúnmente el espacio euclídeo Rn.

Ortogonalización en este contexto significa lo siguiente: comenzamos con vectores


v1,…, vk los cuales son linealmente independientes y queremos encontrar
mutuamente vectores ortogonales u1, …, uk los cuales generan el mismo
subespacio que los vectores v1, …, vk.

Este proceso lleva el nombre en honor a Jorgen Pedersen Gram y Erhard


Schmidt.

Definimos el operador proyección con

Donde los corchetes angulares representan el producto interior, proyecta el vector


v ortogonalmente en el vector u.

Antes de ver el proceso, debemos comprender el porqué de la definición de


proyección. Si recordamos la definición de producto escalar, tenemos para el caso
del numerador, módulo de u por módulo de v por el coseno del ángulo que forman.
En el denominador tenemos módulo de u por módulo de u, ya que el coseno sería
1. Si separamos los dos módulos de u en el denominador, vemos que a la
izquierda tenemos únicamente "módulo de v * cos (ángulo que forman)", lo que
nos da claramente el módulo del vector proyección. Teniendo el módulo del vector
proyección lo único que debemos hacer es asignarle una dirección, cosa que
hacemos multiplicándolo por u/módulo(u), lo que es el vector de módulo 1 con
dirección u (el vector unitario).

El proceso de Gram–Schmidt entonces funciona como sigue:


Los dos primeros pasos del proceso de Gram-Schmidt
.

INSTITUTO TECNOLÓGICO DE PINOTEPA

TEMA DE DESARROLLO:
UNIDAD 4: ESPACIOS VECTORIALES
ING. GESTIÓN EMPRESARIAL

MATERIA: ALGEBRA LINEAL

FACILITADOR: ING. BORNIOS CRUZ CARLOS SALVADOR

ALUMNOS:

LUIS ALBERTO REYES SANTIAGO

Santiago Pinotepa Nacional, Oaxaca a Noviembre del 2010.

You might also like