You are on page 1of 6

Ortogonalidad

1 Producto interior. Longitud y ortogonalidad


Denicion 1 Sean u y v vectores de R
n
. Se dene el producto escalar (o producto interior) de u y v como
u v = u
T
v = (u
1
, u
2
, . . . , u
n
)

v
1
v
2
.
.
.
v
n

= u
1
v
1
+u
2
v
2
+. . . u
n
v
n
.
Ejemplo 1 Calcular el producto escalar de u =

2
5
1

y v =

3
2
3

.
Dados u, v y w vectores de R
n
y un escalar, el producto escalar verica las siguientes propiedades:
1. u v = v u.
2. (u +v) w = u w +v w.
3. (u) v = (u v) = u (v).
4. u u 0 y u u = 0 si y solo si u = 0.
Denicion 2 Dado un vector u R
n
. Denimos su norma (o longitud) como el escalar no negativo
u =

u
T
u =

u u =

u
2
1
+u
2
2
+ +u
2
n
.
Ejercicio 2 Demostrar que para cualquier escalar c se tiene cu = |c| u.
Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v,
basta dividir el vector v por su norma. Ambos vectores tienen la misma direccion, pero distinta longitud. Al proceso
mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalizacion.
Ejercicio 3 Sea v =

1
2
2
0

. Encontrar un vector unitario u en la misma direccion que v.


Ejercicio 4 Sea W el subespacio generado por x = (
2
3
, 1)
T
. Encontrar un vector unitario z que sea una base de W.
Denicion 3 Sean u, v R
n
. Se dene la distancia entre los vectores u y v como la norma del vector u v,
dist(u, v) = u v = v u = dist(v, u).
Ejercicio 5 Calcular la distancia entre u =

7
2

y v =

3
2

.
Denicion 4 Sean u, v R
n
. Diremos que u y v son ortogonales si u v = 0.
1
Observese que el vector 0 es ortogonal a cualquier vector u, porque 0 u = 0, siempre.
Denicion 5 Dado un vector v y un subespacio W diremos que v es ortogonal a W si v w = 0 para todo vector
w W.
Dos subespacios vectoriales V y W de un espacio vectorial se dicen ortogonales si v w = 0 para todo vector v V y
w W. En este caso, diremos que V es el complemento ortogonal de W y lo denotamos por V = W

(y W es tambien
el complemento ortogonal de V ). Dicho de otra forma: el complemento ortogonal de W es el conjunto de todos los
vectores v que son perpendiculares a W,
W

= {v R
n
: v w = 0, para todo w W}.
Observacion. Observese que para comprobar si un vector v pertenece al complemento ortogonal
de un espacio dado W, basta con comprobar si v es ortogonal a un conjunto que genere W.
Ejemplo 6 Hay cuatro subespacios importantes N(A), C(A), F(A), N(A
T
). Cuales son ortogonales?
El espacio F(A) es por denicion el generado por las las de A, F(A) = Gen{f
1
, f
2
, . . . , f
n
} (visto como vectores columna).
Para demostrar que los subespacios son ortogonales, basta con ver que dado x N(A), entonces x es ortogonal a cada una de
las las. Pero como x N(A), por denicion
Ax =

f
1
T

f
2
T

.
.
.
f
n
T

x = 0, Cuidado con la notacion!


y por tanto
f
1
T
x = 0, . . . , f
n
T
x = 0.
Analogamente, para demostrar que C(A) = Gen{a
1
, a
2
, . . . , a
m
} es el complemento ortogonal de N(A
T
) comprobamos que
un vector y N(A
T
) arbitrario es ortogonal a todas las columnas de A: Si y N(A
T
), entonces
A
T
y =

a
1
T

a
2
T

.
.
.
a
m
T

y = 0, Cuidado con la notacion!


y por tanto
a
1
T
y = 0, . . . , a
m
T
y = 0.
Importante. Sea A una matriz m n. El complemento ortogonal del espacio la de A es el
espacio nulo de A y el complemento ortogonal del espacio columna de A es el espacio nulo de A
T
:
(F(A))

= N(A), (C(A))

= N(A
T
).
2 Proyecciones ortogonales
Cual es la sombra que proyecta el vector b = (2, 3, 4)
T
sobre el plano xy? Y sobre el eje z? Como podemos
calcular la proyeccion de un vector sobre un subespacio arbitrario?
Idea. Dado v R
n
y W un subespacio de R
n
, queremos descomponer v
como suma de dos vectores
v = p
W
+e,
tal que p
W
W y e W

.
2
Ejemplo 7 Proyectar un vector v sobre un subespacio vectorial de dimension 1 (una recta):
Sea a el vector director de la recta. Buscamos y p
W
tal que
p
W
= a
Sabemos que si v = p
W
+e, entonces
a e = 0
e = v p
W
= v a
Juntando estas dos expresiones se obtiene:
0 = a e = a (v a) = a v a a
y por tanto =
a
T
v
a
T
a
y p
W
=
a
T
v
a
T
a
a
Ejercicio 8 Calcular la proyecci on del vector v = (1, 1, 1)
T
sobre la recta cuyo vector director es a = (1, 2, 2)
T
.
Si W es un subespacio vectorial generado por los vectores {a
1
, . . . , a
p
} linealmente independientes para proyectar
v sobre W usamos la misma idea que en dimension 1. Buscamos
p
W
= [a
1
| . . . |a
p
]
pn
x = Ax.
Utilizando que A
T
e = 0 concluimos x tiene que ser solucion del sistema A
T
v = A
T
Ax y entonces la proyeccion es
p
W
= A(A
T
A)
1
A
T
v .
Ejercicio 9 Dados el vector v = (6, 0, 0)
T
y el subespacio W = {(1, 1, 1)
T
, (0, 1, 2)
T
}. Calcular la proyecci on de v sobre W.
Importante.
Teorema de la descomposicion ortogonal
Sea W un subespacio de R
n
. Todo vector v R
n
se escribe de manera unica como
suma de dos vectores
v = p
W
+e,
tales que p
W
W y e W

.
Distancia mnima
p
W
es el elemento de W que mas cerca esta de v:
p
W
v p
W
b,
para todo b W.
Ejercicio 10 Encontrar la distancia del vector v = (1, 5, 10)
T
al subespacio W generado por (5, 2, 1)
T
, (1, 2, 1)
T
.
3 Problemas de mnimos cuadrados
Idea. En muchos problemas practicos Ax = b no tiene solucion. Hay demasiadas ecuaciones. Sin
embargo necesitamos encontrar una solucion, de forma que Ax se parezca lo mas posible a b.
Sea e = b Ax; como el sistema no tiene solucion e = 0, y buscamos x tal que e sea lo mas peque no posible.
Denicion 6 Dada A una matriz mn y b R
n
. Una solucion de mnimos cuadrados de Ax = b es y R
n
tal que
b Ay b Ax, para todo x R
n
.
3
Como calculamos la solucion de mnimos cuadrados?
Idea. A es rectangular y Ax = b no tiene solucion. Multiplicar ambos lados
de la ecuacion por A
T
,
A
T
Ax = A
T
b.
Es un nuevo sistema, que s tiene solucion. La solucion de este sistema, es la
solucion de mnimos cuadrados del problema original.
Ejemplo 11 Dados los puntos (0, 6), (1, 0) y (2, 0) encontrar la recta que este mas cerca de los tres puntos.
Buscamos y = mx +n con incognitas m y n. El sistema que tenemos que resolver se escribe en forma matricial como

1 0 | 6
1 1 | 0
1 2 | 0

Es facil ver que este sistema es incompatible.


Buscamos una solucion de mnimos cuadrados. Para ello calculamos
A
T
A =

1 1 1
0 1 2

1 0
1 1
1 2

3 3
3 5

, A
T
b =

1 1 1
0 1 2

6
0
0

6
0

y resolvemos el sistema

3 3
3 5

n
m

6
0

.
La solucion de mnimos cuadrados es m = 3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = 3x + 5.
4 El proceso de ortogonalizacion de Gram-Schmidt
Un problema de mnimos cuadrados es mas facil de resolver si A
T
A es diagonal.
Denicion 7 Los vectores {q
1
, . . . q
n
} son
ortogonales si q
i
q
j
= 0, para i = j.
ortonormales si son ortogonales y q
i
q
i
= 1 para todo i.
Denicion 8 Una matriz Q con columnas ortonormales entre s se llama ortogonal
Propiedad. Si Q es cuadrada y ortogonal
Q
T
= Q
1
Dada una base {a
1
, . . . , a
n
} de un subespacio, queremos encontrar otra {q
1
, . . . , q
n
} base de ese mismo espacio
cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales
es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simplican si utilizamos Q = [q
1
| . . . |q
n
]
(Recordar que Q
T
Q = I).
Proceso de Gram-Schmidt. Dados n vectores linealmente independientes {a
1
, . . . , a
n
} de
un subespacio vectorial, construimos una base ortogonal de vectores {w
1
, . . . , w
n
} a partir de la
base original. La base ortonormal {q
1
, . . . , q
n
} se obtiene dividiendo cada w
i
por su norma.
Paso i: Elegimos w
1
= a
1
.
4
Paso ii: El vector w
2
tiene que ser ortogonal a w
1
. Por el teorema de de descomposicion ortogonal sabemos que
a
2
= p
W
+e,
donde p
W
es la proyeccion de a
2
sobre el subespacio W y e W

. Sea en este caso W = Gen{w


1
}. Entonces e y w
1
son ortogonales. Por tanto tomamos e = w
2
y as
w
2
= a
2
p
W
= a
2

w
1
T
a
2
w
1
T
w
1
w
1
.
Paso iii: Usamos la misma idea que en el paso anterior. El vector w
3
tiene que ser ortogonal a w
1
y w
2
. De nuevo,
por el teorema de de descomposicion ortogonal sabemos que
a
3
= p
W
+e,
donde p
W
es la proyeccion de a
2
sobre el subespacio W y e W

. Denamos W = Gen{w
1
, w
2
}. Entonces e es
ortogonal a w
1
y w
2
, (que a su vez son ortogonales entre s). Tomamos e = w
3
y as, como estamos proyectando sobre
un espacio generado por un conjunto ortogonal {w
1
, w
2
} tenemos
w
3
= a
3
p
W
= a
3

w
1
T
a
3
w
1
T
w
1
w
1

w
2
T
a
3
w
2
T
w
2
w
2
.
.
.
.
Paso n: Para calcular w
n
proyectamos a
n
sobre el espacio generado por {w
1
, . . . w
n1
}, que por la construccion que
hemos hecho, son ortogonales entre s. Entonces
w
n
= a
n
p
W
= a
n

w
1
T
a
n
w
1
T
w
1
w
1

w
2
T
a
n
w
2
T
w
2
w
2

w
n1
T
a
n
w
n1
T
w
n1
w
n1
.
De esta forma obtenemos una base ortogonal {w
1
, . . . , w
n
} y tal que Gen{a
1
, . . . , a
n
} = Gen{w
1
, . . . , w
n
}. Para
conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir
{q
1
, . . . , q
n
} =

w
1
w
1

, . . . ,
w
n
w
n

.
5 Diagonalizacion de matrices simetricas
Recordatorio.
A es simetrica si A
T
= A.
A es diagonalizable si existen matrices D diagonal y P invertible tal que
A = PDP
1
Si Q es cuadrada y ortogonal Q
1
= Q
T
Ejemplo 12 La matriz
A =

6 2 1
2 6 1
1 1 4

tiene por valores propios = 8, 6, 3 y por vectores propios


v
1
=

1
1
0

, v
2
=

1
1
2

, v
3
=

1
1
1

.
5
que son ortogonales entre s. Si v
1
, v
2
, v
3
son vectores propios
w
1
=
v
1
v
1

, w
2
=
v
2
v
2

, w
3
=
v
3
v
3

,
tambien lo son y A se puede diagonalizar como
A = [w
1
|w
2
|w
3
]D[w
1
|w
2
|w
3
]
1
= [w
1
|w
2
|w
3
]D[w
1
|w
2
|w
3
]
T
.
Cuando se puede hacer este tipo de diagonalizacion (diagonalizacion ortogonal)?
Importante. Dada A simetrica. Entonces
A es siempre diagonalizable
Vectores propios de espacios propios diferentes son siempre ortogonales
Los vectores propios se pueden escoger todos ortogonales entre s (con el proceso de Gram-
Schmidt, cuando sea necesario)
Es mas:
A es diagonalizable ortogonalmente A es simetrica.
Ejercicio 13 Diagonalizar ortogonalmente la siguiente matriz
A =

5 4 2
4 5 2
2 2 2

.
6

You might also like