You are on page 1of 23

Universidad de la Rep´ ublica Segundo semestre 2004

Facultad de Ciencias Notas de
´
Algebra Lineal II
Centro de Matem´atica Andr´es Abella
Espacios con producto interno
En este tema el cuerpo de base k ser´a R o C. Diremos que un k-espacio vectorial V es un espacio vectorial
real si k = R y que V es un espacio vectorial complejo si k = C.
1. Espacios con producto interno
Definici´ on 1.1. Sea V un espacio vectorial. Un producto interno en V es una funci´on ¸ , ) : V V → k
que verifica:
1. ¸u +v, w) = ¸u, w) +¸v, w), ∀u, v, w ∈ V .
2. ¸a u, v) = a¸u, v), ∀a ∈ k, u, v ∈ V .
3. ¸u, v) = ¸v, u), ∀u, v ∈ V .
4. ¸v, v) > 0, ∀v ,= 0.
Un espacio con producto interno es un par (V, ¸ , )) en el cual V es un espacio vectorial y ¸ , ) : V V → k
es un producto interno en V .
Observaci´ on 1.1. 1. Si k = R, la condici´ on ¸u, v) = ¸v, u), ∀u, v ∈ V queda en ¸u, v) = ¸v, u), ∀u, v ∈ V .
2. Las dos primeras condiciones nos dicen que ¸ , ) es lineal en la primera componente.
Ejemplo 1.1. En k
n
el producto interno usual es
¸(x
1
, . . . , x
n
) , (y
1
, . . . , y
n
)) =
n

i=1
x
i
y
i
.
Siempre consideraremos este producto interno en k
n
a menos que explicitemos lo contrario.
Ejemplo 1.2. Si A ∈ M
n
(k), definimos A

:= A
t
, es decir si A = (a
ij
) y A

= (b
ij
), es b
ij
= a
ji
(si k = R
es A

= A
t
). Definimos ¸ , ) : M
n
(k) M
n
(k) → k por ¸A, B) := tr (AB

) =

n
i,j=1
a
ij
b
ij
.
Ejemplo 1.3. Sea C[0, 1] := ¦f : [0, 1] → R : f es continua¦, definimos ¸ , ) : C[0, 1] C[0, 1] → R por
¸f, g) =
_
1
0
f(t) g(t) dt.
Ejemplo 1.4. Si I = [a, b] ⊂ R es un intervalo cerrado y f : I → C es una funci´on, entonces para cada t
en I es f(t) = f
1
(t) + i f
2
(t), luego f define dos funciones f
1
, f
2
: I → R y rec´ıprocamente f
1
y f
2
definen
f = f
1
+ if
2
. Se dice que f es continua o integrable si f
1
y f
2
son continuas o integrables respectivamente.
Si f es integrable se define
_
b
a
f :=
_
b
a
f
1
+i
_
b
a
f
2
∈ C.
Sea H = ¦f : [0, 2π] → C : f es continua¦, definimos ¸ , ) : H H → C por ¸f, g) =
1

_

0
f(t) g(t) dt.
1
Observaci´ on 1.2. Observar que si ¸ , ) : V V → k es un producto interno en V y r ∈ R
+
, entonces
¸ , )
r
: V V → k definido por ¸u, v)
r
:= r¸u, v) es otro producto interno en V .
De ahora en adelante (V, ¸ , )) es un espacio con producto interno.
Proposici´ on 1.1. Vale:
1. ¸u, v +w) = ¸u, v) +¸u, w), para todo u, v, w ∈ V .
2. ¸u, a v) = a¸u, v), para todo u, v ∈ V y a ∈ k.
3. ¸v, v) = 0 si y solo si v = 0.
4. Si ¸v, u) = 0 para todo v ∈ V , entonces u = 0.
5. Si ¸v, u) = ¸v, w) para todo v ∈ V , entonces u = w.
Dem.
1. ¸u, v +w) = ¸v +w, u) = ¸v, u) +¸w, u) = ¸v, u) +¸w, u) = ¸u, v) +¸u, w).
2. ¸u, a v) = ¸a v, u) = a ¸v, u) = a ¸v, u) = a ¸u, v).
3. Si v ,= 0, entonces es ¸v, v) > 0 y por lo tanto ¸v, v) , = 0; luego ¸v, v) = 0 implica v = 0.
Rec´ıprocamente, si v = 0 es ¸0, 0) = ¸0 + 0, 0) = ¸0, 0) +¸0, 0) ∈ k, luego ¸v, v) = ¸0, 0) = 0.
4. Si ¸v, u) = 0 para todo v ∈ V , entonces tomando v = u es ¸u, u) = 0 y luego u = 0.
5. Si ¸v, u) = ¸v, w) para todo v ∈ V , entonces es 0 = ¸v, u) −¸v, w) = ¸v, u −w) para todo v ∈ V , luego
es u −w = 0 y resulta u = w.
Observaci´ on 1.3. De la condici´ on 4 de la definici´on de producto interno y de la afirmaci´on 3 de la proposici´on
anterior se deduce lo siguiente:
¸v, v) ≥ 0, ∀v ∈ V y ¸v, v) = 0 ⇔ v = 0.
Definici´ on 1.2. Si v ∈ V , definimos su norma por [[v[[ :=
_
¸v, v). La norma define una funci´on [[ [[ : V → R.
Ejemplo 1.5. Si V = k
n
es [[ (x
1
, . . . , x
n
) [[ =
_

n
i=1
[x
i
[
2
.
Observaci´ on 1.4. Si z ∈ C, z = a + ib con a, b ∈ R, escribimos Re(z) = a y Im(z) = b. Observar que es
[ Re(z)[ ≤ [z[, [ Im(z)[ ≤ [z[, z +z = 2 Re(z) y z −z = 2i Im(z). Vale la siguente igualdad:
[[u +v[[
2
= [[u[[
2
+ 2 Re (¸u, v)) +[[v[[
2
, ∀u, v ∈ V. (1)
Prueba:
[[u +v[[
2
= ¸u +v, u +v) = ¸u, u) +¸u, v) +¸v, u) +¸v, v) = [[u[[
2
+¸u, v) +¸u, v) +[[v[[
2
= [[u[[
2
+ 2 Re (¸u, v)) +[[v[[
2
.
Observar que si k = R, la relaci´ on (1) queda
[[u +v[[
2
= [[u[[
2
+ 2 ¸u, v) +[[v[[
2
, ∀u, v ∈ V.
2
Proposici´ on 1.2. Vale:
1. [[a v[[ = [a[ [[v[[, para todo v ∈ V y a ∈ k.
2. [[v[[ ≥ 0 para todo v ∈ V y [[v[[ = 0 si y solo si v = 0.
3. Desigualdad de Cauchy-Schwarz: para todo u, v ∈ V es [¸u, v)[ ≤ [[u[[ [[v[[ y vale el s´ımbolo de igual si
y solo si ¦u, v¦ es LD.
4. Desigualdad triangular: para todo u, v ∈ V es [[u +v[[ ≤ [[u[[ +[[v[[.
Dem. Las dos primeras afirmaciones se deducen inmediatamente de la definici´on de norma. Para la
desigualdad de Cauchy-Schwarz, si v = 0 es [¸u, v)[ = [¸u, 0)[ = 0 = [[u[[ [[0[[ = [[u[[ [[v[[ y el conjunto
¦u, v¦ = ¦u, 0¦ es LD.
Supongamos hora que v ,= 0. Observar que para todo c ∈ k es 0 ≤ [[u − c v[[
2
. Tomando c = ¸u, v)/[[v[[
2
y
utilizando la relaci´ on (1) obtenemos
[[u −c v[[
2
= [[u[[
2
−2 Re(¸u, c v)) +[c[
2
[[v[[
2
= [[u[[
2
−2 Re(c ¸u, v)) +
[¸u, v)[
2
[[v[[
4
[[v[[
2
= [[u[[
2
−2 Re
_
¸u, v)
[[v[[
2
¸u, v)
_
+
[¸u, v)[
2
[[v[[
2
= [[u[[
2
−2
[¸u, v)[
2
[[v[[
2
+
[¸u, v)[
2
[[v[[
2
= [[u[[
2

[¸u, v)[
2
[[v[[
2
.
Luego
[[u −c v[[
2
= [[u[[
2

[¸u, v)[
2
[[v[[
2
. (2)
De las relaciones 0 ≤ [[u −c v[[
2
y (2) se obtiene la desigualdad de Cauchy-Schwarz.
Si ¦u, v¦ es LD, como v ,= 0 entonces existe a ∈ k tal que u = a v, luego
[¸u, v)[ = [¸a v, v)[ = [a ¸v, v)[ = [a[ [[v[[
2
= [a[ [[v[[ [[v[[ = [[a v[[ [[v[[ = [[u[[ [[v[[.
Rec´ıprocamente si [¸u, v)[ = [[u[[ [[v[[ y v ,= 0 entonces (2) implica [[u − c v[[
2
= 0 y luego u = c v para
c = ¸u, v)/[[v[[
2
.
La desigualdad triangular se deduce de:
[[u +v[[
2
= [[u[[
2
+ 2 Re (¸u, v)) +[[v[[
2
≤ [[u[[
2
+ 2[ ¸u, v) [ +[[v[[
2
≤ [[u[[
2
+ 2[[u[[ [[v[[ +[[v[[
2
= ([[u[[ +[[v[[)
2
.
Aplicaci´ on 1.1. En el caso particular de V = k
n
la desigualdad de Cauchy-Schwarz y la desigualdad
triangular nos dan las siguientes relaciones:
¸
¸
¸
¸
¸
n

i=1
x
i
y
i
¸
¸
¸
¸
¸

_
n

i=1
[x
i
[
2
_
1/2
_
n

i=1
[y
i
[
2
_
1/2
,
_
n

i=1
[x
i
+y
i
[
2
_
1/2

_
n

i=1
[x
i
[
2
_
1/2
+
_
n

i=1
[y
i
[
2
_
1/2
.
3
Definici´ on 1.3. Dos vectores u y v se dicen ortogonales si ¸u, v) = 0, en esta situaci´on escribimos u ⊥ v. Un
subconjunto S de V se dice un conjunto ortogonal si para todo u, v en S es u ⊥ v. Un subconjunto S de V se
dice un conjunto ortonormal si es ortogonal y [[v[[ = 1 para todo v en S. Observar que si S = ¦v
1
, . . . , v
n
¦,
entonces S es ortonormal si y solo si ¸v
i
, v
j
) = δ
ij
para todo i, j. Una base ortonormal es una base que
adem´ as es un conjunto ortonormal.
Ejemplo 1.6. La base can´onica de k
n
es una base ortonormal.
Ejemplo 1.7. El conjunto S = ¦(1, 1, 0), (1, −1, 1), (−1, 1, 2)¦ es un subconjunto ortogonal de R
3
que no
es ortonormal.
Recordar que si z = a +ib ∈ C, se define e
z
:= e
a
(cos b +i sen b). La exponencial verifica:
e
z
1
e
z
2
= e
z
1
+z
2
, (e
z
)
n
= e
nz
, ∀n ∈ Z, e
z
= e
z
.
Ejercicio 1.1. Probar que para todo z ,= 0 en C es
_
b
a
e
zt
dt =
e
zt
z
¸
¸
¸
¸
t=b
t=a
=
e
az
−e
bz
z
.
Ejemplo 1.8. El conjunto S =
_
f
n
: [0, 2π] → C : f
n
(x) = e
inx
, x ∈ [0, 2π], n ∈ Z
_
es un subconjunto
ortonormal de H:
n ,= m, ¸f
n
, f
m
) =
1

_

0
e
int
e
imt
dt =
1

_

0
e
int
e
imt
dt =
1

_

0
e
int
e
−imt
dt
=
1

_

0
e
i(n−m)t
dt =
1
2πi(n −m)
e
i(n−m)t
¸
¸
¸

0
= 0,
n = m, ¸f
n
, f
n
) =
1

_

0
¸
¸
e
int
¸
¸
2
dt =
1

_

0
dt = 1.
Proposici´ on 1.3. Sea S = ¦v
1
, . . . , v
n
¦ un conjunto ortogonal de vectores no nulos y u ∈ [v
1
, . . . , v
n
].
Si u =
n

i=1
a
i
v
i
, entonces a
i
=
¸u, v
i
)
[[v
i
[[
2
, ∀i = 1, . . . , n.
Dem.
u =
n

j=1
a
j
v
j
⇒ ¸u, v
i
) =
_
n

j=1
a
j
v
j
, v
i
_
=
n

j=1
a
j
¸v
j
, v
i
) = a
i
[[v
i
[[
2
⇒ a
i
=
¸u, v
i
)
[[v
i
[[
2
.
Corolario 1.4. Si S es un subconjunto ortogonal (finito o infinito) de V formado por vectores no nulos,
entonces S es LI.
Dem. Si v
1
, . . . , v
n
∈ S y a
1
, . . . , a
n
∈ k son tales que

n
i=1
a
i
v
i
= 0 entonces a
i
=
0,v
i

||v
i
||
2
= 0 para todo
i = 1, . . . , n.
4
Ejemplo 1.9. En el ejemplo 1.8 el conjunto S es un subconjunto ortonormal de H, luego es LI y por lo
tanto H es un espacio de dimensi´on infinita.
Corolario 1.5. Si V tiene dimensi´ on finita y B = ¦v
1
, . . . , v
n
¦ es una base ortonormal de V entonces para
todo u en V es
u =
n

i=1
¸u, v
i
) v
i
.
Definici´ on 1.4. Sea B un conjunto (posiblemente infinito) ortonormal en V . Si w ∈ V llamamos coeficientes
de Fourier de w respecto a B a los escalares ¸w, v) con v ∈ B.
Teorema 1.6 (M´etodo de Gram-Schmidt). Sea S = ¦v
1
, . . . , v
n
¦ un conjunto LI. Definimos S

= ¦w
1
, . . . , w
n
¦
mediante:
w
1
= v
1
w
2
= v
2

¸v
2
, w
1
)
[[w
1
[[
2
w
1
w
3
= v
3

¸v
3
, w
1
)
[[w
1
[[
2
w
1

¸v
3
, w
2
)
[[w
2
[[
2
w
2
.
.
.
w
n
= v
n

¸v
n
, w
1
)
[[w
1
[[
2
w
1
− −
¸v
n
, w
n−1
)
[[w
n−1
[[
2
w
n−1
.
Entonces S

es un conjunto ortogonal de vectores no nulos que verifica [S

] = [S].
Dem. Lo demostraremos por inducci´on en m, siendo S
m
= ¦v
1
, . . . , v
m
¦ y S

m
= ¦w
1
, . . . , w
m
¦ con
1 ≤ m ≤ n.
Para m = 1 se cumple. Tomamos como hip´ otesis de inducci´on que S

m−1
es un conjunto ortogonal de
vectores no nulos que verifica
_
S

m−1
¸
= [S
m−1
].
Consideremos w
m
. Si fuese w
m
= 0 entonces ser´ıa v
m
∈ [S

m−1
] = [S
m−1
] y S
m
= S
m−1
∪ ¦v
m
¦ resultar´ıa
LD contradiciendo que S es LI. Luego es w
m
,= 0.
El conjunto S

m−1
= ¦w
1
, . . . , w
m−1
¦ es ortogonal. Afirmamos que w
m
es ortogonal a w
1
, . . . , w
m−1
:
¸w
m
, w
i
) = ¸v
m
, w
i
) −
¸v
m
, w
1
)
[[w
1
[[
2
¸w
1
, w
i
) − −
¸v
m
, w
m−1
)
[[w
m−1
[[
2
¸w
m−1
, w
i
)
= ¸v
m
, w
i
) −
¸v
m
, w
i
)
[[w
i
[[
2
¸w
i
, w
i
) = 0, ∀i = 1, . . . , m−1.
Luego S

m
= ¦w
1
, . . . , w
m−1
, w
m
¦ es ortogonal.
De
_
S

m−1
¸
= [S
m−1
] se deduce que w
1
, . . . , w
m−1
∈ [S
m−1
] ⊂ [S
m
]. Por otro lado tenemos que w
m

[w
1
, . . . , w
m−1
, v
m
] ⊂ S
m
, luego [S

m
] ⊂ [S
m
]. Como S

m
es un conjunto ortogonal de vectores no nulos, es LI
y S
m
tambi´en es LI, luego dim[S

m
] = dim[S
m
] = m lo cual termina la prueba de [S

m
] = [S
m
].
Observaci´ on 1.5. Observar que si aplicamos el m´etodo de Gram-Schmidt a un conjunto LI de la forma S =
¦v
1
, . . . , v
l
, v
l+1
, . . . , v
n
¦ con ¦v
1
, . . . , v
l
¦ un conjunto ortonormal entonces es w
i
= v
i
para todo i = 1, . . . , l.
5
Corolario 1.7. Si la dimensi´ on de V es finita, entonces V admite una base ortonormal.
Dem. Sea ( = ¦v
1
, . . . , v
n
¦ una base cualquiera de V . Aplicando el m´etodo de Gram-Schmidt obtenemos
una base ortogonal (

= ¦u
1
, . . . , u
n
¦. Si definimos w
i
= u
i
/[[u
i
[[, i = 1 . . . , n, entonces B = ¦w
1
, . . . , w
n
¦ es
una base ortonormal de V .
Observaci´ on 1.6. Sea V de dimensi´on finita y B = ¦v
1
, . . . , v
n
¦ una base ortonormal de V . Sean v =

n
i=1
x
i
v
i
y w =

n
i=1
y
i
v
i
, entonces vale:
¸v, w) =
n

i=1
x
i
y
i
, |v|
2
=
n

i=1
[x
i
[
2
.
En efecto,
¸v, w) =
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
=
n

i,j=1
x
i
y
j
¸v
i
, v
j
) =
n

i,j=1
x
i
y
j
δ
ij
=
n

i=1
x
i
y
i
.
De la observaci´ on anterior y el Corolario 1.5 se obtiene:
Proposici´ on 1.8 (Identidad de Parseval). Sea V de dimensi´ on finita y B = ¦v
1
, . . . , v
n
¦ una base ortonormal
de V . Entonces
¸v, w) =
n

i=1
¸v, v
i
) ¸w, v
i
), ∀v, w ∈ V.
En particular, |v|
2
=

n
i=1
[¸v, v
i
)[
2
.
Observaci´ on 1.7. Sea V un espacio vectorial real o complejo (aqu´ı no suponemos que V tenga producto
interno) de dimensi´on finita y B = ¦v
1
, . . . , v
n
¦ una base cualquiera de V . Definimos ¸ , ) : V V → k por
¸v, w) =

n
i=1
x
i
y
i
si v =

n
i=1
x
i
v
i
y w =

n
i=1
y
i
v
i
. Es un ejercico del pr´actico 3 el probar que ¸ , ) define
un producto interno en V y que B es una base ortonormal respecto a ¸ , ).
Proposici´ on 1.9 (Teorema de Pit´ agoras). Si v y w son ortogonales, es
[[v +w[[
2
= [[v[[
2
+[[w[[
2
.
Dem.
[[v +w[[
2
= [[v[[
2
+ 2 Re (¸v, w)) +[[w[[
2
= [[v[[
2
+[[w[[
2
.
Corolario 1.10. Si ¦v
1
, . . . , v
n
¦ es un conjunto ortogonal en V , es
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
n

i=1
v
i
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
2
=
n

i=1
[[v
i
[[
2
.
Dem. Lo demostramos por inducci´on en n. Si n = 2 es el Teorema de Pit´ agoras. Supongamos que
vale para n y consideremos un conjunto ortogonal ¦v
1
, . . . , v
n
, v
n+1
¦. Como v
n+1
es ortogonal a v
1
, . . . , v
n
entonces resulta ortogonal a

n
i=1
v
i
. Luego aplicando Pit´ agoras y la hip´ otesis de inducci´on obtenemos:
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
n+1

i=1
v
i
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
2
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
n

i=1
v
i
+v
n+1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
2
=
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
n

i=1
v
i
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
2
+[[v
n+1
[[
2
=
n

i=1
[[v
i
[[
2
+[[v
n+1
[[
2
=
n+1

i=1
[[v
i
[[
2
.
6
Definici´ on 1.5. Si S es un subconjunto cualquiera de V , el conjunto
S

:= ¦v ∈ V : v ⊥ w, ∀w ∈ S¦
se llama el complemento ortogonal de S.
Observaci´ on 1.8. Observar que S

es un subespacio de V (aunque S no lo sea) y que S

= [S]

. En
particular, si W es un subespacio de V y S es un generador de W, entonces v ∈ W

si y solo si v ⊥ w para
todo w en S.
Ejemplo 1.10. ¦0¦

= V y V

= ¦0¦.
Teorema 1.11. Sea W un subespacio de dimensi´ on finita de V , entonces:
V = W ⊕W

.
Dem. Sea B = ¦w
1
, . . . , w
n
¦ una base ortonormal de W, si v ∈ V es
v =
n

i=1
¸v, w
i
) w
i
+v −
n

i=1
¸v, w
i
) w
i
.
Observar que ¸v −

n
i=1
¸v, w
i
) w
i
, w
j
) = ¸v, w
j
) −

n
i=1
¸v, w
i
) ¸w
i
, w
j
) = 0 para todo j = 1, . . . , n, luego
por la observaci´ on anterior es v −

n
i=1
¸v, w
i
) w
i
∈ W

y claramente

n
i=1
¸v, w
i
) w
i
∈ W, de donde
V = W +W

. Por otro lado si w ∈ W∩W

es w ⊥ w y luego w = 0 lo cual prueba que W∩W

= ¦0¦.
Corolario 1.12. Si la dimensi´ on de V es finita y W es un subespacio de V es dimW+dimW

= dimV .
Observaci´ on 1.9. Si la dimensi´on de V es finita y S = ¦v
1
, . . . , v
m
¦ es un subconjunto ortonormal de V ,
entonces completando S a una base cualquiera de V y aplic´andole a esta el m´etodo de Gram-Schmidt
obtenemos:
1. Existen vectores v
m+1
, . . . , v
n
en V tales que el conjunto
¦v
1
, . . . , v
m
, v
m+1
, . . . , v
n
¦ es una base ortonormal de V .
2. Si W = [v
1
, . . . , v
m
], entonces W

= [v
m+1
, . . . , v
n
].
Definici´ on 1.6. Sea W un subespacio de dimensi´on finita de V . Sean P
W
∈ L(V ) y P
W
⊥ ∈ L(V ) las
proyecciones asociadas a la descomposici´on V = W ⊕ W

, siendo Im P
W
= W y Im P
W
⊥ = W

. La
proyecci´ on P
W
se llama la proyecci´ on ortogonal sobre el espacio W. Observar que si B = ¦w
1
, . . . , w
n
¦ es
una base ortonormal de W, entonces
P
W
(v) =
n

i=1
¸v, w
i
) w
i
, P
W
⊥(v) = v −
n

i=1
¸v, w
i
) w
i
, ∀v ∈ V.
Definici´ on 1.7. 1. Sean v y w en V , definimos la distancia entre v y w por d(v, w) = |v −w|.
2. Sea S un subconjunto de V y v ∈ V , se define la distancia de v a S por d(v, S) :=´ınf¦d(v, w) : w ∈ S¦.
7
Corolario 1.13. Sea W un subespacio de dimensi´ on finita de V , P
W
∈ L(V ) la proyecci´ on ortogonal sobre
W y v ∈ V . Entonces:
1. ∀w ∈ W es
[[v −w[[ ≥ [[v −P
W
(v)[[. (3)
2. Si w
0
∈ W verifica
[[v −w[[ ≥ [[v −w
0
[[, (4)
∀w ∈ W, entonces w
0
= P
W
(v).
Dem. Observar que si w ∈ W, es v − P
W
(v) ∈ W

y P
W
(v) − w ∈ W, luego aplicando el teorema de
Pit´ agoras resulta
[[v −w[[
2
= [[v −P
W
(v) +P
W
(v) −w[[
2
= [[v −P
W
(v)[[
2
+[[P
W
(v) −w[[
2
≥ [[v −P
W
(v)[[
2
. (5)
Esto implica la primera afirmaci´on. Para la segunda afirmaci´on, tomando w = P
W
(v) en (4) resulta [[v −
P
W
(v)[[ ≥ [[v − w
0
[[. Por otro lado tomando w = w
0
en (3) resulta [[v − w
0
[[ ≥ [[v − P
W
(v)[[. Luego
[[v − w
0
[[ = [[v − P
W
(v)[[. Teniendo en cuenta esta ´ ultima relaci´ on, tomando w = w
0
en (5) deducimos
[[P
W
(v) −w
0
[[ = 0 y luego P
W
(v) = w
0
.
Observaci´ on 1.10. Notar que si escribimos la relaci´ on (3) en t´erminos de distancias, es
d(v, w) ≥ d (v, P
W
(v)) , ∀w ∈ W.
Esto implica que d (v, P
W
(v)) es una cota inferior para ¦d(v, w) : w ∈ W¦, pero como P
W
(v) ∈ W, resulta
d(v, W) = d (v, P
W
(v)) = m´ın¦d(v, w) : w ∈ W¦.
La relaci´ on (4) nos dice que P
W
(v) es el ´ unico elemento de W que realiza la distancia de v a W.
Corolario 1.14 (Desigualdad de Bessel). Sea ¦v
1
, . . . , v
n
¦ un subconjunto ortonormal de V , entonces
[[v[[
2

n

i=1
[¸v, v
i
)[
2
, ∀v ∈ V.
Dem. Sea W = [v
1
, . . . , v
n
]. Aplicando el teorema de Pit´ agoras se deduce
[[v[[
2
= [[P
W
(v) +v −P
W
(v)[[
2
= [[P
W
(v)[[
2
+[[v −P
W
(v)[[
2
≥ [[P
W
(v)[[
2
=
n

i=1
[¸v, v
i
)[
2
.
Ejemplo 1.11. Sea S el conjunto ortonormal de H definido en el ejemplo 1.8. Si consideramos f ∈ H
definida por f(x) = x, ∀x ∈ [0, 2π], es
[[f[[
2
= ¸f, f) =
1

_

0
t
2
dt =
4
3
π
2
,
¸f, f
n
) =
1

_

0
t e
−int
dt =
1

__

0
t cos(nt) dt −i
_

0
t sen(nt) dt
_
, luego
¸f, f
n
) =
_

1
in
, si n ,= 0,
π, si n = 0.
8
A[licando la desigualdad de Bessel obtenemos
4
3
π
2
= [[f[[
2

h

n=−h
[¸f, f
n
)[
2
=
h

n=−h
¸
¸
¸
¸
−1
in
¸
¸
¸
¸
2
= π
2
+
−1

n=−h
¸
¸
¸
¸
−1
in
¸
¸
¸
¸
2
+
h

n=1
¸
¸
¸
¸
−1
in
¸
¸
¸
¸
2
= π
2
+ 2
h

n=1
1
n
2
,

h

n=1
1
n
2

1
6
π
2
, ∀h = 1, 2, . . . .
Luego la serie


n=1
1
n
2
es convergente y


n=1
1
n
2

1
6
π
2
.
2. Operadores en espacios con producto interno
En esta secci´ on V ser´a siempre un espacio vectorial con producto interno de dimensi´on finita.
Definici´ on 2.1. Sea w ∈ V , definimos η
w
: V → k por η
w
(v) := ¸v, w), ∀v ∈ V . Claramente η
w
∈ V

,
∀w ∈ V .
Proposici´ on 2.1. Para todo w
1
, w
2
∈ V y a ∈ k se cumple:
1. η
a w
1
+w
2
= ¯ a η
w
1

w
2
.
2. η
w
1
= η
w
2
⇔ w
1
= w
2
.
Dem.
1. η
a w
1
+w
2
(v) = ¸v, a w
1
+w
2
) = ¯ a¸v, w
1
) +¸v, w
2
) = ¯ a η
w
1
(v) +η
w
2
(v) = (¯ a η
w
1

w
2
)(v).
2. η
w
1
= η
w
2
⇔ ¸v, w
1
) = ¸v, w
2
), ∀v ∈ V ⇔ w
1
= w
2
.
Teorema 2.2 (Teorema de Riesz). Si α ∈ V

, existe un ´ unico w ∈ V tal que α = η
w
.
Dem. Sea B = ¦v
1
, . . . , v
n
¦ una base ortonormal de V y α ∈ V

, consideremos w =

n
i=1
α(v
i
) v
i
.
Entonces
η
w
(v
j
) =
_
v
j
,
n

i=1
α(v
i
) v
i
_
=
n

i=1
α(v
i
) ¸v
j
, v
i
) =
n

i=1
α(v
i
) δ
i,j
= α(v
j
), ∀j = 1, . . . , n.
Luego η
w
= α.
Teorema 2.3. Sea T ∈ L(V ). Existe un ´ unico T

∈ L(V ) tal que
¸T(v), w) = ¸v, T

(w)), ∀v, w ∈ V.
Dem. Sea w ∈ V fijo y consideremos β
w
: V → k definida por β
w
(v) := ¸T(v), w) para todo v ∈ V .
Observar que β
w
= η
w
◦ T, luego β
w
∈ V

. Aplicando el Teorema de Riesz, tenemos que existe un ´ unico
˜ w ∈ V tal que β
w
= η
˜ w
, es decir tal que ¸T(v), w) = ¸v, ˜ w) , ∀v ∈ V . Definimos entonces T

: V → V por
T

(w) = ˜ w. As´ı dado w ∈ W, T

(w) queda definido por ser el ´ unico vector de V que verifica ¸T(v), w) =
¸v, T

(w)), ∀v ∈ V .
9
La funci´on T

es lineal:
¸v, T

(aw
1
+w
2
)) = ¸T(v), aw
1
+w
2
) = ¯ a¸T(v), w
1
) +¸T(v), w
2
) = ¯ a¸v, T

(w
1
)) +¸v, T

(w
2
))
= ¸v, aT

(w
1
) +T

(w
2
)), ∀v ∈ V
luego T

(aw
1
+w
2
) = aT

(w
1
) +T

(w
2
).
Unicidad de T

: Supongamos que existe S ∈ L(V ) tal que ¸T(v), w) = ¸v, S(w)), ∀v, w ∈ V . Luego es
¸v, T

(w)) = ¸v, S(w)), ∀v ∈ V ⇒ T

(w) = S(w), ∀w ∈ V ⇒ T

= S.
Definici´ on 2.2. El operador T

se llama el operador adjunto de T.
Observaci´ on 2.1. Se deduce de la demostraci´ on anterior que si B = ¦v
1
, . . . , v
n
¦ es una base ortonormal de
V y T ∈ L(V ) entonces es
T

(w) =
n

i=1
¸w, T(v
i
)) v
i
, ∀w ∈ V.
Prueba: T

(w) = ˜ w =

n
i=1
β
w
(v
i
) v
i
=

n
i=1
¸T(v
i
), w) v
i
=

n
i=1
¸w, T(v
i
)) v
i
.
Proposici´ on 2.4. Sean T, S ∈ L(V ). Entonces:
1. ¸v, T(w)) = ¸T

(v), w), ∀v, w ∈ V .
2. (aT +S)

= ¯ aT

+S

.
3. (T ◦ S)

= S

◦ T

.
4. (T

)

= T.
5. id

= id.
Dem.
1. ¸v, T(w)) = ¸T(w), v) = ¸w, T

(v)) = ¸T

(v), w).
Las pruebas de 2,. . . ,5 se basan en la unicidad del operador adjunto.
2.
¸(aT +S)(v), w) = ¸aT(v) +S(v), w) = a¸T(v), w) +¸S(v), w) = a¸v, T

(w)) +¸v, S

(w))
= ¸v, (¯ aT

+S

)(w)) , ∀v, w ∈ V.
Luego (aT +S)

= ¯ aT

+S

.
3.
¸(T ◦ S)(v), w) = ¸T(S(v)), w) = ¸S(v), T

(w)) = ¸v, S

(T

(w))) = ¸v, (S

◦ T

)(w)) , ∀v, w ∈ V.
Luego (T ◦ S)

= S

◦ T

.
4. Por definici´on de (T

)

es ¸T

(v), w) = ¸v, (T

)

(w)) , ∀v, w ∈ V y por la parte 1 es ¸T

(v), w) =
¸v, T(w)) , ∀v, w ∈ V . Luego (T

)

= T.
5. ¸id (v), w) = ¸v, w) = ¸v, id (w)), ∀v, w ∈ V . Luego id

= id .
10
Recordemos que si A ∈ M
n
(k) es A

= A
t
y si k = R es A

= A
t
.
Ejercicio 2.1. Probar que si A, B ∈ M
n
(k) y a ∈ k, entonces se cumple:
1. (A+aB)

= A

+ ¯ aB

.
2. (AB)

= B

A

.
3. (A

)

= A.
4. I

= I.
Proposici´ on 2.5. Si T ∈ L(V ), B = ¦v
1
, . . . , v
n
¦ es una base ortonormal de V y [T]
B
= (a
ij
). Entonces
a
ij
= ¸T(v
j
), v
i
), ∀i, j = 1, . . . , n.
Dem. Si [T]
B
= (a
ij
) es T(v
i
) =

n
j=1
a
ji
v
j
, ∀i = 1, . . . , n. Como B es una base ortonormal es a
ji
=
¸T(v
i
), v
j
).
Proposici´ on 2.6. Si T ∈ L(V ) y B es una base ortonormal de V entonces
[T

]
B
= ([T]
B
)

.
Dem. Sea [T]
B
= (a
ij
) y [T

]
B
= (c
ij
). Entonces
a
ij
= ¸T(v
j
), v
i
) = ¸v
j
, T

(v
i
)) = ¸T

(v
i
), v
j
) = c
ji
⇒ [T

]
B
= ([T]
B
)

.
Corolario 2.7. Sea A ∈ M
n
(k), consideremos el producto interno usual en k
n
y L
A
: k
n
→ k
n
definida por
L
A
(v) = Av, ∀v ∈ k
n
. Entonces (L
A
)

= L
A
∗.
Dem. La base can´onica B es ortonormal respecto al producto interno usual de k
n
, luego [(L
A
)

]
B
=
([L
A
]
B
)

= A

⇒ (L
A
)

= L
A
∗.
Ejemplo 2.1. Consideremos C
2
con el producto interno usual, B la base can´onica de C
2
y T : C
2
→ C
2
definida por T(x, y) = (2ix + 3y, x −y), (x, y) ∈ C
2
. Es
[T]
B
=
_
2i 3
1 −1
_
⇒ [T

]
B
= ([T]
B
)

=
_
2i 3
1 −1
_
t
=
_
−2i 1
3 −1
_
,
luego T

(x, y) = (−2ix +y, 3x −y).
Definici´ on 2.3. Decimos que un operador T ∈ L(V ) es normal si T ◦ T

= T

◦ T.
Una matriz A ∈ M
n
(k) se dice normal si AA

= A

A
Proposici´ on 2.8. Si T ∈ L(V ) y B es una base ortonormal de V , entonces T es normal si y solo si [T]
B
es normal.
Dem. Como B es una base ortonormal de V es [T

]
B
= ([T]
B
)

, luego [T◦T

]
B
= [T]
B
[T

]
B
= [T]
B
([T]
B
)

y an´ alogamente [T

◦ T]
B
= ([T]
B
)

[T]
B
. Entonces es claro que T ◦ T

= T

◦ T si y solo si [T]
B
([T]
B
)

=
([T]
B
)

[T]
B
.
11
Definici´ on 2.4. 1. Un operador T ∈ L(V ) es autoadjunto si T

= T. Observar que T es autoadjunto si
y solo si
¸T(u), v) = ¸u, T(v)), ∀u, v ∈ V.
2. Una matriz A ∈ M
n
(R) es sim´etrica si A
t
= A.
3. Una matriz A ∈ M
n
(C) es hermitiana si A
t
= A ⇔ A
t
= A.
Proposici´ on 2.9. Si T ∈ L(V ), B base ortonormal de V y A = [T]
B
. Entonces T es autoadjunto si y solo
si A es sim´etrica en el caso k = R o hermitiana en el caso k = C.
Dem. Como B es una base ortonormal y A = [T]
B
, entonces A

= [T

]
B
. Luego T = T

si y solo si
A = A

.
Observaci´ on 2.2. Si T ∈ L(V ) es autoadjunto, entonces T es normal:
T ◦ T

= T ◦ T = T

◦ T.
El rec´ıproco es falso como lo muestra el siguiente ejemplo:
Ejemplo 2.2. Sea 0 < θ < π y A =
_
cos θ −sen θ
sen θ cos θ
_
. Es AA

= A

A = I, luego A es normal. Por otro
lado es A

= A
t
=
_
cos θ sen θ
−sen θ cos θ
_
,= A y A no es sim´etrica.
Si consideramos en R
2
el producto interno usual, T = R
θ
: R
2
→ R
2
la rotaci´ on de ´angulo θ y B la base
can´onica de R
2
, es [T]
B
= A, luego T es un ejemplo de un operador que es normal y no es autoadjunto.
Teorema 2.10. Sea T ∈ L(V ). Si T es diagonalizable en una base ortonormal de V , entonces T es normal
si k = C o autoadjunto si k = R.
Dem. Sea B una base ortonormal de V tal que [T]
B
=
_
_
_
λ
1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . . λ
n
_
_
_, es
[T

]
B
= ([T]
B
)

=
_
_
_
λ
1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . . λ
n
_
_
_.
Si k = R es λ
i
= λ
i
, ∀i = 1, . . . , n, luego [T

]
B
= [T]
B
y esto equivale a T

= T.
En general es
[T

]
B
[T]
B
=
_
_
_

1
[
2
. . . 0
.
.
.
.
.
.
.
.
.
0 . . . [λ
n
[
2
_
_
_ = [T]
B
[T

]
B
,
luego [T

◦ T]
B
= [T ◦ T

]
B
y es T

◦ T = T ◦ T

.
12
Proposici´ on 2.11. Sea T ∈ L(V ). Si λ es un valor propio de T, entonces λ es un valor propio de T

Dem. Sea B una base ortonormal de V y A = [T]
B
. Sabemos que [T

]
B
= A

, luego si λ ∈ k es
χ
T

_
λ
_
=
χ
A
∗(λ) = det(A

−λI) = det[(A−λI)

] = det(A−λI) =
χ
A
(λ) =
χ
T
(λ).
Entonces si λ es valor propio de T es
χ
T
∗(λ) =
χ
T
(λ) = 0 = 0.
Proposici´ on 2.12. Sea T ∈ L(V ) un operador normal. Entonces
1. [[T(v)[[ = [[T

(v)[[, ∀v ∈ V .
2. T −λid es normal, ∀λ ∈ k.
3. Si v es vector propio de T correspondiente al valor propio λ, entonces v es vector propio de T

correspondiente al valor propio λ.
4. Si λ
1
,= λ
2
son valores propios de T con vectores propios correspondientes v
1
y v
2
, entonces v
1
⊥ v
2
.
Dem.
1.
[[T(v)[[
2
= ¸T(v), T(v)) = ¸v, T

(T(v))) = ¸v, T(T

(v))) = ¸T

(v), T

(v)) = [[T

(v)[[
2
.
2.
(T −λid ) ◦ (T −λid )

= (T −λid ) ◦ (T

−λid ) = T ◦ T

−λT

−λT +[λ[
2
id
= (T −λid )

◦ (T −λid ).
Ya que T ◦ T

= T

◦ T.
3. Es 0 = [[T(v) − λv[[ = [[(T − λid )(v)[[ = [[(T − λid )

(v)[[, por 1) y 2). Luego
_
_
T

(v) −λv
_
_
=
[[(T −λid )

(v)[[ = 0 y es T

(v) = λv.
4. λ
1
¸v
1
, v
2
) = ¸λ
1
v
1
, v
2
) = ¸T(v
1
), v
2
) = ¸v
1
, T

(v
2
)) = ¸v
1
, λ
2
v
2
) = λ
2
¸v
1
, v
2
) y como λ
1
,= λ
2
resulta
¸v
1
, v
2
) = 0.
Lema 2.13. Sea T ∈ L(V ) y W ⊂ V un subespacio que es T-invariante y T

-invariante. Si consideramos
la restricci´ on T[
W
∈ L(W), es (T[
W
)

= T

[
W
. Si adem´ as T es normal, entonces tambi´en lo es T[
W
.
Dem. Sean w
1
, w
2
∈ W,
¸T[
W
(w
1
), w
2
) = ¸T(w
1
), w
2
) = ¸w
1
, T

(w
2
)) = ¸w
1
, T

[
W
(w
2
)), ∀w
1
, w
2
∈ W,
luego (T[
W
)

= T

[
W
.
Si T es normal, es
T[
W
◦ (T[
W
)

= T[
W
◦ T

[
W
= (T ◦ T

)[
W
= (T

◦ T)[
W
= T

[
W
◦ T[
W
= (T[
W
)

◦ T[
W
.
13
Teorema 2.14. Si k = C y T ∈ L(V ) es normal, entonces T es diagonalizable en una base ortonormal
Dem. La prueba es por inducci´on en n = dimV .
Para n = 1: Si 0 ,= v ∈ V entonces
_
v
||v||
_
es una base ortonormal de V formada por vectores propios de
T (en este caso todo vector es vector propio, pues si dimV = 1 toda transformaci´on lineal de V en V es de
la forma T(v) = λv para alg´ un λ ∈ k).
Sea ahora n > 1 y supongamos razonando inductivamente que si tenemos un operador normal en un
espacio de dimensi´on n − 1, entonces existe una base ortonormal del espacio formada por vectores propios
del operador.
Como k = C existe λ valor propio de T. Sea v un vector propio de T correspondiente a λ y consideremos
W := [v]

= ¦w ∈ V [ ¸w, v) = 0¦. Sabemos que W es un subespacio de V y que dimW = n − 1. Sea
w ∈ W,
¸T(w), v) = ¸w, T

(v)) =
¸
w, λv
_
= λ¸w, v) = λ0 = 0 ⇒ T(w) ∈ W,
¸T

(w), v) = ¸w, T(v)) = ¸w, λv) = λ¸w, v) = λ0 = 0 ⇒ T

(w) ∈ W.
Luego W es T y T

-invariante, como T es normal, el lema anterior implica que T[
W
∈ L(W) es normal.
Tenemos que T[
W
∈ L(W) normal y que dimW = n − 1 entonces por la hip´ otesis inductiva existe
¦v
1
, . . . , v
n−1
¦ base ortonormal de W formada por vectores propios de T[
W
(y por lo tanto vectores propios
de T). Sea v
n
=
v
||v||
, como v
1
, . . . , v
n−1
∈ W = [v]

y v
n
∈ [v] es v
i
⊥ v
n
, ∀i = 1, . . . , n − 1. Luego
B = ¦v
1
, . . . , v
n−1
, v
n
¦ es una base ortonormal de V formada por vectores propios de T.
Corolario 2.15. Si A ∈ M
n
(C) es normal, entonces es diagonalizable.
Dem. Si A es normal, entonces L
A
∈ L(C
n
) es normal, luego L
A
es diagonalizable y por lo tanto A es
diagonalizable.
Proposici´ on 2.16. Sea T ∈ L(V ) autoadjunto y λ ∈ k un valor propio de T, entonces λ ∈ R.
Dem. Sea v ∈ V un vector propio correspondiente a λ. Es
λv = T(v) = T

(v) = λv
ya que como T es autoadjunto, es normal. Entonces λv = λv y v ,= 0, de donde λ = λ y luego λ ∈ R.
Corolario 2.17. Si A ∈ M
n
(C) es hermitiana y λ es un valor propio de A, entonces λ ∈ R.
Dem. Como A hermitiana, entonces L
A
∈ L(C
n
) es autoadjunta. Si λ es valor propio de A, entonces es
valor propio de L
A
y luego λ ∈ R por la proposici´on anterior.
Definici´ on 2.5. Sea A ∈ M
m×n
(k), siendo k un cuerpo cualquiera. Los menores de orden h de A (1 ≤ h ≤
m´ın¦m, n¦) son los determinantes de las submatrices de A de tama˜ no h h obtenidas suprimiendo m− h
filas y n −h columnas de A.
14
Ejemplo 2.3. Si A =
_
_
1 2 5 0
3 6 7 0
4 8 12 0
_
_
∈ M
3×4
(k) podemos obtener menores de orden 3, 2 y 1 de A. Los
menores de orden 1 son simplemente las entradas de A. Los menores de orden 3 se obtienen suprimiendo la
primera, segunda, tercera y cuarta columnas de A:
¸
¸
¸
¸
¸
¸
2 5 0
6 7 0
8 12 0
¸
¸
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
¸
¸
1 5 0
3 7 0
4 12 0
¸
¸
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
¸
¸
1 2 0
3 6 0
4 8 0
¸
¸
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
¸
¸
1 2 5
3 6 7
4 8 12
¸
¸
¸
¸
¸
¸
= 0.
Los menores de orden 2 se obtienen suprimiendo una fila y dos columnas de A; por ejemplo los menores de
orden 2 que se obtienen eliminando la ´ ultima columna son:
¸
¸
¸
¸
1 2
3 6
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
1 5
3 7
¸
¸
¸
¸
= −8,
¸
¸
¸
¸
2 5
6 7
¸
¸
¸
¸
= −16,
¸
¸
¸
¸
5 0
7 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
2 0
6 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
1 0
3 0
¸
¸
¸
¸
= 0.
Los menores de orden 2 que se obtienen eliminando la columna del medio son:
¸
¸
¸
¸
1 2
4 8
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
1 5
4 12
¸
¸
¸
¸
= −8,
¸
¸
¸
¸
2 5
8 12
¸
¸
¸
¸
= −16,
¸
¸
¸
¸
5 0
12 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
2 0
8 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
1 0
4 0
¸
¸
¸
¸
= 0.
Los menores de orden 2 que se obtienen eliminando la primer columna son:
¸
¸
¸
¸
3 6
4 8
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
3 7
4 12
¸
¸
¸
¸
= 8,
¸
¸
¸
¸
6 7
8 12
¸
¸
¸
¸
= 16,
¸
¸
¸
¸
7 0
12 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
6 0
8 0
¸
¸
¸
¸
= 0,
¸
¸
¸
¸
3 0
4 0
¸
¸
¸
¸
= 0.
Vale el siguiente resultado:
Teorema 2.18. Si A ∈ M
m×n
(k), entonces rango(A) = m´ ax¦orden de M : M menor no nulo de A¦.
Ejemplo 2.4. En el ejemplo anterior tenemos que todos los menores de orden 3 de A son nulos y existe
alg´ un menor de orden 2 de A no nulo, luego el rango de A es 2.
Observaci´ on 2.3. Sea A ∈ M
n
(R), como R ⊂ C, es M
n
(R) ⊂ M
n
(C) y A ∈ M
n
(C). El Teorema 2.18 nos
prueba que el rango de A es el mismo si consideramos A ∈ M
n
(R) o A ∈ M
n
(C).
Teorema 2.19. Si A ∈ M
n
(R) es sim´etrica, entonces es diagonalizable.
Dem. Como M
n
(R) ⊂ M
n
(C), es A ∈ M
n
(C). Como A es sim´etrica en M
n
(R), entonces A es hermitiana
en M
n
(C) y luego A es normal en M
n
(C). Aplicando el Corolario 2.15 deducimos que A es diagonalizable
en M
n
(C). Entonces
χ
A
(t) escinde en C
χ
A
(t) = (−1)
n
(t −λ
1
)
n
1
(t −λ
k
)
n
k
(6)
donde λ
1
, . . . , λ
k
son los valores propios distintos de A y MG(λ
i
) = MA(λ
i
), ∀i = 1, . . . , k, es decir
n −rango(A−λ
i
I) = n
i
, ∀i = 1, . . . , k. (7)
Como A ∈ M
n
(C) es hermitiana, el Corolario 2.17 implica que λ
i
∈ R, ∀i = 1, . . . , k. Entonces la igualdad
(6) nos dice que
χ
A
(t) escinde en R y la igualdad (7) nos prueba que MG(λ
i
) = MA(λ
i
), ∀i = 1, . . . , k,
luego A es diagonalizable en R.
15
Teorema 2.20. Si k = R y T ∈ L(V ) es autoadjunto, entonces T es diagonalizable en una base ortonormal
de V .
Dem. Sea ( una base ortonormal de V , la matriz A = [T]
C
∈ M
n
(R) es sim´etrica, luego A es diagona-
lizable (por el teorema anterior). Entonces T ∈ L(V ) es diagonalizable y V =

k
i=1
E
λ
i
, donde E
λ
i
es el
subespacio propio correspondiente a λ
i
, i = 1, . . . , k, siendo λ
1
, . . . , λ
k
los valores propios distintos de T.
Como T es autoadjunto, es normal, entonces la Proposici´on 2.12 implica que E
λ
i
⊥ E
λ
j
si i ,= j.
Sea B
i
base ortonormal de E
λ
i
, i = 1, . . . , k, entonces B := B
1
∪ ∪ B
k
es una base ortonormal de V
formada por vectores propios de T.
Resumiendo lo anterior hemos probado el siguiente teorema:
Teorema 2.21. Sea V un k-espacio vectorial de dimensi´ on finita con producto interno y T ∈ L(V ). Entonces
T es diagonalizable en una base ortonormal si y solo si T es normal en el caso k = C o T es autoadjunto
en el caso k = R.
Recordar que si W es un subespacio de V , tenemos definida P
W
la proyecci´ on ortogonal sobre W.
Definici´ on 2.6. Sea P ∈ L(V ), decimos P es una proyecci´ on ortogonal si P
2
= P = P

i.e. si P es una
proyecci´ on que es autoadjunta.
Proposici´ on 2.22. 1. Si W ⊂ V es un subespacio, entonces P
W
es una proyecci´ on ortogonal.
2. Si P ∈ L(V ) es una proyecci´ on ortogonal, entonces existe un ´ unico subespacio W ⊂ V tal que P = P
W
.
Dem. (1): Ya sabemos que como V = W ⊕W

, si definimos P
W
: V → V por P
W
(v) = w si v = w+w

,
w ∈ W, w

∈ W

, entonces P
2
W
= P
W
. Lo que resta probar es que P
W
es autoadjunta.
Sean v
1
, v
2
∈ V arbitrarios. Escribimos v
1
= w
1
+w

1
y v
2
= w
2
+w

2
, donde w
i
∈ W, w

i
∈ W

, i = 1, 2.
¸P
W
(v
1
), v
2
) = ¸w
1
, w
2
+w

2
) = ¸w
1
, w
2
) +¸w
1
, w

2
) = ¸w
1
, w
2
)
¸v
1
, P
W
(v
2
)) = ¸w
1
+w

1
, w
2
) = ¸w
1
, w
2
) +¸w

1
, w
2
) = ¸w
1
, w
2
)
Entonces ¸P
W
(v
1
), v
2
) = ¸v
1
, P
W
(v
2
)), ∀v
1
, v
2
∈ V y es P

W
= P
W
.
(2): El operador P ∈ L(V ) verifica P
2
= P = P

. La relaci´ on P
2
= P implica V = Im P ⊕ Ker P y P
es la proyecci´ on sobre Im(P) en la direcci´on de Ker P. Sean u ∈ Im P (luego P(u) = u) y v ∈ Ker P, es
¸u, v) = ¸P(u), v) = ¸u, P(v)) = ¸u, 0) = 0 ⇒ Ker P ⊂ (Im P)

.
De V = Im P ⊕ Ker P y V = Im P ⊕ (Im P)

se deduce que dimKer P = dim(ImP)

, luego la relaci´ on
Ker P ⊂ (Im P)

implica Ker P = (Im P)

. Luego P = P
W
, siendo W = Im P.
3. El Teorema Espectral
En esta secci´ on V ser´a siempre un espacio vectorial con producto interno de dimensi´on finita.
Teorema 3.1 (Teorema Espectral). Supongamos que T ∈ L(V) es un operador que es normal si k = C o
autoadjunto si k = R, entonces existen ´ unicos λ
1
, . . . , λ
k
∈ k distintos y P
1
, . . . , P
k
∈ L(V ) no nulos, tales
que:
1. P
2
i
= P
i
= P

i
, ∀i = 1, . . . , k (los P
i
son proyecciones ortogonales).
16
2. P
i
◦ P
j
= 0 si i ,= j.
3. id =

k
i=1
P
i
.
4. T =

k
i=1
λ
i
P
i
.
Dem. Como T es normal si k = C o autoadjunto si k = R, entonces T es diagonalizable en una base
ortonormal.
Al ser T diagonalizable, si λ
1
, . . . , λ
k
son sus valores propios distintos, tenemos que V =

k
i=1
E
λ
i
, siendo
E
λ
i
el subespacio propio asociado a λ
i
. Luego si definimos P
i
(v) = v
i
siendo v = v
i
+ + v
k
, v
i
∈ E
λ
i
, se
verifican las propiedades 1,2,3,4, salvo eventualmente la condici´ on P
i
= P

i
, ∀i = 1, . . . , k.
Afirmaci´ on: En este caso vale E

λ
i
=

j=i
E
λ
j
, ∀i = 1, . . . , k. En efecto, como T es normal (k = C o R),
es
E
λ
i
⊥ E
λ
j
, ∀j ,= i ⇒ E
λ
j
⊂ E

λ
i
, ∀j ,= i ⇒

j=i
E
λ
j
⊂ E

λ
i
dim(

j=i
E
λ
j
) = dimV −dimE
λ
i
= dimE

λ
i
_
⇒ E

λ
i
=

j=i
E
λ
j
.
Pero entonces V = E
λ
i

j=i
E
λ
j
= E
λ
i
⊕ E

λ
i
, y P
i
es la proyecci´ on asociada a esta descomposici´on, es
decir P
i
= P
E
λ
i
. Luego P
i
es una proyecci´ on ortogonal.
La unicidad de la descomposici´on se deduce inmediatamente de la unicidad en el caso cl´asico (el caso de
V sin producto interno y T un operador diagonalizable en V ).
Teorema 3.2. Sean P
1
, . . . , P
k
∈ L(V) que verifican:
1. P
2
i
= P
i
= P

i
, ∀i = 1, . . . , k.
2. P
i
◦ P
j
= 0 si i ,= j.
3. id =

k
i=1
P
i
.
Dados λ
1
, . . . , λ
k
∈ k arbitrarios, definimos T ∈ L(V) mediante T =

k
i=1
λ
i
P
i
. Entonces T es normal si
k = C o autoadjunto si k = R.
Dem. Como T =

k
i=1
λ
i
P
i
, es T

=

k
i=1
λ
i
P

i
=

k
i=1
λ
i
P
i
.
Si k = R es λ
i
= λ
i
, ∀i = 1, . . . , k, luego T

= T.
Si k = C es
T ◦ T

=
_
k

i=1
λ
i
P
i
_

_
_
k

j=1
λ
j
P
j
_
_
=
k

i,j=1
λ
i
λ
j
P
i
◦ P
j
=
k

i=1

i
[
2
P
2
i
=
k

i,j=1
λ
i
λ
j
P
i
◦ P
j
=
_
k

i=1
λ
i
P
i
_

_
_
k

j=1
λ
j
P
j
_
_
= T

◦ T.
Observaci´ on 3.1. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R. Sean λ
1
, . . . , λ
k
los valores propios
distintos de T y P
1
, . . . , P
k
las proyecciones ortogonales sobre los subespacios propios correspondientes.
Recordemos que la descomposici´on
T = λ
1
P
1
+ +λ
k
P
k
se llama la descomposici´on espectral de T y ¦λ
1
, . . . , λ
k
¦ es el espectro de T.
17
Observaci´ on 3.2. Recordar que si c
1
, . . . , c
k
son elementos distintos de k y b
1
, . . . , b
k
son elementos de k,
entonces, existe un polinomio p ∈ k[x] tal que p(c
i
) = b
i
, ∀i = 1, . . . , k.
Corolario 3.3. Sea k = C y T ∈ L(V). Entonces T es normal si y solo si T

= p(T) para alg´ un p ∈ C[x].
Dem. Si T

= p(T) con p =

n
i=0
a
i
x
i
, entonces
T

◦ T = p(T) ◦ T =
_
n

i=0
a
i
T
i
_
◦ T =
n

i=0
a
i
T
i+1
= T ◦
n

i=0
a
i
T
i
= T ◦ p(T) = T ◦ T

,
luego T es normal.
Si T es normal y T =

k
i=1
λ
i
P
i
es la descomposici´on espectral de T, entonces T

=

k
i=1
λ
i
P
i
.
Sea p ∈ k[x] tal que p(λ
i
) = λ
i
, ∀i = 1, . . . , k. Entonces
p(T) = p
_
k

i=1
λ
i
P
i
_
(∗)
=
k

i=1
p(λ
i
) P
i
=
k

i=1
λ
i
P
i
= T

,
luego T

= p(T).
(∗) Esta igualdad es un ejercicio del pr´actico 2.
Corolario 3.4. Sea k = C y T ∈ L(V ) un operador normal. Entonces T es autoadjunto si y solo si todos
los valores propios de T son reales.
Dem. (⇒) Ya lo sabemos.
(⇐) Sea T =

k
i=1
λ
i
P
i
la descomposici´on espectral de T, entonces T

=

k
i=1
λ
i
P
i
=

k
i=1
λ
i
P
i
= T.
De la Proposici´on 1.22 se deduce inmediatamente el siguiente.
Proposici´ on 3.5. Sea T ∈ L(V ) normal si k = C o autoadjunto si k = R y consideremos T =

k
i=1
λ
i
P
i
la descomposici´ on espectral de T. Entonces cada P
i
es un polinomio en T.
4. Isometr´ıas
En esta secci´ on V ser´a siempre un espacio vectorial con producto interno de dimensi´on finita.
Definici´ on 4.1. Sean (V, ¸ , )
V
) y (W, ¸ , )
W
) dos espacios con producto interno. Una transformaci´on lineal
T ∈ L(V, W) se dice una isometr´ıa si verifica:
¸T(u), T(v))
W
= ¸u, v)
V
, ∀u, v ∈ V.
Si V = W y T ∈ L(V ) es una isometr´ıa, se dice que T es un operador ortogonal si k = R o que es un
operador unitario si k = C.
18
Lema 4.1. Si T ∈ L(V ) es autoadjunto y verifica ¸T(v), v) = 0, ∀v ∈ V , entonces T = 0.
Dem. Sea B = ¦v
1
, . . . , v
n
¦ una base ortonormal de V formada por vectores propios de T con valores
propios correspondientes λ
1
, . . . , λ
n
. Entonces es
0 = ¸T(v
i
), v
i
) = ¸λ
i
v
i
, v
i
) = λ
i
|v
i
|
2
= λ
i
, ∀i = 1, . . . , n ⇒ [T]
B
= 0 ⇒ T = 0.
Observaci´ on 4.1. Para todo T ∈ L(V ), los operadores T

◦ T y T ◦ T

son autoadjuntos:
(T

◦ T)

= T

◦ T
∗∗
= T

◦ T, (T ◦ T

)

= T
∗∗
◦ T

= T ◦ T

.
Teorema 4.2. Sea T ∈ L(V ). Las siguientes afirmaciones son equivalentes:
1. T ◦ T

= T

◦ T = id ⇔ T es invertible y T
−1
= T

.
2. ¸T(u), T(v)) = ¸u, v), ∀u, v ∈ V .
3. Para toda base ortonormal B de V , T(B) es una base ortonormal de V .
4. Existe una base ortonormal B de V tal que T(B) es una base ortonormal de V .
5. |T(v)| = |v|, ∀v ∈ V .
Dem. (1 ⇒ 2): ¸T(u), T(v)) = ¸u, T

(T(v))) = ¸u, id (v)) = ¸u, v).
(2 ⇒ 3): Sea B = ¦v
1
, . . . , v
n
¦ una base ortonormal de V , es ¸T(v
i
), T(v
j
)) = ¸v
i
, v
j
) = δ
ij
, luego
T(B) = ¦T(v
1
), . . . , T(v
n
)¦ es una base ortonormal de V .
(3 ⇒ 4): Esto es obvio, dado que V siempre admite una base ortonormal.
(4 ⇒ 5): Consideremos B = ¦w
1
, . . . , w
n
¦ una base ortonormal de V tal que T(B) = ¦T(w
1
), . . . , T(w
n

es tambi´en una base ortonormal de V .
Sea v ∈ V . Como B es una base de V , entonces existen ´ unicos a
1
, . . . , a
n
∈ k tales que v =

n
i=1
a
i
w
i
,
luego T(v) =

n
i=1
a
i
T(w
i
). Como B es una base ortonormal es |v|
2
=

n
i=1
[a
i
[
2
y como T(B) es una base
ortonormal es |T(v)|
2
=

n
i=1
[a
i
[
2
, luego |T(v)| = |v|, ∀v ∈ V .
(5 ⇒ 1): En la observaci´ on anterior vimos que T

◦ T es autoadjunto, luego id −T

◦ T es autoadjunto.
Calculamos:
¸(id −T

◦ T)(v), v) = ¸v, v) −¸T

(T(v)), v) = |v|
2
−¸T(v), T(v)) = |v|
2
−|T(v)|
2
= 0, ∀v ∈ V.
Luego por el lema anterior es T

◦ T = id ; adem´ as T ∈ L(V ) y la dimensi´on de V es finita, entonces T es
invertible y T
−1
= T

.
19
Observaci´ on 4.2. 1. Si T es una isometr´ıa, es T ◦ T

= T

◦ T = id , luego T es normal.
2. Si T es una isometr´ıa y λ ∈ k es un valor propio de T, entonces [λ[ = 1:
Sea 0 ,= v ∈ V : T(v) = λv ⇒ |v| = |T(v)| = [λ[ |v| ⇒ [λ[ = 1.
En particular, si k = R es λ = ±1.
3. Si T es una isometr´ıa, entonces [ det(T)[ = 1:
1 = det(id ) = det (T ◦ T

) = det(T) det(T

) = det(T) det(T) = [ det(T)[
2
⇒ [ det(T)[ = 1.
En particular, si k = R es det T = ±1.
4. Sea T una isometr´ıa. Si k = C, como T es normal, entonces T es diagonalizable en una base ortonormal.
Si k = R esto no es cierto. Por ejemplo, la rotaci´ on de ´angulo θ (θ ,= kπ, k ∈ Z) es una isometr´ıa y no
es diagonalizable.
5. Una isometr´ıa en R
2
o R
3
es un operador que conserva las normas; tambi´en conserva los ´angulos porque
cos(¯ u, v) =
u,v
uv
.
Se puede probar que todo movimiento r´ıgido del plano, es decir toda funci´on F : R
2
→ R
2
que verifica
|F(u) − F(v)| = |u − v|, ∀u, v ∈ R
2
, es de la forma F(v) = T(v) + v
0
donde v
0
es un vector fijo y
T ∈ L
_
R
2
_
es una isometr´ıa. De hecho es v
0
= F(0) y T(v) := F(v) −v
0
, ∀v ∈ V .
A su vez toda isometr´ıa T de R
2
es o bien una rotaci´ on de centro en el origen (det T = 1), o bien una
simetr´ıa axial respecto a un eje que pasa por el origen (det T = −1).
Proposici´ on 4.3. Sea T ∈ L(V).
1. Si k = C, entonces T es una isometr´ıa si y solo si T es normal y [λ[ = 1 para todo valor propio λ de
T.
2. Si k = R, entonces T es una isometr´ıa autoadjunta si y solo si T es autoadjunta y λ = ±1 para todo
valor propio λ de T.
Dem.
1. (⇒): Ya lo sabemos.
(⇐): Sea T =

k
i=1
λ
i
P
i
la descomposici´on espectral de T, entonces
T ◦ T

=
_
k

i=1
λ
i
P
i
_

_
_
k

j=1
λ
j
P
j
_
_
=
k

i,j=1
λ
i
λ
j
P
i
◦ P
j
=
k

i=1

i
[
2
P
i
=
k

i=1
P
i
= id .
An´ alogamente se prueba que T

◦ T = id .
2. (⇒): Ya lo sabemos.
(⇐): Vale la misma prueba del caso 1.
20
Definici´ on 4.2. Sea k un cuerpo cualquiera, una matriz A ∈ M
n
(k) se dice ortogonal si
A
t
= A
−1
⇔ A
t
A = AA
t
= I.
Una matriz A ∈ M
n
(C) se dice unitaria si
A

= A
−1
⇔ A

A = AA

= I.
Observar que si k = R, A ∈ M
n
(R) es ortogonal si y solo si A

A = AA

= I.
Proposici´ on 4.4. Sea T ∈ L(V), B una base ortonormal de V y A = [T]
B
. Entonces T es una isometr´ıa
si y solo si A es ortogonal en el caso k = R o A es unitaria en el caso k = C.
Dem.
T ◦ T

= T

◦ T = id ⇔ [T ◦ T

]
B
= [T

◦ T]
B
= [id ]
B
⇔ [T]
B
[T

]
B
= [T

]
B
[T]
B
= I
⇔ [T]
B
([T]
B
)

= ([T]
B
)

[T]
B
= I ⇔ AA

= A

A = I.
Proposici´ on 4.5. Sea A ∈ M
n
(R). Las siguientes afirmaciones son equivalentes:
1. La matriz A es unitaria en el caso de k = C u ortogonal en el caso de k = R.
2. Las filas de A forman una base ortonormal de k
n
.
3. Las columnas de A forman una base ortonormal de k
n
.
Dem.
Sea A = [a
ij
] =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_ = [A
1
[ . . . [A
n
], siendo A
i
=
_
_
_
a
1i
.
.
.
a
ni
_
_
_. Sea A

= (b
ij
), siendo b
ij
= a
ji
.
Si A

A = (c
ij
), entonces
c
ij
=
n

k=1
b
ik
a
kj
=
n

k=1
a
ki
a
kj
= ¸A
j
, A
i
)
Luego
A

A = I ⇔ c
ij
= δ
ij
⇔ ¸A
j
, A
i
) = δ
ij
⇔ ¸A
i
, A
j
) = δ
ij
.
Entonces A

A = I si y solo si ¦A
1
, . . . , A
n
¦ es una base ortonormal de k
n
.
An´ alogamente se prueba que AA

= I si y solo si las filas de A forman una base ortonormal de k
n
.
Es un ejercicio del pr´actico 5 el probar el siguiente resultado:
Proposici´ on 4.6. Sean B y ( bases de k
n
y A =
B
[id ]
C
. Entonces:
1. Si B y ( son bases ortonormales, entonces A es unitaria si k = C, u ortogonal si k = R.
2. Si B o ( es una base ortonormal y A es unitaria si k = C u ortogonal si k = R, entonces la otra base
es tambi´en ortonormal.
21
Definici´ on 4.3. 1. Dos matrices A y B en M
n
(C) son unitariamente equivalentes si existe una matriz
Q en M
n
(C) unitaria tal que A = Q

BQ(= Q
−1
BQ).
2. Dos matrices A y B en M
n
(R) son ortogonalmente equivalentes si existe Q en M
n
(R) ortogonal tal
que A = Q
t
BQ(= Q
−1
BQ).
Ejercicio 4.1. Probar que la relaci´ on “ser unitariamente equivalentes” es de equivalencia en M
n
(C) y que
la relaci´ on “ser ortogonalmente equivalentes” es de equivalencia en M
n
(R).
Teorema 4.7. 1. Sea A ∈ M
n
(C). La matriz A es normal si y solo si A es unitariamente equivalente a
una matriz diagonal.
2. Sa A ∈ M
n
(R). La matriz A es sim´etrica si y solo si A es ortogonalmente equivalente a una matriz
diagonal.
Dem.
1. (⇒): Consideremos L
A
: C
n
→ C
n
. Como A es normal, entonces L
A
es normal, luego existe una base
ortonormal B de C
n
tal que [L
A
]
B
= D, siendo D una matriz diagonal.
Sea ( la base can´onica de C
n
y Q =
B
[id ]
C
. Es
A = [L
A
]
C
=
C
[id ]
B
[L
A
]
B B
[id ]
C
= Q
−1
DQ.
Como C y B son bases ortonormales de C
n
y Q =
B
[id ]
C
, entonces Q es unitaria y A = Q

BQ.
(⇐): Sean Q y D en M
n
(C), con Q unitaria y D diagonal tales que A = Q

DQ. Es A

= (Q

DQ)

=
Q

D

Q
∗∗
= Q

DQ. Entonces
AA

= (Q

DQ)(Q

DQ) = Q

DQQ

DQ = Q

DDQ
A

A = (Q

DQ)(Q

DQ) = Q

DQQ

DQ = Q

DDQ
Como DD = DD, es AA

= A

A.
2. (⇒): Es la misma idea que en 1. Como A es sim´etrica, L
A
∈ L(R
n
) es autoadjunta y luego diagonali-
zable en una base ortonormal. El resto sigue igual.
(⇐): Sea A = Q
t
DQ, con Q ortogonal y D diagonal. Es
A
t
= (Q
t
DQ)
t
= Q
t
D
t
Q
tt
= Q
t
DQ = A,
luego A
t
= A y A es sim´etrica.
Ejemplo 4.1. Sea A =
_
_
4 2 2
2 4 2
2 2 4
_
_
∈ M
3
(R) matriz sim´etrica. Es un ejercicio el verificar que
χ
A
(t) =
−(t −2)
2
(t −8) y que los subespacios propios son
E
2
= [(−1, 1, 0), (−1, 0, 1)], E
8
= [(1, 1, 1)].
22
Aplicando Gram-Schmidt a la base de E
2
obtenemos
E
2
= [(−1/2, 1, −1/2), (−1, 0, 1)] = [(−1, 2, −1), (−1, 0, 1)] .
Luego ¦(−1, 2, −1), (−1, 0, 1), (1, 1, 1)¦ es una base ortogonal de R
3
, normalizando obtenemos
__

1

6
,
2

6
, −
1

6
_
,
_

1

2
, 0,
1

2
_
,
_
1

3
,
1

3
,
1

3
__
que es una base ortonormal de R
3
.
Entonces si D =
_
_
2 0 0
0 2 0
0 0 8
_
_
y Q =
_
_
_

1

6

1

2
1

3
2

6
0
1

3

1

6
1

2
1

3
_
_
_, es D = Q
t
AQ o A = QDQ
t
(recordar
que Q
t
= Q
−1
). Es decir
_
_
4 2 2
2 4 2
2 2 4
_
_
=
_
_
_

1

6

1

2
1

3
2

6
0
1

3

1

6
1

2
1

3
_
_
_
_
_
2 0 0
0 2 0
0 0 8
_
_
_
_
_

1

6
2

6

1

6

1

2
0
1

2
1

3
1

3
1

3
_
_
_.
23