You are on page 1of 8

75 Matematicas I : Algebra

Lineal

Anexo 1: Demostraciones
Espacios vectoriales
Demostracion de:

Propiedades 89 de la pagina 41

Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:


(i) 0 u = 0 .

(ii) k 0 = 0 .

(iii) (1) u = u .

(iv) k u = 0 k = 0 o u = 0 .
(v) El vector cero de un espacio vectorial es u
nico.
(vi) El vector opuesto de cada vector del espacio vectorial es u
nico.
Demostracion:
(i) Como 0u = (0 + 0) u = 0 u + 0 u , si sumamos a cada lado de la igualdad el opuesto de 0 u , tenemos que
0 u + (0 u ) = 0u + 0 u + (0 u ) luego 0 = 0 u + 0 = 0u .
(ii) Como k 0 = k( 0 + 0) = k 0 + k 0 , si sumamos a cada lado de la igualdad el opuesto de k 0 , tenemos que
k 0 + (k 0) = k 0 + k 0 + (k 0) luego 0 = k 0 + 0 = k 0 .
(v) Si w verifica que w + u = u , entonces w + u + ( u) = u + ( u ) de donde w + 0 = 0 y w = 0 .
En consecuencia, el vector cero es u
nico.
(vi) Si w verifica que w + u = 0 , entonces w + u +(u ) = 0 +(u ) de donde w + 0 = u y w = u .
En consecuencia, el vector opuesto es u
nico.
(iii) Veamos que (1) u es el opuesto u : u + (1) u = 1 u + (1) u = (1 + (1))u = 0 u = 0 .
(iv) Si k u = 0 y k 6= 0, entonces

1
kku

1
k

0 = 0 . Luego 0 = k1 k u = ( k1 k) u = 1 u = u .

La implicacion en el otro sentido es evidente por (i) y (ii).


Demostracion de:

Lema 96 de la pagina 43

Lema 96.- Si S es un conjunto linealmente independiente de vectores de V y v V lin S , entonces S { v }


es linealmente independiente.
Demostracion:
Sea S = {u1 , u2 , . . . , ur } es un conjunto linealmente independiente de vectores V y sea v V que no
pertenece a lin S . Entonces, en la igualdad vectorial
1 u1 + 2 u2 + + r ur + v = 0

h 7.1i
1

u1 u2 ur y v
el coeficiente debe ser cero, pues si no lo es, podemos despejar
v =
estara generado por los vectores de S , lo que no es cierto. Ahora bien, como = 0, la ecuacion 7.1 se reduce
a 1 u1 + 2 u2 + + r ur = 0 y en consecuencia, todos los i son cero por ser los vectores ui linealmente
independientes.
Demostracion de:

Prof: Jos
e Antonio Abia Vian

Lema 97 de la pagina 43

I.T.I. en Electricidad


76 Matematicas I : Algebra
Lineal

Anexo 1

Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto {v1 , v2 , . . . , vm } de vectores de V , con m > n , es linealmente dependiente.
Demostracion:
Sea B = {w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto {v1 , v2 , . . . , vm } puede expresarse
como combinacion lineal de los vectores de B , en la forma
vk = ak1 w1 + ak2 w2 + + akn wn , para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuacion 1 v1 + 2 v2 + + m vm = 0 tiene m
ultiples
soluciones. Sustituyendo:
0 = 1 (a11 w1 + a12 w2 + + a1n wn ) + 2 (a21 w1 + a22 w2 + + a2n wn )
+ + m (am1 w1 + am2 w2 + + amn wn )
= (1 a11 + 2 a21 + + m am1 )w1 + (1 a12 + 2 a22 + + m am2 )w2
+ + (1 a1n + 2 a2n + + m amn )wn
Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal

1 a11 + 2 a21 + + m am1 = 0

1 a12 + 2 a22 + + m am2 = 0

= 0

1 a1n + 2 a2n + + m amn = 0


que tiene m incognitas (los k ) y n ecuaciones, con m > n , por lo que no tiene solucion u
nica.
Demostracion de:

Proposicion 101 de la pagina 43

Proposici
on 101.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V es
base de V ,
b) si genera a V .
a) si el conjunto es linealmente independiente, o
Demostracion:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podran a
nadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existira al menos un vector vn+1 V lin S ,
tal que S { vn+1 } es linealmente independiente, ver comentarios previos al Lema 97 anterior) que tendra al
menos n + 1 vectores, lo que es absurdo.
Analogamente si S genera V , tiene que ser linealmente independiente, pues si no: podran eliminarse
vectores dependientes de S hasta conseguir una base que tendra menos de n vectores (Lema 94), lo que
tambien es absurdo.
Demostracion de:

Desigualdad de Cauchy-Schwarz 111 de la pagina 47

Desigualdad de Cauchy-Schwarz 111.- Para todo u , v V, espacio con producto interior, se tiene
2

h u , v i2 k u k kv k

o en la forma

|hu , v i| ku k k v k .

Demostracion:
2
2
Si v = 0 , es claro que 0 = h u , 0i2 k u k k 0k = 0, u V .
Si v 6= 0 , para todo k IR , se verifica que
2

0 ku k v k = hu k v , u k v i = h u , u i 2kh u , v i + k 2 h v , v i
en particular, para k =

hu, vi
hv, vi

. Luego

0 hu, ui 2

Prof: Jos
e Antonio Abia Vian

hu, vi2
hu, vi2
hu, vi2
hu, vi
hu, vi +
hv,
vi
=
hu,
ui

2
+
hv, vi
hv, vi2
hv, vi
hv, vi
hu, vi2
hu, vi2
2
= hu, ui
= kuk
2
hv, vi
kvk
I.T.I. en Electricidad


77 Matematicas I : Algebra
Lineal

de donde

hu, vi2
kvk2

Demostracion de:

kuk

y por consiguiente

Anexo 1

hu, vi2 ku k kvk .

Teorema 119 de la pagina 48

Teorema 119.- Si S = { v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostracion:
Veamos que en la igualdad 1 v1 + + i vi + + k vk = 0 , cada i tiene que ser cero:
0 = hvi , 0i = hvi , 1 v1 + + i vi + + k vk i = 1 hvi , v1 i + + i hvi , vi i + + k hvi , vk i
2

= 0 + + i hvi , vi i + + 0 = i kvi k

como vi 6= 0 , su norma no es cero por lo que tiene que ser i = 0 .


Demostracion de:

Lema 124 de la pagina 49

Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v V , el vector v ProyW ( v ) es ortogonal a cada vector de W .
Demostracion:
Por la Proposicion 118, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = {w1 , w2 , . . . , wk } , para cada wi de B , por ser B ortonormal,
h wi , wi i = 1 y h wi , wj i = 0 , si i 6= j , entonces
hvProyW (v), wi i = hv hv, w1 iw1 hv, wi iwi hv, wk iwk , wi i
= hv, wi i hv, w1 ihw1 , wi i hv, wi ihwi , wi i hv, wk ihwk , wi i
= hv, wi i 0 hv, wi i 1 0 = hv, wi i hv, wi i = 0
Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .
Unicidad de la proyecci
on ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v V , la proyeccion ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B1 = {u1 , u2 , . . . , uk } y B2 = {v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces,
para cada v V , los vectores
(1)

ProyW (v) = w1 = hv, u1 iu1 + hv, u2 iu2 + + hv, uk iuk


(2)

ProyW (v) = w2 = hv, v1 iv1 + hv, v2 iv2 + + hv, vk ivk


son el mismo.
Demostracion:
Como w1 es una proyeccion ortogonal de v sobre W , el vector w1 W y el vector v w1 es ortogonal a
W y, por la misma razon, el vector w2 W y el vector v w2 es ortogonal a W .
Entonces, el vector ( v w1 ) (v w2 ) = w2 w1 cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y tambien es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y h w2 w1 , w2 w1 i = 0 , luego es el vector 0 ;
por lo que w1 = w2 y la proyeccion ortogonal no depende de la base.

Aplicaciones lineales
Justificacion del metodo descrito en la Observacion 136, de la pagina 56
Usaremos en la justificacion el mismo ejercicio del ejemplo, pero la prueba es valida en cualquier caso.
t
Haciendo las operaciones
tiene por filas las [f (vi )]B2 , hemos obtenido la
elementales sobre la matriz A , que
[f (v1 )]B2

[f (v6 v1 )]B2

[f
(v
5 v6 + v1 )]B2

matriz que tiene por filas


3
3
1
. Luego si repetimos las mismas operaciones
v

v
)]
[f
(v
+
4

2 1
2 6
2 5 B2

[f (v3 + v6 + 2v5 )]B2


[f (v2 2v6 v5 )]B2
Prof: Jos
e Antonio Abia Vian

I.T.I. en Electricidad


78 Matematicas I : Algebra
Lineal

Anexo 1

sobre la matriz J que tiene por filas

[v1 ]B1
[v2 ]B1
[v3 ]B1
[v4 ]B1
[v5 ]B1
[v6 ]B1

[v1 ]B1

[v

v1 ]B1
6

[v

v
+
v
5
6
1 ]B1
obtendramos K =
[v4 + 1 v1 3 v6 3 v5 ]B1

2
2
2

[v3 + v6 + 2v5 ]B1


[v2 2v6 v5 ]B1

Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K tambien tiene rango 6, por lo
que sus filas son linealmente independientes y en consecuencia los tres u
ltimos vectores (los vectores de ker(f ))
tambien son linealmente independientes.

Diagonalizaci
on
Justificacion de la observacion en Antes de seguir de la pagina 62
Definici
on.- Sea f : V V un operador lineal, diremos que un escalar es un valor propio de f si existe
un vector v V , diferente de cero, tal que f (v) = v .
Al vector v se le denomina vector propio de f correspondiente a .
Teorema.- Sea f : V V un operador lineal, siendo V un espacio vectorial de dimension n . Entonces,
existe una base de V con respecto a la cual la matriz de f es diagonal si y solo si f tiene n vectores propios
linealmente independientes.
Demostracion:
Si la matriz de f en la base B = { v1 , v2 , . . . , v1 } es
propios y son linealmente independientes, pues:

0
[f (v1 )]B [f (v2 )]B [f (vn )]B
=D=
...

D diagonal, los mismos vectores de la base son vectores

0
2
..
.
0 0

1 [v1 ]B
=
.
..
. ..
n

2 [v2 ]B

Recprocamente, si tenemos n vectores propios linealmente independientes, la matriz de f


formada con ellos es diagonal.

0
[f (v1 )]B [f (v2 )]B [f (vn )]B
= 1 [v1 ]B 2 [v2 ]B n [vn ]B
=
...

n [vn ]B

respecto de la base

0
2
..
.
0 0

0
0
.
..
. ..
n

Teorema.- Sean V un espacio vectorial de dimension n, f : V V un operador lineal y A la matriz de f con


respecto a una base B = {v1 , v2 , . . . , vn } . Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v V es un vector propio de f correspondiente al valor propio si y solo si su matriz de
coordenadas [v]B es un vector propio de A correspondiente a .
Demostracion:
a) Sea un valor propio de f , es decir, v V , distinto de 0 , tal que f (v) = v = [f (v)]B = [v]B
= A[v]B = [v]B , luego es un valor propio de A al ser [v]B 6= 0.
Sea un valor propio de A , entonces x IRn , x 6= 0 tal que Ax = x . Si tomamos x = x1 v1 + +
xn vn , siendo x = (x1 , . . . , xn ), lo anterior quiere decir que A[x ]B = [x ]B [f (x )]B = [x ]B
f (x ) = x y es un valor propio de f ya que x 6= 0
b) v es un vector propio de f correspondiente a si y solo si
f (v) = v [f (v)]B = [v]B A[v]B = [v]B
si y solo si [v]B es un vector propio de A correspondiente a .

Prof: Jos
e Antonio Abia Vian

I.T.I. en Electricidad


79 Matematicas I : Algebra
Lineal

Anexo 1

Teorema.- Los vectores propios de f correspondientes al valor propio , son los vectores distintos de cero del
n
ucleo de la aplicacion Id f (denotamos por Id la aplicacion identidad, Id ( v ) = v ).
Llamaremos a dicho n
ucleo, espacio caracterstico de f correspondiente al valor propio .
Demostracion:
v un vector propio correspondiente a f (v) = v f (v) = Id (v) Id (v) f (v) = 0
(Id f )(v) = 0 v ker(Id f ).
Demostracion de:

Teorema 152 de la pagina 62

Teorema 152.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios 1 ,
2 , . . . , k respectivamente, siendo i 6= j , i 6= j . Entonces el conjunto de vectores {v1 , v2 , . . . , vk } es
linealmente independiente.
Demostracion:
Supongamos que v1 , v2 , . . . , vk son linealmente dependientes.
Por definicion, un vector propio es distinto de cero, luego el conjunto { v1 } es linealmente independiente.
Sea r el maximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto
que {v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 r < k . Ademas, por la manera en que
se definio r , { v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 ,
al menos uno diferente de cero, tales que
c1 v1 + c2 v2 + + cr+1 vr+1 = 0 .

h 7.2i

Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones


Av1 = 1 v1 , A v2 = 2 v2 , . . . , A vr+1 = r+1 vr+1
se obtiene
c1 1 v1 + c2 2 v2 + + cr r vr + cr+1 r+1 vr+1 = 0

h 7.3i

Multiplicando los dos lados de (7.2) por r+1 y restandole a (7.3) la ecuacion resultante se obtendra
c1 (1 r+1 ) v1 + c2 (2 r+1 ) v2 + + cr (r r+1 ) vr = 0.
Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamente
c1 (1 r+1 ) = c2 (2 r+1 ) = = cr (r r+1 ) = 0
Como los 1 , 2 , . . . , r+1 son distintos entre si, se deduce que c1 = c2 = = cr = 0 .
Sustituyendo estos valores en (7.2) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0,
lo que contradice el hecho de que al menos uno de los escalares c1 , c2 , . . . , cr+1 deba de ser distinto de cero.
Luego los vectores v1 , v2 , . . . , vk han de ser linealmente independientes, que prueba el teorema.
Demostracion de:

Proposicion 154 de la pagina 63

Proposici
on 154.- Sea A de orden n y k un autovalor de A de multiplicidad mk . Entonces
1 dim V (k ) mk .
Demostracion:
Como ya observamos anteriormente, dim V (i ) 1.
Supongamos que dim V (k ) = d, y consideremos el operador lineal f : IRn IRn definido por f ( v ) = A v .
Sea { v1 , . . . , vd } una base del espacio caracterstico V (k ) , que podemos completar hasta obtener una base
de IRn , B = { v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A0 , del operador en la base B , sera de la forma

A0 =

[f (v1 )]B

[f (vd )]B

[f (vd+1 )]B

[f (vn )]B

Prof: Jos
e Antonio Abia Vian

k [v1 ]B

k [v2 ]B

[f (vd+1 )]B

[f (vn )]B

k
..
.
0
0
..
.
0

0
.
..
. .. A012
k
0
.
.. A022
0

I.T.I. en Electricidad


80 Matematicas I : Algebra
Lineal

Anexo 1

de donde |I A0 | = (k )d |I A022 |. Pero como A y A0 son matrices semejantes, tienen el mismo polinomio
caracterstico, y ( k )d |I A022 | = |I A0 | = |I A| = ( k )mk Q() , de donde se obtiene que d mk ,
pues mk es la multiplicidad de la raz.
Demostracion de:

Teorema fundamental de la diagonalizacion 155 de la pagina 63

Teorema fundamental de la diagonalizaci


on 155.- Sea A una matriz de orden n . Entonces A es diagonalizable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, |I A| = ( 1 )m1 ( k )mk con
m1 + m2 + + mk = n .
2.- Para cada espacio caracterstico V (i ) , se cumple que dim V (i ) = mi .
Demostracion:
= Si A es diagonalizable, la matriz diagonal D y A son semejantes ( D = P 1 AP ) y por tanto poseen
el mismo polinomio caracterstico, luego P () = |I A| = |I D| = ( 1 )m1 ( k )mk , donde los
i IR son los valores de la diagonal de D y mi el n
umero de veces que se repite. Por tanto, P () tiene todas
sus raices reales y, por ser de grado n , m1 + m2 + + mk = n.
Ademas, por ser A y D matrices semejantes, tambien lo son I A y I D , para todo IR , pues
P 1 (I A)P = P 1 IP P 1 AP = I D , de donde rg(IA) = rg(ID) , para todo . Entonces, para
cada autovalor i se tiene que rg(i I A) = rg(i I D) = n mi y, en consecuencia, que dim V (i ) = mi .
= Si |I A| = ( 1 )m1 ( k )mk , con m1 + m2 + + mk = n, y dim V (i ) = mi para cada
i = 1, . . . , k , consideremos en cada V (i ) una base Bi , de la forma
n
o
n
o
n
o
B1 = p , . . . , pm , B2 = p , . . . , pm , . . . , Bk = pk , . . . , pkmk
Tomemos entonces B = B1 B2 Bk , un conjunto de n vectores propios de A, si vemos que son linealmente
independientes, tendremos que A es diagonalizable.
Planteemos una combinacion lineal igualada a cero:
0 = 11 p + + 1m1 pm + 21 p + + 2m2 pm + + k1 pk + + kmk pkmk
= (11 p + + 1m1 pm ) + (21 p + + 2m2 pm ) + + (k1 pk + + kmk pkmk )
= v1 + v2 + + vk
siendo vj = j1 pj + + jmj pjmj V (j ), para cada j = 1, . . . , k .
Los vectores v1 , v2 , . . . , vk son vectores de espacios caractersticos correspondientes, respectivamente, a
los valores propios distintos 1 , 2 , . . . , k y por tanto, si no son cero, son linealmente independientes. Pero
la combinacion lineal v1 + v2 + + vk = 0 nos indicara que son dependientes, luego la u
nica forma de
eliminar esa contradiccion es que vj = 0 , j = 1, 2, . . . , k ; de donde, si 0 = vj = j1 pj + + jmj pjmj ,
han de ser todos j1 = j2 = = jmj = 0 por ser Bj una base. Como es cierto para cada j , se tiene que
ji = 0, i, j , con lo que B es linealmente independiente.
Demostracion de:

Teorema fundamental de la diagonalizacion ortogonal 159 de la pagina 64

Teorema fundamental de la diagonalizaci


on ortogonal 159.- Una matriz A de orden n es diagonalizable ortogonalmente si y solo si A es simetrica.
.
Demostracion:
=
A es diagonalizable ortogonalmente = P ortogonal y D diagonal tal que P t AP = D = P
ortogonal y D diagonal tal que A = P DP t = At = (P DP t )t = P DP t = A = A es simetrica.
= Sea A simetrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea C un valor propio de A, entonces existe x = (x1 , . . . , xn ) 6= 0 ( xj C ) tal que A x = x . Por
ser A real, su polinomio caracterstico es real y el conjugado de , , es tambien autovalor de A ; ademas,
tomando conjugados en la igualdad anterior, se tiene que Ax = A x = x . Entonces, son iguales los valores
xt Ax = xt (Ax) = xt (x) = xt x =

n
X
j=1

xj xj =

n
X

|xj |

j=1

xt Ax = (xt A)x = (xt At )x = (Ax)t x = (x)t x) = xt x =

n
X

|xj |

j=1

Prof: Jos
e Antonio Abia Vian

I.T.I. en Electricidad


81 Matematicas I : Algebra
Lineal

y, al ser x 6= 0 ,

n
P
j=1

Anexo 1

|xj | 6= 0 por lo que = y IR . En consecuencia, si todos los autovalores de A son

reales, el polinomio caracterstico de A tiene las n raices reales.


Veamos ahora que para cada j se verifica que dim V (j ) = mj .
Sean dim V (j ) = d y Bj = {x1 , . . . , xd } una base ortonormal de V (j ) que ampliamos hasta una base
ortonormal de IRn , B = { x1 , . . . , xd , xd+1 , . . . , xn }.
Consideremos el operador lineal f : IRn IRn dado por f ( x ) = A x , luego A es la matriz de f en la base
canonica que es ortonormal y si A0 es la matriz de f en la base B y P la matriz de paso de B a la canonica,
P es ortogonal y A0 = P t AP . Como A es simetrica, A0 tambien lo sera pues (A0 )t = (P t AP )t = P t At (P t )t =
P t AP = A0 .

0
[f
(x
)]

[f
(x
)]
[f
(x
)]

[f
(x
)]
A =
1 B
d B
d+1 B
n B

j 0
.. . . ..

. . A012

.
0 j

= j [x1 ]B j [x2 ]B [f (xd+1 )]B [f (xn )]B =


0 0

.
.. .. A0
0 0

22

donde A012 = 0 , puesto que A0 es simetrica y A022 cuadrada de orden n d. Luego la matriz j I A0 nos
queda

j j
0
0 0

.. . . ..

..
..
..

.
. .
.
.
0
0

0
j
j
0

j I A =
= 0 0

..
..
.
.
.
0
0

.
j I A22
. . j I A22
0

0
0 0
por lo que rg(j I A0 ) = rg(j I A022 ) . Por ser A y A0 semejantes rg(j I A) = rg(j I A0 ) (ver demostracion
del Teorema 155), y se tiene que rg(j I A022 ) = rg(j I A) = ndim V (j ) = nd por lo que |j I A022 | 6= 0.
Entonces, |I A| = |I A0 | = ( j )d |I A022 | , con |j I A022 | 6= 0 , luego d = mj .
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caractersticos,
tendremos n vectores propios de norma 1 y, que por el Lema 158, son ortogonales entre s.

Formas cuadr
aticas
Demostracion de:

Teorema de Sylvester o Ley de inercia 169 de la pagina 71

Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el n
umero de terminos que aparecen con coeficientes positivos, as como el n
umero de
terminos con coeficientes negativos es el mismo en ambos casos.
Demostracion:
Supongamos que respecto a una base B1 = { b1 , b2 , . . . , bn } la matriz de la forma cuadratica Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresion de
la forma cuadratica sera
Q( x ) = a1 x21 + + ap x2p ap+1 x2p+1 ap+s x2p+s
con ai > 0 para todo i , y (x1 , . . . , xp , xp+1 , . . . , xp+s , xp+s+1 , . . . , xn ) = [ x ]tB1 ; y que respecto a otra base
B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadratica es tambien diagonal con q elementos positivos y r
negativos, por lo que Q se expresara en la forma
2
2
Q( x ) = c1 y12 + + cq yq2 cq+1 yq+1
cq+r yq+r

con ci > 0 para todo i , e (y1 , . . . , yq , yq+1 , . . . , yq+r , yq+r+1 , . . . , yn ) = [ x ]tB2 .


Prof: Jos
e Antonio Abia Vian

I.T.I. en Electricidad


82 Matematicas I : Algebra
Lineal

Anexo 1

Por el teorema 167 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p + s = q + r . Veamos que p = q , con lo que tendremos tambien que s = r .
Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores { b1 , . . . , bp } y {dq+1 , . . . , dn }. Si p > q , el conjunto { b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(nq) =
n + (p q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad
1 b1 + + p bp + q+1 dq+1 + + n dn = 0
alguno de los coeficientes no es cero. Entonces, el vector
1 b1 + + p bp = q+1 dq+1 n dn = x
no es el cero (si es cero, todos los i son cero por ser los bi de B1 , y todos los j = 0 por ser los dj B2 ),
con alg
un i y alg
un j distintos de cero. Tenemos as que
[x ]tB1 = (1 , . . . , p , 0, . . . , 0)

[ x ]tB2 = (0, . . . , 0, q+1 , . . . , n )

pero calculando Q( x ) respecto a las dos bases obtenemos


Q(x) = a1 21 + + ap 2p ap+1 0 ap+s 0 = a1 21 + + ap 2p > 0
Q(x) = c1 0 + + cq 0 cq+1 (q+1 )2 cq+r (q+r )2 + 0(q+r+1 )2 + + 0(n )2
= cq+1 (q+1 )2 cq+r (q+r )2 0
lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismo
n
umero de elementos positivos y negativos.
Demostracion de:

Teorema de clasificacion 172 de la pagina 71

Teorema de clasificaci
on 172.- Sea Q una forma cuadratica en un espacio de dimension n. Se verifica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es definida positiva Sig(Q) = (n, 0).
c) Q es semidefinida positiva Sig(Q) = (p, 0) con 0 < p < n .
d) Q es definida negativa Sig(Q) = (0, n).
e) Q es semidefinida negativa Sig(Q) = (0, q) con 0 < q < n .
f) Q es indefinida Sig(Q) = (p, q) con 0 < p, q .
Demostracion:
Sea B = { v1 , . . . , vn } una base en la cual, la expresion de Q es Q( x ) = d1 x21 + d2 x22 + + dn x2n
donde (x1 , . . . , xn ) = [ x ]tB . Luego, Q( vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene por
coordenadas [ v1 ]tB = (1, 0, 0, . . . , 0) , [ v2 ]tB = (0, 1, 0, . . . , 0), . . . , [ vn ]tB = (0, 0, 0, . . . , 1). Entonces:
a) Si Q( x ) = 0 , para todo x , se tiene que di = Q( vi ) = 0, para todo i , luego Sig(Q) = (0, 0) .
Reciprocamente, si di = 0 para todo i , entonces Q( x ) = 0 para todo x .
b) Si Q( x ) > 0 para todo x 6= 0 , se tiene que di = Q( vi ) > 0, para todo i, luego Sig(Q) = (n, 0) .
Recprocamente, si di > 0 para todo i , entonces Q( x ) > 0 para todo x 6= 0 .
c) Si Q( x ) 0 para todo x 6= 0 , es di = Q(vi ) 0 para todo i. Como no es nula existe alg
un dj > 0 y
como no es definida positiva existe alg
un dk = 0 , luego Sig(Q) = (p, 0) con 0 < p < n .
Recprocamente, si di 0 para todo i , con alg
un dj > 0 y alg
un dk = 0 , se tiene que Q( x ) 0 para
todo x , que Q( vj ) = dj > 0, por lo que no es nula, y que Q( vk ) = dk = 0 , por lo que no es definida
positiva.
d) y e) Analogos a los casos de definida y semidefinida positiva.
f) Por ser indefinida, Q( x ) 6 0 para todo x , luego di 6 0 para todo i , por lo que existira un dj < 0
y Q( x ) 6 0 para todo x , luego di 6 0 para todo i por lo que existira un dk > 0. En consecuencia,
Sig(Q) = (p, q) con p, q > 0 .
Recprocamente, si existe dj < 0 y dk > 0, seran Q( vj ) = dj < 0 y Q( vk ) = dk > 0 , luego es indefinida.

Prof: Jos
e Antonio Abia Vian

I.T.I. en Electricidad

You might also like