You are on page 1of 40

Estadstica, Fsica y Matematicas

Primer Curso

ALGEBRA LINEAL I

Juan A. Navarro Gonzalez

27 de junio de 2017
2
Indice general

1. Preliminares 1
1.1. Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Numeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Espacios Vectoriales 9
2.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2. Teora de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3. Aplicaciones Lineales 17
3.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teorema de Isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4. Geometra Eucldea 23
4.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5. Endomorfismos 29
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.3. Diagonalizacion de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 31

3
4 INDICE GENERAL
Captulo 1

Preliminares

1.1. Relaciones de Equivalencia


Definicion: Dar una relacion en un conjunto X es dar una familia de parejas ordenadas
de X, y pondremos x y cuando la pareja (x, y) este en tal familia. Diremos que es una
relacion de equivalencia si tiene las siguientes propiedades:
1. Reflexiva: x x, x X.
2. Simetrica: x, y X, x y y x.
3. Transitiva: x, y, z X, x y, y z x z.

Ejemplo: Sea n un numero natural, n 2. Diremos que dos numeros enteros a, b Z son
congruentes modulo n cuando b a es multiplo de n:

a b (mod. n) cuando b a = cn para algun c Z .

La relacion de congruencia modulo n es una relacion de equivalencia en el conjunto Z:


Reflexiva: Si a Z, entonces a a (mod. n) porque a a = 0 n.
Simetrica: Si a b (mod. n), entonces b a = cn, donde c Z; luego a b = (c)n, y
por tanto b a (mod. n).
Transitiva: Si a b y b c (mod. n), entonces b a = xn y c b = yn, donde x, y Z;
luego c a = (c b) + (b a) = yn + xn = (y + x)n, y por tanto a c (mod. n).
Esta relacion de equivalencia tiene ademas la siguiente propiedad:

a b (mod. n) a + c b + c y ac bc (mod. n) cZ

pues si b = a + xn, donde x Z, entonces b + c = a + c + xn y bc = (a + xn)c = ac + xcn.

Definicion: Dada una relacion de equivalencia en un conjunto X, llamaremos clase de


equivalencia de un elemento x X al subconjunto de X formado por todos los elementos
relacionados con x. Se denota

x = [x] := {y X : x y} .

Diremos que un subconjunto C X es una clase de equivalencia de la relacion si es


la clase de equivalencia de algun elemento x X; es decir, C = x para algun x X.
El conjunto cociente de X por es el conjunto formado por las clases de equivalencia
de , y se denota X/ .

1
2 CAPITULO 1. PRELIMINARES

Teorema 1.1.1 Si es una relacion de equivalencia en un conjunto X, en el conjunto


cociente X/ solo se identifican los elementos equivalentes:

[x] = [y] x y ; x, y X .

Demostracion: Si [x] = [y], entonces y [y] = [x]; luego x y.


Recprocamente, si x y, veamos que [y] [x]. En efecto, si z [y], entonces y z, y
por la propiedad transitiva x z; luego z [x].
Ahora bien, si x y, entonces y x; luego tambien [x] [y], y [x] = [y].

Corolario 1.1.2 Cada elemento x X esta en una unica clase de equivalencia de .

Demostracion: x esta en [x], porque x x, y si x [y], entonces y x; luego [y] = [x].

Ejemplo: Cuando en Z consideramos la relacion de congruencia modulo n, la clase de


equivalencia de a Z es

[a] = {b Z : b = a + cn para algun c Z} = {a + cn; c Z} = a + nZ,

y coincide con la clase [r] del resto de la division de a por n, pues a = cn + r.


Por tanto el conjunto cociente, que se denota Z/nZ, tiene n elementos:

Z/nZ = {[1], [2], . . . , [n] = [0]} .

1.2. Numeros Complejos


Definicion: Los numeros complejos son las parejas de numeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria) que se suman y
multiplican con las siguientes reglas (i2 = 1):

(x1 + y1 i)+(x2 + y2 i) := (x1 + x2 ) + (y1 + y2 )i


(x1 + y1 i)(x2 + y2 i) := (x1 x2 y1 y2 ) + (x1 y2 + x2 y1 )i

El conjunto de todos los numeros complejos se denota C. El conjugado de un numero


complejo z = x + yi es el numero complejo z := x yi, y el modulo de z es el numero real
|z| := z z = x2 + y 2 0. Las siguientes propiedades son de comprobacion sencilla:

z + u = z + u zu = z u z = z |z| = |z|
|z| = 0 z = 0 |zu| = |z| |u| z + z 2|z| |z + u| |z| + |u|

excepto la ultima. Para demostrarla bastara ver que |z + u|2 (|z| + |u|)2 :

|z + u|2 = (z + u)(z + u) = (z + u)(z + u) = |z|2 + |u|2 + z u + zu


= |z|2 + |u|2 + z u + z u |z|2 + |u|2 + 2|z u|
= |z|2 + |u|2 + 2|z| |u| = |z|2 + |u|2 + 2|z| |u| = (|z| + |u|)2 .

Si un numero complejo z = x + yi no es nulo, tenemos que z z = |z|2 = x2 + y 2 > 0, as


que su inverso z 1 existe, es de modulo |z 1 | = |z|1 , y es

1 z z x y
= 2 = = 2 2 i.
z |z| z z x + y2 x + y2

Por tanto, si zz = 0 y z = 0, entonces z = z 1 zz = z 1 0 = 0.


1.2. NUMEROS COMPLEJOS 3

Exponencial Compleja
Definicion: Si t R, pondremos eti := cos t + i sen t, donde el seno y coseno se consideran
d
en radianes para que dt (eit ) = ieit . Tenemos la formula de Euler (1707-1783)

e2i = 1

y en general e2ni = 1 para todo numero enteron.


El numero complejo eti es de modulo |eti | = cos2 t + sen2 t = 1, y todo numero com-
plejo de modulo 1 es ei para algun numero real .
Si z C es de modulo = 0, el modulo de z/ es 1, as que z/ = ei y

z = ei = (cos + i sen )

para algun numero real = arg z que llamamos argumento de z (bien definido salvo la
adicion de un multiplo entero de 2).
Cuando z = x + yi; x, y R, tenemos que

cos = x/ , sen = y/ , tan = y/x .

Ejemplos: Si es un numero real positivo, arg = 0, arg (i) = /2, arg () = y


arg (i) = 3/2 porque
3
= e0 , i = e 2 i , = ei , i = e 2 i .

Por otra parte, las formulas del seno y coseno de una suma expresan que

eti et i = e(t+t )i

eti et i = (cos t + i sen t)(cos t + i sen t ) =
( ) ( )
= (cos t)(cos t ) (sen t)(sen t ) + i (cos t)(sen t ) + (sen t)(cos t )

= cos(t + t ) + i sen(t + t ) = e(t+t )i ;

y la igualdad (ei )( e i ) = e(+ )i muestra que

arg (z z ) = (arg z) + (arg z )

de modo que arg (z 1 ) = arg z, al ser arg z 1 + arg z = arg (z 1 z) = arg 1 = 0.


Ahora, si u C y un = z = ei , entonces

|u|n = |un | = |z| =


narg (u) = arg (un ) = arg z = + 2k , kZ

Luego |u| = n y arg (u) = n + 2k n , y claramente basta tomar k = 0, . . . , n 1.
Todo numero complejo no nulo z = ei tiene n races n-esimas complejas (que forman

un polgono regular de n vertices, inscrito en el crculo de radio n centrado en el 0)

+2k
)i =
e(
2k
n n n
e n ie n i

En particular, las races n-esimas de la unidad complejas son


2k
e n i ; k = 1, . . . , n,

y vemos que las races n-esimas de un numero complejo no nulo se obtienen multiplicando
una de ellas por las races n-esimas de la unidad.
4 CAPITULO 1. PRELIMINARES

Ejemplos: Las races n-esimas de la unidad complejas, cuando n = 2, 3, 4, 6 y 8, son:


2 4
n = 2; e 2 i = ei = 1, e 2 i = e2i = 1.
2
4
6
n = 3; e 3 i = 12 + 3
2 i, e 3 i = 21 3
2 i, e 3 i = 1.
2 4 6 8
n = 4; e 4 i = i, e 4 i = 1, e 4 i = i, e 4 i = 1.
2
4
6
n = 6; e = 12 + 23 i, e
6 i = 12 + 23 i, e 6 i = 1,
6 i
8
10
12
e 6 = 12 23 i,
i
e 6 i = 21 23 i, e 6 i = 1.
2 4 6 8
n = 8; e 8 i = 1 1 i, e 8 i = i, e 8 i = 1 + 1 i, e 8 i = 1,
+
2 2 2 2
10 12 14 16
e 8 i = 12 12 i, e 8 i = i, e 8 i = 12 12 i, e 8 i = 1.

Por ultimo, si z = x + yi pondremos ez = ex eyi = ex (cos y + i sen y), de modo que


z +z
e = ez ez para cualesquiera numeros complejos z , z.
Cuando eu = z, decimos que u es el logaritmo neperiano de z, y ponemos u = ln z.
As, el logaritmo neperiano de z = e(+2k)i = eln e(+2k)i = eln +(+2k)i es

ln z = ln + ( + 2k)i.

1.3. Permutaciones
Definicion: Sean X e Y dos conjuntos. Dar una aplicacion f : X Y es asignar a cada
elemento x X un unico elemento f (x) Y , llamado imagen de x por la aplicacion f .
Si g : Y Z es otra aplicacion, llamaremos composicion de g y f a la aplicacion
( )
g f : X Z, (g f )(x) := g f (x) .

La identidad de un conjunto X es la aplicacion IdX : X X, IdX (x) = x.


Sea f : X Y una aplicacion.
Si A X, ponemos f (A) := {y Y : y = f (x) para algun x X} = {f (x) : x A}
Y.
Si B Y , ponemos f 1 (B) := {x X : f (x) B} X.
Si y Y , puede ocurrir que f 1 (y) no tenga ningun elemento o tenga mas de uno, de
modo que, en general, f 1 no es una aplicacion de Y en X.
Diremos que f : X Y es inyectiva si elementos distintos tienen imagenes distintas:

x, y X, f (x) = f (y) x = y

(i.e., cuando, para cada y Y se tiene que f 1 (y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de algun elemento de X:

y Y y = f (x) para algun x X ,

es decir, cuando f (X) = Y o, lo que es igual, cuando, para cada y Y se tiene que f 1 (y)
tiene al menos un elemento.
Diremos que f : X Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando
cada elemento y Y es imagen de un unico elemento de X, de modo que f 1 (y) tiene un
unico elemento, y en tal caso f 1 : Y X s es una aplicacion, llamada aplicacion inversa
de f porque f 1 f = IdX y f f 1 = IdY .

Definicion: Las permutaciones de n elementos son las aplicaciones biyectivas

: {1, . . . , n} {1, . . . , n} .
1.3. PERMUTACIONES 5

El conjunto de todas las permutaciones de n elementos se denota Sn , y esta claro que su


cardinal es n! = n (n 1) . . . 2 1. El producto de permutaciones es la composicion de
aplicaciones, y como son aplicaciones biyectivas, toda permutacion tienen una permutacion
inversa 1 , de modo que 1 (j ) = i cuando (i) = j. Ademas, ( )1 = 1 1 .

Definicion: Dados a1 , . . . , ad {1, . . . , n} distintos, (a1 . . . ad ) denota la permutacion


Sn tal que (ai ) = ai+1 , entendiendo que (ad ) = a1 , y deja fijos los restantes elementos.
Diremos que (a1 . . . ad ) es un ciclo de longitud d, y los ciclos (a1 a2 ) de longitud 2 se llaman
trasposiciones. El inverso de un ciclo = (a1 . . . ad ) es 1 = (ad . . . a1 ).
Diremos que dos ciclos (a1 . . . ad ) y (b1 . . . bk ) son disjuntos cuando ai = bj para todo
par de ndices i, j; en cuyo caso conmutan:

(a1 . . . ad )(b1 . . . bk ) = (b1 . . . bk )(a1 . . . ad ).

Toda permutacion descompone en producto de ciclos disjuntos, y tambien en producto de


trasposiciones, porque todo ciclo es producto de trasposiciones:

(a1 a2 a3 . . . ad ) = (a1 a2 )(a2 a3 ) (ad1 ad ) . (1.1)

Signo de una permutacion


Definicion: Consideremos el siguiente polinomio con coeficientes enteros:

(x1 , . . . , xn ) = (xj xi )
1i<jn


Dada una permutacion Sn , los factores de (x(1) , . . . , x(n) ) = i<j (x(j) x(i) )
coinciden, eventualmente salvo el signo, con los de (x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, (x(1) , . . . , x(n) ) = (x1 , . . . , xn ), y llamaremos signo
de al numero entero sgn() = 1 tal que

(x(1) , . . . , x(n) ) = sgn() (x1 , . . . , xn ) . (1.2)

Llamaremos pares a las permutaciones de signo 1, e impares a las de signo 1.

Teorema 1.3.1 El signo de cualquier producto de permutaciones es el producto de los signos


de los factores: sgn( ) = (sgn )(sgn ) .
El signo de las trasposiciones es 1, y el signo de los ciclos de longitud d es (1)d1 .

Demostracion: Sean , Sn . Aplicando a los ndices de las indeterminadas x1 , . . . , xn


en la igualdad 1.2, obtenemos que

(x( )(1) , . . . , x( )(n) ) = (sgn ) (x (1) , . . . , x (n) )


= (sgn )(sgn ) (x1 , . . . , xn ) .

Luego sgn( ) = (sgn )(sgn ) = (sgn )(sgn ).


Un calculo directo demuestra que el signo de la trasposicion (12) es 1.
Si (ij) es otra trasposicion, tomamos una permutacion tal que (1) = i, (2) = j, de
modo que (ij) = (12) 1 , y concluimos que

sgn(ij) = sgn( ) sgn(12) sgn( 1 ) = sgn( ) sgn( 1 ) = sgn( 1 ) = 1.

Por ultimo, cuando = (a1 . . . ad ) es un ciclo de longitud d, se sigue directamente de 1.1


que sgn() = (1)d1 , porque todas las trasposiciones tienen signo 1.
6 CAPITULO 1. PRELIMINARES

1.4. Matrices
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.

Dada una matriz A = (aij ) de m filas y n columnas (donde el subndice i indica la fila
y el subndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m r cuyo coeficiente cik de la fila i y columna k es

n
cik = aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
j=1

El, producto de matrices es asociativo, aunque no conmutativo, y (AB)t = B t At .


La matriz unidad In es la matriz n n con todos sus coeficientes nulos, salvo los de la
diagonal, que son la unidad. Si A es una matriz m n, entonces Im A = A y AIn = A.
Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz
cuadrada B de n columnas tal que AB = In = BA, en cuyo caso tal matriz B es unica y se
pone B = A1 . Si A y B son matrices invertibles n n, entonces (AB)1 = B 1 A1 .

Determinantes
Definicion: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es

|A| := (sgn )a1(1) . . . an(n)
Sn

y tiene las siguientes propiedades (que se probaran en el curso de Algebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai , . . . , An | .
3. |A(1) , . . . , A(n) | = (sgn )|A1 , . . . , An |.

a11 a12 . . . a1n

0 a22 . . . a2n

4. = a11 . . . ann , |In | = 1.

. . . . . . . . . . . .
0 . . . 0 ann
5. |AB| = |A| |B| , |A1 | = |A|1 .
Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai + Aj , . . . , An | , i = j .
Definicion: El adjunto Aij de una matriz A es (1)i+j por el determinante de la matriz
que se obtiene eliminando la fila i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier fila o columna:
|A| = ai1 Ai1 + . . . + ain Ain ,
|A| = a1j A1j + . . . + anj Anj .
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es

A11 . . . An1
1
A1 = ... ... ...
|A|
A1n . . . Ann
1.4. MATRICES 7

(Notese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.

Definicion: El rango (por columnas) de una matriz A es el maximo numero de columnas


de A linealmente independientes, y se denota rg A.
El rango por filas de una matriz A es el rango (por columnas) de su traspuesta At .
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coeficientes de r filas y r columnas de A (obviamente r no ha de superar el numero
de columnas ni de filas de A).

Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.

Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.

Sistemas de Ecuaciones Lineales


Regla de Cramer (1704-1752): Si A es una matriz cuadrada invertible, entonces el sistema
de ecuaciones lineales AX = B tiene una unica solucion, que es

|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |

donde A1 , . . . , An denotan las columnas de la matriz A.

Demostracion: Si A es invertible, la unica solucion de AX = B es X = A1 B. Ademas, si


x1 , . . . , xn es la solucion del sistema, entonces x1 A1 + . . . + xn An = B y por tanto:

|A1 , . . . , B, . . . , An | = j xj |A1 , . . . , Aj , . . . , An | = xi |A1 , . . . , Ai , . . . , An |

porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i = j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la unica solucion del sistema.

Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-


les AX = B es compatible si y solo si rgA = rg(A|B) .

Si un sistema de ecuaciones lineales AX = B es compatible y X0 es una solucion par-


ticular, AX0 = B, entonces todas las soluciones se obtienen sumandole las soluciones del
sistema homogeneo AY = 0; es decir, las soluciones son X = X0 + Y , donde AY = 0.
8 CAPITULO 1. PRELIMINARES
Captulo 2

Espacios Vectoriales

2.1. Espacios Vectoriales y Subespacios Vectoriales


Definicion: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamamos vectores o puntos) es asignar a cada par de vectores e1 , e2 E otro vector
e1 + e2 E, y a cada escalar K y cada vector e E, otro vector e E, de modo que:
1. e1 + (e2 + e3 ) = (e1 + e2 ) + e3 para cualesquiera vectores e1 , e2 , e3 E.
2. e1 + e2 = e2 + e1 para cualesquiera vectores e1 , e2 E.
3. Existe un vector 0 E tal que e + 0 = e para todo vector e E.
4. Para cada vector e E existe un vector e tal que e + (e) = 0.
5. (e1 + e2 ) = e1 + e2 para todo K, e1 , e2 E.
6. (1 + 2 )e = 1 e + 2 e para todo 1 , 2 K, e E.
7. ()e = (e) para todo , K, e E.
8. 1 e = e para todo vector e E.
Si e, v E, ponemos v e := v + (e), y decimos que e es el opuesto del vector e.
En los espacios vectoriales son validas las reglas usuales del calculo vectorial:

e + v = e + v e = e
e+v =v e=0
e + v = 0 v = e
0e=0 , 0=0 , 0 = 0
(e) = ()e = (e) , (e) = e , (1)e = e
(e v) = e v , ( )e = e e
e = 0 = 0 o e = 0

Definicion: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de


E cuando la suma de vectores y el producto por escalares de E definan tambien en V una
estructura de K-espacio vectorial; es decir, cuando
1. v1 + v2 V , para todo v1 , v2 V .
2. v V , para todo K y v V .
3. 0V.

9
10 CAPITULO 2. ESPACIOS VECTORIALES

Ejemplos:
1. En la Geometra eucldea, los segmentos orientados con origen en un punto prefijado O
forman un espacio vectorial real. Este es el ejemplo paradigmatico de espacio vectorial,
que motiva los nombres de los conceptos que iremos introduciendo.
2. K n = K . n. . K = {(1 , . . . , n ), donde 1 , . . . , n K} es un K-espacio vectorial.
Si A es una matriz mn con coeficientes en K, las soluciones del sistema de ecuaciones
lineales homogeneo AX = 0 forman un subespacio vectorial de K n .
3. Fijados dos numeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares definen una estructura de K-espacio vectorial en el conjunto
Mmn (K) de todas las matrices de m filas y n columnas con coeficientes en K.
4. C es un C-espacio vectorial, y tambien es un R-espacio vectorial y un Q-espacio vecto-
rial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque en
cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impo-
ne la existencia del vector nulo. El espacio vectorial que tiene un unico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Sean V y W dos subespacios vectoriales de un espacio vectorial E.
Su interseccion V W := {e E : e V y e W } es el mayor subespacio vectorial
de E contenido en V y en W , y su suma
V + W := {e E : e = v + w para algun v V, w W } = {v + w; v V, w W }
es el menor subespacio vectorial de E que contiene a V y a W .
8. Si e es un vector de un espacio vectorial E, el menor subespacio vectorial de E que
lo contiene es e = Ke := {v E : v = e para algun K} = {e; K}, y
diremos que es el subespacio vectorial de E generado por el vector e.
9. Si e1 , . . . , en son vectores de un espacio vectorial E, entonces
e1 , . . . , en = Ke1 + . . . + Ken = {1 e1 + . . . + n en ; 1 , . . . , n K}
es el menor subespacio vectorial de E contiene a los vectores e1 , . . . , en , y diremos que
es el subespacio vectorial de E generado por e1 , . . . , en .
10. Si E y F son dos K-espacios vectoriales, su producto directo E F es un K-espacio
vectorial cuando la suma y el producto por escalares se definen del siguiente modo:
(e, f ) + (e , f ) := (e + e , f + f ) , (e, f ) := (e, f ) .

11. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal


si existe un subespacio vectorial V de E y algun punto p E tales que
X = p + V := {e E : e = p + v para algun v V } = {p + v; v V } .
En tal caso diremos que V es la direccion de X, y que X es la subvariedad lineal que
pasa por p con direccion V . Diremos que dos subvariedades lineales p + V y q + W son
paralelas si sus direcciones V y W son incidentes (V W o W V ).
12. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial
E define una relacion de equivalencia en E (llamada congruencia modulo V ):
e e (modulo V ) cuando e e V ; es decir e e + V .
2.2. TEORIA DE LA DIMENSION 11

i) e e para todo vector e E, porque e e = 0 V .


ii) Si e e , entonces e e V ; luego e e = (e e) V y e e.
iii) e e , e e e e, e e V ; e e = (e e ) + (e e) V y e e .
La clase de equivalencia [p] = p + V de p E es la subvariedad lineal de direccion V
que pasa por p. Por tanto, si una subvariedad lineal X = p + V de direccion V pasa
por un punto q, entonces p q (mod. V ) y por tanto tambien X = q + V .
El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades
lineales de E de direccion V , y las siguientes operaciones definen en el conjunto E/V
una estructura de K-espacio vectorial (compruebense los 8 axiomas) y diremos que es
el espacio vectorial cociente de E por V :

[e1 ] + [e2 ] := [e1 + e2 ]


[e ] := [e ]

Veamos que estas definiciones no dependen de los vectores elegidos en las clases:

Si [e1 ] = [e1 ] y [e2 ] = [e2 ], entonces e1 e1 , e2 e2 V ; luego e1 + e2 (e1 + e2 ) V


y por tanto [e1 + e2 ] = [e1 + e2 ].

Si [e] = [e ], entonces e e V ; luego e e = (e e) V y por tanto [e] = [e ].

Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):

[e] = 0 e V (2.1)

Nota 2.1.1 Si e Ke1 + . . . + Ken , entonces e K e1 + . . . + K en .


En efecto, si e = 1 e1 + . . . + n en , entonces e = [1 e1 + . . . + n en ] = 1 e1 + . . . + n en .

2.2. Teora de la Dimension


Definicion: Diremos que unos vectores e1 , . . . , en de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E cuando todo vector de E es una combinacion
lineal de e1 , . . . , en con coeficientes en K:

Ke1 + . . . + Ken = E .

Diremos que e1 , . . . , en son linealmente dependientes si existen escalares 1 , . . . , n


tales que 1 e1 + . . . + n en = 0 y algun i = 0, de modo que ei es combinacion lineal de
los restantes vectores. En caso contrario diremos que son linealmente independientes.
Es decir, e1 , . . . , en son linealmente independientes cuando la unica combinacion lineal nula
es la que tiene todos los coeficientes nulos:

1 e1 + . . . + n en = 0 1 = . . . = n = 0 ; donde 1 , . . . , n K.

Diremos que una sucesion de vectores e1 , . . . , en de un espacio vectorial E es una base


de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada
vector e E se escribe de modo unico como combinacion lineal con coeficientes en K

e = x1 e1 + . . . + xn en ,
12 CAPITULO 2. ESPACIOS VECTORIALES

y diremos que (x1 , . . . , xn ) K n son las coordenadas del vector e en la base e1 , . . . , en .

En efecto, si e = x1 e1 + . . . + xn en = y1 e1 + . . . + yn en , entonces

(x1 y1 )e1 + . . . + (xn yn )en = x1 e1 + . . . + xn en (y1 e1 + . . . + yn en ) = e e = 0 ;

luego yi xi = 0 para todo ndice i, porque e1 , . . . , en son linealmente independientes.

Ejemplos 2.2.1

1. Sean e1 , . . . , en vectores de un espacio vectorial E. Si alguno es nulo, ei = 0, entonces


son linealmente dependientes, porque 0 = 0 e1 + . . . + 1 ei + . . . + 0 en .
Analogamente, si hay un vector repetido, ei = ej con i = j, tambien son linealmente
dependientes, pues 0 = 0 e1 + . . . + 1 ei + . . . + (1) ej + . . . + 0 en .

2. Sea e un vector no nulo. Como e = 0 = 0; tenemos que e es linealmente


independiente, y por tanto define una base del subespacio vectorial Ke = e. Ademas,
si otro vector v no esta en Ke, entonces e, v son linealmente independientes, de modo
que forman una base del subespacio vectorial Ke + Kv = e, v.

3. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1) forman una


base de K n , llamada base usual de K n . Las coordenadas de un vector e = (a1 , . . . , an )
de K n en esta base son precisamente (a1 , . . . , an ), porque e = a1 e1 + . . . + an en .

4. Las matrices m n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mmn (K), base que esta formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.

Lema Fundamental: Sean e1 , . . . , en vectores de un K-espacio vectorial E. Si r vectores


v1 , . . . , vr Ke1 + . . . + Ken son linealmente independientes, entonces r n.

Demostracion: Procedemos por induccion sobre r. Si r = 1, entonces v1 = 0 porque es


linealmente independiente. Luego Ke1 + . . . + Ken = 0 y concluimos que n 1 = r.

Si r > 1, como vr = 0, reordenando e1 , . . . , en tendremos vr = 1 e1 + . . . + n en con


n = 0. Despejando, vemos que en Ke1 + . . . + Ken1 + Kvr , y por tanto

v1 , . . . , vr1 Ke1 + . . . + Ken Ke1 + . . . + Ken1 + Kvr .

De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kvr ) tendremos que

v1 , . . . , vr1 K e1 + . . . + K en1 + K vr = K e1 + . . . + K en1 .

Veamos que v1 , . . . , vr1 son linealmente independientes:


Si una combinacion lineal de estos vectores es nula,

0 = 1 v1 + . . . + r1 vr1 = [1 v1 + . . . + r1 vr1 ] ,
r1 r1
entonces i=1 i vi Kvr segun 2.1, y i=1 i vi = r vr para algun escalar r .
Como v1 , . . . , vr son linealmente independientes, tenemos que 1 = . . . = r1 = 0.
Ahora, por hipotesis de induccion, r 1 n 1, y concluimos que r n.

Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual numero de vectores.
2.2. TEORIA DE LA DIMENSION 13

Demostracion: Si e1 , . . . , en y v1 , . . . , vr son dos bases de un espacio vectorial E, como


los vectores e1 , . . . , en E = Kv1 + . . . + Kvr son linealmente independientes, por el lema
fundamental tenemos que n r. Como los vectores v1 , . . . , vr E = Ke1 + . . . + Ken son
linealmente independientes, tambien tenemos que r n; luego n = r.

Definicion: Si un espacio vectorial E = 0 admite una base, llamaremos dimension de E


al numero de vectores de cualquier base de E, y lo denotaremos dimK E; o sencillamente
dim E cuando no induzca a confusion. Tambien diremos que el espacio vectorial E = 0 tiene
dimension 0 y que su base es el vaco. Diremos que un espacio vectorial E tiene dimension
infinita cuando ninguna familia finita de vectores de E sea una base de E.
La dimension de una subvariedad lineal X = p + V es la de su direccion V . Las subva-
riedades lineales de dimension 1 y 2 se llaman rectas y planos respectivamente.

Ejemplos 2.2.3

1. Segun los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
ademas v / Ke, entonces dim K (Ke + Kv) = 2.
Tambien, dimK K n = n y dimK Mmn (K) = mn .
2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de
C = R + Ri como R-espacio vectorial.
3. Si E es un Q-espacio vectorial de dimension
finita n, cada base e1 , . . . , en define una bi-
yeccion : K n E, (1 , . . . , n ) = i i ei , y por tanto el conjunto E es numerable.
Como R y C no son numerables, vemos que dim Q R = dim Q C = .
4. El K-espacio vectorial K[x] := {a0 + a1 x + a2 x2 + . . . ; a0 , a1 . . . K}, formado por
todos los polinomios con coeficientes en K en una indeterminada x, tiene dimension
infinita, porque los polinomios 1, x, . . . , xn son linealmente independientes.
El subespacio vectorial Pn := K + Kx + . . . + Kxn , formado por los polinomios de
grado n con coeficientes en K, admite la base 1, x, . . . , xn ; luego dim Pn = n + 1.
5. Por dos puntos distintos p y q = p + e pasa una unica recta p + Ke, formada por los
puntos p + te = tq + (1 t)p, donde t K. El punto p + 12 e = p+q
2 recibe el nombre
de punto medio entre p y q.
6. En un triangulo (tres puntos distintos no alineados a, b, c llamados vertices) tenemos
que e = b a = 0 y v = c a = 0. Ademas v / Ke porque c = a + v no esta en la recta
a + Ke que pasa por a y b. Luego dim (Ke + Kv) = 2, y el plano a + Ke + Kv pasa
por los tres vertices. Y es el unico, si otro plano P = p + V pasase por ellos, entonces
b, c P = a + V ; luego e = b a, v = c a V , as que Ke + Kv V , y ambos
subespacios vectoriales coinciden porque son de dimension 2.
Ademas, las tres medianas (rectas que unen un vertice con el punto medio del lado
opuesto) se cortan en el punto g = a+b+c
3 , llamado baricentro, que divide a cada
mediana en la proporcion 2:1,
( )
a+b+c a 2b+c b 2a+c c 2a+b 2 b+c
= + = + = + =a+ a = ...
3 3 3 2 3 3 2 3 3 2 3 2
c

a+c
2 b+c
2

a b
a+b
2
14 CAPITULO 2. ESPACIOS VECTORIALES

Proposicion 2.2.4 Todo sistema finito de generadores {e1 , . . . , en } de un espacio vectorial


E = 0 contiene una base de E. Por tanto n dim E, y si ademas n = dim E, entonces los
vectores e1 , . . . , en ya forman una base de E.

Demostracion: Veamos que {e1 , . . . , en } contiene una base de E, por induccion sobre n.
Si n = 1, e1 = 0 porque Ke1 = E = 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
n forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion i=1 i ei = 0 con algun
coeficiente i no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que n = 0.
Despejando en tenemos que en Ke1 + . . . + Ken1 . Luego E = Ke1 + . . . + Ken1 , y por
hipotesis de induccion {e1 , . . . , en1 } contiene una base de E.
Por ultimo, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores segun 2.2.2.

Lema 2.2.5 Si e1 , . . . , em E son linealmente independientes, y no se pueden ampliar con


un vector de E de modo que lo sigan siendo, entonces ya forman una base de E.

Demostracion: Si e E, entonces e1 , . . . , em , e son linealmente dependientes,

1 e1 + . . . + m em + e = 0,

con algun coeficiente no nulo. Si = 0, entonces e1 , . . . , em son linealmente dependientes,


en contra de la hipotesis. Luego = 0 y despejando vemos que e Ke1 + . . . + Kem .
Luego los vectores e1 , . . . , em generan E, y como son linealmente independientes por
hipotesis, forman una base de E.

Proposicion 2.2.6 Sea E un espacio vectorial de dimension finita. Toda familia {e1 , . . . , er }
de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E.
Por tanto r dim E, y si ademas r = dim E, entonces los vectores e1 , . . . , er ya forman
una base de E.

Demostracion: Anadimos vectores de E hasta obtener una familia linealmente independiente


e1 , . . . , er , e1 , . . . , es que ya no pueda ampliarse de modo que lo siga siendo (el proceso
termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber mas de
n vectores linealmente independientes, as que siempre r + s n).
Ahora e1 , . . . , er , e1 , . . . , es ya es base de E por el lema anterior.
Por ultimo, si r = dim E, entonces los vectores e1 , . . . , er ya forman una base de E;
porque una base de E no puede tener mas de r vectores segun 2.2.2.

Teorema 2.2.7 Sea V subespacio vectorial de un espacio vectorial de dimension finita E.

1. dim V dim E y solo se da la igualdad cuando V = E.

2. dim (E/V ) = dim E dim V .

Demostracion: Veamos primero que la dimension de V tambien es finita. Tomemos en V


una familia {v1 , . . . , vr } linealmente independiente que ya no pueda ampliarse con un vector
de V de modo que lo siga siendo (existe porque, si n = dim E, por el lema fundamental en
E no puede haber mas de n vectores linealmente independientes).
Por el lema anterior v1 , . . . , vr forman una base de V , de modo que r = dim V .
Ahora 2.2.6 permite ampliarla hasta obtener una base v1 , . . . , vr , e1 , . . . , es de E.
Luego dim V = r r + s = dim E; y si se da la igualdad, entonces s = 0 y v1 , . . . , vr ya
es base de E, de modo que E = Kv1 + . . . + Kvr = V .
2.2. TEORIA DE LA DIMENSION 15

En cuanto a la segunda afirmacion, basta probar que e1 , . . . , es es una base de E/V .


Como v1 , . . . , vr , e1 , . . . , es generan E, y en E/V tenemos que v1 = . . . = vr = 0, se sigue que
E/V = K e1 + . . . + K es . Veamos por ultimo que e1 , . . . , es son linealmente independientes:
s s s
Si 0 = i=1 i ei = [ i=1 i ei ], entonces i=1 i ei V de acuerdo con 2.1, as que

1 e1 + . . . + s ee = 1 v1 + . . . + r vr
s r
para ciertos escalares 1 , . . . , r . Luego i=1 i ei j=1 j vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que 1 = . . . = s = 0.

Corolario 2.2.8 Sea e1 , . . . , en una base de un espacio vectorial E. Si A es la matriz que


tiene por columnas las coordenadas de v1 , . . . , vm E en tal base de E, entonces

dim (Kv1 + . . . + Kvm ) = rg A .

Demostracion: Pongamos r = rg A y d = dim (Kv1 + . . . + Kvm ).


Como {v1 , . . . , vm } genera Kv1 + . . . + Kvm , de acuerdo con 2.2.2 contiene una base
vi1 , . . . , vid de Kv1 + . . . + Kvm , as que las columnas i1 , . . . , id de la matriz A son lineal-
mente independientes y por tanto d r (pues unos vectores son linealmente independientes
precisamente cuando sus coordenadas son linealmente independientes en K n ).
Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r
vectores vj1 , . . . , vjr linealmente independientes en Kv1 + . . . + Kvm , y de acuerdo con
2.2.6 concluimos que r d .

Ejemplos:

1. Con las notaciones del corolario anterior, tenemos que


v1 , . . . , vm son linealmente independientes rg A = m = no de columnas de A .
v1 , . . . , vm generan E rg A = dim E = no de filas de A .

En particular, la condicion necesaria y suficiente para que v1 , . . . , vm formen una base


de E es que m = n y el determinante de la matriz A no sea nulo.

2. Dados n vectores v1 = (a11 , . . . , an1 ), . . . , vn = (a1n , . . . , ann ) en K n , la condicion


necesaria y suficiente para que formen una base de K n es que el determinante de la
matriz A = (aij ) no sea nulo.

3. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimension.


Como dim V = dim W , y ademas V W o W V , 2.2.7.1 afirma que V = W : dos
subvariedades lineales paralelas de igual dimension tienen la misma direccion.

Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-


les AX = B es compatible si y solo si rgA = rg(A|B) .

Demostracion: Sean A1 , . . . , An las columnas de A, de modo que el sistema AX = B puede


escribirse x1 A1 + . . . + xn An = B, y la condicion de que sea compatible significa que en K m
tenemos que B A1 , . . . , An ; es decir, que A1 , . . . , An = A1 , . . . , An , B. Ahora bien, el
teorema 2.2.7.1 afirma que

A1 , . . . , An = A1 , . . . , An , B dimA1 , . . . , An = dimA1 , . . . , An , B

y, de acuerdo con 2.2.8, esta ultima condicion significa que rg A = rg (A|B) .


16 CAPITULO 2. ESPACIOS VECTORIALES

2.3. Suma Directa


Definicion: Diremos que la suma V1 + . . . + Vr de unos subespacios vectoriales V1 , . . . , Vr
de un espacio vectorial E es directa si cada vector e V1 + . . . + Vr descompone de modo
unico en la forma e = v1 + . . . + vr , donde vi Vi ; es decir, si la aplicacion

s : V1 . . . Vr V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,

(que siempre es epiyectiva, por definicion de suma de subespacios vectoriales) tambien es


inyectiva. En tal caso, el subespacio vectorial V1 + . . . + Vr se denota V1 . . . Vr .

Teorema 2.3.1 La condicion necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.

Demostracion: Si la suma de V y W es directa y e V W , entonces

0 = 0 + 0 = e + (e) ,

donde 0, e V y 0, e W . La unicidad de la descomposicion del vector 0 en suma de un


vector de V y otro de W implica que e = 0. Luego V W = 0.
Recprocamente, si V W = 0 y un vector e V + W admite dos descomposiciones

e = v + w = v + w ; v, v V, w, w W

entonces v v = w w W . Como v v V , se sigue que v v V W = 0. Luego


0 = v v = w w , y concluimos que v = v y w = w . Es decir, tal descomposicion es
unica, as que la suma de V y W es directa.

Definicion: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son


suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de
W en E) cuando E = V W ; i.e., cuando cada vector de E descompone, y de modo unico,
en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V W = 0.

Ejemplos:
1. Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e E des-
compone de modo unico como combinacion lineal e = 1 e1 + . . . + n en ; luego

E = Ke1 . . . Ken

y vemos as que un suplementario de V = Ke1 . . . Ker en E es el subespacio


vectorial W = Ker+1 . . . +Ken .
2. Para hallar un suplementario de un subespacio vectorial V de E basta ampliar una
base v1 , . . . , vr de V hasta obtener una base v1 , . . . , vr , w1 , . . . , ws de E, porque en tal
caso W = Kw1 + . . . + Kws es un suplementario de V en E.

3. Sean p + V y q + W dos subvariedades lineales de un espacio vectorial E. Dar un punto


de corte es dar vectores v V , w W tales que p + v = q + w; es decir, q p = v w.
Por tanto, la condicion necesaria y suficiente para que se corten es que q p V + W ,
y el punto de corte es unico cuando la suma V W es directa.
Captulo 3

Aplicaciones Lineales

3.1. Aplicaciones Lineales


Definicion: Diremos que una aplicacion f : E E entre dos K-espacios vectoriales es
K-lineal, (o simplemente lineal, si K se sobrentiende) cuando

f (e + v) = f (e) + f (v) para todo e, v E


f ( e) = f (e) para todo K, e E

Toda aplicacion lineal f : E E verifica que f (0) = 0, que f (e) = f (e), y tambien
que f (1 e1 + . . . + n en ) = 1 f (e1 ) + . . . + n f (en ).
( )
En efecto, f (0) = f (0 0) = 0 f (0) = 0, f (e) = f (1)e = (1)f (e) = f (e) y
f (1 e1 + . . . + n en ) = f (1 e1 ) + . . . + f (n en ) = 1 f (e1 ) + . . . + n f (en ).


Proposicion 3.1.1 Si dos aplicaciones f (: E ) E y h : E E son K-lineales, entonces

su composicion hf : E E , (hf )(e) = h f (e) , tambien es K-lineal.
Demostracion: Para todo K y todo e, v E tenemos que
( ) ( )
(hf )(e + v) = h f (e + v) = h f (e) + f (v) = h(f (e)) + h(f (v)) = (hf )(e) + (hf )(v)
( ) ( )
(hf )(e) = h f (e) = h f (e) = h(f (e)) = (hf )(e)

Proposicion 3.1.2 Sea f : E E una aplicacion lineal. Su nucleo

Ker f := f 1 (0) = {e E : f (e) = 0}

es un subespacio vectorial de E, y su imagen

Im f := f (E) = {e E : e = f (e) para algun e E} = {f (e); e E}

es un subespacio vectorial de E .
Demostracion: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f
porque f (0) = 0. Ahora, si e1 , e2 Ker f , por definicion f (e1 ) = f (e2 ) = 0, as que

f (e1 + e2 ) = f (e1 ) + f (e2 ) = 0


f (e1 ) = f (e1 ) = 0

Luego e1 + e2 Ker f y e1 Ker f , as que Ker f es un subespacio vectorial de E.


Veamos que Im f es un subespacio vectorial de E :

17
18 CAPITULO 3. APLICACIONES LINEALES

Tenemos que 0 Im f porque 0 = f (0). Ahora, si e1 , e2 Im f , por definicion existen


vectores e1 , e2 E tales que e1 = f (e1 ) y e2 = f (e2 ), as que
e1 + e2 = f (e1 ) + f (e2 ) = f (e1 + e2 ) Im f
e1 = f (e1 ) = f (e1 ) Im f
y concluimos que Im f es un subespacio vectorial de E .

Proposicion 3.1.3 Una aplicacion lineal f : E E es inyectiva si y solo si Ker f = 0.


Demostracion: Si f es inyectiva y e Ker f , entonces f (e) = 0 = f (0); luego e = 0.
Recprocamente, supongamos que Ker f = 0. Si f (e) = f (v), donde e, v E, entonces
f (v e) = f (v) f (e) = 0; luego v e Ker f = 0 y por tanto e = v; i.e., f es inyectiva.

Ejemplos:
1. Una aplicacion lineal f : E E es epiyectiva si y solo si Im f = E .
2. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Im i = V .
La proyeccion canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
su nucleo es Ker = V de acuerdo con 2.1 (v. pagina 11).
3. Cada matriz A Mmn (K) define una aplicacion lineal f : K n K m , f (X) = AX,
cuyo nucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea
AX = 0. Por otra parte, la condicion B Im f significa que el sistema de m ecuaciones
lineales con n incognitas AX = B es compatible.
4. Cada familia {e1 , . . . , en } de vectores de un K-espacio vectorial E define una aplicacion
f : K n E , f (1 , . . . , n ) = 1 e1 + . . . + n en ,
que siempre es K-lineal. La imagen de esta aplicacion lineal es Im f = Ke1 +. . .+Ken ,
as que f es epiyectiva cuando e1 , . . . , en generan E.
Ademas la condicion de que e1 , . . . , en sean linealmente independientes significa que
Ker f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto,
cuando e1 , . . . , en forman una base de E, esta aplicacion lineal f es biyectiva.

Matriz de una Aplicacion Lineal


Definicion: Sea f : E E una aplicacion lineal entre dos espacios vectoriales de dimension
finita. Si fijamos una base e1 , . . . , en de E y una base e1 , . . . , em de E , tendremos que
f (ej ) = a1j e1 + . . . + amj em , 1jn (3.1)
para ciertos escalares aij K, y diremos que A = (aij ) es la matriz de la aplicacion
lineal f en las bases e1 , . . . , en de E y e1 , . . . , em de E .
Por definicion, la columna j-esima de la matriz A esta formada por las coordenadas del
vector f (ej ) en la base e1 , . . . , em de E .
Ahora, para cada vector e = x1 e1 + . . . + xn en E tendremos que su imagen f (e) es

n
n m m (
n )
f (e) = xj f (ej ) = xj aij ei = aij xj ei .
j=1 j=1 i=1 i=1 j=1

Es decir, si X denota las coordenadas del vector e en la base e1 , . . . , en , puestas en co-


lumna, entonces las coordenadas X de f (e) en la base e1 , . . . , em se obtienen multiplicando
X por la matriz A de f en las bases consideradas:

X = AX (3.2)
3.2. TEOREMA DE ISOMORFIA 19

Proposicion 3.1.4 Si A es la matriz de una aplicacion lineal f : E E , entonces

dim (Im f ) = rg A

Demostracion: Sea e1 , . . . , en una base de E. Como f ( i i ei ) = i i f (ei ), la imagen de
f esta generada por los vectores f (e1 ), . . . , f (en ):

Im f = f (e1 ), . . . , f (en ) ,

y tenemos que dim f (e1 ), . . . , f (en ) = rg A de acuerdo con 2.2.8 y 3.1.

3.2. Teorema de Isomorfa


Definicion: Diremos que una aplicacion K-lineal f : E E es un isomorfismo cuando
es biyectiva, y en tal caso la aplicacion inversa f 1 : E E tambien es K-lineal (y por
supuesto biyectiva, as que f 1 tambien es un isomorfismo).
En efecto, si e , v E , entonces e = f (e) y v = f (v), donde e, v E, de modo que
( ) ( )
f 1 (e + v ) = f 1 f (e) + f (v) = f 1 f (e + v) = e + v = f 1 (e ) + f 1 (v )
( ) ( )
f 1 (e ) = f 1 f (e) = f 1 f (e) = e = f 1 (e ) .

Diremos que dos K-espacios vectoriales E y E son isomorfos si existe algun isomorfismo
K-lineal f : E E , en cuyo caso pondremos E E .

Ejemplos:

1. Si una matriz A Mnn (K) es invertible, la aplicacion que induce f : K n K n ,


f (X) = AX, es un isomorfismo, y el isomorfismo inverso f 1 : K n K n es precisa-
mente el que define la matriz inversa A1 ; es decir, f 1 (X) = A1 X.

2. Si V1 , . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicacion

s : V1 . . . Vn V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,

es lineal y epiyectiva. Ademas esta aplicacion lineal s es inyectiva precisamente cuando


la suma es directa, de modo que en tal caso V1 . . . Vn V1 . . . Vn .

3. Si e1 , . . . , en es una base de un K-espacio vectorial E, entonces la aplicacion lineal

f : K n E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,

es un isomorfismo. El isomorfismo inverso f 1 : E K n asigna a cada vector e E


sus coordenadas (x1 , . . . , xn ) en la base e1 , . . . , en .
Por tanto, todo espacio vectorial de dimension n es isomorfo a K n .

4. Los isomorfismos transforman vectores linealmente independientes en vectores lineal-


mente independientes, y sistemas de generadores en sistemas de generadores (com-
pruebese); luego bases en bases. Por tanto, si E E , entonces dim E = dim E .

Teorema de Isomorfa: Si f : E E es una aplicacion lineal, entonces la aplicacion


lineal : E/Ker f Im f , (e) = f (e), es un isomorfismo:

E/Ker f Im f
20 CAPITULO 3. APLICACIONES LINEALES

Demostracion: Veamos primero que es una aplicacion bien definida, que (e) no depende
del representante elegido, que si e = v, entonces f (e) = f (v). Ahora bien, si e = v, entonces
e v (modulo Ker f ); luego v e Ker f , 0 = f (v e) = f (v) f (e) y f (e) = f (v).
Veamos ahora que tal aplicacion es lineal:

(e + v) = ([e + v]) = f (e + v) = f (e) + f (v) = (e) + (v)


(e) = ([e]) = f (e) = f (e) = (e) .

es inyectiva: Si 0 = (e) = f (e), entonces e Ker f , luego e = 0 por 2.1.


es epiyectiva: Si e Im f , entonces existe e E tal que e = f (e) = (e).

Corolario 3.2.1 Para toda aplicacion lineal f : E E entre espacios vectoriales de di-
mension finita tenemos que

dim (Ker f ) + dim (Im f ) = dim E

2.2.7
Demostracion: dim (Im f ) = dim (E/Ker f ) = dim E dim (Ker f ) .

Corolario 3.2.2 Si A es la matriz de una aplicacion lineal f : E E , entonces

dim (Ker f ) = (no de columnas) rg A

3.2.1 3.1.4
Demostracion: dim (Ker f ) = dim E dim (Im f ) = dim E rg A.

Corolario 3.2.3 Las soluciones de un sistema homogeneo AX = 0 de m ecuaciones lineales


con n incognitas y coeficientes en K forman un subespacio vectorial de K n de dimension
n rg A; y las soluciones de un sistema no homogeneo compatible AX = B forman una
subvariedad lineal de K n de direccion AX = 0 y dimension n rg A.
Demostracion: Sea V = {X K n : AX = 0} el conjunto de soluciones del sistema ho-
mogeneo AX = 0. La matriz A Mmn (K) define una aplicacion lineal f : K n K m ,
f (X) = AX, y V es precisamente el nucleo de f . La matriz de f en las bases usuales de K n
y K m (ver 2.2.1) es A, as que 3.2.2 afirma que la dimension de V es n rg A.
Por ultimo, si un sistema AX = B es compatible, las soluciones se obtienen sumando a
una solucion particular X0 las soluciones de la ecuacion homogenea AX = 0; luego forman
la subvariedad lineal X0 + V y, por tanto, su dimension tambien es n rg A.

Definicion: Fijada una base de un espacio vectorial de dimension finita E, dar ecuaciones
parametricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implcitas de V es dar
un sistema homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones parametricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la direccion de X, y dar ecuacio-
nes implcitas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las
coordenadas de los puntos de X.

Ejemplo: Fijada una base (e1 , . . . , en ) de un espacio vectorial E, las ecuaciones parametricas
e implcitas del subespacio vectorial nulo son

x1 = 0 x1 = 0
...... , ......

xn = 0 xn = 0
3.2. TEOREMA DE ISOMORFIA 21

mientras que la ecuacion implcita de E es 0x1 + . . . + 0xn = 0, y las parametricas son



x1 = 1
......

xn = n

Ejemplo: Fijada una base (e1 , e2 , e3 , e4 ) de un espacio vectorial E de dimension 4, consi-


deremos la subvariedad lineal X de ecuaciones parametricas

x1 = 1 + 42 + 2 x1 2 1 4
x2 1 2 3
x2 = 21 + 32 + 1
, = + 1 + 2

x3 = 31 + 22 + 1 x3 1 3 2

x4 = 41 + 2 + 3 x4 3 4 1

cuya direccion V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implcitas de la direccion V .
Si (x1 , x2 , x3 , x4 ) son las coordenadas de un vector de V , entonces

1 4 x1
1 4 x1
2 3 x2
2 = rg
3 2 x3 , 0 = 2 3 x2 = 5x1 + 10x2 5x3
3 2 x3
4 1 x4

1 4 x1

0 = 2 3 x2 = 10x1 + 15x2 5x4
4 1 x4

y las coordenadas de los vectores de V son soluciones del sistema homogeneo


}
x1 2x2 + x3 = 0
(3.3)
2x1 3x2 + x4 = 0

Como ambos subespacios vectoriales de K 4 tienen dimension 2, coinciden, y 3.3 son las
ecuaciones implcitas de V . Ahora, como X pasa por el punto de coordenadas (2, 1, 1, 3), las
ecuaciones implcitas de X son
}
x1 2x2 + x3 = 1
2x1 3x2 + x4 = 4

Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-


mension finita E, entonces

dim (V + W ) = dim V + dim W dim (V W )

Demostracion: Consideremos la aplicacion lineal f : V (V + W )/W , f (v) = [v], que es


epiyectiva, pues para toda clase [v + w] (V + W )/W tenemos que
[v + w] = [v] + [w] = [v] + 0 = f (v) ,
y su nucleo es Ker f = {v V : [v] = 0} = V W . Terminamos por 2.2.7 y 3.2.1:
dim V = dim (V W ) + dim (V + W )/W = dim (V W ) + dim (V + W ) dim W .

Corolario 3.2.5 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimen-


sion finita E. Si la suma de V y W es directa, entonces dim (V W ) = dim V + dim W .
Demostracion: De acuerdo con 2.3.1 tenemos que V W = 0, as que
dim (V + W ) = dim V + dim W dim (V W ) = dim V + dim W .
22 CAPITULO 3. APLICACIONES LINEALES

3.3. Cambio de Base


Definicion: Sea e1 , . . . , en una base de un espacio vectorial E. Si consideramos una nueva
base v1 , . . . , vn de E, tendremos escalares bij K tales que

vj = b1j e1 + . . . + bnj en , 1jn (3.4)

y diremos que B = (bij ) Mnn (K) es la matriz de cambio de base.

Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si Y son las coordenadas de un vector e E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BY .
Por otra parte, tambien tenemos una matriz de cambio de base C Mnn (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que Y = CX. Luego X = BCX y Y = CBY , y como estas igualdades son validas
para cualesquiera columnas X, Y , se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X e Y
de un mismo vector e E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es

X = BY , Y = B 1 X (3.5)

Aplicaciones Lineales
Sea f : E E una aplicacion lineal y sea A Mmn (K) la matriz de f en ciertas bases
e1 , . . . , en y e1 , . . . , em de E y E respectivamente.

Consideremos nuevas bases v1 , . . . , vn y v1 , . . . , vm de E y E respectivamente, las co-
rrespondientes matrices de cambio de base B Mnn (K) y C Mmm (K), y sea A
Mmn (K) la matriz de f en estas nuevas bases de E y E . Vamos a determinar la nueva
matriz A de f en terminos de la matriz A y las matrices de cambio de base B y C
Sean X e Y las coordenadas de un vector e E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X e Y las coordenadas de f (e) E en las bases e1 , . . . , em y

v1 , . . . , vm respectivamente. De acuerdo con 3.2 tendremos que

X = AX , Y = AY

y de acuerdo con 3.5 tendremos que Y = B 1 X , X = CY ; luego

AX = X = CY = C AY = C AB 1 X .

Como esta igualdad es valida para cualquier columna X, concluimos que

A = C AB 1 , A = C 1 AB (3.6)
Captulo 4

Geometra Eucldea

4.1. Producto Escalar


Definicion: Dar un producto escalar en un espacio vectorial real E es asignar a cada par
de vectores e, v E un numero real, que denotaremos e v (o < e | v >), de modo que se
verifiquen las siguientes condiciones:
1. Bilineal : (e + e ) v = e v + e v , (e) v = (e v),
e (v + v ) = e v + e v , e (v) = (e v).
2. Simetrico: e v = v e.
3. Definido-positivo: e e 0 , y solo se da la igualdad cuando e = 0.
Fijado un producto escalar
en un espacio vectorial real E, se llama modulo de un vector
e E al numero real + e e (que es positivo cuando e = 0) y se denota |e|, o e.
Notese que e = 2 e e = || e.
La distancia entre dos puntos p, q E es el modulo de su diferencia: d(p, q) := q p.

Ejemplos:
1. En la geometra eucldea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus modulos por el coseno del angulo que forman. Este es el ejemplo
paradigmatico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es

n
(x1 , . . . , xn ) (y1 , . . . , yn ) := xi yi = x1 y1 + . . . + xn yn .
i=1

3. Un producto escalar en C es < z1 | z2 > := z1 z2 + z1 z2 .


4. Un producto escalar en Mnn (R) es< A | B > := tr At B. Es definido-positivo porque,
si A = (aij ), entonces < A | A > = ij a2ij .
5. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado
[a, b], un producto escalar es
b
< f | g > := f (t)g(t) dt
a

23
24 CAPITULO 4. GEOMETRIA EUCLIDEA

Lema 4.1.1 Para todo par de vectores e, v E se tiene la desigualdad de Cauchy-Schwarz


|e v| e v ; y por tanto la desigualdad triangular: e + v e + v .
Demostracion: El polinomio p(t) = (te + v) (te + v) = (e e)t2 + 2(e v)t + v v es de grado
2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores negativos,
porque el producto escalar es definido-positivo, as que no puede tener dos races reales
distintas (es decir, su discriminante no puede ser positivo):

4(e v)2 4(e e)(v v) 0 ;

luego (e v)2 (e e)(v v), y tomando raz cuadrada vemos que |e v| e v.


En cuanto a la desigualdad triangular, como |e v| e v, tenemos que

e + v2 = (e + v) (e + v) = e e + v v + 2(e v) e e + v v + 2|e v|
e2 + v2 + 2e v = (e + v)2

y tomando raz cuadrada se concluye que e + v e + v.

Definicion: Si e, v = 0, de acuerdo con el lema anterior, tenemos que 1 ev


ev
1, y
diremos que el coseno del angulo que forman dos vectores no nulos e y v es
ev
cos :=
e v

(de modo que el angulo que forman e y v esta bien definido salvo un signo). El angulo que
forman 3 puntos distintos abc es el angulo que forman los vectores a b y c b. Diremos
que dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Cuando > 0, el angulo que forman e y v coincide con el que forman e y v, porque

(e) (v) (e v) ev
= =
e v || e v e v

Ejemplos:
1. Si en un triangulo abc consideramos los vectores e = b a y v = c a, de modo que
c b = v e, de la igualdad

v e2 = (v e) (v e) = v2 + e2 2(e v)

se sigue tanto el Teorema de Pitagoras (s. VI a. de C.) como su recproco:

c
e v = 0 v e2 = e2 + v2
v ve
= /2 c a2 = b a2 + c b2
a e b

2. Vamos a demostrar el Teorema de Tales (s. VI a. de C.): Si en un triangulo se traza


una recta paralela a un lado, corta a los otros dos lados en segmentos proporcionales.
Como los vectores e y v son linealmente independientes,
v v e = (v e), = =
v v
v =
e e
v e v e
= =
e e v e v e
4.1. PRODUCTO ESCALAR 25

3. Si h es el punto de corte de las alturas de un triangulo abc (rectas que pasan por un
vertice y son perpendiculares al lado opuesto) trazadas por c y a, tenemos que

(b a) (h c) = 0 (4.1)
(c b) (h a) = 0 (4.2)

y sumando obtenemos que (c a) (h b) = 0, de modo que la altura trazada por el


tercer vertice b pasa tambien por h: Las tres alturas de un triangulo se cortan en un
punto h, llamado ortocentro.

4. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por


el punto medio) de los lados ab y bc, tendremos que

0 = 2(b a) (f a+b
2 ) = (b a) 2f + a a b b (4.3)
0 = 2(c b) (f b+c
2 ) = (c b) 2f + b b c c (4.4)

y sumando obtenemos que 0 = (c a) 2f + a a c c = 2(c a) (f a+c


2 ), de modo
que la mediatriz del lado ab tambien pasa por f : las tres mediatrices se cortan en un
punto f , llamado circuncentro.
a+b+c
5. Sumando ahora 4.1 con 4.3, y 4.2 con 4.4, y recordando que el baricentro es g = 3 ,
obtenemos tambien que

(b a) (h + 2f 3g) = 0
(c b) (h + 2f 3g) = 0

Como los vectores b a, c b son linealmente independientes, porque los puntos a, b, c


no estan alineados, se sigue que h + 2f 3g = 0; es decir,

h 2f 2
g= + = h + (f h)
3 3 3
de modo que el baricentro esta en el segmento que determinan el ortocentro y el
circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).

6. Consideremos un cuadrilatero (la figura formada por cuatro puntos ordenados abcd
en los que no hay 3 alineados) y pongamos e = ba, v = da. La condicion de que sea
un paralelogramo (los lados opuestos son paralelos) es que c d = e y c b = v
para ciertos escalares , ; luego c a = e + v = e + v.
d c
e
v v

e
a b

Como los vectores e, v son linealmente independientes, porque los puntos abd no estan
alineados, se sigue que = = 1, de modo que los lados opuestos son iguales, c d =
b a y c b = d a, y las dos diagonales se bisecan mutuamente:

a+c b+d a+b+c+d


= = .
2 2 4
26 CAPITULO 4. GEOMETRIA EUCLIDEA

4.2. Espacios Vectoriales Eucldeos


Definicion: Llamaremos espacio vectorial eucldeo, en honor de Euclides (325?-265? a.
de C.), a todo espacio vectorial real E de dimension finita dotado de un producto escalar, y
diremos que el ortogonal de un subespacio vectorial V de E es:

V := {e E : e v = 0 para todo vector v V } .

Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, su


ortogonal es un subespacio vectorial de E de dimension:

dim V = dim E dim V

Demostracion: Sea v1 , . . . , vd una base de V , y consideremos la aplicacion lineal

f : E Rd , f (e) = (e v1 , . . . , e vd ) .

Su nucleo es

Ker f = {e E : e v1 = 0, . . . , e vd = 0} = (Rv1 + . . . + Rvd ) = V ,

porque si un vector e E es ortogonal a ciertos vectores, e v1 = . . . = e vd = 0, entonces


tambien es ortogonal a todas sus combinaciones lineales,

e (1 v1 + . . . + d vd ) = 1 (e v1 ) + . . . + r (e vd ) = 0 ,

de modo que e (Rv1 + . . . + Rvd ) . Luego V es un subespacio vectorial de E y

dim E = dim V + dim (Im f ) dim V + d = dim V + dim V,


3.2.1
(4.5)

donde la desigualdad se debe a que la imagen de f es un subespacio vectorial de Rd .


Por otra parte, si v V V , entonces v v = 0; luego v = 0, porque el producto escalar
es definido-positivo, y vemos que V V = 0 . Por tanto

dim V + dim V = dim (V + V ) dim E


3.2.4
(4.6)

y comparando con 4.5 concluimos que dim V + dim V = dim E.

Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, tenemos


que E = V V y que (V ) = V .
Demostracion: Como V V = 0, la suma de V y V es directa por 2.3.1 y, de acuerdo con
3.2.5, su dimension es dim (V V ) = dim V + dim V = dim E, as que 2.2.7.1 permite
concluir que V V = E.
Por otra parte, V (V ) por definicion de V , y de acuerdo con 4.2.2

dim (V ) = dim E dim (V ) = dim E (dim E dim V ) = dim V ,

as que de nuevo 2.2.7.1 permite concluir que (V ) = V .

Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucldeo E:


1. V W W V
2. V = W V = W
3. (V + W ) = V W
4. (V W ) = V + W
4.3. BASES ORTONORMALES 27

Demostracion: Si V W , es claro que W V . Recprocamente, si W V ,


entonces (V ) (W ) ; luego V W de acuerdo con 4.2.2.
2. Si V = W , entonces (V ) = (W ) ; luego V = W de acuerdo con 4.2.2.
3. Como V V + W y W V + W , tenemos que (V + W ) V y (V + W ) W ;
luego (V + W ) V W .
Ademas, si e V W , para todo vector v + w V + W tendremos que
e (v + w) = e v + e w = 0 .
Luego V W (V + W ) y concluimos que (V + W ) = V W .
4. De acuerdo con el segundo apartado, para demostrar que (V W ) = V + W
basta ver que sus ortogonales coinciden:
( ) 3 4.2.2 ( )
V + W = (V ) (W ) = V W = (V W )
4.2.2
.
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al nfimo de las distancias
de p a los puntos de X:
d(p, X) := nf d(p, x) .
xX

Existe un unico punto q X tal que p q es ortogonal a la direccion de X. Ademas,


la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = x + V , segun 4.2.2 tendremos p x = v + w donde v V y w V ,
y esta descomposicion es unica. Es decir, q = x + v es el unico punto de X tal que
p q V . Ademas, para cualquier otro punto x X, por el teorema de Pitagoras
tendremos d(p, x )2 = d(p, q)2 + d(q, x )2 , as que d(p, q) < d(p, x ) cuando x = q.
2. Si V es un subespacio vectorial de un espacio vectorial eucldeo E, de acuerdo con
4.2.2 tenemos que E = V V . La aplicacion lineal sV : E E que es la identidad
en V y transforma cada vector de V en su opuesto se llama simetra respecto de
V , y la aplicacion lineal pV : E V que es la identidad en V y se anula en todos los
vectores de V se llama proyeccion ortogonal sobre V .
Es decir, cada vector e E descompone de modo unico en suma, e = v + w, de un
vector v V y otro w V , y por definicion sV (e) = v w , pV (v + w) = v .
3. Se dice que dos subvariedades lineales X = p + V , Y = q + W de un espacio vectorial
eucldeo E son perpendiculares cuando V y W son incidentes (i.e., cuando V W
o W V ), lo que, en virtud de 4.2.3, equivale a que W y V sean incidentes.
Cuando V W , tenemos que V W W W = 0; luego V W = 0.
Cuando W V , tenemos que E = W + W V + W ; luego V + W = E.

4.3. Bases Ortonormales


Definicion: Diremos que una base u1 , . . . , un de un espacio vectorial eucldeo E es orto-
normal cuando todos los vectores de la base son de modulo 1 y mutuamente ortogonales:
{
1 cuando i = j
ui uj = ij :=
0 cuando i = j
Por definicion, en una base ortonormal el producto escalar de dos vectores e, v E de
coordenadas (x1 , . . . , xn ), (y1 , . . . , yn ) respectivamente, es
e v = (x1 u1 + . . . + xn un ) (y1 u1 + . . . + yn un ) = x1 y1 + . . . + xn yn .
28 CAPITULO 4. GEOMETRIA EUCLIDEA

Teorema 4.3.1 Todo espacio vectorial eucldeo E = 0 admite bases ortonormales.


Demostracion: Partiendo de una base e1 , . . . , en de E, mediante el metodo de ortonor-
malizacion de Gram-Schmidt obtenemos vectores u1 , . . . , un tales que ui uj = ij ,
v1
v1 = e 1 u1 = |v1 |
v2 = e2 (e2 u1 )u1 , u2 = v2
|v2 |
v3 = e3 (e3 u1 )u1 (e3 u2 )u2 , u3 = v3
|v3 |
..................
vn = en (en u1 )u1 . . . (en un1 )un1 , un = vn
|vn |

Notese que vi = 0, pues la igualdad ei = (ei u1 )u1 + . . . + (ei ui1 )ui1 e1 , . . . , ei1
dara una relacion de dependencia lineal entre los vectores e1 , . . . , ei .
Para concluir basta ver que u1 , . . . , un forman una base de E.
Como el numero de vectores coincide con la dimension de E, de acuerdo con 2.2.6 es
suficiente probar
que u 1 , . . . , un son linealmente independientes. Ahora bien, si i i ui = 0,
entonces 0 = ( i i ui ) uj = i i ij = j para todo ndice j = 1, . . . , n.
Captulo 5

Endomorfismos

5.1. Polinomios
En este captulo, de nuevo los escalares seran K = Q, R o C.

Regla de Runi (1765-1822): Sea p(x) un polinomio con coeficientes en K. Si K es


una raz de p(x), entonces p(x) es multiplo de x :
p(x) = (x )q(x) .
Demostracion: Dividiendo p(x) por x tendremos que p(x) = (x )q(x) + r, y sustitu-
yendo x = en esta igualdad obtenemos que
0 = p() = ( )q() + r = r ,
y concluimos p(x) = (x )q(x).

Definicion: Si K es una raz de un polinomio no nulo p(x) con coeficientes en K,


llamaremos multiplicidad de tal raz al mayor numero natural m tal que (x )m divida
a p(x); es decir, p(x) = (x )m q(x) donde q(x) ya no admite la raz , de acuerdo con la
Regla de Runi. Las races de multiplicidad 1 se denominan simples.

Consideremos un polinomio p(x) = 0 con coeficientes en K. Si admite una raz 1 K,


tendremos p(x) = (x 1 )m1 q1 (x), donde el polinomio q1 (x) tambien tiene coeficientes en
K y ya no admite la raz 1 . Ahora, si p(x) admite otra raz 2 K, ha de ser una raz de
q1 (x), de modo que p(x) = (x1 )m1 (x2 )m2 q2 (x). Procediendo de este modo obtenemos
una descomposicion
p(x) = (x 1 )m1 (x 2 )m2 . . . (x r )mr q(x) , (5.1)
donde 1 , . . . , r son todas las races de p(x) en K, los exponentes m1 , . . . , mr son sus
respectivas multiplicidades, y el polinomio q(x) carece de races en K. Esta descomposicion
muestra que el numero de races en K de un polinomio no nulo p(x), cada una contada con
su multiplicidad, esta acotado por el grado del polinomio, y diremos que p(x) tiene todas sus
races en K cuando se de la igualdad; i.e., cuando en 5.1 el polinomio q(x) sea constante.

Teorema de DAlembert (1717-1783): Todo polinomio no constante con coeficientes com-


plejos admite alguna raz compleja.

La demostracion de este teorema fundamental se dara en cursos posteriores. De acuerdo


con este teorema, en el caso de polinomios con coeficientes complejos, en la descomposicion
5.1 el factor q(x) ha de ser constante: El numero de races complejas de un polinomio no
constante, contadas con su multiplicidad, siempre es el grado del polinomio.

29
30 CAPITULO 5. ENDOMORFISMOS

5.2. Valores y Vectores Propios


Definicion: Llamaremos endomorfismos de un K-espacio vectorial E a las aplicaciones
K-lineales T : E E. Si S, T : E E son dos endomorfismos, su producto ST es la
composicion S T , que tambien es un endomorfismo de E.
Dado un endomorfismo T de un K-espacio vectorial E, diremos que un escalar K es
un valor propio de T si existe algun vector no nulo e E tal que T (e) = e, en cuyo caso
diremos que e es un vector propio de T y pondremos

V := {e E : T (e) = e} = {e E : Id(e) T (e) = 0} = Ker (Id T )

de modo que V es un subespacio vectorial de E, y V = 0.

Definicion: Fijada una base e1 , . . . , en de E, cada endomorfismo T : E E esta determi-


nado por su matriz A = (aij ) Mnn (K) en tal base:

n
T (ej ) = aij ei , j = 1, . . . , n .
i=1

y diremos que el polinomio



x a11 a12 ... a1n
( )
a21 x a22 ... a2n n
cT (x) := = xn aii xn1 + . . . + (1)n |A|
. . . ... ... ... i=1
an1 an2 . . . x ann
es el polinomio caracterstico de T , pues no depende de la base elegida, solo de T .
En efecto, si se considera una nueva base en E, y B es la matriz del cambio de base,
segun 3.6 la matriz A de T en la nueva base es

A = B 1 AB (5.2)

y tenemos que

|xI A| = |xB 1 IB B 1 AB| = |B 1 (xI A)B| = |B 1 | |xI A| |B| =


= |B 1 | |B| |xI A| = |B 1 B| |xI A| = |I| |xI A| = |xI A| .

Teorema 5.2.1 Sea T un endomorfismo de un K-espacio vectorial de dimension finita E.


Los valores propios de T son las races en K de su polinomio caracterstico cT (x).
Demostracion: Sea n = dim E. Por definicion, K es un valor propio de T precisamente
cuando 0 = Ker (Id T ); es decir, si y solo si
( ) 3.2.2
0 < dim Ker (Id T ) = n rg (I A) ;

lo que significa que rg (I A) < n, y ocurre justo cuando cT () = |I A| = 0.

Corolario 5.2.2 El numero de valores propios de un endomorfismo T de un espacio vecto-


rial E de dimension n siempre es menor o igual que n.
Demostracion: El grado del polinomio caracterstico cT (x) es n = dim E, y el numero de
races en K de un polinomio siempre esta acotado por el grado del polinomio.

Corolario 5.2.3 Todo endomorfismo de un espacio vectorial complejo de dimension finita


tiene algun valor propio.
Demostracion: Es consecuencia directa de 5.2.1 y del Teorema de DAlembert.
5.3. DIAGONALIZACION DE ENDOMORFISMOS 31

Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterstico c(x) =


xn + . . . + c1 x + c0 de un endomorfismo T de un K-espacio vectorial de dimension finita E
siempre anula al endomorfismo: c(T ) = T n + . . . + c1 T + c0 Id = 0 .

Demostracion: Si A Mnn (K) es la matriz de T en una base de E, la matriz del endo-


morfismo c(T ) es c(A) = An + . . . + c1 A + c0 I = 0, as que el teorema afirma que c(A) = 0,
donde c(x) = |xI A|; luego basta probarlo en el caso K = C.
En tal caso procedemos por induccion sobre n = dim E. Si n = 1, entonces A = (a) para
algun escalar a C. Luego c(x) = x a y c(A) = A aI = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorfismo T tiene algun valor propio C.
Consideremos un vector propio e1 E de valor propio , y una base e1 , . . . , en en E. La
matriz A de T en esta base es de la forma
( )
...
A=
0 A

para cierta matriz cuadrada A de n 1 columnas. Luego c(x) = (x )c(x), donde c(x) =
|xI A| y, por hipotesis de induccion, c(A) = 0. Ahora
( r )
...
Ar =
0 Ar
( )( ) ( )( )
0 ... c() ... 0 ... c() ...
c(A) = (A I)c(A) = = =0.
0 B 0 c(A) 0 B 0 0

5.3. Diagonalizacion de Endomorfismos


Definicion: Diremos que un endomorfismo T de un K-espacio vectorial de dimension finita
E es diagonalizable si existe alguna base e1 , . . . , en de E formada por vectores propios de
T ; i.e., T (ej ) = j ej para ciertos escalares j K, lo que significa que la matriz de T en
tal base es diagonal (todos sus coeficientes son nulos, salvo quizas los de la diagonal):

1 0 . . . 0
0 2 . . . 0
D =
. . . . . . . . . . . .
0 0 . . . n
De acuerdo con 5.2, un endomorfismo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B 1 AB es una matriz diagonal D. En tal caso A = BDB 1 ,
y es sencillo calcular las potencias Am (y por tanto, la solucion general Xm = Am X0 del
sistema de ecuaciones en diferencias finitas Xm+1 = AXm ), porque
Am = (BDB 1 )(BDB 1 ) . . . (BDB 1 ) = BDm B 1 .
Igualmente, la solucion general del sistema de ecuaciones diferenciales X = AX es X = B X,
donde X es la solucion general del sistema X = DX. En efecto:
X = B X = BDX = BDB 1 X = AX .
Ahora, para resolver el sistema X = DX; es decir, xi = i xi , basta observar que la
solucion general de la ecuacion diferencial x = x es
x
= = (ln x)
x
ln x = + t
x(t) = e+t = cet .
32 CAPITULO 5. ENDOMORFISMOS

Ejemplos:
1. Para resolver la ecuacion diferencial x = ax + bx, a, b R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
{ ( ) ( )( ) ( )
x = y x 0 1 x 0 1
, = , A=
y = ay + bx y b a y b a

El polinomio caracterstico del endomorfismo A : R2 R2 es



u 1
c(u) = |uI A| = = u2 au b .
b u a

Si el polinomio caracterstico u2 aub tiene dos races reales y distintas (a2 +4b > 0)

a a2 + 4b
1 , 2 =
2
estas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogeneos
( )( ) ( ) ( )( ) ( )
1 1 x1 0 2 1 x1 0
= , =
b 1 a x2 0 b 2 a x2 0
1 x1 x2 = 0 , 2 x1 x2 = 0

Los vectores propios e1 = (1, 1 ) y e2 = (1, 2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:
( ) ( )
1 0 1 1
D= = B 1 AB , B=
0 2 1 2

Ahora resolvemos el sistema de ecuaciones diferenciales X = DX:


( ) ( )( ) { {
x 1 0 x x = 1 x x = c1 e1 t
= , ,
y 0 2 y y = 2 y y = c2 e2 t

y la solucion general del sistema de ecuaciones diferenciales X = AX es X = B X:


( ) ( ) ( t)
x 1 1 c1 e 1
=
y 1 2 c2 e2 t

x(t) = c1 e1 t + c2 e2 t c1 , c2 R .

2. Si el polinomio caracterstico u2 au b tiene dos races imaginarias (a2 + 4b < 0)



a a2 4b
i = i ,
2 2
sustituimos R por C en el razonamiento anterior, y consideramos funciones con valores
complejos. La solucion general de la ecuacion diferencial x = ax + bx es
( )
x(t) = c1 e(+i)t +c2 e(i)t = et c1 eit +c2 eit , c1 , c 2 C

En las soluciones reales c1 y c2 han de ser conjugados, c1 = ei y c2 = ei , as que


( )
x(t) = et ei(t+) + ei(t+)

x(t) = c et cos(t + ) c, R .
5.3. DIAGONALIZACION DE ENDOMORFISMOS 33

3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesion incognita (yn ):
{ ( ) ( )( )
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn

cuya solucion general es Xn = An X0 . Cuando a2 +4b = 0, la matriz A es diagonalizable,


A = BDB 1 , de modo que la solucion general es Xn = BDn B 1 X0 :
( ) ( )( n )( )1 ( )
xn 1 1 1 0 1 1 x0
=
yn 1 2 0 2n 1 2 y0

( ) ( )( ) ( ) ( )1 ( )
xn 1n 2n c1 c1 1 1 x0
= , = (5.3)
yn 1n+1 2n+1 c2 c2 1 2 y0

xn = c1 1n + c2 2n

4. La sucesion de Fibonacci (1170-1250) es la sucesion 0, 1, 1, 2, 3, 5, 8, 13,... cuyos


terminos iniciales son x0 = 0, x1 = 1, y cada termino es la suma de los dos anteriores:
1
n . Como las races del polinomio u u 1 son 1 = y 2 =
2
xn+2 = xn+1 + x ,

donde = (1 + 5)/2 1 618... es la llamada proporcion aurea, el termino general
de la sucesion de Fibonacci es

xn = c1 n + c2 ()n . (5.4)

Las constantes c1 y c2 pueden determinarse a partir de los terminos iniciales x0 = 0,


y0 = x1 = 1 mediante la formula 5.3, o bien resolviendo el sistema de ecuaciones
lineales que se obtiene al dar los valores n = 0 y n = 1 en 5.4:
}
c1 + c2 = x0 = 0 1 1
, c1 = = , c2 = c1 .
c1 c2 1 = x1 = 1 + 1
5

n ()n
xn = .
5

Lema 5.3.1 Sean 1 , . . . , r todos los valores propios de un endomorfismo T de un espacio


vectorial E de dimension finita. T es diagonalizable si y solo si V1 + . . . + Vr = E.
Demostracion: Si T es diagonalizable, por definicion V1 + . . . + Vr contiene una base de
E, y como es un subespacio vectorial de E, concluimos que V1 + . . . + Vr = E.
Recprocamente, si V1 + . . . + Vr = E, considerando una base en cada sumando Vi
vemos que E admite un sistema de generadores formado por vectores propios de T , y 2.2.2
permite concluir que E admite una base formada por vectores propios de T ; es decir, que T
es diagonalizable.

Teorema 5.3.2 Si 1 , . . . , m son valores propios de un endomorfismo T , distintos entre


s, entonces la suma de los subespacios vectoriales V1 , . . . , Vm es directa, y por tanto

dim (V1 + . . . + Vm ) = dim V1 + . . . + dim Vm .

Demostracion: Segun la definicion de suma directa, hemos de probar que es inyectiva la


siguiente aplicacion lineal:

s : V1 . . . Vm V1 + . . . + Vm , s(v1 , . . . , vm ) = v1 + . . . + vm .
34 CAPITULO 5. ENDOMORFISMOS

Procedemos por induccion sobre m, y el enunciado es obvio cuando m = 1.


Si m > 1 y v1 + . . . + vm = 0, donde vi Vi , tendremos que
0 = T (v1 + . . . + vm ) = 1 v1 + . . . + m vm
y restando la igualdad 0 = m (v1 + . . . + vm ) obtenemos que
0 = (1 m )v1 + . . . + (m1 m )vm1 .
Por hipotesis de induccion, se sigue que (1 m )v1 = . . . = (m1 m )vm1 = 0. Como
i = j cuando i = j, concluimos que v1 = . . . = vm1 = 0, y por tanto que tambien
vm = v1 . . . vm1 = 0.
Por ultimo, dim (V1 . . . Vm ) = dim V1 + . . . + dim Vm de acuerdo con 3.2.5.

Corolario 5.3.3 Si un endomorfismo T de un K-espacio vectorial E de dimension n tiene


n valores propios distintos (su polinomio caracterstico tiene todas sus races en K y son
simples), entonces T es diagonalizable.
Demostracion: Si 1 , . . . , n son los valores propios de T , tenemos que 1 dim Vi as que
5.3.2
n dim V1 + . . . + dim Vn = dim (V1 + . . . + Vn ) dim E = n .
Luego dim (V1 + . . . + Vn ) = n, de modo que V1 + . . . + Vn = E y T es diagonalizable
de acuerdo con 5.3.1.

Criterio de Diagonalizacion: Un endomorfismo T de un K-espacio vectorial de dimen-


sion finita E es diagonalizable si y solo si su polinomio caracterstico cT (x) tiene todas sus
races en K y la multiplicidad mi de cada raz i coincide con la dimension de Vi :
mi = dim Vi .
Demostracion: Si T es diagonalizable, por definicion su matriz en alguna base de E es

1 0 . . . 0
0 2 . . . 0
D =
. . . . . . . . . . . .
0 0 . . . n

as que su polinomio caracterstico cT (x) = |xI D| = (x 1 ) . . . (x n ) claramente tiene


todas sus races en K, y la multiplicidad mi de cada raz i es el numero de veces que se
repite i en la sucesion 1 , . . . , n , de modo que rg (D i I) = n mi y
3.2.2 ( )
mi = n rg (i I D) = dim Ker (i Id T ) = dim Vi .
Recprocamente, sean 1 , . . . , r K las races en K de cT (x) y m1 , . . . , mr sus respec-
tivas multiplicidades. Si cT (x) tiene todas sus races en K, entonces
m1 + . . . + mr = gr cT (x) = dim E .
Si ademas mi = dim Vi para todo ndice i = 1, . . . , r, entonces
5.3.2
dim (V1 + . . . + Vr ) = dim V1 + . . . + dim Vr = m1 + . . . + mr = dim E,
y obtenemos que V1 + . . . + Vr = E. Luego T es diagonalizable de segun 5.3.1.

Nota: Si A es la matriz de T en una base de E, de acuerdo con 3.2.2 tenemos que


( )
dim Vi = dim Ker (i I T ) = n rg (i I A) .
Indice alfabetico

altura, 25 ecuaciones
aplicacion, 4 implcitas, 20
biyectiva, 4 parametricas, 20
epiyectiva, 4 endomorfismo, 30
inversa, 4 diagonalizable, 31
inyectiva, 4 epiyectiva, aplicacion, 4
lineal, 17 equivalencia
argumento, 3 , clase de, 1
aurea, proporcion, 33 , relacion de, 1
escalar, 6
baricentro, 13 , producto, 23
base, 11 espacio vectorial, 9
, cambio de, 22 cociente, 11
ortonormal, 27 eucldeo, 26
biyectiva, aplicacion, 4 Euler
, formula de, 3
cambio de base, 22 , recta de, 25
caracterstico, polinomio, 30 exponencial compleja, 4
ciclo, 5
circuncentro, 25 generadores, sistema de, 11
clase de equivalencia, 1 Gram-Schmidt, metodo de, 28
cociente
, conjunto, 1 Hamilton-Cayley, teorema de, 31
, espacio vectorial, 11
complejos, numeros, 2 identidad, 4
composicion, 4 imagen, 4, 17
congruencia, 1, 10 imaginaria, parte, 2
conjugado, 2 impar, permutacion, 5
conjunto cociente, 1 implcitas, ecuaciones, 20
coordenadas, 12 independencia lineal, 11
coseno, 24 inversa
Cramer, regla de, 7 , aplicacion, 4
cuadrilatero, 25 , matriz, 6
invertible, matriz, 6
DAlembert, teorema de, 29 inyectiva, aplicacion, 4
dependencia lineal, 11 isomorfa, teorema de, 19
determinante, 6 isomorfismo, 19
diagonalizable, endomorfismo, 31
diagonalizacion, criterio de, 34 lineal
dimension, 13 , aplicacion, 17
direccion, 10 , dependencia, 11
directa, suma, 16 , independencia, 11
disjuntos, ciclos, 5 , subvariedad, 10
distancia, 23, 27 logaritmo neperiano, 4

35
36 INDICE ALFABETICO

modulo signo de una permutacion, 5


de un numero complejo, 2 simetra, 27
de un vector, 23 simple, raz, 29
matriz, 6 sistema de generadores, 11
, determinante de una, 6 subespacio vectorial, 9
, menor de una, 7 subvariedad lineal, 10
, rango de una, 7 suma
invertible, 6 de subespacios vectoriales, 10
traspuesta, 6 directa, 16
unidad, 6 suplementario, 16
mediana, 13
mediatriz, 25 Tales, teorema de, 24
medio, punto, 13 trasposicion, 5
menor de una matriz, 7 traspuesta, matriz, 6
multiplicidad de una raz, 29 triangulo, 13

nucleo, 17 unidad, matriz, 6

ortocentro, 25 valor propio, 30


ortogonal vector, 9
, proyeccion, 27 propio, 30
, subespacio vectorial, 26
ortonormal, base, 27

paralelismo, 10
paralelogramo, 25
parametricas, ecuaciones, 20
permutacion, 4
impar, 5
par, 5
perpendicularidad, 27
Pitagoras, teorema de, 24
plano, 13
polinomio caracterstico, 30
producto
de matrices, 6
de numeros complejos, 2
escalar, 23
propio
, valor, 30
, vector, 30
proyeccion
ortogonal, 27
punto, 9

raz simple, 29
rango, 7
, teorema del, 7
real, parte, 2
recta, 13
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 7, 15
Runi, regla de, 29