Apuntes de

´
Algebra Lineal
Carolina B. Becerra O.
Agosto 2012
2
´
Indice general
1. Vectores en R
n
5
2. Sistemas de ecuaciones 11
3. Matrices 15
4. Determinantes 25
5. Espacios vectoriales 27
6. Transformaciones lineales 33
7. Valores y vectores propios 39
8. Ortogonalidad 43
9. Matrices Sim´etricas 49
3
4
´
INDICE GENERAL
Cap´ıtulo 1
Vectores en R
n
Definici´on 1.1. El conjunto de n tuplas ordenadas de n´ umeros reales se
denota por R
n
y a sus elementos se les llama vectores.
R
n
=
_
_
_
v =
_
_
x
1
.
.
.
x
n
_
_
tal que x
1
, . . . , x
n
∈ R
_
_
_
A x
1
, . . . , x
n
se les llama componentes o coordenadas del vector v. Al vector
cuyas componentes son todas 0 se le llama vector nulo y se denota por
−→
0 .
Definici´on 1.2. Vectores can´onicos:
e
i
=
_
¸
¸
¸
¸
¸
¸
¸
_
0
.
.
.
0
1
0
.
.
.
0
_
¸
¸
¸
¸
¸
¸
¸
_
←i , para i = 1, . . . , n
Definici´on 1.3. Dados u, v ∈ R
n
la suma de u y v, denotada por u +v es el
vector cuyas componentes son la suma de las respectivas componentes de u
y v. Dado α ∈ R, la ponderaci´on de u por el escalar α ∈ R es el vector cuyas
componentes son el producto de α por las respectivas componentes de u. Es
decir:
Si u =
_
_
x
1
.
.
.
x
n
_
_
, v =
_
_
y
1
.
.
.
y
n
_
_
, entonces u +v =
_
_
x
1
+ y
1
.
.
.
x
n
+ y
n
_
_
, αu =
_
_
αx
1
.
.
.
αx
n
_
_
.
5
6 CAP
´
ITULO 1. VECTORES EN R
N
Proposici´on 1.4. Sean u, v, w ∈ R
n
y α, β ∈ R. Entonces las operaciones
anteriores satisfacen:
u +v ∈ R
n
.
(u + v) +w = u + (v +w).
u +v = v +u.
u +
−→
0 = u.
u + (−u) =
−→
0 .
αu ∈ R
n
.
α(u +v) = αu +αv.
(α + β)u = αu +βu.
α(βu) = (αβ)u.
1 u = u.
Observaci´on 1.5. Sea α ∈ R y u ∈ R
n
. αu =

0 si y s´olo si α = 0 o u =

0.
Definici´on 1.6. Sean u, v ∈ R
n
, el producto punto de u y v, denotado por
u · v, es la suma de los respectivos productos entre coordenadas. Es decir
Si u =
_
_
x
1
.
.
.
x
n
_
_
, v =
_
_
y
1
.
.
.
y
n
_
_
, entonces u · v = x
1
y
1
+. . . +x
n
y
n
=
n

i=1
x
i
y
i
.
Proposici´on 1.7. Sea u, v, w ∈ R
n
y α ∈ R. Entonces el producto punto
satisface:
u · v ∈ R.
u ·

0 =

0.
u · v = v · u.
u · (v +w) = u · v +u · w.
α(u · v) = (αu) · v.
7
u · u ≥ 0 y u · u = 0 ↔u =

0.
Ejemplo 1.8. e
i
· e
j
=
_
1 si i = j
0 si i ̸= j.
para todo i, j = 1, . . . , n.
Definici´on 1.9. Norma de un vector: Dado u =
_
_
x
1
.
.
.
x
n
_
_
∈ R
n
,
∥u∥ =

n

i=1
x
i
2
=

u · u.
Definici´on 1.10. Vector unitario: vector que tiene norma 1.
Definici´on 1.11. Distancia entre vectores: d(u, v) = ∥u −v∥.
Ejemplo 1.12. ∥e
i
∥ = 1 para todo i = 1 . . . n.
d(e
i
, e
j
) =
_
0 si i = j

2 si i ̸= j.
para todo i, j = 1, . . . , n.
Proposici´on 1.13. Sean α ∈ R y u, v ∈ R
n
. Entonces
∥αu∥ = |α|∥u∥.
∥u +v∥
2
= ∥u∥
2
+∥v∥
2
+ 2u · v.
|u · v| ≤ ∥u∥∥v∥.
∥u +v∥ ≤ ∥u∥ +∥v∥.
Definici´on 1.14. Sean u, v ∈ R
n
−{

0}. El ´angulo θ entre dos vectores es tal
que: cos(θ) =
u · v
∥u∥∥v∥
.
Ejemplo 1.15. θ(e
i
, e
j
) =
_
0 si i = j
π/2 si i ̸= j.
para todo i, j = 1, . . . , n.
Definici´on 1.16. Sea {v
1
, . . . , v
m
} ⊆ R
n
. Una combinaci´on lineal de los
vectores v
1
, . . . , v
m
es el vector
α
1
v
1
+ . . . +α
m
v
m
,
donde α
i
∈ R, para algunos α
1
, . . . , α
m
∈ R.
8 CAP
´
ITULO 1. VECTORES EN R
N
Definici´on 1.17. Sea S ⊆ R
n
. El conjunto generado por S, denotado por
< S > es el conjunto de todas las combinaciones lineales de vectores de S.
Ejemplo 1.18. < e
1
, . . . e
n
>= R
n
.
Proposici´on 1.19. Sean S, S
1
, S
2
⊆ R
n
. Entonces
< ϕ >=<
−→
0 >= {
−→
0 }.
−→
0 ∈< S >.
< S > es cerrado bajo la suma y multiplicaci´on por escalar.
S ⊂< S >.
S
1
⊂ S
2
→< S
1
>⊂< S
2
>.
S
1
⊂< S
2
>→< S
1
>⊂< S
2
>.
< S >=<< S >>.
Teorema 1.20. Sea S = {v
1
, v
2
, . . . , v
m
} ⊆ R
n
.
Si v
1
es combinaci´on lineal de v
2
, . . . , v
m
, entonces
< v
1
, v
2
, . . . , v
m
>=< v
2
, . . . , v
m
>
Definici´on 1.21. Sea S = {v
1
, v
2
, . . . , v
m
} ⊆ R
n
.
S es linealmente dependiente (LD) si existen escalares α
1
, . . . , α
m
no todos nulos tal que α
1
v
1
+ . . . + α
m
v
m
=
−→
0 . (se puede construir al
vector cero de manera no trivial).
S es linealmente independiente (LI) si no es LD, es decir si para
cualquier combinaci´on lineal α
1
v
1
+. . . +α
m
v
m
=
−→
0 , se tiene necesari-
amente que α
1
= . . . = α
m
= 0. (la ´ unica manera de construir al vector
cero es la trivial).
Observaci´on 1.22. Si

0 ∈ S ⊆ R
n
, entonces S es LD.
Proposici´on 1.23. Sea S ⊆ R
n
. Entonces
S es LD si y s´olo si existe un vector de S que es combinaci´on lineal del
resto de los vectores de S.
9
S es LI si y s´olo si todo subconjunto de S es LI.
Definici´on 1.24. Recta en R
2
. Sea d ∈ R
2
no nulo, L = {x ∈ R
2
tal que x =
u +αd, α ∈ R}. Si u =

0 se dice que L pasa por el origen.
Definici´on 1.25. Recta en R
3
. Sea d ∈ R
3
no nulo, L = {x ∈ R
3
tal que x =
u +αd, α ∈ R}. Si u =

0 se dice que L pasa por el origen.
Definici´on 1.26. Recta en R
n
. Sea d ∈ R
n
no nulo, L = {x ∈ R
n
tal que x =
u +αd, α ∈ R}. Si u =

0 se dice que L pasa por el origen.
Definici´on 1.27. Plano en R
3
. Sea d
1
, d
2
∈ R
n
L.I, Π = {x ∈ R
n
tal que x =
u +αd
1
+βd
2
, α, β ∈ R}. Si u =

0 se dice que Π pasa por el origen.
Definici´on 1.28. Sean u ∈ R
n
y b ∈ R. El hiperplano definido por u y b es
H = {x ∈ R
n
: x · u = b}. Si b = 0, se dice que pasa por el origen.
Ejemplo 1.29. En R
4
sea H = {x ∈ R
4
: x
1
+x
2
−2x
3
−x
4
= 0 tal que x
1
, x
2
, x
3
, x
4

R}.
x ∈ H ↔x =
_
¸
_
x
1
x
2
x
3
x
1
+ x
2
−2x
3
_
¸
_
para x
1
, x
2
, x
3
∈ R.
x ∈ H ↔x = x
1
_
¸
_
1
0
0
1
_
¸
_
+x
2
_
¸
_
0
1
0
1
_
¸
_
+ x
3
_
¸
_
0
0
1
−2
_
¸
_
para x
1
, x
2
, x
3
∈ R.
Por lo tanto H =<
_
¸
_
1
0
0
1
_
¸
_
,
_
¸
_
0
1
0
1
_
¸
_
,
_
¸
_
0
0
1
−2
_
¸
_
>.
Observaci´on 1.30. Todo hiperplano en R
n
que pasa por el origen es un
conjunto generado por (n − 1) vectores L.I. Todo hiperplano en R
n
es la
suma de un vector posici´on y un conjunto generado por (n −1) vectores L.I.
Todo hiperplano en R
3
es un plano en R
3
.
Observaci´on 1.31. Problema importante: ¿ Todo plano en R
3
es un hiper-
plano?
Observaci´on 1.32. Problema importante: Dado un conjunto S y un vector
b en R
n
. ¿b ∈< S >?
10 CAP
´
ITULO 1. VECTORES EN R
N
Cap´ıtulo 2
Sistemas de ecuaciones
Definici´on 2.1. Una matriz es un arreglo ordenado de m vectores de R
n
.
Notaci´on: A = [v
1
v
2
. . . v
m
]. Se dice que A es una matriz de n ×m, donde
m es el n´ umero de columnas y n es el n´ umero de filas.
Si v
j
=
_
_
a
1,j
.
.
.
a
n,j
_
_
para j = 1, . . . , m, entonces A = (a
i,j
), donde a
i,j
son los
coeficientes o entradas de la matriz.
Definici´on 2.2. Matriz nula es tal que todos sus coeficientes son 0.
Definici´on 2.3. Matriz cuadrada es tal que n = m.
Definici´on 2.4. Matriz identidad es una matriz cuadrada denotada por I
tal que I = [e
1
. . . e
n
].
Definici´on 2.5. Dada A = [v
1
v
2
. . . v
m
] de n ×m y x =
_
_
x
1
.
.
.
x
m
_
_
∈ R
m
, el
producto de A por x es Ax = x
1
v
1
+x
2
v
2
+ . . . +x
m
v
m
∈ R
n
.
Proposici´on 2.6. Sea A de n ×m, x, y ∈ R
m
y α ∈ R. Entonces
A(x +y) = Ax +Ay.
A(αx) = αAx.
A

0 =

0.
11
12 CAP
´
ITULO 2. SISTEMAS DE ECUACIONES
Observaci´on 2.7. Todo sistema de ecuaciones se puede escribir de la forma
matricial Ax = b.
Definici´on 2.8. Un sistema de ecuaciones Ax = b es tal que A es una matriz
de n ×m asociada al sistema, b ∈ R
n
y x ∈ R
m
. [A b] es la matriz ampliada
del sistema.
El sistema es homog´eneo si b =
−→
0 y no homog´eneo si b ̸=
−→
0 . El sistema es
consistente si tiene soluci´on e inconsistente si no tiene soluci´on.
Definici´on 2.9. Una matriz se dice que est´a en la forma escalonada (F.E.)
si:
1. a
1,1
̸= 0.
2. Si el pivote de la fila i est´a en la columna j, entonces el pivote de la
fila i +1 est´a en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la fila).
3. Las filas nulas est´an al final de la matriz.
Definici´on 2.10. Una matriz se dice que est´a en la forma escalonada re-
ducida (F.E.R.) si:
1. Est´a es la F.E.
2. Todos los pivotes son iguales a 1.
3. Los vectores columna que contienen pivotes son can´onicos.
Definici´on 2.11. Dada una matriz, las operaciones fila son:
1. Tipo I: Intercambiar dos filas: F
i
↔F
j
.
2. Tipo II: Multiplicar una fila por un escalar no nulo: F
i
→λF
i
.
3. Tipo III: (pivotear) Sumar a una fila, un m´ ultiplo escalar de otra:
F
i
→F
i
+ λF
j
.
Observaci´on 2.12. Para solucionar un sistema de ecuaciones se lleva la
matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
13
Observaci´on 2.13. Lo anterior funciona pues si [A|b] ∼ [A

|b

], entonces
Ax = b ↔A

x = b

.
Teorema 2.14. Sea el sistema de ecuaciones Ax = b con A de n ×m, y M
la F.E.R. de la matriz M = [A b].
Para b ̸=

0, el sistema
es inconsistente si y s´olo si M tiene una fila de la forma [0 . . . 0 c] con
c ̸= 0,
es consistente y tiene soluci´on ´ unica si y s´olo si M tiene m pivotes,
es consistente y tiene infinitas soluciones si y s´olo si M tiene menos de
m pivotes (hay variables libres).
Para b =
−→
0 el sistema es consistente (
−→
0 es soluci´on) y
tiene soluci´on ´ unica si y s´olo si F.E. de A tiene m pivotes,
tiene infinitas soluciones si y s´olo si F.E. de A tiene menos de m pivotes
(hay variables libres).
Definici´on 2.15. Rango de un sistema: n´ umero de pivotes de la forma
escalonada de la matriz ampliada del sistema. Rango de una matriz: n´ umero
de pivotes de la forma escalonada del sistema homog´eneo asociado a la ma-
triz.
Teorema 2.16. Sea el sistema Ax = b, u tal que Au = b y los conjuntos
C
1
= {x : Ax = b} y C
2
= {y : Ay =

0}. Entonces x ∈ C
1
si y s´olo si
x −u ∈ C
2
.
Proposici´on 2.17. Sea S = {v
1
, . . . , v
m
} ⊂ R
n
y A = [v
1
. . . v
m
]. S es L.I.
si y s´olo si el sistema Ax =

0 tiene soluci´on ´ unica.
Proposici´on 2.18. Sea S = {v
1
, . . . , v
m
} ⊂ R
n
y A una matriz cuyas filas
son los vectores del conjunto S. S es L.I. si y s´olo si la F.E. de la matriz A
no tiene filas nulas.
Teorema 2.19. Sea v
1
, . . . , v
m
un conjunto de vectores de R
n
. Si m > n,
entonces v
1
, . . . , v
m
es L.D.
14 CAP
´
ITULO 2. SISTEMAS DE ECUACIONES
Observaci´on 2.20. Sea S = {v
1
, . . . , v
m
} ⊂ R
n
, A = [v
1
. . . v
m
] y b ∈ R
n
.
Entonces b ∈< v
1
, . . . , v
m
> si y s´olo si el sistema Ax = b es consistente.
Observaci´on 2.21. Sea A de n × m y b
1
, . . . b
r
∈ R
n
, para resolver Ax =
b
1
, Ax = b
2
, . . . , Ax = b
r
se escalona una ´ unica matriz [A b
1
b
2
. . . b
r
] y se
interpreta la soluci´on para cada sistema por separado.
Observaci´on 2.22. Para buscar la intersecci´on de n hiperplanos, se resuelve
el sistema asociado a las n ecuaciones.
Cap´ıtulo 3
Matrices
Definici´on 3.1. Sea A una matriz de n × m, se define una funci´on T
A
:
R
m
→R
n
, dada por
T
A
(x) = Ax
Ejemplo 3.2. A =
_
1 −2 1
0 1 3
_
, entonces T
A
_
1
2
3
_
=
_
0
11
_
.
Observaci´on 3.3. El dominio de esta funci´on es R
m
. La imagen de

0 ∈ R
m
es

0 ∈ R
n
.
Proposici´on 3.4. Sea A una matriz de n ×m, la funci´on T
A
se dice que es
lineal pues para x, y ∈ R
m
y α ∈ R
T
A
(x + y) = A(x +y) = Ax +Ay = T
A
(x) +T
A
(y),
T
A
(αx) = A(αx) = αAx = αT
A
(x).
Observaci´on 3.5. En adelante la funci´on T
A
se denotar´a por A.
Definici´on 3.6. M
n,m
(R) es el conjunto de todas las matrices de n ×m con
coeficientes reales.
Definici´on 3.7. Sean A = [v
1
. . . v
m
] , B = [u
1
. . . u
m
] ∈ M
n,m
(R) y α ∈ R.
La operaciones suma y multiplicaci´on por escalar de matrices se definen por
A +B = [v
1
+u
1
. . . v
m
+u
m
] , αA = [αv
1
. . . αv
m
].
Observaci´on 3.8. −1 · A = −A.
15
16 CAP
´
ITULO 3. MATRICES
Proposici´on 3.9. Sean A, B, C ∈ M
n,m
(R) y α, β ∈ R. Entonces
A +B ∈ M
n,m
(R).
(A +B) + C = A + (B + C).
A +B = B +A.
A + 0 = A.
A + (−A) = 0.
αA ∈ M
n,m
(R).
α(A +B) = αA +αB.
(α + β)A = αA + βA.
α(βA) = (αβ)A.
1 A = A.
Definici´on 3.10. Sea A de n ×m y B de m×p, tal que B = [u
1
. . . u
p
], el
producto de A por B es la matriz A · B = [A · u
1
. . . A · u
p
] de n ×p.
Proposici´on 3.11. Sean A, B, C matrices tal que las siguientes operaciones
est´an bien definidas y α ∈ R. Entonces
A(BC) = (AB)C.
α(AB) = (αA)B = A(αB).
A(B + C) = AB +AC.
(A +B)C = AC +BC.
IA = AI = A.
0A = A0 = 0.
Observaci´on 3.12. En general el producto de matrices no es conmutativo.
A =
_
0 1
0 0
_
, B =
_
1 0
0 0
_
y AB =
_
0 0
0 0
_
̸=
_
0 1
0 0
_
= BA.
17
Definici´on 3.13. Sea A de n ×m, la trasnpuesta de A denotada por A
t
es
de m × n y es la matriz que resulta de intercambiar las filas de A por las
columnas de la A.
Ejemplo 3.14. Si A =
_
0 1
2 3
4 −1
_
, entonces A
t
=
_
0 2 4
1 3 −1
_
.
Proposici´on 3.15. Sean A, B matrices tal que las siguientes operaciones
est´an bien definidas y α ∈ R. Entonces
(A
t
)
t
= A.
α(A
t
) = (αA)
t
.
(A +B)
t
= A
t
+B
t
.
(AB)
t
= B
t
A
t
.
Definici´on 3.16. Sea A = (a
i,j
) de n ×n.
A es triangular superior si a
i,j
= 0 para todo i > j.
A es triangular inferior si a
i,j
= 0 para todo i < j.
A es diagonal si a
i,j
= 0 para todo i ̸= j.
A es sim´etrica si A = A
t
.
A es antisim´etrica si A = −A
t
.
Definici´on 3.17. Sea A de n ×m.
Ker(A) = {x ∈ R
m
: Ax =
−→
0 }. Es el conjunto de pre-im´agenes del
vector cero. Es el conjunto soluci´on del sistema homog´eneo asociado a
la matriz A. Es un subconjunto de R
m
.
Im(A) = {b ∈ R
n
: ∃x ∈ R
m
: Ax = b}. Es el recorrido de la funci´on
dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de R
n
.
18 CAP
´
ITULO 3. MATRICES
C(A) es el conjunto generado por las columnas de la matriz A. Es el
recorrido de la funci´on dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de R
n
. (Est´a generado por las columnas de la matriz que en su forma
escalonada est´an en las posiciones pivotes).
F(A) es el conjunto generado por las filas de la matriz A. Es un sub-
conjunto de R
m
. (Est´a generado por las filas no nulas de la forma
escalonada de la matriz).
Observaci´on 3.18. Im(A) = C(A) = F(A
t
).
Teorema 3.19. Sea A de n ×m. Entonces
A es 1-1 (inyectiva) si y s´olo si Ker(A) = {
−→
0 }.
A es sobreyectiva si y s´olo si Im(A) = R
n
.
Teorema 3.20. Sea A de n ×m. Entonces
Filas de A son L.D.
↔ Existe una fila que es combinaci´on lineal del resto.
↔ f
n
= α
1
f
1
+. . . + α
n−1
f
n−1
(sin perder generalidad)
↔ La FER de A tiene por lo menos una fila nula
(haciendo las operaciones del tipo III necesarias).
Filas de A son L.I.
↔ La F.E.R. de A tiene no tiene filas nulas.
↔ Todas las filas de la F.E.R. de A contienen pivotes.
↔ Rango de A es n.
A es 1-1
↔ Ker(A) = {
−→
0 }.
↔ Ax =
−→
0 tiene soluci´on ´ unica.
↔ Columnas de A son L.I.
↔ Rango de A es m.
19
A es sobre
↔ Im(A) = R
n
.
↔ Ax = b es consistente para todo b ∈ R
n
.
↔ Ax = e
i
es consistente para todo vector can´onico.
↔ La FER de [A e
1
. . . e
n
] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
↔ Filas de A son L.I.
↔ Rango de A es n.
Definici´on 3.21. A de n×m tiene inversa por la derecha si existe una matriz
B de m×n tal que AB = I.
Teorema 3.22. Sea A una matriz de n ×m. Entonces
A tiene inversa por la derecha.
↔ Existe B tal que AB = I.
↔ Existen u
1
, . . . , u
n
tal que A[u
1
. . . u
n
] = [e
1
. . . e
n
].
↔ Ax = e
i
es consistente para todo vector can´onico.
↔ A es sobre.
↔ Filas de A son L.I.
↔ Rango de A es n.
Observaci´on 3.23. Para encontrar la inversa por la derecha de una matriz,
hay que escalonar la matriz [AI] y resolviendo cada sistema se obtienen las
columnas de la matriz B.
Definici´on 3.24. A de n×m tiene inversa por la izquierda si A
t
tiene inversa
por la derecha.
Teorema 3.25. Sea A una matriz de n ×m. Entonces
A tiene inversa por la izquierda.
↔ Existe B tal que BA = I.
↔ Ax =

0 tiene soluci´on ´ unica.
↔ A es inyectiva.
↔ Columnas de A son L.I.
↔ Rango de A es m.
Observaci´on 3.26. Una matriz no cuadrada no puede tener inversa por la
izquierda y derecha al mismo tiempo. Lo que no significa que siempre tenga
20 CAP
´
ITULO 3. MATRICES
al menos una inversa, por ejemplo la siguiente matriz no tiene inversa por la
derecha ni por la izquierda.
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
Definici´on 3.27. A de n×n es invertible o no singular si existe una matriz
B de n ×n tal que AB = I.
Observaci´on 3.28. Sea A de n × n. Si A tiene inversa por la derecha,
entonces su rango es n, luego tiene inversa por la izquierda y es la misma que
por la derecha. Adem´as es ´ unica. La notaci´on para la inversa de A es A
−1
.
Proposici´on 3.29. Sean A y B de n ×n. Entonces
A es invertible si y s´olo si Ax = b tiene soluci´on ´ unica para todo b ∈ R
n
.
Si A es invertible, entonces (A
−1
)
−1
= A.
A es invertible si y s´olo si A
t
es invertible. En este caso (A
t
)
−1
= (A
−1
)
t
.
Si A es invertible y α ̸= 0, entonces αA es invertible y (αA)
−1
=
1
α
A
−1
.
Si A es invertible, entonces para todo r ∈ N, A
r
es invertible y se tiene
(A
r
)
−1
= (A
−1
)
r
= A
−r
.
Si Ay B son invertibles, entonces AB es invertible y (AB)
−1
= B
−1
A
−1
.
Observaci´on 3.30. Sean A
1
, . . . , A
k
matrices cuadradas e invertibles. En-
tonces (A
1
· . . . · A
k
)
−1
= (A
k
)
−1
· . . . · (A
1
)
−1
.
Proposici´on 3.31. Sean A, B, C, D matrices tal que las siguientes opera-
ciones est´an bien definidas. Entonces
Si A es invertible y AB = AC, entonces B = C.
Si A es invertible y BA = CA, entonces B = C.
Si A es invertible y AB = BA, entonces BA
−1
= A
−1
B.
Si A es invertible, puede ocurrir que A
−1
BA ̸= B.
21
Si A y B son invertibles, y ACB = D, entonces C = A
−1
DB
−1
.
Observaci´on 3.32. Una matriz diagonal es invertible si y s´olo si todos los
elementos de su diagonal son no nulos.
Observaci´on 3.33. Una matriz triangular superior (o inferior) es invertible
si y s´olo si todos los elementos de su diagonal son no nulos.
Ejemplo 3.34. Productos notables.
Estudio de u
t
u y uu
t
.
Sea A, B de n ×1 tal que 1 −A
t
B ̸= 0. Demuestre que
(I −AB
t
)
−1
= I +
1
(1 −A
t
B)
AB
t
.
La triangularidad se mantiene en el producto y al tomar inversas.
Definici´on 3.35. E
I
(E
II
, E
III
) es una matriz elemental del tipo I (II, III),
si es la matriz que resulta de hacer una operaci´on elemental del tipo I (II,
III) a la matriz identidad. Se dice que la matriz E representa dicha operaci´on
elemental.
Observaci´on 3.36.
tipo matriz operaci´on transpuesta operaci´on inversa operaci´on
I E
I
F
i
↔F
j
E
I
F
i
↔F
j
E
I
F
i
↔F
j
II E
II
F
i
→λF
i
E
II
F
i
→λF
i
¯
E
II
F
i
→1/λF
i
III E
III
F
i
→F
i
+αF
j
¯
E
III
F
j
→F
j
+αF
i
¯
¯
E
III
F
i
→F
i
−αF
j
Observaci´on 3.37. Si A es de n ×m y B es la matriz de n ×m que resulta
de hacerle a A una operaci´on elemental, entonces EA = B, donde E es la
matriz que representa dicha operaci´on elemental.
Proposici´on 3.38. Si A es de n × m y B = F.E. de A, entonces E
k
· . . . ·
E
2
· E
1
A = B, donde E
i
son las matrices elementales que representan las
operaciones elementales que llevan la matriz A en la matriz B.
22 CAP
´
ITULO 3. MATRICES
Teorema 3.39. A de n × n es no singular si y s´olo si A se puede escribir
como producto de matrices elementales.
Teorema 3.40. A de n×n es no singular si y s´olo si F.E.R de A es la matriz
identidad
Teorema 3.41. Si A es de n×m y U es una forma escalonada de A, tal que
U se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe L
triangular inferior invertible, tal que
A = LU
Teorema 3.42. Si A es de n × m y U es una forma escalonada de A, tal
que U se obtiene con la necesidad de hacer operaciones del tipo I, entonces
existe L triangular inferior invertible y P una matriz producto de lementales
del tipi I, tal que
PA = LU
Observaci´on 3.43. Si A = LU, para resolver Ax = b se hace el cambio de
variable Ux = y.
Observaci´on 3.44. Si PA = LU, para resolver Ax = b se multiplica el
sistema por P y luego se hace el cambio de variable Ux = y.
Definici´on 3.45. Si A es de n × n la forma cuadr´atica asociada a A es
q
A
: R
n
→R, definida por
q
A
(v) = v
t
Av
Observaci´on 3.46. Si A es de n ×n, se tiene que
q
A
= q
A
t = q
(
A+A
t
2
)
La matriz sim´etrica B =
_
A +A
t
2
_
, es la ´ unica tal que
q
A
= q
B
En adelante las matrices que definen a formas cuadr´aticas ser´an cuadradas
y sim´etricas.
Definici´on 3.47. Dada A de n × n, la submatriz principal A
k
para k =
1, . . . , n es la matriz que resulta de eliminar la ´ ultimas n − k filas y las
´ ultimas n −k columnas de A. Notar que A
n
= A.
23
Proposici´on 3.48. Si Aes de n×n y sus submatrices principales A
1
, · · · , A
n−1
son invertibles, entonces A admite la descomposici´on LU. Si L tiene s´olo unos
en su diagonal, entonces L y U son ´ unicas.
Teorema 3.49. Sea A = A
t
. Si A = LU, entonces existe D diagonal tal que
A = LDL
t
. (Entonces el signo de A es igual al signo de D).
Definici´on 3.50. Una matriz (o su forma cuadr´atica asociada) se dice:
positiva definida si ∀v ̸=
−→
0 , q
A
(v) > 0.
negativa definida si ∀v ̸=
−→
0 , q
A
(v) < 0.
semidefinida positiva si ∀v ̸=
−→
0 , q
A
(v) ≥ 0.
semidefinida negativa si ∀v ̸=
−→
0 , q
A
(v) ≤ 0.
Observaci´on 3.51. Si D es diagonal, con elementos d
1
, . . . , d
n
en su diago-
nal, entonces D (o q
D
) es
positiva definida si d
i
> 0, para todo i = 1, . . . , n.
negativa definida si d
i
< 0, para todo i = 1, . . . , n.
semidefinida positiva si d
i
≥ 0, para todo i = 1, . . . , n.
semidefinida negativa si d
i
≤ 0, para todo i = 1, . . . , n.
Proposici´on 3.52. Sea A = A
t
. Si A es positiva definida, entonces
A es invertible.
A
k
es positiva definida, para todo k = 1, . . . , n.
A
k
es invertible, para todo k = 1, . . . , n.
Teorema 3.53. Sea A = A
t
. A es positiva definida si y s´olo si existe L
triangular inferior invertible con unos en su diagonal, y D diagonal, con
elementos en la diagonal positivos, tal que A = LDL
t
.
24 CAP
´
ITULO 3. MATRICES
Observaci´on 3.54. En el teorema anterior se define a

D como la matriz
diagonal, que en su diagonal tiene las ra´ıces positivas de los elementos de la
diagonal de D. Entonces
A = L

D

DL
t
= R
t
R
que es llamada la descomposici´on con ra´ız cuadrada de una matriz positiva
definida.
Ejemplo 3.55. Sea A =
_
3 3 3
3 5 5
3 5 11
_
. Entonces
A =
_
1 0 0
1 1 0
1 1 1
_ _
3 3 3
0 2 2
0 0 6
_
= LU
=
_
1 0 0
1 1 0
1 1 1
_ _
3 0 0
0 2 0
0 0 6
_ _
1 1 1
0 1 1
0 0 1
_
= LDL
t
=
_
1 0 0
1 1 0
1 1 1
_ _ √
3 0 0
0

2 0
0 0

6
_ _ √
3 0 0
0

2 0
0 0

6
_ _
1 1 1
0 1 1
0 0 1
_
= L

D

DL
t
=
_ √
3 0 0

3

2 0

3

2

6
_ _ √
3

3

3
0

2

2
0 0

6
_
= R
t
R
Cap´ıtulo 4
Determinantes
Definici´on 4.1. Determinante es una funci´on: Det : M
n
(R) →R tal que:
|I| = 1
Si E
I
A = B →−|A| = |B|
Si E
II
A = B →λ|A| = |B|
Si E
III
A = B →|A| = |B|
Observaci´on 4.2. Tomando A = I en la definici´on: |E
I
| = −1, |E
II
| = λ,
|E
III
| = 1. Reemplazando en la definici´on queda que si E es una matriz
elemental, entonces |EA| = |E| · |A|.
Observaci´on 4.3. Si A =
_
a b
c d
_
, entonces |A| = ad −bc
Proposici´on 4.4. Sea A una matriz de cuadrada. Entonces
Si A tiene dos filas iguales, entonces |A| = 0.
Si A tiene una fila nula, entonces |A| = 0.
Si A es triangular o diagonal, entonces |A| = Πa
i,i
.
Teorema 4.5. Sea A una matriz de cuadrada. Entonces A es invertible si y
s´olo si |A| ̸= 0.
25
26 CAP
´
ITULO 4. DETERMINANTES
Teorema 4.6. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|.
(Usar: A y B son invertibles si y s´olo si AB es invertible.)
Proposici´on 4.7. Sea A una matriz de cuadrada. Entonces
|A
t
| = |A|
Si A es invertible, entonces |A
−1
| = 1/|A|
Proposici´on 4.8. La funci´on determinante es lineal en las filas y en las
columnas.
Definici´on 4.9. Menor i, j de una matriz A es el determinante de la matriz
que resulta de eliminar de A la fila i y la columna j. Notaci´on: M
i,j
=.
Cofactor i, j de una matriz A es C
i,j
= (−1)
i+j
M
i,j
Teorema 4.10. |A| = a
i,1
C
i,1
+ . . . + a
i,n
C
i,n
para todo i = 1, . . . , n. (caso
i = 1)
Proposici´on 4.11. Sea A una matriz de cuadrada. Entonces
Si PA = LU, entonces (−1)
k
|A| = Πu
i,i
Si A = LDL
t
, entonces |A| = Πd
i,i
Definici´on 4.12. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =
(c
i,j
)
t
.
Teorema 4.13. Sea A una matriz de cuadrada. Entonces A · Adj(A) =
Adj(A) · A = |A| I
Proposici´on 4.14. Sea A una matriz de cuadrada. Si A es invertible, en-
tonces A
−1
= 1/|A| Adj(A)
Proposici´on 4.15. Sea A una matriz sim´etrica. A es positiva definida si y
s´olo si, los determinantes de las submatrices principales son todos positivos.
Cap´ıtulo 5
Espacios vectoriales
Definici´on 5.1. Cuerpo o campo K, +, · conjunto tal que con las operaciones
suma y multiplicaci´on cumple:
+ es cerrada: ∀α, β ∈ K α +β ∈ K
+ es asociativa: ∀α, β, γ ∈ K (α +β) +γ = α + (β +γ)
+ es conmutativa: ∀α, β ∈ K α +β = β +α
Existe un neutro para la +: ∃0∀α : 0 + α = α + 0 = α
Existe un inverso para la +: ∀α∃β : α +β = β +α = 0
· es cerrada: ∀α, β ∈ K α · β ∈ K
· es asociativa: ∀α, β, γ ∈ K (α · β) · γ = α · (β · γ)
· es conmutativa: ∀α, β ∈ K α · β = β · α
Existe un neutro para la ·: ∃1∀α : 1 · α = α · 1 = α
Existe un inverso para la ·: ∀α ̸= 0∃β : α · β = β · α = 1
∀α, β, γ ∈ K α · (β +γ) = α · β +α · γ
Ejemplo 5.2. Q, R, C, Z
p
Definici´on 5.3. Un conjunto no vac´ıo V es un espacio vectorial sobre el
cuerpo K si existen dos operaciones: suma y multiplicaci´on por escalar tal
que:
27
28 CAP
´
ITULO 5. ESPACIOS VECTORIALES
+ es cerrada: ∀u, v ∈ V u +v ∈ V
+ es asociativa: ∀u, v, w ∈ V (u +v) + w = u + (v +w)
+ es conmutativa: ∀u, v ∈ V u +v = v +u
Existe un neutro para la +: ∃

0
V
∀u :

0
V
+u = u +

0
V
= u
Existe un inverso para la +: ∀u∃(−u) : u + (−u) = (−u) +u =
−→
0
· es cerrada: ∀u ∈ V, α ∈ K α · u ∈ V
∀u, v ∈ V, α ∈ K α · (u +v) = α · u +α · v
∀u ∈ V, α, β ∈ K (α +β) · u = α · u +β · u
∀u ∈ V, α, β ∈ K (αβ) · u = α · (βu)
∀u ∈ V 1 · u = u
A los elementos de V se les llama vectores.
Ejemplo 5.4. Algunos espacios vectoriales:
R
n
sobre R.
P
n
(R) sobre R.
M
n,m
(R) sobre R.
C[a, b] sobre R.
M
n,m
(Z
p
) sobre Z
p
.
Proposici´on 5.5. Si V es un espacio vectorial sobre K, entonces

0
V
es ´ unico.
−(u +v) = (−u) + (−v).
−u es ´ unico.
α ·

0
V
=

0
V
.
0 · u =

0
V
.
29
α · u =

0
V
si y s´olo si α = 0 o u =

0
V
.
Definici´on 5.6. Una combinaci´on lineal de vectores v
1
, . . . , v
m
es un vector
de la forma α
1
v
1
+. . . +α
m
v
m
.
Ejemplo 5.7. En C[0, π], 1 · sen
2
+1 · cos
2
= 1.
Definici´on 5.8. Sea S = {v
1
, . . . , v
m
}.
S es linealmente independiente si la ´ unica manera de construir al vector
cero es la trivial:
α
1
v
1
+. . . +α
m
v
m
=
−→
0 →α
1
= . . . = α
m
= 0
S es linealmente dependinete si es posible construir al vector cero de
manera no trivial:
∃α
1
, . . . α
m
no todos nulos, tal que α
1
v
1
+. . . +α
m
v
m
=
−→
0
Observaci´on 5.9. Sea S = {v
1
, . . . , v
m
}. Entonces
S es LI si y s´olo si todo subconjunto de S es LI.
S es LD si y s´olo si todo conjunto que contiene a S es LD.
Teorema 5.10. Sea S = {v
1
, . . . , v
m
}. S es LD si y s´olo si existe v ∈ S que
es combinaci´on lineal del resto de los vectores de S.
Definici´on 5.11. Sea S = {v
1
, . . . , v
m
}. El conjunto generado por S es
< S >=< v
1
, . . . , v
m
>= {α
1
v
1
+. . . +α
m
v
m
, tal que α
1
, . . . , α
m
∈ R}
Observaci´on 5.12. {

0
V
} es L.D. y {

0
V
} =<

0
V
>
Observaci´on 5.13. Sean S
1
y S
2
conjuntos de vectores de un espacio vec-
torial V .
Si S
1
⊂ S
2
, entonces < S
1
>⊂< S
2
>
Si S
1
⊂< S
2
>, entonces < S
1
>⊂< S
2
>
Proposici´on 5.14. Sea S = {v
1
, . . . , v
m
}. v
j
es combinaci´on lineal de vec-
tores de S ↔< S >=< S −{v
j
} >
30 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Proposici´on 5.15. Sea S = {v
1
, . . . , v
m
}. Si S es LI y v ∈< S >, entonces
v se escribe de manera ´ unica como combinaci´on lineal de los vectores de S.
Definici´on 5.16. Sea V un espacio vectorial sobre K y U ⊆ V . U es un
subespacio de V si es distinto del vac´ıo y con las operaciones heredadas de
V es un espacio vectorial. Notaci´on: U V
Proposici´on 5.17. U V si y s´olo si U es no vac´ıo, es cerrado bajo la suma
y es cerrado bajo la multiplicaci´on por escalar.
Observaci´on 5.18. Todo conjunto generado es un subespacio.
Teorema 5.19. Sean U
1
, U
2
subespacios de V . Entonces
U
1
∩ U
2
es subespacio de V .
U
1
+ U
2
= {u
1
+ u
2
: u
1
∈ U
1
, u
2
∈ U
2
} es subespacio de V . Si en
este caso, U
1
∩ U
2
= {
−→
0 }, entonces se dice que la suma es directa y se
denota: U
1
⊕U
2
.
Teorema 5.20. Si V =< v
1
, . . . , v
n
> tal que {v
1
, . . . , v
n
} es L.I., entonces
todo conjunto L.I. de V contiene a lo m´as n elementos.
Definici´on 5.21. B ⊂ V es una base de V si B es LI y < B >= V .
Teorema 5.22. Si B es una base de V y la cardinalidad de B es n, entonces
todas las bases de V tienen n elementos. Se dice que la dimensi´on de V es n.
Notaci´on: Dim(V ) = n.
Proposici´on 5.23. Si Dim(V ) = n, entonces
S es LI →#S n.
< S >= V →#S n.
Proposici´on 5.24. Si Dim(V ) = n y S = {v
1
, . . . , v
n
}, entonces
S es LI →< S >= V .
< S >= V →S es L.I.
Observaci´on 5.25. Si U es subespacio de V y Dim(V ) = n, entonces
Dim(U) Dim(V )
31
Teorema 5.26. Sean U
1
, U
2
subespacios de V . Entonces
Dim(U
1
+U
2
) = Dim(U
1
) + Dim(U
2
) −Dim(U
1
∩ U
2
)
Proposici´on 5.27. Sea A de n ×m. Entonces
C(A) es un subespacio de R
n
de dimensi´on igual al rango de A.
F(A) es un subespacio de R
m
de dimensi´on igual al rango de A.
A
t
es de m×n, F(A
t
) = C(A) y C(A
t
) = F(A).
Definici´on 5.28. Sea B = {v
1
, . . . , v
n
} una base de V y v ∈ V tal que
v = x
1
v
1
+. . . x
n
v
n
. El vector coordenado de x en la base B es:
[v]
B
=
_
_
x
1
.
.
.
x
n
_
_
Proposici´on 5.29. Sean u, v ∈ V y B una base de V . Entonces
[u +v] = [u] + [v].
[αu] = α[u].
{u
1
, . . . , u
m
} es L.I. si y s´olo si {[u
1
], . . . , [u
m
]} es L.I.
u ∈< u
1
, . . . , u
m
> si y s´olo si [u] ∈< [u
1
], . . . , [u
m
] >.
Definici´on 5.30. Sean B
1
= {v
1
, . . . , v
n
} y B
2
= {u
1
, . . . , u
n
} bases de V .
Se define la matriz P
1
2
= [ [v
1
]
2
. . . [v
n
]
2
].
Proposici´on 5.31. Sean B
1
= {v
1
, . . . , v
n
} y B
2
= {u
1
, . . . , u
n
} bases de V .
Para todo x ∈ V : P
1
2
· [x]
1
= [x]
2
.
P
1
2
es invertible.
(P
1
2
)
−1
= P
2
1
32 CAP
´
ITULO 5. ESPACIOS VECTORIALES
Cap´ıtulo 6
Transformaciones lineales
Definici´on 6.1. Sean V y W espacios vectoriales. T : V → W es una
transformaci´on lineal si T(v
1
+v
2
) = T(v
1
) +T(v
2
) y T(αv) = αT(v).
Proposici´on 6.2. Sean V y W espacios vectoriales y T : V → W una
transformaci´on lineal. Entonces
T(

0
V
) =

0
W
.
T(−v) = −T(v).
Observaci´on 6.3. Si B es una base de V , entonces T queda determinada
por c´omo act´ ua sobre la base.
Definici´on 6.4. Sean V y W espacios vectoriales y T : V → W una trans-
formaci´on lineal.
Ker(T) = {v ∈ V : T(v) =
−→
0
W
} .
Im(T) = {w ∈ W : ∃v ∈ V : T(v) = w} .
Proposici´on 6.5. Sean V y W espacios vectoriales y T : V → W una
transformaci´on lineal.
Ker(T) es un subespacio de V y su dimensi´on es la nulidad de T.
Im(T es un subespacio de W y su dimensi´on es el rango de T.
Observaci´on 6.6. Si B es una base de V , entonces < T(B) >= Im(T).
33
34 CAP
´
ITULO 6. TRANSFORMACIONES LINEALES
Definici´on 6.7. Sean V y W espacios vectoriales y T : V → W una trans-
formaci´on lineal.
Si T es inyectiva se dice que es un monomorfismo.
Si T es sobre se dice que es un epimorfismo.
Si T es inyectiva y sobre se dice que es un isomorfismo y se denota por
V

= W.
Teorema 6.8. Sean V y W espacios vectoriales y T : V →W una transfor-
maci´on lineal.
T es inyectiva si y s´olo si Ker(T) = {

0
V
}.
T es sobre si y s´olo si Im(T) = W.
Proposici´on 6.9. Sean V y W espacios vectoriales y T : V → W una
transformaci´on lineal. Si T es inyectiva y S ⊂ V es L.I., entonces T(S) es
L.I.
Definici´on 6.10. Sean V y W espacios vectoriales, T : V → W una trans-
formaci´on lineal, B
1
= {v
1
, . . . , v
m
} una base de V y B
2
= {w
1
, . . . , w
n
} una
base de W. La matriz de T con respecto a B
1
y B
2
es una matriz de n ×m
dada por
[T]
1
2
= [ [T(v
1
)]
2
. . . [T(v
m
)]
2
]
Proposici´on 6.11. Sean V y W espacios vectoriales, T : V → W una
transformaci´on lineal, B
1
= {v
1
, . . . , v
m
} una base de V y B
2
= {w
1
, . . . , w
n
}
una base de W. Entonces
[T]
1
2
· [v]
1
= [T(v)]
2
, para todo v ∈ V .
v ∈ Ker(T) si y s´olo si [v]
1
∈ Ker[T]
1
2
.
w ∈ Im(T) si y s´olo si [w]
2
∈ Im[T]
1
2
.
T es un isomorfismo (V

= W) si y s´olo si [T]
1
2
es cuadrada e invertible.
En este caso T
−1
es una transformaci´on lineal y ([T]
1
2
)
−1
= [T]
2
1
.
Teorema 6.12. Sean V y W espacios vectoriales y T : V → W una trans-
formaci´on lineal. Entonces
Dim Ker(T) + Dim Im(T) = Dim(V ).
35
Proposici´on 6.13. Sea V espacio vectorial de dimensi´on m y B
1
y B
3
bases
de V . Sea W espacio vectorial de dimensi´on n y B
2
y B
4
bases de W. Hay
dos matrices cambio de bases: P
1
3
y P
2
4
.
Sea T : V →W y las dos matrices asociadas a T: [T]
1
2
y [T]
3
4
.
Sean x ∈ V, y ∈ W. Entonces
[x]
3
= P
1
3
· [x]
1
.
[y]
4
= P
2
4
· [y]
2
.
[T]
1
2
· [x]
1
= [T(x)]
2
.
[T]
3
4
· [x]
3
= [T(x)]
4
.
Reemplazndo:
[T]
3
4
· [x]
3
= [T(x)]
4
.
[T]
3
4
· P
1
3
· [x]
1
= P
2
4
· [T(x)]
2
.
[T]
3
4
· P
1
3
· [x]
1
= P
2
4
· [T]
1
2
· [x]
1
.
Entonces [T]
3
4
· P
1
3
= P
2
4
· [T]
1
2
Esquema:
[T]
1
2
V → W
B
1
B
2
P
1
3
↓ ↓ P
2
4
V → W
B
3
B
4
[T]
3
4
Ejemplo 6.14. Un ejemplo de la relaci´on entre matriz cambio de base y
matriz de una transformaci´on lineal es:
36 CAP
´
ITULO 6. TRANSFORMACIONES LINEALES
Sea V = M
2
(R) con las siguientes bases:
B
1
=
__
1 0
0 0
_
,
_
1 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
1 1
__
B
3
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
La matriz cambio de base P
1
3
es P
1
3
=
_
¸
¸
_
1 1 0 0
0 1 0 0
0 0 1 1
0 0 0 1
_
¸
¸
_
Sea W = P
2
(R) con las siguientes bases:
B
2
= {1, 1 +x, 1 + x
2
} B
4
= {1, x, x
2
}
La matriz cambio de base P
2
4
es P
2
4
=
_
_
1 1 1
0 1 0
0 0 1
_
_
Sea T : M
2
(R) →P
2
(R), dada por
T
__
a b
c d
__
= (a +b) + (b +c)x + (c +d)x
2
La matriz de T con respecto a las bases B
1
en V y B
2
en W es:
[T]
1
2
=
_
_
1 1 −2 −3
0 1 1 1
0 0 1 2
_
_
La matriz de T con respecto a las bases B
3
en V y B
4
en W es:
[T]
3
4
=
_
_
1 1 0 0
0 1 1 0
0 0 1 1
_
_
Sea A =
_
1 2
3 4
_
∈ V y entonces:
37
[A]
1
=
_
¸
¸
_
−1
2
−1
4
_
¸
¸
_
, [A]
3
=
_
¸
¸
_
1
2
3
4
_
¸
¸
_
Luego T(A) = 3 + 5x + 7x
2
∈ W y entonces
[T(A)]
2
=
_
_
−9
5
7
_
_
, [T(A)]
4
=
_
_
3
5
7
_
_
Y se cumple [T]
1
2
· [A]
1
= [T(A)]
2
y [T]
3
4
· [A]
3
= [T(A)]
4
Proposici´on 6.15. Sean T y L transformaciones lineales de V en W. En-
tonces (T + L) : V → W dada por (T + L)(v) = T(v) + L(v) es una trans-
formaci´on lineal, y (αT) : V →W dada por (αT)(v) = αT(v) es una trans-
formaci´on lineal. Adem´as [T +L] = [T] + [L] y [αT] = α[T].
Proposici´on 6.16. Sean T : V → W y L : U → V transformaciones
lineales. Entonces (T ◦ L) : U → W dada por (T ◦ L)(u) = T(L(u)) es una
transformaci´on lineal, y [T ◦ L] = [T] · [L].
38 CAP
´
ITULO 6. TRANSFORMACIONES LINEALES
Cap´ıtulo 7
Valores y vectores propios
Definici´on 7.1. Sea A de n × n, v ̸=

0 es un vector propio de A si existe
λ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado a v.
Proposici´on 7.2. Sea A de n×n. λ es valor propio de A si y s´olo si |A−λI| =
0.
Definici´on 7.3. Sea A de n×n. El polinomio caracter´ıstico de A es p
A
(x) =
|xI −A|.
Proposici´on 7.4. Sea A de n × n. λ es valor propio de A si y s´olo si λ es
ra´ız de p
A
(x). La multiplicidad algebraica de λ es la multiplicidad como ra´ız
de p
A
(x). (m.a.)
Observaci´on 7.5. Sea A de n×n. Si v
1
y v
2
son vectores propios asociados
al valor propio λ, y α ∈ R, entonces αv
1
y v
1
+ v
2
son vectores propios
asociados a λ.
Proposici´on 7.6. Sea A de n × n y λ un valor propio de A. E
λ
= {v ∈
R
n
: Av = λv} es el espacio propio asociado a λ. La dimensi´on de E
λ
es la
multiplicidad geom´etrica de λ.(m.g.). E
λ
= Ker(A −λI).
Teorema 7.7. Sea A de n × n y λ un valor propio de A. Entonces la m.g.
de λ es menor o igual a la m.a. de λ.
Proposici´on 7.8. Sea A de n ×n. Entonces
A tiene a lo m´as n valores propios.
39
40 CAP
´
ITULO 7. VALORES Y VECTORES PROPIOS
Si A es diagonal, entonces los valores propios de A son los elementos
de su diagonal.
Si A es triangular superior o inferior, entonces los valores propios de A
son los elementos de su diagonal.
A es no invertible si y s´olo si 0 es valor propio de A.
Si λ es valor propio de A, entonces λ
m
es valor propio de A
m
, para
m ∈ N.
Si λ es valor propio de A y A es invertible, entonces λ
−1
es valor propio
de A
−1
.
Si λ
1
y λ
2
son dos valores propios distintos de A, entonces E
λ
1
∩E
λ
2
=
{

0}.
Observaci´on 7.9. Considerando |xI − A| = c
n
x
n
+ . . . + c
1
x + c
0
= (x −
z
1
) . . . (x −z
n
) y tomando igualdad en los coeficientes c
0
y c
n−1
se tiene:
La traza de A es la suma de sus valores propios.
El determinante de A es el producto de sus valores propios.
Definici´on 7.10. Dado un polinomio q(x) = a
0
+ a
1
x + . . . + a
m
x
m
y A
matriz cuadrada, se define a q(A) como la matriz a
0
I +a
1
A +. . . +a
m
A
m
.
Observaci´on 7.11. Dado un polinomio q(x) = a
0
+ a
1
x + . . . + a
m
x
m
y D
matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se
forma con los elementos de la diagonal de D evaluados en q(x).
Teorema 7.12. Sea A matriz cuadrada. Entonces p
A
(A) es la matriz nula.
Definici´on 7.13. Sea T : V → V una transformaci´on lineal. v ̸=

0 es un
vector propio de T si existe λ ∈ R tal que T(v) = λv. Se dice que λ es el
valor propio de T asociado a v.
Definici´on 7.14. Dos matrices cuadradas A y B se dicen similares si existe
una matriz L invertible tal que L
−1
AL = B.
Proposici´on 7.15. Si A y B son similares, entonces tienen los mismos
valores propios (tienen el mismo polinomio caracter´ıstico). Si L es tal que
L
−1
AL = B y v es vector propio de B asociado a λ, entonces Lv es vector
propio de A asociado a λ.
41
Definici´on 7.16. Una matriz cuadrada A (o transformaci´on lineal T) es
diagonalizable si y s´olo si es similar a una matriz diagonal.
Proposici´on 7.17. Si A y B son similares, entonces A es diagonalizable si
y s´olo si B es diagonalizable.
Teorema 7.18. A es diagonalizable si y s´olo si existen n vectores propios
L.I. de A.
Corolario 7.19. Si A tiene n valores propios distintos, entonces A es diag-
onalizable.
Observaci´on 7.20. Si A es diagonalizable, entonces A
m
es diagonalizable,
para todo m ∈ N.
Observaci´on 7.21. Si A es tal que Au = λu, entonces A
k
u = λ
k
u. Luego
l´ım
k→∞
A
k
u =
_
l´ım
k→∞
λ
k
_
u.
Observaci´on 7.22. Si Av = λv, entonces l´ım
k→∞
A
k
v =
0 si |λ| < 1,
v si λ = 1,
no existe si |λ| > 1.
Observaci´on 7.23. Sea A es diagonalizable y q(x) un polinomio. Entonces
A = L
_
¸
_
d
1
0 . . . 0
0 d
2
0
.
.
.
0 0 . . . d
n
_
¸
_
L
−1
→q(A) = L
_
¸
_
q(d
1
) 0 . . . 0
0 q(d
2
) 0
.
.
.
0 0 . . . q(d
n
)
_
¸
_
L
−1
A = L
_
¸
_
d
1
0 . . . 0
0 d
2
0
.
.
.
0 0 . . . d
n
_
¸
_
L
−1
→e
A
= L
_
¸
_
e
d
1
0 . . . 0
0 e
d
2
0
.
.
.
0 0 . . . e
d
n
_
¸
_
L
−1
42 CAP
´
ITULO 7. VALORES Y VECTORES PROPIOS
Cap´ıtulo 8
Ortogonalidad
Definici´on 8.1. Sea V un espacio vectorial sobre R. V se dice que es un
espacio vectorial con producto interno si existe una funci´on · de V ×V en R
tal que para todo u, v ∈ V , y α ∈ R
u · v = v · u
u · (v +w) = u · v +u · w
(αu) · v = α(u · v)
u · u 0 y u · u = 0 si y s´olo si u =

0.
Definici´on 8.2. Sea V un espacio vectorial sobre R con producto interno.
Dados u, v ∈ V , u es ortogonal a v si u · v = 0. Notaci´on: u ⊥ v.
{u
1
, . . . , u
m
} ⊂ V es ortogonal si el conjunto no contiene a

0 y u
i
·u
j
= 0
para todo i ̸= j
{u
1
, . . . , u
m
} ⊂ V es ortonormal si el conjunto es ortogonal y u
i
· u
i
=
1, ∀i.
Observaci´on 8.3. En adelante se considera al espacio vectorial R
n
sobre R,
con el producto punto usual.
Observaci´on 8.4. u ⊥

0, para todo u ∈ R
n
.
43
44 CAP
´
ITULO 8. ORTOGONALIDAD
Observaci´on 8.5. Sea {u
1
, . . . , u
m
} ortogonal y u = α
1
u
1
+ . . . + α
m
u
m
,
entonces
α
i
=
u · u
i
u
i
· u
i
Observaci´on 8.6. Todo conjunto ortogonal es L.I., y por lo tanto una base
de su conjunto generado.
Definici´on 8.7. Dado U ≤ R
n
, el ortogonal a U es U

= {w ∈ R
n
: u · w =
0}.
Proposici´on 8.8. Sea R
n
con el producto punto usual.
Si {u
1
, . . . , u
m
} es una base de U, entonces U

= {w ∈ R
n
: u
i
· w =
0 para i = 1, . . . , m}.

0 ∈ U

U

es un subespacio de R
n
.
{

0}

= R
n
.
R
n⊥
= {

0}.
U


= U
U ∩ U

= {

0}.
Sea {u
1
, . . . , u
m
} una base de U y A de n×m la matriz A = [u
1
. . . u
m
].
Entonces U

= Ker(A
t
).
U ⊕ U

= R
n
. Dado v ∈ R
n
, existen ´ unicos u ∈ U y w ∈ U

tal que
v = u +w.
Proposici´on 8.9. Sea S = {u
1
, . . . , u
m
} un conjunto de vectores en R
n
y A
de n ×m la matriz A = [u
1
. . . u
m
]. Entonces
S es LI si y s´olo si A
t
A es positiva definida.
S es ortogonal si y s´olo si A
t
A es diagonal y positiva definida.
S es ortonormal si y s´olo si A
t
A = I.
45
Definici´on 8.10. Sea U subespacio de R
n
y v ∈ R
n
tal que u ∈ U y w ∈ U

donde v = u +w.
La proyecci´on ortogonal sobre U es P : R
n
→R
n
, tal que P(v) = u.
La proyecci´on ortogonal sobre U

es Q : R
n
→R
n
, tal que Q(v) = w.
Proposici´on 8.11. Sea U subespacio de R
n
y v ∈ R
n
tal que u ∈ U y
w ∈ U

donde v = u + w.
Si {u
1
, . . . , u
m
} es una base de U y A de n × m es la matriz A =
[u
1
. . . u
m
], entonces u = Ax, donde x es tal que A
t
Ax = A
t
v.
Si {w
1
, . . . , w
r
} es una base de U

y B de n × r es la matriz B =
[w
1
. . . w
r
], entonces w = By, donde y es tal que B
t
By = B
t
v.
Proposici´on 8.12. Sea U subespacio de R
n
, P la proyecci´on ortogonal sobre
U y Q la proyecci´on ortogonal sobre U

. Entonces
P y Q son transformaciones lineales.
P +Q = I (como t.l.).
Ker(P) = U

, Im(P) = U.
Ker(Q) = U, Im(Q) = U

.
P
2
= P y Q
2
= Q (como t.l.).
Si {u
1
, . . . , u
m
} es una base de U y A de n × m es la matriz A =
[u
1
. . . u
m
], entonces la matriz de P con respecto a la base can´onica es
P = A(A
t
A)
−1
A
t
.
Si {w
1
, . . . , w
r
} es una base de U

y B de n × r es la matriz B =
[w
1
. . . w
r
], entonces la matriz de Q con respecto a la base can´onica es
Q = B(B
t
B)
−1
B
t
.
P y Q son sim´etricas.
P
2
= P y Q
2
= Q (como matrices).
P +Q = I (como matrices).
2P −I = R es matriz de reflexi´on, es sim´etrica y R
2
= I.
46 CAP
´
ITULO 8. ORTOGONALIDAD
P, Q y R son diagonalizables. Para P: E
1
= U y E
0
= U

. Para Q:
E
1
= U

y E
0
= U. Para R: E
1
= U y E
−1
= U

.
Proposici´on 8.13. Gram Schmidt: Dado S = {v
1
, . . . , v
m
} L.I., una base
ortogonal de < S > es {u
1
, . . . , u
m
}, donde:
u
1
= v
1
u
2
= v
2

v
2
· u
1
u
1
· u
1
u
1
u
3
= v
3

v
3
· u
1
u
1
· u
1
u
1

v
3
· u
2
u
2
· u
2
u
2
. . ..
Observaci´on 8.14. Descomposici´on QR.
Sea A = [v
1
· · · v
m
] una matriz con columnas L.I. El problema es encontrar
una matriz cuyas columnas formen un conjunto ortonormal que genere lo
mismo que las columnas de A, es decir se busca una matriz Q tal que:
Q = [u
1
· · · u
m
], Im(Q) = Im(A) y Q
t
Q = I.
Sea R la matriz cambio de base de m×m, es decir A = QR. Entonces
A
t
A = (QR)
t
QR = R
t
Q
t
QR = R
t
IR = R
t
R.
Dado que A es inyectiva, luego A
t
A es positiva definida y basta tomar su
descomposici´on con ra´ız cuadrada R. Obteniendo R se calcula Q = AR
−1
.
Ejemplo 8.15. Sea U =<
_
¸
_
1
0
1
1
_
¸
_
,
_
¸
_
1
0
2
0
_
¸
_
,
_
¸
_
−1
0
3
1
_
¸
_
>. Determine una base
ortonormal de U.
Soluci´on:
Sea A =
_
¸
_
1 1 −1
0 0 0
1 2 3
1 0 1
_
¸
_
. Entonces
47
A
t
A =
_
3 3 3
3 5 5
3 5 11
_
=
_ √
3 0 0

3

2 0

3

2

6
_ _ √
3

3

3
0

2

2
0 0

6
_
= R
t
R
Luego R
−1
=
_
1/

3 −1/

2 0
0 1/

2 −1/

6
0 0 1/

6
_
.
Entonces Q =
_
¸
_
1

3 0 −2

6
0 0 0
1

3 1

2 1

6
1

3 −1

2 1

6
_
¸
_
.
Entonces U =<
_
¸
_
1

3
0
1

3
1

3
_
¸
_
,
_
¸
_
0
0
1

2
−1

2
_
¸
_
,
_
¸
_
−2

6
0
1

6
1

6
_
¸
_
>
Proposici´on 8.16. Sea el sistema Ax = b inconsistente y x

tal que ∥Ax

−b∥
es m´ınima. Entonces x

es tal que Ax

es la proyecci´on de b sobre Im(A).
48 CAP
´
ITULO 8. ORTOGONALIDAD
Cap´ıtulo 9
Matrices Sim´etricas
Definici´on 9.1. U de n ×n es ortogonal si U
t
U = I.
Teorema 9.2. Sea P de n × n. Entonces las siguientes proposiciones son
equivalentes:
U es ortogonal.
∥Ux∥ = ∥x∥, para todo x ∈ R
n
.
Ux · Uy = x · y, para todo x, y ∈ R
n
.
Si {v
1
, . . . , v
m
} es ortonormal, entonces {Uv
1
, . . . , Uv
m
} es ortonormal.
Proposici´on 9.3. Sea A sim´etrica. Entonces
A tiene s´olo valores propios reales.
Si λ
1
y λ
2
son dos valores propios distintos de A tal que v
1
∈ E
λ
1
y
v
2
∈ E
λ
2
, entonces v
1
· v
2
= 0.
Definici´on 9.4. Una matriz A se dice ortogonalmente diagonalizable si ex-
iste U ortogonal y D diagonal, tal que U
t
AU = D.
Teorema 9.5. A es sim´etrica si y s´olo si A es ortogonalmente diagonalizable.
Corolario 9.6. A sim´etrica es positiva definida si y s´olo si todos sus valores
propios son positivos.
49
50 CAP
´
ITULO 9. MATRICES SIM
´
ETRICAS
Definici´on 9.7. Si A es sim´etrica y v
1
, . . . , v
n
son vectores propios (ortonor-
males) asociados a los valores propios λ
1
, . . . , λ
n
, entonces la descomposici´on
espectral de A es:
A = λ
1
v
1
v
t
1
+. . . +λ
n
v
n
v
t
n
.
Observaci´on 9.8. Si A es de n ×m, se tiene que
1. Ker(A
t
A) = Ker(A).
2. Im(A
t
A) = Im(A
t
).
Teorema 9.9. Sea A de n ×m. Entonces existen U de m×m y V de n ×n
matrices ortogonales tal que
V
t
AU =
_
¸
_
s
1
0
.
.
.
0 s
r
0
_
¸
_
n×m
Observaci´on 9.10. ¿C´omo obtener U?
La matriz A
t
A es sim´etrica y semi definida positiva. Entonces existe U de
m×m matriz ortogonal tal que
U
t
A
t
AU =
_
¸
¸
¸
¸
¸
¸
_
d
1
.
.
.
d
r
0
.
.
.
0
_
¸
¸
¸
¸
¸
¸
_
n×m
con d
1
≥ d
2
≥ · · · ≥ d
r
> 0.
Sea U
1
matriz de m×r que contiene vectores propios de valores propios no
nulos y U
2
matriz de m×(m−r) que contiene los vectores propios del valor
propio 0. Entonces se tiene que:
U = [U
1
U
2
].
Los vectores columna de U
1
forman una base de Im(A
t
A) = Im(A
t
).
Los vectores columna de U
2
forman una base de Ker(A
t
A) = Ker(A).
51
(AU
1
)
t
(AU
1
) = D =
_
_
d
1
.
.
.
d
r
_
_
n×m
Observaci´on 9.11. ¿C´omo obtener V ?
Sea V
1
de n ×r la matriz V
1
= AU
1

D
−1
.
Sea V
2
de n×(n−r) la matriz cuyas columnas completan una base ortogonal
con las columnas de V
1
.
Entonces se considera V = [V
1
V
2
].

Sign up to vote on this title
UsefulNot useful