You are on page 1of 275

Curso Propedeutico

Primera Parte Algebra Lineal

Dr. Martı́n Velasco Villa

Sección de Mecatrónica

Junio 2010
La lı́nea Real

Propiedades de los números reales:


I Enteros positivos 0,1,2,3, ...
I Enteros negativos -1, -2, -3, ...
I Racionales no enteros
I Racionales + Irracionales ≈ Números Reales
 
I Números racionales ≈ 21 , 15 , −7 : expansión decimal que
eventualmente se repite ella misma, 23 = 0,666, 21 = 0,5000,
1 = 0,142857142857...
7
I Todos
√ los números que no son racionales son irracionales (e.g.
3, e, π).
Definición 1 Un Campo es un conjunto F con dos operaciones (·, +)
que satisfacen las siguientes propiedades:

∀x, y , z ∈ F :

x + y = y + x, xy = yx Conmutativa

x + (y + z ) = (x + y ) + z, x (yz ) = (xy )z Asociativa

x (y + z ) = xy + xz Distributiva

∃1, 0 ∈ F t.q. ∀x ∈ F , x + 0 = x, 1 · x = x Elemento identidad

∀x ∈ F ∃ − x ∈ F t.q. x + (−x ) = 0 Elemento inverso

∀x ∈ F , x 6= 0, ∃x −1 ∈ F t.q. xx −1 = 1
I Los números racionales Q forman un campo
I Los números reales R forman un campo
I Z no es un campo
I Irracionales?, Naturales?

Ejemplo: Sea F = {a + b 2 | a, b ∈ Q } =⇒ F es un campo.
Considere √
z = a + b 2 ⊂ F , z 6= 0.
Entonces,
a b√
z ·(
− 2) = 1, D = a2 − 2b 2 .
D D
√ √
Como z 6= 0 =⇒ D = 0 ssi a = b 2 con lo cual 2 = ba contradicción!
Por lo tanto,
a b√
z −1 = − 2.
D D
Campo de los números reales

Si R es un campo debe de satisfacer lass siguientes propiedades:


I Ley conmutativa: x + y = y + x, x · y = y · x
I Ley asociativa: x + (y + z ) = (x + y ) + z, x · (y · z ) = (x · y ) · z
I Ley Distributiva: x · (y + z ) = x · y + x · z
Adición.
I Cerradura: si x, y ∈ R, ∃z t.q. x + z = y (si x, y ∈ R, entonces
x + y = z ∈ R)
I Identidad: Sea z = y − x si z = 0 entonces x − x = 0 y
−x = 0 − x =⇒ x + 0 = x =⇒ 0 es el elemento identidad con
respecto a +.
I Inverso: Si x + z = 0 =⇒ z = 0 − x = −x =⇒ el inverso de x con
respecto a la adición es −x. z es el inverso de x y z = −x
Producto.
I Cerradura:
y
x, y ∈ R, x 6= 0 =⇒ ∃z ∈ R t.q. xz = y =⇒ z = (x · y = z ) .
x
I Identidad: Si xz = x =⇒ z = 1 =⇒ 1 ( xz x
x = x → z = 1) es el
elemento identidad con respecto a ·
I Inverso: Si xz = 1 =⇒ z = x1 = x −1 =⇒ el inverso de x con
respecto a la multiplicación es x1 o x −1 .

Observación 2 R : Campo de los números reales.


Ordenamiento lineal

I ∀x ∈ R, x ≤ x.
I ∀x, y , z ∈ R si x ≤ y & y ≤ z =⇒ x ≤ z.
I ∀x, y ∈ R si x ≤ y & y ≤ x =⇒ x = y .
I Si x ≤ y también se tiene y ≥ x =⇒ ∀x, y ∈ R se satisface una de
las siguientes relaciones x = y , x < y
Cotas superiores
Definición 3 (Cota Superior) Sea S ∈ R. Si ∃b ∈ R t.q. ∀x ∈ S se
tiene que x ≤ b =⇒ b es una cota superior de S y S es “acotado por
arriba”.
Definición 4 (Mı́nima Cota Superior) b es llamado mı́nima cota
superior de S ⊂ R si:
i) b es una cota superior de S y
ii) b es menor o igual que cualquier otra cota superior de S.
En este caso b = sup(S )=supremo de S.
Cotas inferiores

De la misma forma:
I Si ∀x ∈ S, x ≥ a, a es una cota inferior de S y S es acotada por
abajo.
I Si a y b son dos cotas inferiores de S y a ≥ b para todas las cotas
inferiores b entonces a es la más grande cota inferior o un ı̈nfimo”de
subconjunto S (a = ı́nf (S )).
I Si S es acotada por arriba y por abajo, se dice que S es “acotado”.
Intervalos abiertos y cerrados

El conjunto
]a, b [ = (a, b ) = {x ∈ R | a < x < b }
es un intervalo abierto.
El conjunto,
[a, b ] = {x ∈ R | a ≤ x ≤ b }
es un intervalo cerrado.
Ejemplo. [0, 1], (0, 1) = ]0, 1[ y todos las racionales menores que 1
tienen un supremo igual a uno.
I El supremo es único.
I R no tiene un supremo. R + no tiene un supremo (pero tiene un
infimo)
I Si b es una cota superior de S y b ∈ S =⇒ sup (S ) = b.
Definición Alterna

Teorema 5 Sea S ⊂ R. Entonces b ∈ R es el supremo de S si y solo si


es una cota superior y ∀ε > 0, ∃x ∈ S t.q. x > b − ε.

I Si S no es acotado por arriba =⇒ sup (S ) = ∞


I Si S no es acotado por abajo =⇒ ı́nf (S ) = −∞

Teorema 6 i) Sea S ⊂ R un conjunto no vacı́o acotado por arriba.


Entonces S tiene un supremo en R.
ii) Sea P ⊂ R un conjunto no vacı́o acotado por abajo. Entonces P tiene
un ı́nfimo en R.
Ejemplo. Sea S = x ∈ R | x 2 + x < 3 . Encontrar sup (S ), ı́nf (S ).


Considere,x 2 + x − 3

x 2 + x, 3 y = x2 + x − 3

Considerando y = x 2 + x − 3.
Mı́nimo: dy 13
dx = 2x + 1 = 0 → x = −1/2 → y = − 4
Obteniendo las intersecciones con cero,

x2 + x − 3 = 0

entonces √ √
−1 − 13 −1 + 13
x1 = , x2 =
2 2
con lo cual es claro que,
√ √
13 − 1 − 13 − 1
=⇒ sup (S ) = ,ı́nf (S ) = .
2 2
Nótese que sup e inf no pertenecen al conjunto.
Ejemplo. Si S = x ∈ R | x 2 > 4 . Encontrar sup (S ), ı́nf (S ).


x 2, 4 y = x2 − 4

No ∃ sup (S ) ni ı́nf (S )
sup (S ) = ∞ ı́nf (S ) = −∞
Numeros complejos

z = x + iy → x = Re{z }, y = Im{z }
i, i 2 = −1, i 3 = −i, i 4 = 1 . . .
Adición y multiplicación:

z1 + z2 = (x1 + iy1 ) + (x2 + iy2 ) = (x1 + x2 ) + i (y1 + y2 )

z1 z2 = (x1 + iy1 )(x2 + iy2 )


= x1 x2 + i 2 y1 y2 + ix1 y2 + iy1 x2
= x1 x2 − y1 y2 + i ( x1 y2 + y1 x2 )
Campo de los números complejos

Definición 7 El conjunto de los números complejos se define por:

C : {a + ib | a, b ∈ R}.

C es un campo bajo las leyes usuales de la adición y multiplicación.

Sea z = a + bi z 6= 0 nótese que,


 
a b
z· − 2 i =1
a2 + b 2 a + b2
entonces
a b
z −1 = 2 2
− 2 i.
a +b a + b2
Definiendo z̄ = a − ib,

z −1 = 2 .
a + b2
Elemento inverso

Considere z = u + iv y w = z −1 = x + iy tal que zw = zz −1 = 1.


Considerando ahora el producto de estos elementos,
(x + iy )(u + iv ) = (u + iv ) (x + iy ) =

zw = zz −1 = (x + iy )(u + iv )
= ux + iuy + ivx − vy
= (xu − yv ) + i (xv + yu )
= 1 + 0i

entonces se obtiene,

xu − yv = 1 y xv + yu = 0.
De lo anterior,
−yu −yu
x= =⇒ u − yv = 1
v v
yu 2 + yv 2
= −1 =⇒ y (u 2 + v 2 ) = −v
v
v
y =− 2 ,
u + v2
y por lo tanto,
u
x= 2 .
u + v2
Finalmente,
u v
z −1 = 2 2
−i 2 .
u +v u + v2
División de complejos
Considere z1 , z2 ∈ C tales que,

z1 = x1 + iy1 y z2 = x2 + iy2 ,
sabemos que
x y
z2−1 = 2 2 2 − i 2 2 2 ,
x2 + y2 x2 + y2
entonces,

z1
= z1 z2−1
z2
!
x2 y
= (x1 + iy1 ) 2 2
−i 2 2 2
x2 + y2 x2 + y2
x x + ix2 y1 ix y − y1 y2
= 2 12 − 1 22
x2 + y22 x2 + y22
x x + y1 y2 x y − x1 y2
= 1 22 + i 2 21 .
x2 + y22 x2 + y22
Magnitud de un número complejo
La norma o medida (magnitud) de un número complejo z = x + iy , se
obtiene al considerar,
p
|z | = x 2 + y 2 , donde |z | ≥ 0 y |z | = 0 ssi z = 0.
En la definición anterior se ha considerado la denominada norma
Euclidiana.
Matrices y Sistemas de Ecuaciones Lineales

Definición 8 Una matriz es un arreglo rectangular de elementos aij ,


i = 1..m, j = 1..n (Reales o complejos).

I Sea A una matriz de m filas y n columnas, entonces A es una matriz


de m × n. Equivalentemente se dice que A ∈ R m×n o A ∈ C m×n .
I Si m = n la matriz se dice que la matriz es cuadrada.
 
a11 ... a1n
 .. .. m ×n
A= . ∈R .

.
am1 amn
Propiedades Importantes de matrices

I A, B ∈ R m×n =⇒ A = B si aij = bij ∀ij.

I A ∈ R m×n , a ∈ R =⇒ aA ∈ R m×n , con elementos aaij .

I A, B ⊂ R m×n =⇒ A + B ⊂ R m×n con elementos


aij + bij =⇒ A − B ⊂ R m×n con elementos aij − bij .

   
a11 . . . a1n b11 ... b1n
 .. . .. .
..  +  ... .. .. 
A+B =  .
 
. . 
am1 . . . amn bm1 ... bmn
 
a11 + b11 . . . a1n + b1n
=
 .. .. .. 
. . . 
am1 + bm1 . . . amn + bmn
I A ∈ R m×n , B ∈ R n×p =⇒ AB ∈ R m×p con elementos (i, k ) dados
por ∑nj=1 aij bjk .

  
a11 . . . a1n b11 ... b1p
AB =  ... .. ..   .. .. .. 

. .  . . . 
am1 . . . amn bn1 ... bnp
 
a11 b11 + .. + a1n bn1 ... a11 b1p + a1n bnp
=
 .. .. .. 
. . . 
am1 b11 + amn bn1 ... am1 b1p + amn bnp

I A ∈ R m×n , A = 0 si aij = 0.
I I ∈ R m×m se define como cij = 1, ∀i = j y cij = 0, ∀i 6= j.
 
1 0 ··· 0
 .. 
 0 1 0 . 
I = ..
.
 .. 
 . 0 . 0 
0 ··· 0 1
Teorema 9 Considere A, B ∈ R m×n , a, b ∈ R, entonces,
i) (a ± b )A = aA ± bA,
ii) a(A + B ) = aA + aB,
iii) (ab )A = a(bA) = b (aA)

Teorema 10 i) Si A ∈ R m×n , B ∈ R n×p , a ∈ R, entonces,


a(A)B = A(aB )
ii) Si A, B, C ∈ R m×n entonces A + B = B + A,
A + (B + C ) = (A + B ) + C .
iii) Si A ∈ R m×n , B ∈ R n×p , C ∈ R p ×q entonces A(BC ) = (AB )C
iv) Si A ∈ R m×n , B, C ∈ R n×p entonces A(B + C ) = AB + AC .

Demostración. Se realiza por cálculo directo.


Sistemas de ecuaciones

Considere las siguientes relaciones,

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (1)
.
am1 x1 + am2 x2 + · · · + amn xn = bn .

donde aij ,bi ∈ R para i = 1...n y j = 1...m.


Equivalentemente es posible escribir, AX = B en la forma,
    
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
 =  ..  (2)
    
 .. .. . . ..   ..
 . . . .  .   . 
am1 am2 ··· amn xn bn
Matriz aumentada

La solución de (1),(2) se obtiene mediante la aplicación de operaciones


elementales sobre la matrix aumentada [A | B ].
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
[A | B ] =  ..
 
.. .. .. .. 
 . . . . . 
am1 am2 ··· amn bn
Operaciones fundamentales:
1. Multiplicación de una fila por un escalar (c 6= 0).
2. Intercambio de dos filas.
3. Adición de c veces la r -ésima fila a la j-ésima fila.
Sistema Ax = B.
    
a11 a12 ··· a1n x1 b1
 a21 a22 ··· a2n  x2   b2 
=
    
 .. .. .. ..  .. .. 
 . . . .  .   . 
am1 am2 ··· amn xn bn

I α1,··· , αn ∈ R es una sol. (1),(2) si cada una de las ecuaciones se


satisface cuando xi = αi .
I El sistema (2) es homogéneo si B = 0.
I Un sistema homogéneo siempre admite una sol. trivial αi = 0, ∀i.
I La sol. de Ax = B se obtiene al reducir [A | B ] a una matriz
escalonada mediante operaciones elementales por renglones.
Procedimiento Matrices escalonadas

Definición 11 (Matriz escalonada por renglones) Siempre que dos


renglones sucesivos sean no nulos, el primer elemento no nulo del
segundo renglón es posterior al primer elemento no nulo del primer
renglón. Todos los renglones nulos se encuentran en la parte inferior.

Ejemplo de Matriz escalonada:


 
1 2 −1 2 1
 0 0 3 −6 1 
0 0 0 −6 1
Procedimiento:
1. El elemento r11 = 1.
2. El primer elemento diferente de cero en cada fila es 1.
3. El primer elemento diferente de cero de cualquier fila esta a la
derecha del primer elemento no cero de la fila anterior.
4. Cualquier fila nula esta colocada debajo de todas las filas no nulas.
Resolver el sistema:
x + 2y − z + 2w = 1
2x + 4y + z − 2w = 3
3x + 6y + 2z − 6w = 5

Equivalentemente se tiene,
A  B
 z }|
z }| { x  {
1 2 −1 2  y  1
 2 4 1 −2  
 z = 3
  
3 6 2 −6 5
w
Sistema aumentado,
Matriz Aumentada
z }| {  
1 2 −1 2 1 1 2 −1 2 1
 2 4 1 −2 3  1(−2) + 2 =⇒  0 0 3 −6 1 
3 6 2 −6 5 1(−3) + 3 0 0 5 −12 2 2 ( −5 ) + 3
3

Matriz Reducida
  z }| {
1 2 −1 2 1 1 2 −1 2 1
 0 0 3 −6 1  =⇒  0 0 3 −6 1 
0 0 0 −2 1 0 0 0 −6 1
3
De lo anterior:
1
−6w = 1 → w = −
6
3z − 6w = 1, 3z + 1 = 1, 3z = 0 → z = 0,
entonces

x = 1 − 2w − 2y
−1
 
= 1−2 − 2y
6
1 4
= 1 + − 2y = − 2y
3 3
con lo cual
4
x= − 2y .
3
Definición 12 Dos sistemas de ecuaciones son equivalentes si cada
ecuación del primer sistema se puede obtener mediante una sucesión
finita de operaciones elementales en el segundo sistema.

Teorema 13 Dos sistemas equivalentes de ecuaciones tienen


exactamente las mismas soluciones.

Equivalentemente.

Teorema 14 Un sistema de ecuaciones algebráicas tiene exactamente la


misma solución que su sistema reducido.

Demostración. Directa del procedimiento de operaciones elementales.


Teorema 15 Un sistema homogéneo de m ecuaciones con n incógnitas
tiene soluciones no triviales si n > m (mas incógnitas que ecuaciones).

Demostración. La matriz aumentada reducida tiene una última columna


nula.
En la matriz reducida aii = {0 o 1}, ∀i = 1, . . . , m.
Sea k ∈ {1, . . . , m } t.q. akk = 1, esto es
(ak +1,k +1 = ak +2,k +2 = · · · = amm = 0).
Entonces la solución puede escribirse en términos de xk y otras posibles
variables las cuales pueden ser arbitrarias ası́ que eligiendo xk 6= 0 se
tiene una solución no trivial.
Si aii = 1, ∀i = 1, . . . , m entonces la última fila de la matriz aumentada
reducida es:
 
0 0 · · · 0 1 am, m+1 am,m+2 . . . amn 0

produciéndose

xm = −am1 m+1 xm+1 − am1 m+1 xm+2 − · · · − amn xn

como
xm+1 , xm+2 , . . . , xn
son arbitrarios, eligiendo xm+1 6= 0 produce una sol. no trivial.
Teorema 16 Un sistema homogéneo de m ecuaciones y m incógnitas
tiene soluciones no triviales si y solo si la matriz reducida de coeficientes
tiene filas nulas.

Demostración. Nótese que si aii = 1, ∀i entonces,


 
1 a12 0
 0 1 a23 0 
.. 
 

 0 0 1 a 34 . 
 
 .. . .. . .. 
 . 
0 0 1 0

Con la única solución x1 = x2 = · · · = xm = 0.


Entonces el sistema tiene soluciones no triviales ssi la última fila de la
matriz reducida de coeficientes esta formulada únicamente por ceros.
Observación. La existencia de filas nulas produce una matriz reducida de
la forma,  
1 a12 0
 0 1 a23 0 
.. 
 

 0 0 1 a34 . 
 
 .. 
 . 1 am−1,m 0 
0 0 0 ··· 0 0 0
con lo cual se tiene la ecuación,

xm−1 + am−1,m xm = 0 → xm−1 = −am−1,m xm

Produciéndose entonces soluciones no triviales.


Teorema 17 La solución del sistema Ax = B es única si y solo si la
ecuación homogénea Ax = 0 acepta solo la solución trivial.

Demostración. (Suf) (Hip. Sol. trivial de Ax = 0) Suponga que Ax = B


y Ay = B ((x, y ) soluciones no triviales) entonces A(x − y ) = 0.
Como Ax = 0 tiene solo la solución trivial entonces, x − y = 0 con lo
cual se implica que x = y .

(Nec)(Hip. Sol única) Suponga que z 6= 0 es tal que Az = 0 y x es sol.


de Ax = B pero x + z es también una sol, ya que
A(x + z ) = Ax + Az = B + 0 = B entonces la solución no es única
(existen x y z), ¡Contradicción! con la hipótesis.
Entonces no existe z 6= 0 tal que Az = 0.
Teorema 18 Un sistema no homogéneo (m-ecuaciones, m-incógnitas)
tiene una solución única ssi la matriz reducida de coeficientes no tiene
filas igual a cero.

Demostración. Nótese que si el sistema tiene alguna fila igual a cero se


tiene entonces un sistema con mas incognitas que ecuaciones de donde se
sigue el resultado.
Teorema 19 La solución general del sistema de ecuaciones Ax = B no
homogéneo, puede obtenerse como la solución de la ec. homogénea
Ax = 0 y cualquier solución particular de la ec. no homogénea.

Demostración. Suponga que z es una solución particular de Az = B.


Suponga que x es cualquier otra solución particular, entonces

A(x − z ) = Ax − Az = B − B = 0

Por lo tanto y = x − z es una sol. de la ecuación homogénea, entonces


x = z + y.
z : solución no homogénea
y : solución homogénea.
Matrices elementales

Intercambio de renglones:
I E : Matrices elementales.

 
0 0 1
E = 0 1 0 ,
1 0 0
EE = E 2 = I , E −1 = E .
    
0 0 1 a11 a12 a13 a31 a32 a33
EA =  0 1 0   a21 a22 a23  =  a21 a22 a23 
1 0 0 a31 a32 a33 a11 a12 a13

Observación. Una matriz elemental es invertible.


Multiplicación de un renglón por una constante
   
1 0 0 1 0 0
E =  0 c 0  , E −1 =  0 c −1 0 
0 0 1 0 0 1
    
1 0 0 a11 a12 a13 a11 a12 a13
EA =  0 c 0   a21 a22 a23  =  ca21 ca22 ca23 
0 0 1 a31 a32 a33 a31 a32 a33

Sumar el múltiplo de un renglón a otro renglón


   
1 0 0 1 0 0
E =  0 1 0  , E −1 =  0 1 0 
c 0 1 −c 0 1
 
a11 a12 a13
EA =  a21 a22 a23 
ca11+ a31 ca12+ a32 ca13+ a33
Determinantes
Considere el sistema,
    
a11 x1 + a12 x2 = b1 a11 a12 x1 b1
⇐⇒ = .
a21 x1 + a22 x2 = b2 a21 a22 x2 b2

Para obtener su solución considere su matriz aumentada y sus respectivas


reducciones, esto es,
 
a11 a12 b1
a21 a22 b2 (−1a21 + 2a11 )

entonces se obtiene,
 
a11 a12 b1
0 a11 a22 − a12 a21 b2 a11 − b1 a21

con lo cual,

a11 x1 + a12 x2 = b1
(a11 a22 − a12 a21 ) x2 = b2 a11 − b1 a21
De lo anterior,
b2 a11 − b1 a21
x2 = .
a11 a22 − a12 a21
De la misma forma, sustituyendo en la primera ecuación,

b2 a11 − b1 a21
 
a11 x1 = −a12 + b1
a11 a22 − a12 a21
−b2 a11 a12 + b1 a21 a12 + b1 (a11 a22 − a12 a21 )
=
a11 a22 − a12 a21
b1 a22 − b2 a12
 
= a11
a11 a22 − a12 a21
esto es,
b1 a22 − b2 a12
x1 = .
a11 a22 − a12 a21
Si a11 a22 − a12 a21 6= 0 entonces las soluciones:
b1 a22 − b2 a12 b a − b1 a21
x1 = , x2 = 2 11 ,
a11 a22 − a12 a21 a11 a22 − a12 a21
estan bién determinadas.
Se define a11 a22 − a12 a21 como el determinante de la matriz de
coeficientes, representado como,

a11 a12
a21 a22 = a11 a22 − a12 a21 .

Conjunto de Permutaciones

Considere el conjunto {1, 2, 3}.


I Posibles permutaciones:

{1, 2, 3} , {2, 3, 1} , {3, 1, 2} , {1, 3, 2} , {2, 1, 3} , {3, 2, 1}


I Si se cambia cualquier par de enteros, se cambia la permutación.
Esto se conoce como inversión.
I Dada cualquier permutación, el orden original puede reencontrarse
por medio de un número finito de inversiones.
I Una permutación es par (impar) si requiere de un número par
(impar) de inversiones para volver a su configuración original.

Pares : {1, 2, 3} , {2, 3, 1} , {3, 1, 2}


Impares : {1, 3, 2} , {2, 1, 3} , {3, 2, 1} .
Noción básica de Determinante

I El determinante de la matriz a11 ∈ R 1×1 , es a11 .


I El determinante de A ∈ R n×n esta formado por todos los posibles
productos de elementos tomando uno de cada fila y ningún par de
estos puede pertenecer a una misma columna.
I A cada uno de estos productos se les coloca un signo + o − según
que los subı́ndices de las columnas formen, respectivamente, una
permutación par o impar del conjunto {1, 2, 3, . . . , n }.
I Finalmente se realiza la sumatoria de todos los términos.
Ejemplo.

Par Impar
a11 a12 z }| { z }| {
= a11 a22 + (−)a12 a21
a21 a22


a11 a12 a13 Impar Impar Par
z }| { z }| { z }| {

a21 a22 a23
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31
a31 a32 a33
Impar
z }| {
+a13 a21 a32 − a13 a22 a31
Sistematización del Determinante

Sea A ∈ R n×n entonces det(A) se puede obtener en términos de la


función eijk ...p definida como:

 0 Si cualquier par de subı́ndices son iguales
eijk ...p = 1 Si ijk . . . p forma una permutación par de 1, 2, . . . , n
−1 Si ijk . . . p forma una perturbación impar de 1, 2, . . . , n

Entonces,


a11 a12 ··· a1n

a21 a2n n
= ∑ eijk ...p a1i a2j a3k . . . anp .

..

. ijk ...p

an1 an2 ann
Ejemplo de matriz de 3x3
Considere que,
3 3 3 3
∑eijk a1i a2j a3k = ∑ ∑ ∑ eijk a1i a2j a3k
ijk i =1j =1k =1

entonces el determinante de una matriz de 3 × 3 se expresa en la forma,


a11 a12 a13 3 3 3 3
= ∑eijk a1i a2j a3k = ∑ a1i ∑eijk a2j a3k = ∑ a1i c1i ,

a21 a22 a23

a31 a32 a33 ijk i =1 jk i =1

donde,
3
c1i = ∑eijk a2j a3k .
jk

I c1i se conoce como el cofactor de a1i .


El cofactor de c11 esta dado por,
!
3 3 3
c11 = ∑e1jk a2j a3k = ∑ ∑ e1jk a2j a3k
jk k =1 j =1
3
= ∑ (e11k a21 a3k + e12k a22 a3k + e13k a23 a3k )
k =1
3
= ∑ (e12k a22 a3k + e13k a23 a3k )
k =1
= e121 a22 a31 + e131 a23 a31 + e122 a22 a32 + e132 a23 a32
+e123 a22 a33 + e133 a23 a33
= e132 a23 a32 + e123 a22 a33

entonces,
c11 = a22 a33 − a23 a32 .
De la misma forma se obtiene,
3
a22 a23

c11 = ∑ 1jk 2j 3k 22 33 23 32 a32 a33
e a a = a a − a a =
jk
3
a

a23
c12 = ∑e2jk a2j a3k = a23 a31 − a21 a33 = − 21


a31 a33
jk
3
a21 a22

c13 = ∑e3jk a2j a3k = a21 a32 − a22 a31 =

a31 a32
jk

De lo anterior es posible ver que el determinante se puede obtener como:



a11 a12 a13
a21 a22 a23 = a11 a22 a23 a21 a23 a21 a22

a32 − a12 + a13 .

a31 a32 a33
a33 a31 a33 a31 a32

I Esta última expresión se denomina: Expanción de cofactores de la


primera fila.
Cofactores
El cofactor c1i de a1i se define como el producto de (−1)1+i por el
determinante formado al eliminar la primera fila y la i-ésima columna. En
general se tiene:
Teorema 20 El cofactor cij asociado al elemento aij ∈ A ∈ R n×n se
obtiene como el producto de (−1)i +j por el determinante obtenido al
suprimir la i-ésima fila y la j-esima columna de A, entonces,
n
|A| = ∑ aij cij .
j =1

Observación 21 El determinante puede obtenerse a partir de cualquier


fila.
Teorema 22 Si cij es el cofactor asociado con el elemento
aij ∈ A ∈ R n×n , entonces,
n
|A| = ∑ aij cij .
i =1
Observación 23 El determinante puede obtenerse a partir de cualquier
columna.
La prueba de los dos teoremas anteriores se basa en los siguientes
resultados:
a) Si todo elemento de una fila es cero, el determinante es cero.
b) Si dos filas de una matriz cuadrada se intercambian el determinante
cambia de signo.
c) Si dos filas son proporcionales, el determinante es cero.

Teorema 24 Si A, B ⊂ R n×n entonces |AB | = |A| |B | = |BA|


(¡Demostrarlo!)

Definición 25 La transpuesta de A ⊂ R n×n definida como AT es la


matriz obtenida al intercambiar filas por sus correspondientes columnas.

Teorema 26 Si A ∈ R n×n =⇒ AT = |A|.

Demostración. El determinante de AT se calcula en términos de la


primera columna.
considere el caso N = 1, entonces A ∈ R y por lo tanto,

|A| = AT

Sea N = 2, entonces se tiene que,



|A| = a11 a22 − a12 a21 = AT .

Suponga que el resultado es cierto para (N − 1) y considere entonces el


caso N = n, esto es, A ∈ R n×n ,
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
|A| =  ..
 

 . 
an1 an2 ... ann
Por otra parte,
   
b11 b12 ... b1n a11 a21 ... an1

T  b21 b22 ... b2n   a12 a22 ... an2 
A =   =  ..
  
.. 
 .   . 
bn1 bn2 ... bnn a1n a2n ... ann
Calculando |A| por medio de la primera fila,
n
|A| = ∑ a1i cA1i
i =1

Calculando AT por medio de la primera columna

n
A = ∑ bi1 cAT i1
T
i =1
T ,
Como bi1 = a1i y además cAT i1 = cA1i
n n
A = ∑ a1i cAT i1 = ∑ a1i cA1i
T T
i =1 i =1

T , entonces,
dado que cA1i = cA1i
n
A = ∑ a1i cA1i = |A| .
T
i =1
Teorema 27 Si A ∈ R n×n y B ∈ R n×p entonces (AB )T = B T AT .

Demostración.

  
a11 . . . a1n b11 . . . b1p
AB =  ...
   .. 
 . 
an1 . . . ann bn1 . . . bnp
 n n 
 ∑ a1i bi1 . . . ∑ a1i bip 
 i =1 i =1 
=
 .
.

.
 

 n n 
∑ ni i1
a b . . . ∑ ni ip
a b
 
i =1 i =1
Por otra parte,
 n n 
 ∑ a1i bi1 ... ∑ ani bi1 
 i =1 i =1 
T

(AB ) =  .. 
.

 
 n n 
∑ a1i bip ... ∑ ani bip
 
i =1 i =1
  
b11 ... bn1 a11 ... an1
 ..   .. T T
= . =B A .

 .
b1p ... bnp a1n ... ann
Matriz Adjunta

Definición 28 (Alterna) Denotando A(i | j ) la submatriz que se


obtiene al eliminar la i-ésima fila y la j-ésima columna de A. El cofactor
cij del elemento aij de A se define como

cij = (−1)i +j det A(i | j ).

La matriz adjunta de A denotada por Adj(A) se define como la


transpuesta de la matriz de cofactores, esto es

(Adj(A))ij = cji = (−1)i +j det A(i | j ).

Entonces se tiene que:


n n
det A = ∑ (−1)i +j aij det(A(i | j )) = ∑ aij cij .
i =1 i =1
Inversa de una matriz

Definición 29 Considere la matriz A ∈ R n×n . A tiene una inversa


A−1 ∈ R n×n si A−1 es tal que A−1 A = AA−1 = I .

I matriz identidad de orden n.

Teorema 30 Si A tiene inversa, A−1 es única.

Demostración. Suponga que B 6= A−1 es tal que BA = AB = I ,


entonces

A−1 = A−1 I = A−1 (AB ) = A−1 AB = IB = B, Contradicción!

Entonces se prueba que A−1 es única ya que B = A−1 .


n
Lema 31 Si j, k son tales que j 6= k, entonces, ∑ aik cij = 0.
i =1

Demostración. ¡Demostrar este resultado!


Para esta demostracion considere una matriz B obtenida al reeplazar la
j-ésima fila de A por la k-ésima fila de A. Bajo estas condicones (dado
que B tiene dos filas iguales) det(B ) = 0.
Lema 32 (Adj A)A = (det A)I .

Demostración.
(Adj A)A =  n n 
    ∑ ai1 ci1 ... ∑ ain ci1
c11 ... cn1 a11 ... a1n

 i =1 i =1 
 ..   ..   .. 
= .  . =
 .


 n n
c1n cnn an1 ann

∑ ai1 cin ∑ ain cin
 
  i =1 i =1
det A ... 0
=  ... .. ..
 = (det A)I
 
. .
0 ... det A
Teorema 33 Sea A ∈ R n×n . A es invertible ssi det A 6= 0. En este caso
A−1 = (det A)−1 Adj(A).

Demostración. Se sabe que Adj(A)A = (det A)I .


(Suf.)(det A 6= 0) Si det(A) 6= 0 =⇒ I = (det A)−1 (Adj A)A. Dado que
la inversa es única, entonces

A−1 = (det A)−1 Adj(A).

(Nec.)(A es invertible) Dado que A es invertible, entonces existe A−1 t.q.

Adj(A)A = (det A)A−1 A


Adj(A) = (det A)A−1
A−1 = (det A)−1 Adj(A).
I Sea C la matriz de cofactores de A y det(A) = |A| entonces,
CT
A−1 = , C T = Adj (A)
|A|
T   −1
I A−1 = AT
Nótese que,
h iT h iT
I = I T = A−1 A = AT A−1
entonces,
h iT
AT A−1 = I.
Como la inversa es única, entonces,
h iT h i −1
A−1 = AT .

I (AB )−1 = B −1 A −1

Nótese ahora que,


I = ABB −1 A−1
(AB )−1 I = (AB )−1 ABB −1 A−1
(AB )−1 = B −1 A−1 .
Definición 34 A ⊂ R n×n es regular si A tiene inversa. Si A no tiene
inversa se denomina singular.

Teorema 35 Un sistema de n ecuaciones y n incógnitas tiene una


solución única ssi la matriz de coeficientes es regular.

Definición 36 A es ortogonal si A−1 = AT .

Definición 37 A ⊂ Cn×m . La conjugada de A, denotada Ā es la matriz


obtenida de A al tomar el conjugado de cada uno de sus elementos.

Definición 38 A ⊂ Cn×n . A es unitaria si A−1 = ĀT .

Definición 39 El rango ran (A) de una matriz A, es el orden (dimensión)


de la más grande submatriz regular que se puede obtener al eliminar filas
y columnas de A.

* Si A ∈ R m×n =⇒ 0 ≤ ran (A) ≤ mı́n [m, n ] .


* Si A ∈ R n×n =⇒ ran (A) = n ssi A es regular.
Espacio Vectorial de dimensión 3

Un espacio vectorial V ⊂ R 3 esta definido por tercias de números reales


(x, y , z ) tales que:
I v1 , v2 ∈ V , v1 = (x1 , y1 , z1 ), v2 = (x2 , y2 , z2 ). v1 = v2 ssi x1 = x2 ,
y1 = y2 , z1 = z2 .
I v1 , v2 ∈ V → v1 + v2 = ( x1 + x2 , y1 + y2 , z1 + z2 ) .
I El vector cero 0 = (0 0 0) es tal que
v + 0 = (x y z ) + (0 0 0) = (x y z ) = v ∀v ∈ V .
I El negativo de un vector se define como −v = (−x, −y , −z ) y es
tal que v + (−v ) = 0, ∀v .
I a, b ∈ R → av = (ax, ay , az ) y ademas se satisface

a(v1 + v2 ) = av1 + av2


(a + b ) v = av + bv
1v = v .
Considere los puntos (a, b, c ) y (d, e, f ), geométricamente se tiene,

Sea x = d − a y = e − b z = f − c entonces v = (x y z ) es la
lı́nea que une los dos puntos iniciales.
La longitud (magnitud) de v se define como,
q
|v | = x 2 + y 2 + z 2 = (d − a )2 + (e − b )2 + (f − c )2 .
p
La dirección de v (si v 6= 0) esta dada por los ángulos (θ1 , θ2 , θ3 )
obtenidos a partir de los denominados cosenos directores:
x y z
cos θ1 = , cos θ2 = , cos θ3 =
|v | |v | |v |
o equivalentemente,

x = |v | cos θ1 , y = |v | cos θ2 , z = |v | cos θ3 .

Nótese que,
 
x 2 + y 2 + z 2 = |v |2 cos2 θ1 + cos2 θ2 + cos2 θ3 =⇒ x 2 + y 2 + z 2 = |v |2

dado que θ1 , θ2 , θ3 satisfacen,

cos2 θ1+ cos2 θ2 + cos2 θ3 = 1.


Adición de vectores.

Como los puntos PQR determinan un plano, por la desigualdad del


triángulo se tiene |v1 + v2 | ≤ |v1 | + |v2 | (Demostrar). Si
P = R → v1 + v2 = 0.
Considere a ∈ R y v = (x, y , z ) ,
p
|av | = a2 x 2 + a2 y 2 + a2 z 2 = |a| |v |
=⇒ La multiplicación por a modifica la longitud por |a| si |a| 6= 1.
Suponga que para v ,
x y z
cos θ1 = , cos θ2 = , cos θ3 =
|v | |v | |v |
Los cosenos directos para av toman la forma:

ax a cos θ1 |v |
cos θ1 = =
|a | |v | |a | |v |
a
= cos θ1
|a |
Entonces,

a
cos θ1 = cos θ1 ,
|a |
a
cos θ2 = cos θ2 ,
|a |
a
cos θ3 = cos θ3
|a |
Si a > 0 no hay cambio, si a < 0 se invierte la dirección.
La resta de dos vectores v1 , v2 se define como:

v1 − v2 = v1 + (−v2 )

El producto escalar se define como:

v1 · v2 = ( x1 x2 + y1 y2 + z1 z2 )

y satisface las siguientes propiedades:


1. v1 · v2 = v2 · v1
2. v1 · (v2 + v3 ) = (v1 · v2 ) + (v1 · v 3)
3. av1 · v2 = a (v1 · v2 )
4. v · v = |v |2 ≥ 0
5. v · v = 0 ssi v = 0
Se tiene que
| v1 − v2 | 2 − | v1 | 2 − | v2 | 2
cos θ =
−2 |v1 | |v2 |
|v1 − v2 |2 − |v1 |2 − |v2 |2 = (v1 − v2 ) · (v1 − v2 ) − v1 · v1 − v2 · v2
= v1 · v1 + v2 · v2 − 2 ( v1 · v2 ) − v1 · v1 − v2 · v2
= − 2 ( v1 · v2 )
− 2 ( v1 · v2 )
=⇒ cos θ = =⇒ v1 · v2 = |v1 | |v2 | cos θ
− 2 | v1 | | v2 |

Teorema 40 |v1 · v2 | ≤ |v1 | |v2 |

Teorema 41 Si |v1 | 6= 0 y |v2 | 6= 0 =⇒ v1 · v2 = 0 ssi v1 y v2 son


perpendiculares.
Espacios Vectoriales n-dimensionales

Axiomas generales:

Definición 42 Considere un sistema V de objetos llamados vectores,un


campo f , dos operaciones (+, ·). V es un espacio vectorial si satisface las
siguientes propiedades ∀u, v , w ∈ V y ∀a, b, c ∈ F .

A1 u + v ∈ V M1 au ∈ V
A2 u + v = v + u M2 a (u + v ) = au + av
A3 u + (v + w ) = (u + v ) + w M3 (a + b ) u = au + bu
A4 0 ∈ V t.q. u + 0 = u, ∀u ∈ V M4 (ab ) u = a (bu )
A5 ∃ − u ∈ V t.q. u + (−u ) = 0 M5 1u = u
I V es un espacio vectorial real si el campo F es el campo de los
números reales
I V es un espacio vectorial complejo si el campo F es el campo de los
números complejos
I Verificar el caso de F complejo considerando (+, ·) en las formas
definidas y el producto por un escalar en la forma
a (x + iy ) = ax + iay .

Ejemplo 43 Demostrar que el sistema de matrices de n × n con


elementos aij ∈ R forman un espacio vectorial real.
Ejemplo 44 Considere un sistema de n tuplas de números reales
(u1 , . . . , un ). Si u = (u1 , . . . , un ), v = (v1 , . . . , vn ) y a ∈ R se definen la
adición y multiplicación por un escalar como

u+v = (u1 + v1 , u2 + v2 , . . . , un + vn ) (A1)


au = (au1 , . . . , aun ) (M1)

El conjunto ası́ definido es un espacio vectorial.


Axiomas adicionales

Con respecto a la adición:

A2 u + v = (u1 + v1 , . . . , un + vn ) = (v1 + u1 , . . . , vn + un ) = v + u
A3 u + (v + w ) = [u1 + (v1 + w1 ) , . . . , un + (vn + wn )]
= [(u1 + v1 ) + w1 , . . . , (un + vn ) + wn ] = (u + v ) + w
A4 u + 0 = (u1 + 0, . . . , un + 0) = (u1 , . . . , un ) = u
A5 −u = (−u1 , . . . , −un )
=⇒ u + (−u ) = (u1 − u1 , . . . , un − un ) = (0, . . . , 0) = 0

Con respecto al producto:

M2 a (u + v ) = au + av
M3 (a + b ) u = au + bu
M4 (ab ) u = a (bu )
M5 1u = (u1 . . . un ) = u.
El espacio de los Polinomios

Ejemplo 45 Sea Pn la colección de polinomios en x con coeficientes


reales de orden menor o igual a n. Sean pn (x ) , qn (x ) ∈ Pn tales que,

pn (x ) = a0 + a1 x + a2 x 2 + . . . + an x n
qn (x ) = b0 + b1 x + b2 x 2 + . . . + bn x n

y définase la adición y multiplicación por escalar como,

pn + qn = (a0 + b0 ) + (a1 + b1 ) x + (a2 + b2 ) x 2 + . . . + (an + bn ) x n


apn = aa0 + (aa1 ) x + (aa2 ) x 2 + . . . + (aan ) x n .

Pn ası́ definido es un espacio vectorial.


Demostración. Considerando que dos polinomios son iguales si los
coeficientes de igual potencia son iguales, se tiene que los axiomas de un
espacio vectorial son fácilmente verificables.
El polinomio cero es una función constante con valor en todo punto
ai = 0 ∀i.
Si Pn (x ) = a0 + . . . + an x n entonces −Pn = (−a0 ) + . . . + (−an ) x n .
El espacio de las funciones continuas

Ejemplo 46 Considere el conjunto de funciones continuas,

{f (x ) | 0 ≤ x ≤ 1} .

Dos funciones son iguales si sus valores son iguales ∀x en 0 ≤ x ≤ 1, i.e.,

f =g si f (x ) = g (x ) , ∀0 ≤ x ≤ 1
f +g = h si h (x ) = f (x ) + g (x ) , ∀0 ≤ x ≤ 1
af = af (x ) , ∀0 ≤ x ≤ 1.

El espacio ası́ definido es un espacio vectorial!


Observaciones:
I El cero de un espacio vectorial es único.
I ∀u ∈ V , (−1) u = −u, −u es único.
I ∀u ∈ V , 0u = 0.
I ∀a ∈ R, a0 = 0 ∈ V .
El espacio Euclidiano

Rn

Definición 47 Un espacio euclidiano de dimensión n consiste de todas


las n-tuplas ordenadas de números reales y es denotado por R n :

R n = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ R }
R n = R × R × . . . × R : Producto cartesiano

Si x es un punto en R n entonces x = (x1 , . . . xn ).

Adición y multiplicación:

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )


α (x1 , . . . , xn ) = (αx1 , . . . , αxn ) , ∀α ∈ R.
Teorema 48 Un espacio euclidiano de dimensión n con las operaciones
de adición y multiplicación definidas anteriormente es un espacio vectorial
de dimensión n.

Observación 49 dim(R n ) = n, ya que tiene una base (A definir


posteriormente de manera formal) de n vectores. Por ejemplo:

{e1 = (1, 0, . . . , 0) , e2 = (0, 1, . . . , 0) , . . . , en = (0, 0, . . . , 1)} .

Definición 50 El producto interno h· | ·i : R n × R n → R se define


como,

hx, y i = x1 y1 + · · · + xn yn , ∀x, y ∈ R n
n
hx, y i = ∑ xi yi .
i =1
Definición 51 La norma de x ∈ R n se define mediante,
!1
1
n 2

kx k = hx, x i =
2
∑ xi2 .
i =1

Definición 52 La distancia entre dos vectores x, y ∈ R n , se define como,


" #1
n 2
d (x, y ) = kx − y k = ∑ ( xi − yi ) 2
.
i =1
Propiedades del producto interno

1) hx1 , y1 + y2 i = hx1 , y1 i + hx1 , y2 i


2) hx, αy i = α hx, y i , α ∈ R
3) hx, y i = hy , x i
4) hx, x i ≥ 0 y hx, x i = 0 ssi x = 0
5) |hx, y i| ≤ kx k ky k Desigualdad de Cauchy-Schuarz.
Propiedad (5). Sean v = λx + y , λ ∈ R y x, y ∈ R n ,

0 ≤ hv , v i = hλx + y , λx + y i = hλx + y , λx i + hλx + y , y i


= hλx, λx i + hy , λx i + hλx, y i + hy , y i
= λ2 hx, x i + 2λ hx, y i + hy , y i

Como λ es un escalar, considere en particular,

hx, y i
λ=− .
kx k2
Entonces,

hx, y i2 2 hx, y i2 2 hx, y i2


0≤ 4
k x k − 2 2
+ k y k = − 2
+ ky k2 ,
kx k kx k kx k
con lo cual,

hx, y i2 ≤ kx k2 ky k2 =⇒ |hx, y i| ≤ kx k ky k .

Obsérvese que α2 = |α| .
Propiedades de la Norma

La norma euclidiana k∗k : R n → R + definida anteriormente satisface las


siguientes propiedades:
1) kx k ≥ 0
2) kx k = 0 ssi x = 0
3) kαx k = |α| kx k , α ∈ R
4) kx + y k ≤ kx k + ky k Desigualdad del triángulo.
Propiedad (4). Considere x, y ∈ R n , entonces,

kx + y k2 = hx + y , x + y i = hx, x i + 2 hx, y i + hy , y i
≤ kx k2 + 2 |hx, y i| + ky k2
≤ kx k2 + 2 kx k ky k + ky k2

entonces,
kx + y k2 ≤ (kx k + ky k)2
con lo cual,
kx + y k ≤ kx k + ky k .
Generalización de la Norma

Definición 53 Sea E un espacio vectorial. Una norma en E es una


función k·k : E → R (v → kv k) tal que.,
1) ∀v ∈ E , kv k ≥ 0 y kv k = 0 ssi v = 0
2) ∀α ∈ R, kαv k = |α| kv k
3) ∀v , w ∈ E , kv + w k ≤ kv k + kw k .
Ejemplos de Normas

I Norma 1: kx k1 = |x1 | + · · · + |xn |


1
I Norma Euclidiana: kx k2 = x12 + · · · + xn2 2
(
kx kmáx = máx {|x1 | , · · · , |xn |}
I Norma del máximo: kx k∞ = máx |xk | ,
k

1
 k x k p = | x1 | p + · · · + | xn | p p
I Norma p (p ≥ 1): .
 lı́m kx k = máx |xk | .
p →∞ k
Norma Infinita

Demostración de que kx k∞ es una norma.

Evidentemente kx k∞ satisface las propiedades 1 y 2.


Para demostrar la desigualdad del triángulo (Propiedad 3) primero
notemos que,
 
kA + B kmáx = máx aj + bj ≤ máx aj + bj
j j

≤ máx aj + máx bj
j j
kA + B kmáx ≤ kAkmáx + kB kmáx .

Nótese que en este caso,

A = (a1 , . . . , an ) , B = (b1 , . . . , bn ) .
Definición 54 Dos normas k·k1 y k·k2 en E son equivalentes si existen
constantes c1 , c2 > 0 tales que ∀v ∈ E , se satisface,

c1 k v k 1 ≤ k v k 2 ≤ c2 k v k 1 .
Ejemplo 55 La norma Euclidiana y la norma del Máximo son
equivalentes.
Sea v = (v1 , . . . , vn ), entonces,
q q
∀j, vj = vj2 ≤ v12 + · · · + vn2 = kv k2 =⇒ kv kmáx ≤ kv k2 .

Por otra parte, sea |vk | = kv kmáx entonces,

v12 + · · · + vn2 ≤ n |vk |2 .

Nótese que,
q q √
kv k2 = v12 + · · · + vn2 ≤ nvk2 = n kv kmáx

con lo cual, √
kv kmáx ≤ kv k2 ≤ n kv kmáx

de donde se tiene que c1 = 1, c2 = n.
I Tarea. Encontrar una relación de la forma,
c1 kv k2 ≤ kv kmáx ≤ c2 kv2 k2 .
Subespacios

Definición 56 Un subconjunto no vacı́o W ⊂ V es un subespacio de V


si W es por si mismo un espacio vectorial.

Teorema 57 Un subconjunto no vacı́o W ⊂ V es un subespacio de V si


y solo si ∀α, β ∈ W y ∀c ∈ f se tiene que cα + β ∈ W .

Demostración. (Suf.) Suponga que ∀α, β ∈ W y ∀c ∈ F se tiene que


cα + β ∈ W .
Para probar que W es un subespacio de V se requiere probar que W
mismo es un espacio vectorial.
1) ∀α, β ⊂ W =⇒ α + β ∈ W . (Considere c = 1)
2) ∀α ∈ W , ∀c ∈ F , cα ∈ W . (Considere β = 0)
3) 0 ∈ W , nótese que considerando c = 0, β = 0 se tiene que 0 ∈ W .
4) ∀α ∈ W se tiene que −α ∈ W (Considere c = −1 β = 0)
(Nec.) Por hipótesis se tiene que W es un subespacio de V . Entonces W
es un espacio vectorial y por definición ∀α, β ∈ W y ∀c ∈ F se tiene que
cα + β ∈ W .
Definición 58 Sea U un espacio con vacı́o de elementos del espacio
vectorial V . U es un subespacio de V si siempre que u y v ∈ U entonces
au + bv ∈ U ∀a, b.

Todo espacio vectorial contiene dos subespacios triviales:


1. El espacio completo
2. El subespacio cero (Sólo el vector cero).
Subespacios en dimensión 3.

I El cero y el espacio total.


I Lı́neas que cruzan por el origen. Puntos de la forma (αt, βt, γt ),
esto es,
(αt, βt, γt ) = t (α, β, γ)
Nótese que si t → 0 los puntos de la forma t (α, β, γ) también
tieneden a cero.
Suponga que u = (αt1 , βt1 , γt1 ) y v = (αt2 , βt2 , γt2 ) entonces,

au + bv = (α (at1 + bt2 ) , β (at1 + bt2 ) , γ (at1 + bt2 )) ,

esta también sobre la lı́nea.


I Planos que cruzas por el origen.
Considere el plano dado por la restricción αx + βy + γz = 0.
Si u = (x1 , y1 , z1 ) v = (x2 , y2 , z2 ) son puntos en el plano, entonces
satisfacen las restricciones,

αx1 + βy1 + γz1 = 0


αx2 + βy2 + γz2 = 0.

Multiplicando la primera ecuación por a; la siguiente por b y sumando se


obtiene,

α (ax1 + bx2 ) + β (ay1 + by2 ) + γ (az1 + bz2 ) = 0,

entonces au + bv también pertenece al mismo plano.


Intersección de subespacios

Teorema 59 Sea V un espacio vectorial y sean W1 . . . Wα subespacios


de V . Entonces ∩ Wj = W1 ∩ . . . ∩ Wα también es un subespacio de V .
∀j

Demostración. ∀j, Wj es un subespacio

=⇒ 0 ∈ Wj =⇒ 0 ∈ ∩j Wj 6= ∅

Wj es un subespacio =⇒ ∀α, β ∈ Wj se tiene que

aα + bβ ∈ Wj .

En particular sean α, β ∈ ∩j Wj =⇒

α, β ∈ Wj , ∀j =⇒ aα + bβ ∈ Wj , ∀j =⇒ aα + bβ ∈ ∩j Wj
Subespacios Generados

I Sean s = {u1 , . . . , un } un subconjunto finito de un espacio vectorial


V.
I Sea L el conjunto de todas las combinaciones lineales de los vectores
de S.

Teorema 60 L es un subespacio de V y se llama subespacio generado


por S.

L = {u = c1 u1 + c2 u2 + . . . + cn un | u1 , . . . , un ∈ S } .

Demostración. Directa a partir de las propiedades de un espacio


vectorial.
Dependencia e independencia de vectores

Definición 61 Un conjunto de vectores,

u1 , u2 , . . . , uk ∈ V

es dependiente si existe una combinación lineal


k
∑i =1 ci ui = 0, con ci 6= 0, para algún i.
Si
k
∑i =1 ci ui = 0, sólo para ci = 0, i = 1, . . . , k,
entonces los vectores son independientes.
Conjuntos de vectores dependientes

Teorema 62 Cualquier conjunto de m vectores de R n es dependiente si


m > n.

Demostración. Definiendo los m vectores como u1 , . . . , um se tiene que,

c1 u1 + c2 u2 + . . . + cm um = 0.
 
Considerando que ui = ui1 . . . uin entonces,
   
u11 · · · u1n c1 +  u21 · · · u2n c2 + · · ·
+ um1 · · · umn cm = 0

equivalentemente,
 
u11 c1 + · · · + um1 cm ··· u1n c1 + · · · + umn cm =0
Entonces se tiene que,

u11 c1 + · · · + um1 cm = 0
..
.
u1n c1 + · · · + umn cm = 0

Con lo cual,
  
u11 u21 ··· um1 c1
 u12 u22 um2   c2 
=0
  
 ..  ..
 .  . 
u1n u2n ··· umn cm

obteniéndose un conjunto de n ecuaciones con m incógnitas m > n,


produciéndose soluciones no triviales. Entonces el conjunto de vectores es
dependiente.
Teorema 63 Sean u1 , . . . , un ∈ R n un conjunto independiente. Entonces
∀u ∈ R n
u = a1 u1 + · · · + an un , ai ∈ R.

Demostración. Considere el conjunto u1 , u2 , . . . , un , u. Este es un


conjunto de n + 1 vectores en R n . Por el teorema anterior, el conjunto es
dependiente, esto es,

c1 u1 + · · · + cn un + cn+1 u = 0, para algún ci 6= 0.

Si cn+1 = 0, {u1 , u2 , . . . , un } es dependiente, lo cual contradice la


hipótesis inicial entonces cn+1 6= 0, con lo cual,
− c1 − c2 −cn
u= u1 + u2 + · · · + un .
cn + 1 cn + 1 cn + 1
Teorema 64 En un espacio vectorial V , un conjunto u1 , . . . , uk con
k ≥ 2 es dependiente si y solo si al menos uno de los vectores en el
conjunto puede escribirse como una combinación lineal de los otros.

Demostración. Directa del teorema anterior.


Bases y dimensión

Definición 65 El conjunto u1 , u2 , . . . , uk del espacio vectorial V se dice


que expande V si ∀v ∈ V se tiene que v = a1 u1 + · · · + an uk , ai ∈ R.

Teorema 66 Si V no es el espacio cero y es expandido por el conjunto


u1 , u2 , . . . , uk entonces existe un subconjunto independiente que también
expande V .
Demostración. Se requiere encontrar el conjunto de vectores linealmente
independiente que expandan el espacio vectorial V .
Si u1 , u2 , . . . , uk son linealmente independientes no hay nada que probar.
Si son dependientes entonces,

c1 u1 + · · · + ck uk = 0

de donde,
− c1 − c2 − ck − 1
uk = u1 + u2 + · · · + uk .
ck ck ck
Si uk se puede escribir como una combinación lineal de u1 , . . . , uk −1
entonces el conjunto u1 , . . . , uk −1 es independiente. En el caso en que
continuara siendo dependiente c1 u1 + · · · + ck −1 uk −1 = 0 se continua
con el procedimiento hasta lograr un conjunto linealmente independiente,
note que V es no cero.
Definición 67 Si V tiene un conjunto independiente que lo expande, tal
conjunto se denomina base de V .

Ejemplo 68 Muestre que los vectores,



e1 = 1 0 ··· 0 
e2 = 0 1 ··· 0
.. (3)
. 
en = 0 0 ··· 1 ,

forman una base para R n .


Demostración. Nótese que los vectores anteriores cubren todo el
espacio, ya que todo elemento x = x1 · · · xn ∈ R n puede


escribirse como combinación lineal de (3),



x1 x2 · · · xn = x1 e1 + x2 e2 + · · · + xn en .

Los elementos son linealmente independientes ya que,



c1 e1 + c2 e2 + · · · + cn en = c1 c2 ··· cn =0

si y solo si
c1 = c2 = · · · = cn = 0.
Esta base es llamada estandar.
Ejemplo 69 Muestre que los vectores,
 
u1 = 1 1 1 1 , u2 = 1 −1 1 −1
 
u3 = 1 2 3 4 , u4 = 1 0 2 0

expanden R 4 .

Demostración. Considere v = b1 b2 b3 b4 . Si ui expanden
R 4 , entonces v se puede escribir como,

v = c1 u1 + c2 u2 + c3 u3 + c4 u4
       
1 1 1 1
 1   −1   2   0 
v = c1 
 1  + c2  1  + c3  3  + c1 
      
2 
1 −1 4 0
Entonces,     
1 1 1 1 c1 b1
 1 −1 2 0   c2   b2 
=
  b3  .
  
 1 1 3 2   c3
1 −1 4 0 c4 b4

I Si det (A) 6= 0 existe una solución única ∀bi y por lo tanto expanden
R 4 . (ya que se consideró v arbitrario)
I Si v = 0 =⇒ c1 = · · · = c4 = 0 y el campo v1 · · · v4 es
independiente ! y expanden R 4 .
Teorema 70 La representación de v en un EV en términos de una base
dada es única.

Demostración. Supóngase que v puede representarse en la base


u1 , u2 , . . . , un como

v = c1 u1 + c2 u2 + · · · + cn un y v = γ1 u1 + γ2 u2 + · · · + γn un

entonces,
0 = (c1 − γ1 ) u1 + · · · + (cn − γn ) un
Como ui son linealmente independientes
=⇒ c1 − γ1 = · · · = cn − γn = 0 =⇒ ci = γi .

Definición 71 Si V es un EV con base u1 , · · · , un y v ∈ V t.q.


v = c1 u1 + · · · + cn un , entonces cj , j = 1, · · · , n es la j-ésima
coordenada de v con respecto a la base en cuestión.
Teorema 72 Si un EV V tiene una base de n vectores entonces
cualquier otra base convendrá n vectores.

Demostración. Suponga que u1 , · · · , un y v1 , · · · , vm son dos base de


V . El vector v1 ∈ V , se expresa como,

v1 = c1 u1 + c2 u2 + · · · + cn un ,

con al menos un ci 6= 0. Suponga que c1 6= 0, entonces


1 − c2 − cn
u1 = v1 + u2 + · · · + un .
c1 c1 c1
Por lo tanto v1 , u2 , u3 , · · · , un expanden todo el espacio y representan
una base.
Entonces v2 puede escribirse como,

v2 = γ1 v1 + γ2 u2 + · · · + γn un .

Si
γ1 6= 0 y γ2 = · · · = γn = 0 =⇒ v2 = γ1 v1
en este caso v1 y v2 serı́an dependientes, contradicción!
Entonces algunos de los γ2 · · · γn deben ser diferentes de cero.
Suponga que γ2 6= 0,
1 −γ1 −γ3 −γn
=⇒ u2 = v2 + v1 + u3 + · · · + un
γ2 γ2 γ2 γ2

y por lo tanto v1 , v2 , u3 , · · · , u3 expanden todo el espacio.


Continuando con el procedimiento se concluye que se requieren n
elementos del conjunto (v1 , · · · , vm ) para representar cualquier elemento
del espacio vectorial.
Si m > n se encontrarı́a que algunos vi son dependientes lo cual es una
contradicción, entonces m ≤ n.
Realizando un procedimiento inverso

(v → u ) (u1 = c1 v1 + c2 v2 + · · · + cn vm )

se muestra que n ≤ m y por lo tanto m = n.

Definición 73 Cualquier EV con una base es llamado de dimensión


finita. El espacio nulo tiene dim cero. La dim de cualquier EV es igual al
número de los vectores de su base.
Teorema 74 Sean w1 y w2 dos SE de dim finita, entonces

dim w1 + dim w2 = dim (w1 + w2 ) + dim (w1 ∩ w2 )

(dim (w1 + w2 ) = dim w1 + dim w2 − dim (w1 ∩ w2 ))

Demostración. Sean

{α1 , · · · αr } una base de w1 ∩ w2


{α1 , · · · αr , β 1 , · · · β s } una base de w1
{α1 , · · · αr , γ1 , · · · γt } una base de w2
=⇒ w1 + w2 = span {αi , β i , γi }

Se demostrará que {αi , β i , γi } son linealmente independiente.


Supóngase que ∃ai , bi , ci t.q.

∑ai αi + ∑bj βj + ∑cl γl = 0 (4)


i j l

=⇒ −∑ cl γl = ∑ai αi + ∑bj β j =⇒ θ ∈ w2 , η ∈ w1
|{z} | {z }
θ η

=⇒ −∑cl γl = ∑ai αi + ∑bj β j ∈ w1 ∩ w2


l i j

=⇒ ∃di tal que ∑cl γl = ∑di αi =⇒ ∑cl γl − ∑di αi = 0 (5)


Dado que {γi , αi } son l.i. (5) implica que cl = di = 0.
Como cl = 0
=⇒ ∑ai αi + ∑bj β j = 0
i j

=⇒ ai = bj = 0 ya que {αi , β i } son l.i.


Entonces como (4) se satisface solo en el caso de ai = bj = cl = 0,

=⇒ αi , β j , γl son una base de w1 + w2 =⇒ dim (w1 + w2 ) = r + s + t

dim (w1 ∩ w2 ) = dim w1 + dim w2 − dim (w1 + w2 )


= (r + s ) + (r + t ) − (r + s + t )
=r
Producto Escalar Complejo

Definición 75 Sea V un EV. Sean u, v ∈ V . (u · v ) es un producto


escalar complejo si satisface:

i) (u · v ) = (v · u )
ii) (u · [v + w ]) = (u · v ) + (u · w )
iii) (au · v ) = a (u · v ) (6)
iv) (u · v ) ≥ 0
v) (u · u ) = 0 ssi u = 0
Ejemplo 76 Considere el EV complejo formado por conjuntos de
n-tuplas de números complejos. Sea u = (u1 , u2 , · · · , un )
v = (v1 , v2 , · · · , vn ). Definase,

(u · v ) = u1 v̄1 + u2 v̄2 + · · · + un v̄n

El producto ası́ definido satisface las propiedades del producto escalar.

Recuérdese que:
p
z = x + iy , |z | = x2 + y2
z z̄ = (x + iy ) (x − iy ) = x 2 + y 2
=⇒ z z̄ = |z |2
Propiedades del producto escalar:

i) (v · u ) = v1 ū1 + v2 ū2 + · · · + vn ūn


= v̄1 u1 + · · · + v̄n un = u1 v̄1 + · · · + un v̄n
= (u · v )
ii) (u · [v + w ]) = u1 (v1 + w1 ) + · · · + un (vn + wn )
= u1 v̄1 + · · · + un v̄n + u1 w̄1 + · · · + un w̄n
= (u · v ) + (u · w )

iii) (au · v ) = au1 v̄1 + · · · + aun v̄n = a (u1 v̄1 + · · · + un v̄n )


= a (u · v )
iv) (u · u ) = u1 u1 + · · · + un un = |u1 |2 + · · · + |un |2 ≥ 0

v) Si u = 0 =⇒ u1 = u2 = · · · = un = 0
=⇒ (u · u ) = |u1 |2 + · · · + |un |2 = 0
Caso R n : Recuérdese que ∀u, v ∈ R n . El producto escalar se define
como
(u · v ) = u1 v1 + u2 v2 + · · · + un vn .
Este producto satisface las condiciones del producto escalar (6)
removiendo los conjugados.

Ejemplo 77 Considere el espacio Pn de polinomios (evaluados en los


reales) de grado menor o igual a n en x. Si

Pn (x ) = a0 + a1 x + a2 x 2 + · · · + an x n y qn (x ) = b0 + b1 x + b2 x 2 + · · · + bn x

el producto
(Pn · qn ) = a0 b0 + a1 b1 + · · · + an bn
satisface las propiedades del producto escalar. (VERIFICAR!)
Teorema 78 ([u + v ] · w ) = (u · w ) + (v · w ) .

Demostración.

([u + v ] · w ) = (w · [u + v ])
= (w · u ) + (w · v )
= (u · w ) + (v · w )

Teorema 79 (u · av ) = a (u · v ) .

Demostración.

(u · av ) = (av · u ) = a (v · u )
= a (v · u ) = a (u · v )
Teorema 80 Si V es un EV con producto escalar (u · v ), entonces la
1
norma ku k = (u · u ) 2 satisface,

i) ku k ≥ 0
ii) ku k = 0 ssi u = 0
iii) kau k = |a| ku k
iv) |(u · v )| ≤ ku k kv k (desigualdad de Cauchy)
v) ku + v k ≤ ku k + kv k (desigualdad del triángulo)

Demostración (iii).

kau k2 = (au · av ) = aa (u · u )
= |a |2 ku k2
=⇒ kau k = |a| ku k
Demostración (iv). Para cualquier escalar complejo a

0 ≤ ku + av k2 = ((u + av ) · (u + av ))
= (u · u ) + (av · u ) + (u · av ) + (av · av )
= ku k2 + a (u · v ) + a (u · v ) + |a |2 kv k2

Si (u · v ) = 0 =⇒iv) se satisface trivialmente.


λ (u ·v )
Entonces sea (u · v ) 6= 0 y a = |(u ·v )| , λ ∈ R.
Nótese que,
2
z = z z̄

(u · v ) (u · v ) = |(u · v )|2
Entonces,
λ (u · v ) λ2 (u · v )2
a= , a2 =
|(u · v )| 2
(u · v )

0 ≤ ku + av k2 = ku k2 + a(u · v ) + a (u · v ) + |a|2 kv k2
λ (u · v ) (u · v ) λ (u · v ) (u · v )
= ku k2 + + + λ2 kv k2
|(u · v )| |(u · v )|

=⇒ 0 ≤ ku k2 + 2λ|(u · v )| + λ2 kv k2
| {z } | {z } | {z }
c b a
2 2 2
=⇒ kv k λ + 2 |(u · v )| λ + ku k ≥ 0,
Equivalentemente

γλ2 + 2βλ + α ≥ 0
(7)
=⇒ f (x ) = γλ2 + 2βλ + α, f (x ) ≥ 0

Nótese que se busca la solución de una expresión real cuadrática no


negativa, el cual no puede tener raı́ces reales distintas ya que si esto
sucede, entonces f (x ) no siempre es positivo.
Entonces dado que la solución de (7) esta dada por
p
−2β ± 4β2 − 4γα
λ12 =

entonces si 4β2 − 4γα > 0, f (λ) toma valores negativos, por lo tanto

4β2 − 4γα ≤ 0 ⇐⇒ |(u · v )|2 − kv k2 ku k2 ≤ 0

=⇒ |(u · v )|2 ≤ ku k2 kv k2
=⇒ |(u · v )| ≤ ku k kv k .
Demostración (v).

ku + v k2 = (u + v ) · (u + v )
= ku k2 + (u · v ) + (u · v ) + kv k2
ku + v k2 = ku k2 + 2 Re {(u · v )} + kv k2
≤ ku k2 + 2 |(u · v )| + kv k2
≤ ku k2 + 2 ku k kv k + kv k2 ≤ (ku k + kv k)2
=⇒ ku + v k ≤ ku k + kv k

Es muy común referirse a vectores en espacios vectoriales como puntos.


Por ejemplo en R 3 el vector (x, y , z ) puede considerarse un punto en un
espacio de 3 dimensiones.
En general si se consideran los vectores como puntos en el espacio la
distancia entre dos puntos puede definirse de la siguiente manera.
Sea u, v ∈ V , la ku − v k es una distancia si satisface las siguientes
propiedades.
i) ku − v k = kv − u k
ii) ku − v k ≥ 0
iii) ku − v k = 0 ssi u = v
iv) ku − v k ≤ ku − w k + kw − v k desigualdad del triángulo.
Para probar la propiedad (iv ) nótese simplemente que,

ku − v k = k(u − w ) + (w − v )k ≤ ku − w k + kw − v k .
Bases Ortonormales

Definición 81 Sea V un EV con producto escalar (u · v ). u, v (no cero)


son ortogonales si (u · v ) = 0. El vector u esta normalizado
 si ku k = 1.
El conjunto u1 , u2 , · · · , uk es ortonormal si ui · uj = δij tal que
δij = 1 si i = j y δij = 0 si i 6= j, ∀i, j = 1, · · · , k.
Teorema 82 Un conjunto ortonormal de vectores es independiente.

Demostración. Sea,
u1 , u2 , · · · , uk
un conjunto ortonormal.
Considere el caso
c1 u1 + · · · + ck uk = 0.
Sea 1 ≤ j ≤ k entonces

0 = [c1 u1 + · · · + ck uk ] · uj = cj

con lo cual c1 u1 + · · · + ck uk = 0 solo es posible para cj = 0, por lo


tanto el conjunto es independiente.
Teorema 83 Todo Espacio Vectorial finito (no cero) admite una base
ortonormal.

Demostración. Si dim(V ) = n > 0 entonces existe una base


v1 , v2 , · · · , un (no cero).
Se mostrará como construir la base ortonormal.
Sea
v
u1 = 1 =⇒ ku1 k = 1, (u1 · u1 ) = ku1 k2 .
k v1 k
Considere ahora u2 = kvv2 − c1 u1
donde c1 = (v2 · u1 ) entonces,
2 −c1 u1 k

v2 − c1 u1
 
(u2 · u1 ) = ·u
kv2 − c1 u1 k 1
(v · u ) − c1 (u1 · u1 )
= 2 1
k v2 − c 1 u 1 k
(v2 · u1 ) − (v2 · u1 )
= =0
k v2 − c 1 u 1 k
Por otra parte,
k v2 − c 1 u 1 k
k u2 k = = 1.
k v2 − c 1 u 1 k
Nótese que kv2 − c1 u1 k 6= 0 ya que de otra forma v2 − c1 u1 = 0
v2 = c1 u1 y por lo tanto v2 no seria independiente en el conjunto original.
Hágase ahora
v3 − c 2 u 1 − c 3 u 2
u3 = =⇒ ku3 k = 1
kv3 − c2 u1 − c3 u2 k

donde c2 = (v3 · u1 ), c3 = (v3 · u2 ). Entonces

(v3 · u1 ) − c2 (u1 · u1 ) − c3 (u2 · u1 )


( u3 · u1 ) =
k v3 − c 2 u 1 − c 3 u 2 k
( v3 · u 1 ) − c 2
= = 0.
kv3 − c2 u1 − c3 u2 k
De la misma forma,

(v3 · u2 ) − c2 (u1 · u2 ) − c3 (u2 · u2 )


( u3 · u2 ) =
k v3 − c 2 u 1 − c 3 u 2 k

( v3 · u 2 ) − c 3
= =0
kv3 − c2 u1 − c3 u2 k
Como en el paso anterior, ahora se puede probar que
kv3 − c2 u1 − c3 u2 k 6= 0 ya que v3 , u1 , u2 son l.i.
El procedimiento anterior se conoce como Proceso de Gram-Schmidt y es
tal que genera la base ortonormal ui .
Ejemplo 84 La base estándar,

e1 = 1 0 ··· 0

e2 = 0 1 ··· 0
..
.

en = 0 0 ··· 1

es una base ortonormal para R n ó C n .



Nótese que ej = 1, j = 1, · · · , n y además

ei · ej = δij i, j = 1, · · · , n.
Coordenadas relativas a una base ortonormal

Coordenadas de v ∈ V relativas a una base ortonormal.


Si u1 , u2 , · · · , un es una base ortonormal entonces

v = c1 u1 + · · · + cn un

de donde se tiene que 


c j = v · uj .

I cj uj = v · uj uj representa la proyección de v sobre uj de tal forma
que v es la suma de las proyecciones de v sobre la base ortonormal.
Sea V un EV complejo con base ortonormal u1 , u2 , · · · , un . Sean
v , w ∈ V t.q.

v = v1 u1 + v2 u2 + · · · + vn un
w = w1 u1 + w2 u2 + · · · + wn un

donde vi es la j-ésima coordenada de v y wj es la j-ésima coordenada de


w , entonces,

(v · w ) = ([v1 u1 + · · · + vn un ] · [w1 u1 + · · · + wn un ])
= (v1 u1 · w1 u1 ) + (v2 u2 · w2 u2 ) + · · · + (vn un · wn un )
= v1 w̄1 + v2 w̄2 + · · · + vn w̄n .

Dado que (v · w ) no depende de la base particular utilizada, el resultado


es independiente de la base!
Teorema 85 Sea V un espacio vectorial n dimensional. V tiene el
producto escalar (v · w ) = v1 w1 + · · · + vn wn donde vj wj son
coordenadas de v y w con respecto a cualquier base ortonormal de V . En
el caso de un espacio vectorial real se omite el signo de conjugación.

Observación 86 Notese que:


i) C n caracteriza todos los Espacios Vectoriales complejos de dim n.
ii) R n caracteriza todos los Espacios Vectoriales reales de dim n.
Funciones

Definición 87 Una función f de A a B es una tercia ordenada (f , A, B )


denotada f : A → B, donde,
i) f ⊆ A × B, f es una relación de los conjuntos A, B
ii) ∀x ∈ A, ∃ y ∈ B tal que (x, y ) ∈ f (f : x → y )
iii) ∀x ∈ A y y1 , y2 ∈ B, Si (x, y1 ) ∈ f y (x, y2 ) ∈ f =⇒ y1 = y2 .

f : A → B, (x, y ) ∈ f ⇔ y = f (x ) ,
A : Dominio D , B : Rango R
Caracterización de funciones

1) f es suprayectiva (sobre) o es un mapeo de A sobre B ssi b ∈ B es


la imagen de algún elemento de A.
2) f es inyectiva o uno a uno (1 : 1) si para b ∈ B = R (f ), ∃
exactamente un solo elemento a ∈ A = D (f ) tal que b = f (a).
3) f es biyectiva (uno a uno y sobre) ssi es inyectiva y suprayectiva, es
decir, ssi b ∈ B es la única imagen de algún a ∈ A.
Representación gráfica de funciones
Espacios vectoriales isomorfos

Definición 88 Sean V y V ∗ dos espacios vectoriales complejos (Reales).


V y V ∗ son isomorfos (V ↔ V ∗ ) si existe una correspondencia biyectiva
entre los vectores v ∈ V y v ∗ ∈ V ∗ (v ↔ v ∗ ) tal que

i) Si v ↔ v ∗ y w ↔ w ∗ =⇒ v + w ↔ v ∗ + w ∗
ii) Si v ↔ v ∗ entonces av ↔ av ∗ para todo escalar complejo (Real)
Ejemplo 89 R n+1 y Pn (espacio de polinomios real valuados) de grado
menor o igual a n en x son isomorfos.

Considere los elementos de los espacios R n+1 y Pn representados como,

a0 + a1 x + a2 x 2 + · · · + an x n ∈ Pn y (a0 , a1 , a2 , · · · , an ) ∈ R n+1

Si
a0 + a1 x + a2 x 2 + · · · + an x n ∈ Pn
entonces siempre existe

(a0 , a1 , a2 , · · · , an ) ∈ R n+1 .

Ademas, para todo


(b0 , b1 , · · · , bn ) ∈ R n+1
se tiene que,

b0 + b1 x + b2 x 2 + · · · + bn x n ∈ Pn .
Por lo tanto ∃ una correspondencia uno a uno entre Pn y R n+1 .
Ahora considere que,

(a0 , a1 , · · · , an ) ↔ pn (x ) y (b0 , b1 , · · · , bn ) ↔ qn (x )

entonces,

(a0 , · · · , an ) + (b0 , · · · , bn ) = (a0 + b0 , a1 + b1 , · · · , an + bn )


↔ pn (x ) + qn (x )

Además
a (a0 , · · · , an ) = (aa0 , · · · , aan )
↔ (aa0 + aa1 x + · · · + aan x n ) = apn (x )
Teorema 90 Todo EV complejo V (Real) de dimensión n es isomorfo a
C n (R n ), para todo n ≥ 1.

Demostración. Sea u1 , u2 , · · · , un una base ortonormal de V .


Se establecerá la correspondencia u1 ↔ e1 , · · · , un ↔ en entre ui y la
base estándar (Base de C n (R n )).
Si v = ∑ vi ui ∈ V entonces tiene las coordenadas únicas (v1 , v2 , · · · , vn )
con respecto a la base u1 , u2 , · · · , un .
La n-tupla (v1 , v2 , · · · , vn ) ∈ C n (R n )
Dado v ∗ = (v1 , v2 , · · · , vn ) ∈ C n (R n ) se establece la correspondencia
v ↔ v ∗ , la cual es uno a uno.
Por otra parte

av = av1 u1 + av2 u2 + · · · + avn un


↔ (av1 , av2 , · · · , avn ) = av ∗

Si

w = w1 u1 + w2 u2 + · · · + wn un ∈ V =⇒
v + w = (v1 + w1 ) u1 + · · · + (vn + wn ) un
↔ (v1 + w1 , · · · , vn + wn ) = v ∗ + w ∗ , w ∗ ∈ Cn (Rn )

Por lo tanto se establece el isomorfismo deseado


Aquı́ empieza Hugo

Aquı́ empieza Hugo


Transformaciones lineales

Definición 91 Suponga que ∀u en algún subconjunto(dominio de f ) del


EV U existe v en el EV V (rango de f ). Entonces f : U → V es tal que
v = f (u ).

El subconjunto de vectores u ∈ U donde f esta definida se llama dominio


de f .

El subconjunto de vectores v ∈ V t.q. (v = f (u )) se llama rango de f .


Definición 92 f : U → V es una transformación lineal si

i) U y V son EV (reales o complejos)


ii) El dominio de f es todo U
iii) ∀a, b escalares y u1 , u2 ∈ U

f (au1 + bu2 ) = af (u1 ) + bf (u2 ) .

Ejemplo 93 U, V ∈ Cn y sea f : U → V t.q. f (u ) = 0, ∀u ∈ U =⇒ f


es una transformación lineal.

Se tiene que ∀a, b escalares y u1 , u2 ∈ U,

0 = f (au1 + bu2 ) = a0 + b0 = af (u1 ) + bf (u2 ) .

El rango de f es el subespacio cero de V .


Ejemplo 94 Sean U, V ∈ Cn y sea f : U → V t.q. f (u ) = u,
∀u ∈ U =⇒ f es una transformación lineal.
f (au1 + bu2 ) = au1 + bu2 = af (u1 ) + bf (u2 ) .
Ejemplo 95 Sean U, V ∈ R2 y sea f (u ) la rotación de u un ángulo θ
en la dirección contraria a las manecillas del reloj. f es una
transformación lineal.
Analı́ticamente se tiene que,
Sea u = (x, y ) y u 0 = (x 0 , y 0 ) donde u 0 representa la rotación de u un
ángulo θ.
Note que :

x = ku k cos α, y = ku k sin α

x 0 = ku k cos (θ + α) = ku k cos α cos θ − ku k sin α sin θ


= x cos θ − y sin θ

y 0 = ku k sin (θ + α) = ku k cos α sin θ + ku k sin α cos θ


= x sin θ + y cos θ
Esto es,

x 0 → x cos θ − y sin θ, y 0 → x sin θ + y cos θ


f (x 0 ) = x cos θ − y sin θ, f (y 0 ) = x sin θ + y cos θ

Sean

u1 = (x1 , y1 ) , u2 = (x2 , y2 )
u10 = x10 , y10 , u20 = x20 , y20
 

Entonces se tiene que probar que f (au1 + bu2 ) = af (u1 ) + bf (u2 ),


esto es
f (ax10 + bx20 ) = (ax1 + bx2 ) cos θ − (ay1 + by2 ) sin θ
= a (x1 cos θ − y1 sin θ ) + b (x2 cos θ − y2 sin θ ) = af (x10 ) + af (bx20 )

f (ay10 + by20 ) = (ax1 + bx2 ) sin θ + (ay1 + by2 ) cos θ


= a(x1 sin θ + y1 cos θ ) + b (x2 sin θ + y2 cos θ ) = af (y10 ) + af (by20 )
Con lo cual se prueba el resultado.
Matricialmente el mismo resultado se puede probar de la siguiente
manera.
Note que
A
z }| { 
x0
  
cos θ − sin θ x
= .
y0 sin θ cos θ y
Sea
x0
   
x
u= yv=
y y0
entonces la rotación puede reescribirse como

v = Au

y por lo tanto,

A (au1 + bu2 ) = aAu1 + bAu2 = av1 + bv2 .


Ejemplo 96 Sean U = R n y V = R m . Sea A ∈ R m×n y considere
f : U → V t.q. f (u ) = Au. f ası́ definida es una transformación lineal.

Considere u ∈ U y v ∈ V de la forma
   
x1 y1
u =  ...  , v =  ... 
   

xn ym

entonces v = f (u ) = Au ∈ R m esta bien definido.


Si a, b ∈ R =⇒

f (au1 + bu2 ) = A (au1 + bu2 )


= aAu1 + bAu2
= af (u1 ) + bf (u2 )

=⇒ f (u ) = A (u ) es una TL.
T
Ejemplo 97 Sean U, V ∈ R 3 , u = x y z ∈ R 3 y sea f (u ) la


proyección de u sobre el plano (x, y ), es decir f (u ) = (x, y , 0), f es una


TL.

Sea    0   
x x x
u =  y  =⇒ v =  y 0  =  y 
z z0 0
f puede representarse matricialmente como,
  
1 0 0 x
v = f (u ) =  0 1 0  y 
0 0 0 z

entonces,
f (au1 + bu2 ) = af (u1 ) + bf (u2 ) .
Teorema 98 El rango de una TL lineal es un SE del espacio del rango.
D : dominio, R: rango.

Demostración. Se tiene que mostrar que si v1 , v2 ∈ R (f ) entonces


∀a, b ∈ R, av1 + bv2 ∈ R (f ).
Si v1 , v2 ∈ R (f ) =⇒ ∃u1 y u2 ∈ D t.q. v1 = f (u1 ) y v2 = f (u2 ).
Por lo tanto

av1 + bv2 = af (u1 ) + bf (u2 ) = f (au1 + bu2 )


=⇒ av1 + bv2 ∈ R (f )

ya que
au1 + bu2 ∈ D (f )
Definición 99 Sea f : U → V una TL. El espacio nulo de f es el
conjunto de vectores u ∈ U t.q. f (u ) = 0.

Teorema 100 El espacio nulo de una TL es un SE del dominio.

Demostración. Sea u ∈ N =⇒ f (u ) = 0 =⇒ ∀u, v ∈ N se tiene que


probar que au + bv ∈ N .
Como f (au + bv ) = af (u ) + bf (w ) = 0 + 0 = 0 =⇒ au + bv ∈ N .

Teorema 101 Si el dominio de una TL es de dim finita, entonces la dim


del dominio es igual a la dim del rango más la dim del espacio nulo,

dim D = dim R + dim N .


Demostración. Se sabe que N es un SE de D . Sea
dim (N ) = r ≥ 0 =⇒ ∃ una base finita u1 , u2 , · · · , ur de N .
D acepta una base ortonormal,

u1 , u2 , · · · , ur , w1 , · · · , ws (r + s = n ) , si N = φ =⇒ r = 0.

Sea v un vector en el dominio,

v = c1 u1 + · · · + cr ur + cr +1 w1 + · · · + cr +s ws

Dado que ui esta en el espacio nulo =⇒ f (ui ) = 0 i = 1, · · · , r .

=⇒ f (v ) = cr +1 f (w1 ) + · · · + cr +s f (ws ) .

=⇒ todo vector en el rango puede expresarse como una combinación de


f (w1 ) , · · · , f (ws ) .
Demostración. Considere ahora la combinación lineal.

γ1 f (w1 ) + · · · + γs f (ws ) = f (γ1 w1 + · · · + γs ws ) = 0

esto implica que γ1 w1 + · · · + γs ws pertenece al espacio nulo, entonces

γ1 w1 + · · · + γs ws = α1 u1 + · · · + αr ur
γ1 w1 + · · · + γs ws − α1 u1 − · · · − αr ur = 0.

Considerando
wi (γ1 w1 + · · · + γs ws − α1 u1 − · · · − αr ur ) = 0
=⇒ γi = 0 i = 1, · · · , s

ui (γ1 w1 + · · · + γs ws − α1 u1 − · · · − αr ur ) = 0
=⇒ αi = 0 i = 1, · · · , r
Entonces w1 , · · · , ws , u1 , · · · , ur son l.i. Por lo tanto,
f (w1 ) , · · · , f (ws ) son l.i., produciendo dim R = s.
Ejemplo 102 Encontrar N de la TL
 0   1 1
 
x x
= 21 2 .
y0 2
1
2
y
 T
Si v = x y ∈ N =⇒ f (v ) = 0, con lo cual,
 1 1
   
2 2 x 0
1 1 = =⇒ x + y = 0.
2 2
y 0
n  T o
Entonces N = v = x y ∈ D | x + y = 0 , esto es,
  
x −x
.
−y y
Como estos vectores son l.d. =⇒ dim N = 1.

=⇒ dim D = dim R + dim N = 1 + 1 = 2


Definición 103 Sea f una función uno a uno (v = f (u )), entonces f
tiene una inversa f −1 definida u = f −1 (v ) cuando el dominio de f −1 es el
rango de f y viceversa.

Teorema 104 Una TL f tiene una inversa ssi el espacio nulo es el


espacio cero.

Demostración. (suf) Suponga que u = 0 es el único vector tal que


f (u ) = 0.
Suponga que v es tal que f (u1 ) = f (u2 ) = v , entonces

0 = f (u1 ) − f (u2 ) = f (u − u2 )

por lo tanto u1 = u2 y por lo tanto f tiene inversa.


(Nec)Suponga que f tiene inversa. Si ∃w 6= 0 tal que f (w ) = 0 =⇒

f (u ) = f (u ) + 0 = f (u ) + f (w ) = f (u + w )

con u 6= u + w esto contradice la hipótesis que f tiene inversa.


Ejemplo 105 Muestre que
 0    
x cos θ − sin θ x
=
y0 sin θ cos θ y

tiene inversa.
 T
Si x y ∈ N,
  
cos θ − sin θ x
=0
sin θ cos θ y

esto es,
x cos θ − y sin θ = 0, x sin θ + y cos θ = 0.
Dado que
cos θ − sin θ

sin θ = cos2 θ + sin2 θ = 1
cos θ
=⇒ la única solución es x = y = 0 y por lo tanto la transformación tiene
inversa.
Note que,
   
cos θ − sin θ cos θ sin θ
A= , A−1 =
sin θ cos θ − sin θ cos θ

entonces la T. inversa,
 0       0 
x x x −1 x
=A y =A .
y0 y y y0
Teorema 106 La inversa de una TL es una TL.

Demostración. Directa por la inversión de D y R.

Definición 107 Suponga que f : U → V y g : V → W . La


composición f ◦ g se define como:

si v = f (u ) y w = g (v ) =⇒ [f ◦ g ] (u ) = w
w = g (f (u )) .

D(f ◦ g ) = U y R(f ◦ g ) = W .

Teorema 108 La composición de dos TL es una TL.

Demostración.
[f ◦ g ] (au1 + bu2 ) = g [f (au1 + bu2 )] = g [af (u1 ) + bf (u2 )]
= ag [f (u1 )] + bg [f (u2 )] = a [f ◦ g ] (u1 ) + b [f ◦ g ] (u2 ) .
*Las TL de U a V pueden representarse en términos de matrices.

Teorema 109 Sea f : C n → C m (R n → R m ) una TL. Si X es el vector


de coordenadas de u relativo a la base estandar en U y Y es el vector de
coordenadas de f (u ) relativo a la base estandar en V , entonces la T
puede representarse por Y = AX , donde A es una matriz compleja
(Real) de m × n tal que la k-ésima columna de A es el conjunto de
coordenadas de f (ek ) referido a la base estandar en V .
Demostración. Sea

u = x1 e1 + x2 e2 + · · · + xn en
=⇒ f (u ) = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en )

suponga que

f (e1 ) = a11 e1 + a21 e2 + · · · + am1 em


f (e2 ) = a12 e1 + a22 e2 + · · · + am2 em
..
.
f (en ) = a1n e1 + a23 e2 + · · · + amn em

entonces,

f (u ) = x1 [a11 e1 + a21 e2 + · · · + am1 em ] + · · ·


+ xn [a1n e1 + a23 e2 + · · · + amn em ]

f (u ) = [a11 x1 + a12 x2 + · · · + a1n xn ] e1 + · · ·


+ [am1 x1 + am2 x2 + · · · + amn xn ] em
Demostración. Por lo tanto, si

f (u ) = y1 e1 + y2 e2 + · · · + ym em

entonces
y1 = a11 x1 + · · · + a1n xn
y2 = a21 x1 + · · · + a2n xn
..
.
ym = am1 x1 + · · · + amn xn
    
y1 a11 a12 · · · a1n x1
 y2   a21 a22 · · · a2n   x2 
=⇒   =  ..  =⇒ Y = AX
    
.. .. ..   ..
 .   . . .  . 
ym am1 am2 · · · amn xn

*El resultado es el mismo para espacios complejos o reales.


*El resultado es el mismo cuando no se consideran las bases estandares y
se toman bases cualesquiera.
Teorema 110 Sea f : U → V una TL. Si X ∈ Cn×1 son las coordenadas
de u relativas a la base u1 , · · · , un en U y Y son las coordenadas de f (u )
relativas a la base v1 , · · · , vn en V entonces la T puede representarse
como Y = AX , A ⊂ C m×n (R m×n ) donde la k-ésima columna de A es el
conjunto de coordenadas de f (uk ) con respecto a v1 , · · · , vn en V .

Ejemplo 111 Sea U = P3 el espacio de polinomios de grado 3 o menor


en x. Sea V = P2 .

Si p (x ) = a0 + a1 x + a2 x 2 + a3 x 3 ∈ P3 , entonces se define la
transformación lineal

T [p (x )] = a1 + 2a2 + 3a3 x 2

Se desea encontrar la representación matricial de T relativa a la base


1, x, x 2 , x 3 ∈ U y 1, x, x 2 ∈ V .
Nótese que

T [1] = 0 = 0 · 1 + 0 · x + 0 · x 2
T [x ] = 1 = 1 · 1 + 0 · x + 0 · x 2
h i
T x 2 = 2x = 0 · 1 + 2 · x + 0 · x 2
h i
T x 3 = 3x 2 = 0 · 1 + 0 · x + 3 · x 2

Por lo tanto se tiene la representación,


T 
 a

0  0
  
v1 0 1 0
 v2  =  0 a1 
0 2 0 
 a2
.

v3 0 0 0 3
| {z } a3
coord V
| {z }
coord U
Teorema 112 Sean f , g T de U a V . La suma f + g definida
[f + g ] (u ) = f (u ) + g (u ) es una TL.

Demostración. Nótese que f + g tiene dominio U y rango V por lo


tanto (i) y (ii) de la def. de TL se satisfacen. La condición (iii) se sigue de

[f + g ] (au1 + bu2 ) = f (au1 + bu2 ) + g (au1 + bu2 )


= af (u1 ) + bf (u2 ) + ag (u1 ) + bg (u2 )
= a [f (u1 ) + g (u1 )] + b [f (u2 ) + g (u2 )]
= a [f + g ] (u1 ) + b [f + g ] (u2 ) .

Teorema 113 Sean f , g : U → V TL. Si A es la representación matricial


de f y B es la representación matricial de g , entonces f + g tiene la
representación A + B.
Observación.Considere la TL f : U → V . La multiplicación de f por una
constante (Real o compleja) c definida [cf ] (u ) = cf (u ) es TL. Además
si A es la representación matricial de f entonces cA es la representación
de cf . (TAREA)

Teorema 114 Sean U y V EV complejos (reales). Entonces, la colección


W de todas las TL de U a V es un EV complejo (real). Si dim (U ) = n y
dim (V ) = m entonces dim (W ) = nm.

Demostración. Se requiere verificar que W ası́ formado es un EV.

A1 u + v ∈ V M1 au ∈ V
A2 u + v = v + u M2 a (u + v ) = au + av
A3 u + (v + w ) = (u + v ) + w M3 (a + b ) u = au + bu
A4 0 ∈ V t.q. u + 0 = u ∀u ∈ V M4 (ab ) u = a (bu )
A5 ∃ − u ∈ V t.q. u + (−u ) = 0 M5 1u = u
Considere la suma f + g y la multiplicación por escalar cf definida
anteriormente, entonces
Demostración.
I A1y M1 Se satisfacen directamente. u + v ∈ V , au ∈ V .
I A2 [f + g ] (u ) = f (u ) + g (u ) = g (u ) + f (u ) = [g + f ] (u ) .
I A3[f + (g + h )] (u ) = f (u ) + [g + h ] (u ) =
f (u ) + g (u ) + h (u ) = [(f + g ) + h ] (u ) .
I A4 La T cero es t.q. 0 (u ) = 0, ∀u ∈ U =⇒
[f + 0] (u ) = f (u ) + 0 (u ) = f (u ) + 0 = f (u ) .
I A5 Si f (u ) = v =⇒Sea [−f ] (u ) = −v =⇒ [f + (−f )] (u ) =
f (u ) + [−f ] (u ) = v − v = 0∀u ∈ U.
Demostración.
I M2 a [f + g ] (u ) = a [f (u ) + g (u )] = af (u ) + ag (u ) =
[af ] (u ) + [ag ] (u ) .
I M3 [(a + b ) f ] (u ) = (a + b ) f (u ) = af (u ) + bf (u ) =
[af ] (u ) + [bf ] (u ) .
I M4 [abf ] (u ) = (ab ) f (u ) = a (bf (u )) = a [bf ] (u ) .
I M5 [1f ] (u ) = 1f (u ) = f (u ) .

Nótese que para cada TL ∃ una matriz A ∈ C m×n (R m×n ) relativa a las
bases consideradas en U y V (cualesquiera que sean). De manera inversa
por cada matriz de m × m, A existe una TL f =⇒ existe una
correspondencia uno a uno entre la colección de TL y la colección de
matrices de m × n, por lo tanto el espacio vectorial de TL de U a V tiene
dim mn.
Teorema 115 Sea f : U → V una TL (dim U = n, dim V = m ). Sea A
de (m × n ) la representación matricial de f con rep a las bases
u1 , u2 , · · · , un en U y v1 , v2 , · · · , vn en V . Sea g : V → W una TL,
dim W = p y sea la matriz B de (p × m ) su representación matricial con
respecto a v1 , v2 , · · · , vn en V y w1 , w2 , · · · , wp en W . Entonces la
composición f ◦ g tiene la representación matricial BA relativa a
u1 , u2 , · · · , un en U y w1 , w2 , · · · , wp en W .
Demostración. Directa por la aplicación de las transformaciones
mencionadas.
I Inversión de una TL ⇔ inversión de una matriz.

Teorema 116 Sea f : U → V una TL (dim (U ) = n dim (V ) = n ). Sea


A (n × n ) la representación de f con respecto a u1 , u2 , · · · , un en U y
v1 , v2 , · · · , vn en V . Entonces f tiene una inversa f −1 ssi A es invertible.
La representación de f −1 es A−1 con respecto a las bases consideradas.

Demostración. Sea X las coordenadas de u con respecto a


u1 , u2 , · · · , un entonces Y = AX son las coordenadas de f (u ) con
respecto a v1 , v2 , · · · , vn .
Demostración. f es invertible ssi la dim N = 0. Entonces f es invertible
ssi AX = 0 solo tiene la solución trivial, esto es, ssi A es invertible.

Suponga ahora que A−1 existe. Entonces

A−1 Y = A−1 (AX ) = X

por lo tanto X = A−1 Y representa las coordenadas de u obtenidas en


función de v = f (u ).
Por lo tanto A−1 es la representación de f −1 con respecto a las bases
consideradas.
u1 , · · · , um ⇐⇒ u10 , · · · , um
0
, v1 , · · · , vm ⇐⇒ v10 , · · · , vm
0
Teorema 117 Sea U un EV con base u1 , · · · , un y sea u10 , · · · , un0 otra
base de U, t.q.

u1 = p11 u10 + p21 u20 + · · · + pn1 un0


u2 = p12 u10 + p22 u20 + · · · + pn2 un0
..
.
un = p1n u10 + p2n u20 + · · · + pnm un0

Si X son las coord. de u con respecto a u1 , · · · , un y X 0 son las coord.


de u con respecto a u10 , · · · , un0 , entonces X 0 = PX donde P = {pij } de
n × n es invertible y X = P −1 X 0 .

Demostración. Sea

u = x1 u1 + x2 u2 + · · · + xn un

equivalentemente,

u = x10 u10 + x20 u20 + · · · + xn0 un0 (8)


Demostración. El problema consiste en encontrar xi0 . Entonces,

u = x1 (p11 u10 + p21 u20 + · · · + pn1 un0 ) + · · ·


+xn (p1n u10 + p2n u20 + · · · + pnm un0 )

u = (p11 x1 + p12 x2 + · · · + p1n xn )u10 + · · ·


| {z }
x10
(9)
+(pn1 x1 + pn2 x2 + · · · + pnn xn )un0
| {z }
xn0

u tiene una notación particular en cada base. Entonces de (8) y (9),

x10 = p11 x1 + p12 x2 + · · · + p1n xn


..
.
xn0 = pn1 x1 + pn2 x2 + · · · + pnn xn
Demostración. =⇒
 0    
x1 p11 p12 ··· p1n x1
 ..   ..   ..  0
 . = .   .  =⇒ X = PX
xn0 pn1 pn2 ··· pnn xn

Para mostrar que P es invertible se debe probar que PX = 0 tiene sólo la


solución trivial x = 0.
Suponga que existe una solución no trivial (γ1 , γ2 , · · · , γn ) 6= 0,
entonces (γ1 , γ2 , · · · , γn coordenadas)

γ1 u1 + γ2 u2 + · · · + γn un = 0

dado que PX = 0 las coord. γi , se trasladan al cero y por lo tanto


pueden representarse como

0u10 + 0u20 + · · · + 0un0 = 0


Demostración.

u → u0
Pγ → u 0
Pγ = 0

Como γ son coord. ∃u tal que u = γ1 u1 + · · · + γn un . Pero como


u1 , · · · , un es una base (vectores linealmente independientes) entonces
γ1 = γ2 = · · · = γn = 0 lo cual contradice la hipótesis de existencia de
una solución no trivial. Entonces, P es invertible y por lo tanto
X = P −1 X 0 .

Ejemplo 118 Sea u ∈ R 3 con u1 , u2 , u3 la base estandar y considere la


base,
     
1 1 1
X 0 = PX
u10 =  0  , u20 =  −1  , u30 =  1  .
X = P −1 X
1 1 −1

Encontrar P que representa el cambio de base.


Nótese que u1 = e1 , u2 = e2 , u3 = e3 ,

u10 = p11 e1 + p21 e2 + p31 e3


u20 = p12 e1 + p22 e2 + p32 e3
un0 = p13 e1 + p23 e2 + p33 e3
 T  T
Dado que e1 = 1 0 0 , e2 = 0 1 0 ,
 T
e3 = 0 0 1 ,
    
  
1 p11 1 p12
u10 =  0  =  p21  , u20 =  −1  =  p22  ,
1 p31 1 p32
   
1 p13
u30 =  1  =  p23  .
−1 p33
Entonces P −1 = [u10 , u20 , u30 ],
   
1 1 1 0 1 1
P −1 =  0 −1 1  =⇒ P =  12 −1 − 12  .
1 1 −1 1 0 − 12
2

Por otra parte ui0 = P −1 ei , esto es,


     
1 1 1
−1 − 1 − 1
P e1 =  0  , P e2 =  −1  , P e3 =  1  .
1 1 −1

Nótese que se transformaron elementos de la base, no las coordenadas.


En caso de considerar las coordenadas se tiene el siguiente desarrollo. Sea
 T
1 2 3 un vector en la base estandar,
       
1 0 0 1
u = 1 0 +2 1 +3 0  =  2 
0 0 1 3

entonces,

x10
        
1 0 1 1 1 5
X 0 = PX =⇒  x20  = P  2  =  12 −1 − 12   2  =  −3 
x30 3 1
2 0 − 21 3 −1

Equivalentemente,
          
1 1 1 1 5 1 1 1
 2  =  0 −1 1   −3  = 5  0  − 3  −1  −  1  .
3 1 1 −1 −1 1 1 −1
Teorema 119 Sea U en EV (real), dim V = n, con base ortonormal
u1 , u2 , · · · , un . Sea u10 , u20 , · · · , un0 otra base ortonormal t.q.
n
ui = ∑ pji uj0 , i = 1, 2, · · · , n.
j =1
 
Entonces P con elementos pij es ortogonal P −1 = P T .

Demostración. Como las bases son ortonormales


!
n n
∑ pki uk0 ∑ 0

δij = ui · uj = · pmj um
k =1 m =1

n n n n n
∑ ∑ pki pmj uk0 · um
0
= ∑ ∑ pki pmj δkm = ∑ pki pkj

δij =
k = 1m = 1 k =1m=1 k =1
Demostración.
 
p1j
  p2j 
=⇒ δij = p1i p1j + p2i p2j + · · · + pni pnj = p1i p2i ··· pni
 
 .. 
 . 
pnj

y dado que P tiene la forma


 
p11 p12 ··· p1n
 p21 p22 ··· p2n 
P=
 
.. 
 . 
pn1 pn2 ··· pnn

=⇒ las columnas de P son vectores ortonormales en R n . (recuérdese que


A−1 = |A1 | C T , C : matriz de cofactores). Entonces se sigue el resultado.

TAREA: Demostrar que una matriz P con columnas ortonormales


satisface P −1 = P T .
Teorema 120 Sea f : U → V una TL con dim (U ) = n, dim (V ) = m.
Sea A la matriz que representa a f relativa a la base u1 , · · · , un en U y
v1 , · · · , vn en V . Sea P la matriz que representa un cambio de base en U
de u1 , · · · , un a u10 , · · · , un0 . Sea Q la matriz que representa un cambio
de base en V de v1 , · · · , vn a v10 , · · · , vm 0 . Entonces, la matriz que

representa a f con respecto a las nuevas bases es QAP −1 .

Demostración. Sea X las coord. de u con respecto a u1 , · · · , un y sea Y


las coord. de f (u ) con respecto a v1 , · · · , vn . Entonces Y = AX .
Sea X 0 las coord. de u con respecto a u10 , · · · , un0 esto es, X 0 = PX ,
X = P −1 X 0 , y Y 0 las coord. de f (u ) con respecto a v10 , · · · , vn0 , esto es,
Y 0 = QY , Y = Q −1 Y 0
Demostración. Dado que
Y = AX =⇒ Q −1 Y 0 = A P −1 X 0 = AP −1 X 0 ,


 
=⇒ Y 0 = QAP −1 X 0 , Y 0 = BX 0 .

En el caso que U = V se tiene que Q = P obteniéndose B = PAP −1 .


Definición 121 Sean A, B ∈ R n×n . Si ∃ P, P −1 ∈ R n×n tal que
B = PAP −1 entonces se dice que A es similar a B. En este caso, B
puede obtenerse por una transformación de similaridad de A.

Teorema 122 Sean A, B, C matrices de n × n. Entonces

i) A es similar a A, ∀A.
ii) Si A es similar a B =⇒ B es similar a A.
iii) Si A es similar a B y B es similar a C =⇒ A es similar a C .
Teorema.
i) A sim B =⇒ |A| = |B |.
ii) A1 sim B1 y A2 sim B2 , bajo la misma TS A1 + A2 es sim a
B1 + B2 .
iii) A sim B =⇒ Ak sim B k bajo la misma TS ∀k > 0.
iv) A sim B =⇒ p (A) sim p (B ) bajo la misma TS. p (·) : polinomio.
v) A sim B y A es no singular =⇒ B es no singular y A−1 sim B −1 .
Demostración.
i) ∃P t.q. A = PBP −1 =⇒ |A| = |P | |B | P −1 = |B | |P | P −1 = |B |.

(|P | P −1 = |I | = 1)
ii) ∃P t.q. A1 = PB1 P −1 y
A2 = PB2 P −1 =⇒ A1 + A2 = PB1 P −1 + PB2 P −1 = P (B1 + B2 ) P −1
iii) ∃P t.q.
A = PBP −1 =⇒ A2 = PBP −1 PBP −1 = PBBP −1 = PB 2 P −1 .
 

Aplicando inducción se prueba k.


iv) ∃P t.q. A = PBP−1 . Sea c un escalar
=⇒ cA = c PBP −1 = P (cB ) P −1 =⇒ similaridad se presenta bajo la
multiplicación por escalar. Considere ahora

P (A) = a0 I + a1 A + a2 A2 + · · · + ak Ak

entonces aplicando (ii ) y (iii ) se obtiene el resultado.


iv) ∃P t.q. A = PBP −1 de (i ) se tiene que |B | = |A| 6= 0 por lo tanto B
 −1
es no singular. Por otra parte A−1 = PBP −1 = PB −1 P −1 =⇒ A−1

sim B . 1
Definición 123 Sea f una TL del EV C (R ), U a V , t.q. U ⊂ V . Sea λ
un número C (R ) y u 6= 0 ∈ U t.q. f (u ) = λu. Entonces, λ es un valor
caracterı́stico de f y u es un vector caracterı́stico de f correspondiente a
λ.

Ejemplo 124 f : U → U, t.q. f (u ) = u con U ⊂ C =⇒ λ = 1, es el


VaC de f con VeC u 6= 0. Todo u 6= 0 es un VeC de f .

Ejemplo 125 f : U → U t.q. f (u ) = 0 = 0u =⇒ 0 es el VaC de f con


VeC u 6= 0.
Ejemplo 126 Sea f : R 2 → R 2 una rotación que con respecto a la base
estandar tiene la representación,
 0    
x cos θ − sin θ x
= , f (u ) = Au.
y0 sin θ cos θ y
 T
Sea u = x y entonces, λu = f (u ) esta dado por,
    
λx cos θ − sin θ x
=
λy sin θ cos θ y
     
λ 0 x cos θ − sin θ x
=
0 λ y sin θ  cos θ  y
cos θ − λ − sin θ x 0
=
sin θ cos θ − λ y 0
=⇒ Existe una solución no trivial ssi

(cos θ − λ)2 + sin2 θ = 0 =⇒ cos2 θ − 2λ cos θ + λ2 + sin2 θ = 0


λ2 − 2λ cos θ + 1 = 0

2 cos θ ± 4 cos2 θ − 4 p
λ1,2 = = cos θ ± cos2 θ − 1
2
dado que f esta en R 2 la solución debe estar en R entonces la única
solución posible se obtiene para cos θ = ±1 (θ = ±nπ ) con lo cual
λ = ±1,    
cos θ − λ − sin θ 0 0
=
sin θ cos θ − λ 0 0
 
=⇒ el VeC es todo u = x y diferente de 0!
Observación. Si f : U → U, dim U = n. Considerando u1 , · · · , un una
base de U, ∃ una representación matricial de f dada por Y = AX donde
X son las coordenadas de u y Y son las coordenadas de f (u ).
Suponga que se quieren encontrar los VaC de f , esto es, f (u ) = λu.
Entonces,
Y = AX = λX , (A − λI ) X = 0
(A − λI ) X = 0 tiene una solución no trivial ssi

|A − λI | = c0 + c1 λ + c2 λ2 + · · · + cn λn = 0.

Si det (A − λI ) 6= 0 entonces la única solución posible es la trivial.


El polinomio p (λ) = c0 + c1 λ + c2 λ2 + · · · + cn λn es llamado
polinomio caracterı́stico PC de A y la ecuación p (λ) = 0 es la ecuación
caracterı́stica EC de A.
Se sabe que una ecuación de la forma,

c0 + c1 λ + c2 λ2 + · · · + cn λn = 0

tiene al menos una solución y puede tener a lo mas n distintas soluciones


y además p (λ) puede factorizarse como

p (λ) = (λ1 − λ)k1 (λ2 − λ)k2 · · · (λr − λ)kr

donde λ1 , λ2,··· , λr son r raı́ces distintas de p (λ) y k1 , k2 , · · · , kr > 0


son los multiplicadores de λ1 , λ2,··· , λr respectivamente , y además
k1 + k2 + · · · + kr = n.
Note que la factorización de p (λ) nos da los diferentes VaC de la T f
con la representación A.

Definición 127 Sea A ⊂ C una matriz de n × n. Sea p (λ) = |A − λI |


el polinomio caracterı́stico de A. Si λj es una raı́z de p (λ) con
multiplicidad kj , entonces λj es un VaC de A con multiplicidad kj . Las
sol. no triviales de (A − λI ) X = 0 son llamadas VeC de A.
*Nótese que matrices reales pueden tener VaC complejos.

Teorema 128 Sea f : U → U con representación A, (n × n ) con


respecto a alguna base. Todos los VaC yVeC de f pueden encontrarse,
encontrando los VeC y VaC de A. Si U es complejo, f tendrá un VaC λ
ssi λ es un VaC de A. Si U es real, f tendrá un VaC λ ssi λ es un VaC
real de A.

Demostración. Lo anterior ya fue demostrado a excepción de la base


utilizada. Si se considera una base diferente, la representación cambia a
B = PAP −1 donde P es no singular. El PC de B esta dado por

|B − λI | = PAP −1 − λPP −1 = P (A − λI ) P −1


= |P | |A − λI | P −1 = |A − λI | .

Ejemplo 129 Encontrar los VaC y VeC de la matriz
 
8 9 9
A= 3 2 3 .
−9 −9 −10

Considere |A − λI | = 0, entonces

8−λ 9 9

3
2 − λ 3 = 0,

−9 −9 −10 − λ

|A − λI | = (8 − λ) [(2 − λ) (−10 − λ) − (3) (−9)]


−9 [3 (−10 − λ) − 3 (−9)] + 9 [3 − (−9) − 3 (−9)]
= (8 − λ) [(2 − λ) (−10 − λ) + 27] − 9 [3 (−10 − λ) + 27]
+9 [−27 + 27]
= −λ3 + 3λ + 2 = (λ + 1)2 (2 − λ)
Los VaC resultan, λ1 = 2 con mult. 1, y λ2 = −1 con mult. 2. El VeC
asociado a λ = 2 resulta de

(A − λI ) X = 0
    
6 9 9 x 0
=⇒  3 0 3  y  =  0 
−9 −9 −12 z 0
de donde se obtiene

2x + 3y + 3z = 0 y x + z = 0

x = −z, 2x + 3y − 3x = 0
x
3y − x = 0 =⇒ y = .
3
La solución resulta ser,
   
x 3
X =  x3  = x0  1  .
−x −3
Considerando λ = −1
    
9 9 9 x 0
 3 3 3  y  =  0 
−9 −9 −9 z 0

=⇒ x + y + z = 0, x = −y −z
 T
con lo cual la solución resulta −y0 − z0 , y0 , z0 . Esto es,
   
− y0 −1
( y0 , z0 = 0 ) ,  y0  = y0  1 
0 0
   
− z0 −1
(y0 = 0, z0 ) ,  0  = z0  0 
z0 1
Cualquier otro VeC es una combinación lineal de los dos anteriores.
Ejemplo 130 Encontrar los VaC y VeC de la matriz,
 
1 2 3
A= 0 2 3 .
0 0 2

1−λ 2 3
= (1 − λ ) (2 − λ )2 = 0

=⇒ 0 2−λ 3
0 0 2−λ

λ1 = 1 (mult. 1), λ2 = 2 (mult. 2)


Considerando λ = 1, (A − λI ) X = 0 produce
    
0 2 3 x 0
 0 1 3  y  =  0 
0 0 1 z 0

z = 0, y + 3z = 0 =⇒ y = 0 =⇒ x = x0
| {z }
arbitraria
Entonces, la solución tiene la forma


1
X = x0  0  .
0

Si λ = 2 se obtiene,
    
−1 2 3 x 0
 0 0 3  y  =  0 
0 0 0 z 0

−x + 2y + 3z = 0, 3z = 0 =⇒ z = 0 =⇒ x = 2y .
Produciendo,    
2y0 2
X =  y0  = y0  1  .
0 0
Continuación Ejemplo 129. Considere de nuevo la matriz
 
8 9 9
A= 3 2 3 
−9 −9 −10

para la cual se encontraron los VaC λ1 = 2, λ2 = −1, λ3 = −1 con


VeC,      
3 −1 −1
u1 =  1  , u2 =  1  , u3 =  0  .
−3 0 1
Suponga que se considera la base u1, u2, u3, dada por los VeC, entonces,
la representación de f relativa a la base, esta dada por

f (u1 ) = λ1 u1 = 2u1 + 0u2 + 0u3


f (u2 ) = λ2 u2 = 0u1 − u2 + 0u3
f (u3 ) = λ3 u3 = 0u1 + 0u2 − u3
Por lo tanto la representación de f en la nueva base esta dada por
 
2 0 0  
B =  0 −1 0  ∃P tal que B = PAP −1
0 0 −1

Donde se tiene que,


   
3 −1 −1 1 1 1
P −1 =  1 1 0  , P =  −1 0 −1 
−3 0 1 3 3 4

con lo cual,  
2 0 0
B = PAP −1 =  0 −1 0 .
0 0 −1
De la forma más básica, nótese que se debe satisfacer una relación de la
forma

u10 = P11 u1 + P21 u2 + P31 u3


u20 = P12 u1 + P22 u2 + P32 u3
u30 = P13 u1 + P23 u2 + P33 u3

esto es, el pasar de la base estándar a la nueva base se representa como,

u1 = 3e1 + e2 − 3e3 , u2 = −e1 + e2 + 0e3 , u3 = −e1 + 0e2 + e3


   
3 −1 −1 1 1 1
=⇒ P −1 =  1 1 0  , P =  −1 0 −1  .
−3 0 1 3 3 4
Teorema 131 Sea f : U → U, dim U = n. f tiene una representación
diagonal ssi f tiene n VeC independientes.

Demostración. (Suf.) Suponga que u1 , · · · , un son VeC independientes


correspondientes a los VaC λ1 , · · · , λn (no necesariamente distintos),
entonces se obtiene la representación relativa de u1 , · · · , un

f (u1 ) = λ1 u1 = λ1 u1 + 0u2 + · · · + 0un


f (u2 ) = λ2 u2 = 0u1 + λ2 u2 + · · · + 0un
..
.
f (un ) = λn un = 0u1 + 0u2 + · · · + λn un

Lo cual produce una representación diagonal.


Demostración. (Nec.) Suponga que en la base u1 , u2 · · · , un , f tiene la
representación  
λ1 0 0 ··· 0
 .. 
 . λ2 0 
A= 
.. 

 . 
0 ··· 0 λn
donde los λi no son necesariamente distintos. [las columnas de A son las
coord. de la T]
La representación de A implica que,

f (u1 ) = λ1 u1 , f (u2 ) = λ2 u2 , · · · , f (un ) = λn un

lo que implica que ui es un VeC correspondiente a λi .


Teorema 132 Sea f : U → U, dim U = n. f tiene una representación
diagonal si f tiene n VaC distintos.

Demostración. Sean λ1 , · · · , λn VaC distintos correspondientes a los


VeC u1 , · · · , un . (Se mostrará que ui son independientes).
Suponga que ui (i = 1, · · · , n ) son dependientes, entonces ∃ un conjunto
independiente u1 , · · · , uk tal que

uk +1 = c1 u1 + c2 u2 + · · · + ck uk
k k
∑ cj f uj = ∑ λj cj uj

f (uk +1 ) =
j =1 j =1

por otra parte

f (uk +1 ) = λk +1 uk +1
k k
= λ k + 1 ∑ c j uj = ∑ λk +1 cj uj .
j =1 j =1
Demostración. Por lo tanto, restando las expresiones anteriores,
k
∑ cj

0= λ j − λ k + 1 uj .
j =1

Como
λj 6= λk +1 =⇒ c1 = c2 = · · · = ck = 0
con lo cual u1 , · · · , uk son independientes.
Por lo tanto uk +1 = 0 lo cual es imposible ya que uk +1 es un VeC.
Entonces u1 , · · · , un son independientes y por el teorema anterior se
sigue el resultado.
Definición 133 Una matriz A de n × n es simétrica si A = AT .

Teorema 134 Todos los VaC de una matriz real simétrica son reales.

Demostración. Sea x un VeC de A correspondiente al VaC λ, entonces

Ax = λx, Ax̄ = λ̄x̄


n n
x T Ax̄ = λ̄x T x̄ = λ̄ ∑ |xk |2 , x̄ T Ax = λx̄ T x = λ ∑ |xk |2
k =1 k =1
Demostración. Observación.
√ en el caso escalar x = a + ib,
xx = a2 + b 2 , |x | = a2 + b 2 , |x |2 = a2 + b 2 .

Restando ambos términos,


 n
λ − λ̄ ∑ |xk |2 = x̄ T Ax − x T Ax̄ = 0
k =1
 T
dado que x T Ax̄ = x̄ T Ax. Por lo tanto, dado que

n
∑ |xk |2 > 0 =⇒ λ = λ̄.
k =1

Entonces λi es real.
Teorema 135 Los VeC correspondientes a diferentes VaC de una matriz
real simétrica A son ortogonales.

Demostración. Sean xi y xj t.q. Axi = λi xi , Axj = λj xj con λi 6= λj .


dado que λi , λj y A son reales se puede asumir que xi y xj son reales.
Entonces

xjT Axi = λi xjT xi = λi xi · xj , xiT Axj = λj xiT xj = λj xi · xj


 

dado que
 T
xjT Axi = xiT Axj
se tiene que  
λi − λj xi · xj = 0
pero como 
λi − λj 6= 0 =⇒ xi · xj = 0.
Teorema 136 Sea f : R n → R n una TL con A simétrica con respecto a
la base estandar. Entonces existe una matriz ortogonal P tal que la
representación PAP T = D es diagonal, con elementos en la diagonal
dados por los VaC de A.

Demostración. (Por inducción) Si n = 1, A es diagonal y P = 1.


Considere que el Th. es cierto para todos los espacios hasta la dim n − 1.
Sea x1 el VeC unitario correspondiente al VaC λ1 (A tiene al menos un
VaC)
=⇒ Ax1 = λ1 x1 .
*Sea S el SE de R n ortogonal a x1 .
*S tiene una base z1 , z2 , · · · , zn que puede asumirse ortonormal.
Demostración. El cambio de base de la base original a la base
x1 , z2 , z3 , · · · , zn se realiza por medio de la matriz ortogonal.
..
   
λ1 0 0 ··· 0
 0 b22 b23 · · · b2n   λ1 . 0 
B = RAR T =  . .
 =  · · · .. · · ·
   
 ..

  
.
0 bn2 bn3 · · · bnn 0 .. B ∗

B es simétrica ya que B T = (RAR T )T = RAR T .


B ∗ ((n − 1) × (n − 1)) es real y simétrica.
Por la hipótesis de inducción ∃ un cambio de base ortogonal en S,
representado por Q ∗ que diagonaliza B ∗ .
 
λ2 0
 λ3 
Q ∗ B ∗ Q ∗T =  .
 
 . .. 

0 λn (n−1)×(n−1)
Demostración. Considerando,
..
 
 1 . 0 
Q =  ···
 .. 
 . ··· 

..
0 . Q∗
=⇒ Q es ortogonal ya que Q ∗ lo es y
 
QBQ T = Q RAR T Q T = (QR ) A (QR )T = PAP T .

Nótese que

P −1 = (QR )−1 = R −1 Q −1 = R T Q T = (QR )T = P T .


Entonces P es ortogonal (Q y R son ortogonales).
El resultado se prueba considerando
 
λ1 0
 λ 3 
QBQ T =  .
 
..
 . 
0 λn
Demostración.
.. .. ..
   
 1 . 0   λ1 . 0  1 . 0 
T
QBQ =  · · ·
 ..  ..  .. 
 . ···  ···
 . ··· 
 ···
 . ··· 

.. .. ..
0 . Q∗ 0 . B∗ 0 . Q ∗T

..
   
λ1
 λ1 . 0
..
  λ2 
T
QBQ =  · · · = .
   
. ··· ..
   . 
..
0 . Q ∗ B ∗ Q ∗T λn

Teorema 137 Sea f : U → U (U es un EV real n-dimensional). Si f


tiene una representación matricial A con A simétrica, entonces f tiene
una representación diagonal con respecto a n VeC independientes.

Demostración. Esencialmente la misma del Th. anterior con un cambio


de base previo a la base estandar para trabajar en R n .
Definición 138 Una matriz A de n × n es hermitiana si A = ĀT .

Teorema 139 Todos los VaC de una matriz hermitiana son reales.

Demostración. Az = λz, Āz̄ = λ̄z̄,


n n
z T Āz̄ = λ̄z T z̄ = λ̄ ∑ |zk |2 , z̄ T Az = λz̄ T z = λ ∑ |zk |2
k =1 k =1

 n
=⇒ λ − λ̄ ∑ |zk |2 = z̄ T Az − z T Āz̄ = 0
k =1
n
Como ∑ |zk |2 > 0 =⇒ λ = λ̄. Entonces λ es real.
k =1
Teorema 140 Los VeC correspondientes a diferentes VaC de una matriz
hermitiana A son ortogonales.

Demostración. Sean los Va y Ve caracterı́sticos zi , zj y λi , λj t.q.


Azi = λi zi , Azj = λj zj ,

z̄jT Azi = λi z̄jT zi = λi ziT z̄j = λi zi · zj




ziT Āz̄j = λ̄j ziT z̄j = λj ziT z̄j = λj zi · zj




λi − λj zi · zj = z̄jT Azi − ziT Āz̄j = 0 =⇒


 
 
λi − λj 6= 0 =⇒ zi · zj = 0.
Teorema 141 Sea f : G n → G n . Si f tiene una representación
hermitiana A con respecto a la base estandar, entonces existe una matriz
unitaria P tal que la representación PAP̄ T = D es diagonal, con
elementos en la diagonal dados por los VaC de A.

Demostración. Similar al caso real.

Teorema 142 Sea f : U → U, con U un EV complejo n-dimensional. Si


f tiene una representación hermitiana A entonces f tiene una
representación diagonal con respecto a n VeC independientes.

Demostración. Similar al caso real.


* A(n × n ), diagonalizable ssi existen n VeC independientes.
* Existen matrices que no son similares a matrices diagonales.
* A(n ×n ) puede ser transformable a una matriz diagonal por bloques.
Forma Canónica de Jordan.
Matrices por bloques.
 
A B
M=
C D

A ∈ R (n ×m ) , B ∈ R (n ×p ) , C ∈ R (q ×m ) , D ∈ R (q ×p )
=⇒ M ∈ R (n+q )×(m+p )
Considere las matrices por bloques,
   
A11 A12 · · · A1n B11 B12 ··· B1p
 ..  ..
P= . , Q =  .
 

Am1 Am2 Amn Bn1 Bn2 Bnp

El producto de dos matrices por bloques P, Q puede definirse


correctamente si Aik tiene el mismo número de columnas que Bkj tiene
de filas ∀i, j y k,
 
C11 C12 · · · C1p
=⇒ PQ =  ... .
 

Cm1 Cm2 Cmp

En este caso se obtiene, que


n
Cij = ∑ Aik Bkj .
k =1
Teorema 143 A de (n × n ) es sim. a una matriz triangular superior
(MTS) con los VaC de A a lo largo de la diagonal principal.

Demostración. Se requiere probar que ∃P t.q. PAP −1 = T donde T es


MTS. Esto es, tij = 0, ∀i > j.
Se probará por inducción sobre n.
*n = 1, A es diagonal superior y P = I .
*Suponga que el resultado es cierto para todas las matrices de
(n − 1) × (n − 1).
*Caso (n × n ). Se sabe que A tiene al menos un VaC λ1 asociado a un
VeC x1 t.q. Ax1 = λ1 x1 .
Demostración. Considere cualquier base en C n de la forma
x1 , z2 , z3 , · · · , zn .
Si Q es la matriz de transformación de A (en las coordenadas originales)
a la nueva base, se tiene que
  U : 1 × (n − 1)
−1 λ1 U
QAQ = , 0 : (n − 1) × 1
0 B
B : (n − 1) × (n − 1)

de la hipótesis de inducción ∃R tal que


 
λ2 v23 · · · v2n
 λ3 · · · v3n 
RBR −1 =  .  . (Triangular superior)
 
 . . 
0 0 ··· λn
 
1 0
Demostración. Considere ahora S = y sea P = SQ, entonces
0 R

PAP −1 = [SQ ] A [SQ ]−1 = SQAQ −1 S −1


   
1 0 λ1 U 1 0
=
0 R O B 0 R −1

λ1 UR −1 UR −1
    
1
0 λ1
PAP −1 = =
0
R 0 BR −1 0 RBR −1
 
λ1 w12 w13 ··· w1n
 0 λ2 v23 ··· v2n 
.
 
. ..
PAP −1 = 
 
 . . λ3 ··· v3n 

 .. .. .. .. 
 . . . . 
0 ··· ··· 0 λn
entonces T = PAP −1 es MTS con los VaC de A en su diagonal.
Teorema 144 A de (n × n ) es sim. a una MTS de la forma,
 
T1 0 ··· 0
 0
 T2 · · · 0 

 .. 
 . 
0 ··· Tk

donde Ti es MTS con elementos λi (VaC de A)en la diagonal. El orden


de Ti es la multiplicidad de λi y k es el número de VaC distintos.

Demostración. Del Th. anterior, A es sim a una MTS, por lo tanto se


puede asumir que ∃P t.q.,
 
T11 T12 ··· T1k
 0 T22 ··· T2k 
PAP −1 =  .  = T.
 
.. ..
 .. . . 
0 ··· 0 Tkk
Demostración. Tii es MTS con elementos en la diagonal λi .
El orden de Tii es la multiplicidad de λi VaC de A.
λ1 , · · · , λk son todos distintos.
Observación. El ordenamiento anterior se obtiene del Th. anterior. Sólo
se requiere conocer los VaC y su multiplicidad.
Considere un elemento tpq 6= 0 de T con p < q.
Sea Q = I + C donde cij = 0, ∀ij excepto cpq = c.
Se tiene que Q −1 = I − C . ¡Demostrarlo!
Considerando

QTQ −1 = (I + C ) T (I − C ) = (T + CT ) (I − C )
= T + CT − TC − CTC

CTC = 0.
Demostración. Entonces,

···
 
0 0 0 0 0 0 
t11 t12 t13 t14 ··· t1
 0 0 0 c24 0 ··· 0 
 ..

..


 0
 t22 t23 t24 ··· t2
C = .
 . , T =  0
  t33 t34 ··· t3
 ..   .. ..
 .



 . .
.. 0 tn
0 . 0

produciéndose,
 
0 0 0 0 ··· 0

 0 0 0 c24 t44 c24 t45 ··· c24 t4n 

CT = 
 0 0 0 ··· 0 

 .. .. 
 . . 
0 ··· 0
Demostración.
 
0 0 0 c24 t12 0 ··· 0

 0 0 0 c24 t22 0 ··· 0 

TC = 
 0 0 0 ··· 0 

 .. .. 
 . . 
0 ··· 0

 QTQ −1 = T + CT − TC = 
t11 t12 t13 t14 − c24 t12 t15 ··· t1n

 0 t22 t23 t24 − c24 (t22 − t44 ) t25 − c24 t45 ··· t2n − c24 t4n 


 0 0 t33 t34 t3n 

 .. 

 . 

 .. 
 . 
0 tnn
El elemento (2, 4) de QTQ −1 ha cambiado a

t24 − c24 (t22 − t44 ) .


Demostración. En el caso general se tiene que el elemento (p, q )
cambia a,
tpq − cpq (tpp − tqq ) ,
por lo tanto si (tpp − tqq ) 6= 0 se elige cpq t.q.

tpq − cpq (tpp − tqq ) = 0.

La transformación QTQ −1 afecta sólo los elementos en la p-ésima fila a


la derecha del elemento (p, q ) y los elementos de la q-ésima columna
arriba del elemento (p, q ).
Entonces, considerando un número finito de transformaciones de este tipo
[con c apropiadamente definido] y un orden de aplicación adecuado a la
forma final que se desea obtener, la matriz T toma la forma solicitada.
Definición 145 Un bloque de Jordan (BJ) es una matriz cuyos
elementos en la diagonal principal son todos iguales y cuyos elementos en
la primer superdiagonal (sobre la diagonal principal) son todos igual a 1.
Todos los demás elementos son cero.
 
λ 1 0
J =  0 λ 1  , λ ∈ R (C ).
0 0 λ

Teorema 146 Toda MTS T con todos los elementos en la diagonal


igual a λ es sim a una MTS de la forma,
 
J1 0 · · · 0
 0 J2 0 
 
 .. . . 
 . . 
0 Jl

donde Ji son BJ con elementos λ en la diagonal y l el número de VeC


independientes de T .
Teorema 147 (Forma canónica de Jordan (FCJ)). Toda matriz cuadrada
A es similar a una MTS de la forma
 
J1 0 · · · 0
 0 J2 0 
 
 .. .. 
 . . 
0 Jm

donde Ji es un BJ con elementos en la diagonal λi , VaC de A. Un VaC


λi puede aparecer en más de un bloque, pero el número de bloques que
contienen λi en la diagonal es igual al número de VeC independientes
correspondientes a λi .

Demostración. Por el th. 144, ∃Q (no singular) t.q.


 
T1 0 ··· 0
 0 T2 
T = QAQ −1 =  .
 
 .. .. 
. 
0 ··· Tk
Demostración. Ti : MTS con elementos λi en la diagonal. El orden de
Ti es la multiplicidad de λi ; λi : VaC de A; k : Número de VaC ind. de A.
Por el th. 146, ∃k matrices no singulares Ri t.q.
 
Ji1 0 · · · 0
 0 Ji2 0 
Ri Ti Ri−1 =  .
 
. . . 
 . . 
0 Jili

Ji1 , · · · , Jili : BJ con λi en la diagonal (el mismo ∀Jij ).


li : Número de VeC independientes correspondientes a λi .
Definiendo,
   −1 
R1 0 R1 0
 0 R2  0 −1

−1
R 2

R= =⇒ R =
   
..   .. 
 .   . 
Rk Rk−1
Demostración. Se tiene que,

R (QAQ −1 )R −1 = RTR −1
R1 T1 R1−1
 
0
 0 R2 T2 R2−1 
= .
 
..
 . 
Rk Tk Rk−1

Entonces RTR −1 tiene la forma descrita en el Th., donde


k
m= ∑ li .
i =1
Ejemplo 148 Encontrar la FJ de,
 
2 1 0 1
 1 3 −1 3 
A=  .
0 1 2 1 
1 −1 −1 −1

Los VaC se obtienen de |A − λI | = λ ( λ − 2)3 ,


 
2−λ 1 0 1
 1
 3 − λ −1 3 
.
 0 1 2−λ 1 
1 −1 −1 −1 − λ

λ1 = 2 mult. 3 y λ2 = 0 mult. 1.
Vectores caracterı́sticos. Av = λv → (A − λI ) v = 0. Sea λ1 = 2 =⇒
     
0 1 0 1 x1 1 1 −1 3 x1
 1 1 − 1 3   x2 
 = 0 ⇐⇒  0 1 0 1   x2  = 0
  
 
 0 1 0 1   x3   0 0 0 −4   x3 
1 −1 −1 −3 x4 0 0 0 0 x4

esto es,
   

 −4x4 = 0 =⇒ x4 = 0 
 1
x2 + x4 = 0 =⇒ x2 = 0  0 
 
=⇒ v1 = 
 1 .

x + x2 − x3 − 3x4 = 0
 1

 

x1− x3 = 0 =⇒ x1 = x3 0

Considerando ahora λ2 = 0,
     
2 1 0 1 x1 2 1 0 1 x1
 1 3 − 1 3   x2
 = 0 ⇐⇒  0 1 2 1   x2
   
  =0
 0 1 2 1   x3   0 0 − 6 0   x3 
1 −1 −1 −1 x4 0 0 0 0 x4

obteniéndose,
   

 −6x3 = 0 =⇒ x3 = 0 
 0
x2 + 2x3 + x4 = 0 =⇒ x2 + x4 = 0  1 
 
=⇒ v2 = 
 0 .

2x + x2 + x4 = 0 =⇒ 2x1 = 0 =⇒ x1 = 0
 1

 

x2 = − x4 −1

Finalmente, dado que existen dos VeC independientes, entonces existen
dos BJ produciendo la forma canónica única (excepto por el orden de los
bloques),  
2 1 0 0
 0 2 1 0 
J=  0 0
.
2 0 
0 0 0 0
¿Cual es la matriz de transformación que produce J?
Sea P −1 = [x1 , x2 , x3 , x4 ] t.q PAP −1 = J =⇒ AP −1 = P −1 J,

A [x1 , x2 , x3 , x4 ] = [Ax1 , Ax2 , Ax3 , Ax4 ] = [x1 , x2 , x3 , x4 ] J

esto es,
  
x11 x21 x31 x41 λ1 1 0 0
x x22 x32 x42   0 λ1 1 0 
P −1 J =  12

 .
 x13 x23 x33 x43   0 0 λ1 0 
x14 x24 x34 x44 0 0 0 λ2

Entonces

 [Ax1 , Ax2 , Ax3 , Ax4 ] = [x1 , x2 , x3 , x4 ] J = 


λ1 x11 x11 + λ1 x21 x21 + λ1 x31 λ2 x41
 λ1 x12 x12 + λ1 x22 x22 + λ1 x32 λ2 x42 
=
 λ1 x13 x13 + λ1 x23 x23 + λ1 x33 λ2 x43


λ1 x14 x14 + λ1 x24 x24 + λ1 x34 λ2 x44
=⇒ A [x1 , x2 , x3 , x4 ] = [λ1 x1 , x1 + λ1 x2 , x2 + λ1 x3 , λ2 x4 ]
Produciéndose,

Ax1 = λ1 x1 , Ax2 = x1 + λ1 x2
Ax3 = x2 + λ1 x3 , Ax4 = λ2 x4

Equivalentemente,

i ) (A − λ1 I ) x1 = 0 =⇒ x1 = v1
ii ) (A − λ1 I ) x2 = x1
iii ) (A − λ1 I ) x3 = x2
iv ) (A − λ2 I ) x4 = 0 =⇒ x4 = v2

Considerando ii ) se tiene,
    
0 1 0 1 x21 1
 1 1 −1 3   x22   0 
(A − λ1 I ) x2 = x1 =⇒ 
 0
 = 
1 0 1   x23   1 
1 −1 −1 −3 x24 0
| {z }
v3
Proceso de reducción
     
0 1 0 1 1 0 1 0 1 1 1 1 −1 3 0
 1 1
 −1 3 0 →
 1 1 −1 3 0   0
→ 1 0 1 1 

 0 1 0 1 1   0 0 0 0 0   1 0 −1 0 0 
1 −1 −1 −3 0 2 0 −2 0 0 0 0 0 0 0
 
0 1 0 3 0
−2x24 = 1 → x24 = − 12 
 
 0 0 0 −2 1 

  ⇐⇒ x22 + 3x24 = 0 → x22 = 32
 1 0 −1 0 0 
x21 − x23 = 0 → x21 = x23
 
0 0 0 0 0
T
produciendo para x21 = 0, x2 = 0 32 0 − 21

.
Considerando iii ) (A − λ1 I ) x3 = x2 se tiene,
    
0 1 0 1 x31 0
 1 1 −1 3   x32   3 
  =  2 
 0 1 0 1   x33   0 
1 −1 −1 −3 x34 − 12
1
   
0 1 0 1 0 1 0 −1 0 2
 1 1 −1 3 3   0
 2 → 1 0 1 0 

 0 1 0 1 0   0 0 0 2 1 
1 −1 −1 −3 −21 0 0 0 0 0
con lo cual
1
   
0
2x34 = 1 → x34 = 21
  
 1 2 
− 12
 
 
−2 
x32 + x34 = 0 → x32 = − 12
 
→ x3 =  −1
, 
1 1 2
  0 
x31 − x33 = 2 → x31 = x33 + 2
  
 
 1 1 
2 2

Por lo tanto se obtiene la matriz P −1 de la forma


   
1 0 0 0 1 0 0 0
 0 3 − 1 1  0 1 0 1 
−1

P = 2 2  =⇒ P = 
− 21 0

 1 0   2 0 −2 0 
0 − 12 1
2 −1 1 − 12 −1 − 32
 
2 1 0 0
 0 2 1 0 
PAP −1 = 
 0 0 2 0  = J.

0 0 0 0
T
Considerando x3 = 2 − 12 0 12
 1
se tiene,

1 0 1 0
 
0 0 1 0

2
0 3 − 1 1 0 1 0 1 
P −1 = 
  
2 2  P= 
 1 0 0 0   2 0 −2 0 
1 1 − 1 −1 − 32
0 −2 2 −1 1 2
 
2 1 0 0
0 2 1 0 
PAP −1 = 

 = J.
 0 0 2 0 
0 0 0 0
Existen casos que no pueden ser resueltos claramente por el Th 147.
Suponga que A es de 4 × 4 con VaC λ de multiplicidad 4 y dos VeC ind.
=⇒ ∃ dos bloques de Jordan en la diagonal de J similar a A, con lo cual
J puede tomar las formas
   
λ 0 0 0 λ 1 0 0
 0 λ 1 0   0 λ 0 0 
J=  0 0 λ 1  ó J =  0 0 λ 1  .
  

0 0 0 λ 0 0 0 λ

Se tieneque satisfacer AP −1 = P −1 J donde


P − 1 = x1 x2 x3 x4 .
   
=⇒ A x1 x2 x3 x4 = x1 x2 x3 x4 J
Considerando J1 se tiene

(A − λI ) x1 = 0, (A − λI ) x2 = 0,
(A − λI ) x3 = x2 , (A − λI ) x4 = x3

Considerando J2 se tiene,

(A − λI ) x1 = 0, (A − λI ) x2 = x1 ,
(A − λI ) x3 = 0, (A − λI ) x4 = x3

la representación correcta J1 ó J2 dependerá del conjunto de ecuaciones


que puedan ser resueltas para determinada A (Dada A solo uno de los
conjuntos se satisface).
Teorema 149 (Cayley-Hamilton) Si p (λ) es el PC de A, entonces
p (A) = 0.

Demostración. Considere el BJ J (λ) de k × k =⇒ Ek = J (λ) − λI es


tal que Ekk = 0. Nótese que,
Ek es una matriz con unos en la primera superdiagonal y ceros en
cualquier otro lugar.
Ek2 es una matriz con unos en la segunda superdiagonal y ceros en
cualquier otro lugar.
Ekk = 0.
Suponga que J es la forma de Jordan de la matriz A de p × p.
Considerando el BJ Ji asociado al VaC λi y considerando que λi aparece
a lo mas mi veces en todos los BJ (Recuerdese que λi puede aparecer en
más de un bloque) entonces Ji es de a lo más mi × mi . Entonces se tiene
que
(λi I − Ji )mi = 0.
Demostración. Considérese ahora el PC p (λ) de A,

p (λ) = |A − λI | = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λs − λ)ms ,

entonces puede escribirse

p (J ) = (λ1 I − J )m1 (λ2 I − J )m2 · · · (λs I − J )ms ,

donde ya se ha mostrado que para cada bloque (λi I − Ji )mi = 0.


Por lo tanto p (J ) toma la forma
    
0 c1 c1
 c 2   0   .. 
p (J ) = 
  
· · ·
 . =

. ..   . ..  
    cs − 1 
cs cs 0
Demostración. Considerando el hecho que

Q −1 AQ = J =⇒ A = QJQ −1 .

Entonces,


p (J ) = |J − λI | = Q −1 AQ − λI = Q −1 (A − λI ) Q


= Q −1 |A − λI | |Q | = |A − λI | = p (A)

con lo cual,  
p (A) = p Q −1 AQ = p (J ) = 0.
Ecuaciones diferenciales lineales
Considere el sistema
dx
= ax (t )
dt
El cual tiene la solución,

x (t ) = ce at , c = x (0) → x (t ) = x (0) e at

Esto es,
dx
= x (0) ae at = a x (0) e at = ax (t ).

dt
Considere el conjunto no acoplado, ( dx
dt = ẋ )
( · )  
x 1 = − x1 −1 0
· =⇒ ẋ = Ax, A = .
x 2 = 2x2 0 2

En este caso la solución resulta


x1 ( t ) = c 1 e − t
   
x1 ( 0 )
, c = x ( 0 ) = .
x2 (t ) = c2 e 2t x2 ( 0 )

Por lo tanto,
e −t
  
0 x1 ( 0 )
x (t ) =
0 e 2t x2 ( 0 )
Considere el sistema
ẋ = Ax (10)

Teorema 150 Si los VaC λ1 , · · · , λn de A ⊂ R n×n son reales y


diferentes, entonces cualquier conjunto de VeC v1 , · · · , vn forma una
base para R n , la matriz P = [v1 , v2 · · · , vn ] es invertible y

P −1 AP = diag [λ1 , · · · , λn ] .

Demostración. Ya se demostró para TL.


Considere la transformación de coordenadas (f tiene la representación A),

y = P −1 x ⇐⇒ x = Py
=⇒ ẏ = P −1 ẋ = P −1 Ax = P −1 APy .
Demostración. De acuerdo a los resultados de TL se obtiene,

e λ1 t
   
λ1 0 0
ẏ = 
 ..  y → y (t ) = 
  .. y (0) .

. .
0 λn 0 e λn t
| {z }
E (t )

Dado que
y (0 ) = P −1 x (0 )
=⇒ x (t ) = Py (t ) = PE (t ) y (0) = PE (t ) P −1 x (0)
=⇒ la solución de (10) en las coordenadas originales esta dada por,

x (t ) = PE (t ) P −1 x (0) .
Ejemplo.
( · )  
x1 = −x1 − 3x2 −1 −3 λ1 = −1
· ⇐⇒ ẋ = Ax, A = ,
x2 = 2x2 0 2 λ2 = 2

   
1 −1
λ = −1 → v = ,λ=2→v =
0 1
     
1 −1 −1 1 1 −1 −1 0
P= ,P = , P AP = .
0 1 0 1 0 2

Obteniéndose el sistema,
·
y1 = −y1 , y1 (t ) = c1 e −t , c1 = y1 (0)
·
y2 = 2y2 , y2 (t ) = c2 e −t , c2 = y2 (0) .
Por lo tanto en las coordenadas x se obtiene,

x (t ) = Py (t ) = PE (t ) y (0) = PE (t ) P −1 x (0)

 −t 
e 0
x (t ) = P P −1 x (0 )
0 e 2t
   −t   
1 −1 e 0 1 1 x1 ( 0 )
=
0 1 0 e 2t 0 1 x2 ( 0 )

 
x1 (t ) = x1 (0) e −t + x2 (0) e −t − e 2t
x2 (t ) = x2 (0) e 2t .
Definición 151 Sea A(n × n ). Entonces para t ∈ R,

Ak t k
e At = ∑ k!
.
k =0

I e At se calculará con base en los VaC de A.

Proposición 152 Si S y T son TL en R n y


S = PTP −1 =⇒ e S = Pe T P −1 .

Demostración.

k ∞
!
PTP −1 PTP −1 Tk
S
e =e = ∑ =P ∑ k! P −1 = Pe T P −1 .
k =0
k! k =0

Si P −1 AP = diag λj =⇒ e At = P diag e λj t P −1 .
   
I
Proposición 153 Si S y T son TL en R n t.q.
ST = TS =⇒ e S +T = e S e T .

Demostración. Sea ST = TS, entonces,

Sj T k
(S + T )n = n! ∑ j !k!
=⇒
j +k =n

∞ ∞ ∞
(S + T )n n! Sj T k Sj T k
e S +T = ∑ n! = ∑ n! ∑ j !k! = ∑ ∑ j !k!
n =0 n =0 j +k =n n=0j +k =n

Sj ∞ T k
= ∑ j ! ∑ k! = e S e T .
j =0 k =0
Demostración. Por otra parte, si,
   
a −b A a cos b − sin b
A= =⇒ e = e
b a sin b cos b
   
a b A a 1 b
A= =⇒ e = e .
0 a 0 1

Sea A(2 × 2), entonces ∃P t.q. B = P −1 AP, donde B toma una de las
siguientes formas,
     
λ 0 λ 1 a −b
B= ,B= ,B= .
0 µ 0 λ b a

Por lo tanto,
 λt     
e 0 1 t cos bt − sin bt
e Bt = , e Bt = e λt , e Bt = e at .
0 e µt 0 1 sin bt cos bt
  −1
Observación. e T = e −T .
At
Lema 154 dedt = Ae At .

 
e At e Ah − I
d At e A(t +h) − e At
e = lı́m = lı́m
dt h →0 h h →0 h
!
At A2 h Ak hk −1
=e lı́m lı́m A+ +···+ = Ae At .
h →0 k → ∞ 2! k!

Teorema 155 Sea A(n × n ). Entonces dado x0 ∈ R n , el problema de


valor inicial
ẋ = Ax, x (0) = x0 (11)
tiene la solución única
x (t ) = e At x0 .
Demostración. Considerando
d At
x (t ) = e At x0 =⇒ ẋ (t ) = e x0 = Ae At x0 = Ax (t ) , ∀t ∈ R.
dt
Unicidad. Sean x (t ) y y (t ) dos soluciones de (11), definiendo
e (t ) = x (t ) − y (t ) se tiene que

ė (t ) = Ae (t ) , e (0) = x (0) − y (0) = x (0) − x (0) = 0

(misma condición inicial). Entonces se obtiene la sol.

e (t ) = e At e0 .

Con lo cual

e (t ) = 0 =⇒ e (t ) = x (t ) − y (t ) = 0
=⇒ x (t ) = y (t ) .
Ejemplo 156 Considere el sistema
   
−2 −1 1
ẋ = Ax, A = , x (0) = .
1 −2 0

Entonces la solución esta dada por


  
cos t − sin t 1
x (t ) = e At x (0) = e −2t
sin t cos t 0
 −2t 
e cos t
=
e −2t sin t
ẋ = Ax

Teorema 157 Si A ⊂ R 2n×2n tiene 2n distintos VaC complejos


λj = aj + ibj y λ̄j = aj − ibj con VeC wj = uj + ivj y w̄j = uj − ivj ,
j = 1, · · · , n, entonces {u1 , v1 , · · · , un , vn } forman una base para R 2n y
la matriz
P = [v1 , u1 , v2 , u2 , · · · , vn , un ]
es invertible y  
aj − bj
P −1 AP = diag
bj aj
es real de 2n × 2n con bloques de 2 × 2 sobre la diagonal.
Corolario 158 ẋ = Ax, x (0) = x0 tiene la solución,
 
cos bj t − sin bj t
x (t ) = P diag e aj t
P −1 x (0 ) .
sin bj t cos bj t

Observación. Sea A una matriz con k distintos VaC reales y 2 (n − k )


VaC complejos. Entonces ∃v1 , · · · , vj VeC asociados con los VaC reales y
2 (n − k ) VeC wj = uj + ivj , w̄j = uj − ivj asociados con los VaC
λj = aj + ibj , λ̄j = aj − ibj . Entonces la matriz

P = [v1 , · · · , vk , vk +1 , uk +1 , · · · , vn , un ]

es invertible y

PAP −1 = diag [λ1 , · · · , λk , Bk +1 , · · · , Bn ]

donde  
aj −bj
Bj = , j = k + 1, · · · , n.
bj aj
it −it it −it
Observación. e it = cos t + i sin t, cos t = e +2e , sin t = e −2ie .

Ejemplo 159 Considere el sistema


 
−3 0 0
ẋ = Ax, x (t0 ) = x0 , A =  0 3 −2  .
0 1 1

Entonces,
   
1 0
λ1 = −3, vλ1 =  0  ; λ2,3 = 2 ± i, w2,3 = u2 ± iv2 =  1 ± i 
0 1

esto es,
     
1 0 0 1 0 0 −3 0 0
P= 0 1 1  , P −1 =  0 1 −1  =⇒ P −1 AP =  0 2 −1  .
0 0 1 0 0 1 0 1 2
Con lo cual,
−1
x (t ) = Pe P AP Px (0) .

 
−3 0 0
0 2 −1
 
e −3t
   
  0 0
P −1 AP 0 1 2
e =e =  0 e 2t cos t −e 2t sin t 
0 e 2t sin t e 2t cos t

e −3t
  
0 0 x1 ( 0 )
=⇒ x (t ) =  0 e 2t cos t + sin t −2e 2t sin t   x2 ( 0 )  .
0 e 2t sin t 2t
e (cos t − sin t ) x3 ( 0 )
Considere ahora la solución en un espacio complejo,
   
1 0
λ1 = −3, vλ1 =  0  ; λ2,3 = 2 ± i, w2,3 =  1 ± i 
0 1
Con lo cual,
   
1 0 0 1 0 0
P= 0 1−i 1 + i  , P −1 =  0 i
2
i
2 (1 − i )

0 1 1 0 − 2i i 1+i
2 ( )

Produciendo,
   −3t 
3 0 0 e 0 0
− 1
P −1 AP =  0 2−i 0  , e P APt =  0 e (2−i )t 0 
0 0 2+i 0 0 e (2+i )t
Entonces,

e −3t
 
0 0
P −1 APt
e = 0 e 2t (cos t − i sin t ) 0 
0 0 e 2t (cos t + i sin t )

esto es,
−1
x (t ) = Pe P APt P −1 x (0)
 −3t 
e 0 0
= 0 e 2t (cos t + sin t ) −2e 2t sin t  x (0) .
0 e 2t sin t e 2t (cos t − sin t )
Definición 160 Sea λ un VaC de A(n × n ) de multiplicidad m ≤ n. Un
VaC generalizado de A, es cualquier solución no nula v de
(A − λI )k v = 0, ∀k = 1, · · · , m.

Definición 161 N (n × n ) es nilpotente de orden k si N k −1 6= 0 y


N k = 0.

Teorema 162 Sea A(n × n ) con VaC reales λ1 , · · · , λn repetidos de


acuerdo a su mult. Entonces ∃ una base v1 , · · · , vn de VeC generalizados
de R n , t.q P = [v1 , · · · , vn ] es invertible y

A = S +N

donde
P −1 SP = diag λj
 

La matriz N = A − S es nilpotenete de orden k ≤ n y SN = NS.


Corolario 163 Bajo las cond. del Th. anterior, ẋ = Ax, x (0) = x0 tiene
la solución
" #
h
λj t
i
−1 N k −1 t k −1
x (t ) = P diag e P I + Nt + · · · + x0 .
(k − 1) !

Demostración. N es nilpotente y SN = NS.

Teorema 164 Sea A(2n × 2n ) real con VaC complejos λj = aj + ibj ,


λ̄j = aj − ibj , j = 1, · · · , n. Entonces ∃ VeC generalizados wj = uj + ivj
y wj = uj − ivj , i = 1, · · · , n t.q. u1 , v1 , · · · , un , vn es una base de R 2n .
Entonces P = [v1 , u1 , · · · , vn , un ] es invertible y A = S + N es t.q.
 
aj −bj
P −1 SP = diag .
bj aj

N = A − S es nilpotente de orden k ≤ 2n y SN = NS.


Corolario 165 Bajo las condiciones del Th. anterior la solución de
ẋ = Ax, x (0) = x0 esta dada por
" #
Nk tk
 
aj t cos bj t − sin bj t −1
x (t ) = P diag e P I +···+ x0 .
sin bj t cos bj t k!
La combinación de los resultados anteriores produce,
Teorema 166 Sea A real con VaC reales λj , j = 1, · · · , k y VaC
complejos λj = aj + ibj , λ̄j = aj − ibj , j = k + 1, · · · , n. Entonces existe
una base v1 , · · · , vk , vk +1 , uk +1 , · · · , vn , un para R 2n−k , donde vj ,
j = 1, · · · , k y wj j = k + 1, · · · , n son VeC generalizados de A,
uj = Re wj , vj Im wj t.q. P = [v1 , · · · , vk , vk +1 , uk +1 , · · · , vn , un ]
es invertible y  
B1
P −1 AP = 
 .. 
. 
Br
Con BJ Bj , j = 1, · · · , r de la forma,
 
λ 1 0
 .. 
B=
 . 1 

 λ 1 
0 λ
para λ VaC real. O de la forma,
 
D I2 0
 D I2  
a −b
 
1 0

B= , D = , I2 =
 
. . b a 0 1
 . I 
Bajo estas condiciones, la solución del problema de valor inicial

ẋ = Ax, x (0) = x0

esta dada por h i


x (t ) = P diag e Bj t P −1 x0 .

You might also like