You are on page 1of 12

Tarea no.

1
David Castañeda, René Salinas, Paola Silva
3 de septiembre de 2018

Análisis multivariado

Problema 2.5
5/13 12/13
 
Cheque que Q = es una matriz ortogonal.
−12/13 5/13
Una matriz cuadrada A es ortogonal si At A = AAt = II. Para comprobar si Q lo es, se almacena una matriz
A en R:
A<-matrix(c(5/13,12/13,-12/13,5/13),ncol=2,byrow=T)

Obtenemos su transpuesta:
At<-t(A)
At

## [,1] [,2]
## [1,] 0.3846154 -0.9230769
## [2,] 0.9230769 0.3846154
Calculamos los productos AAt y At A
A%*%At

## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
At%*%A

## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
Con lo que es posible observar que At A = AAt = I

Problema 2.6
9 −2
 
Sea A =
−2 6
a) ¿Es A una matriz simétrica?
Definiendo la matriz A en R, como:
A<-matrix(c(9,-2,-2,6),ncol=2,byrow=T)
A

## [,1] [,2]
## [1,] 9 -2
## [2,] -2 6

1
Y observando a la matriz At :
At<-t(A)
At

## [,1] [,2]
## [1,] 9 -2
## [2,] -2 6
Podemos observar que A es una matriz simétrica, ya que A = At , aunque existe una función de R para
determinar si una matriz es símetrica:
isSymmetric(A)

## [1] TRUE
Podemos observar que efectivamente, la matriz A es simétrica.
b) Muestre que A es definida positiva.
Para que una matriz cuadrada sea definida positiva se necesita que todos sus eigenvalores sean positivos.
Con ayuda de R, se tiene:
eigen(A)

## eigen() decomposition
## $values
## [1] 10 5
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] 0.4472136 -0.8944272
Podemos observar que sus dos eigenvalores son positivos y podemos concluir que la matriz A es definida
positiva.

Problema 2.7

Sea A la matriz dada en el problema 2.6.


a) Determine los eigenvalores y eigenvectores de A.
eigen(A)

## eigen() decomposition
## $values
## [1] 10 5
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] 0.4472136 -0.8944272
b) Escriba la descomposición espectral de A.
Pp
La descomposición espectral de una matriz esta dada por: Apxp = i=1 λi ei e0i Donde λi , i = 1, ..., p
son los eigenvalores de la matriz y ei representa el eigenvector asociado al vector λi .
Con los datos optenidos en el inciso a) podemos escribir:

2
t t
9
     
−2 −0.8944272 −0.8944272 −0.4472136 −0.4472136
A= = 10 +5
−2 6 0.4472136 0.4472136 −0.8944272 −0.8944272

   
−0.8944272 −0.4472136
A = 10 0.4472136 + 5
 
−0.8944272 −0.4472136 −0.8944272
0.4472136 −0.8944272

c) Encuentre A−1 .
Calculamos la inversa:
invA<-solve(A)

Verificamos:
A%*%invA

## [,1] [,2]
## [1,] 1.000000e+00 0
## [2,] -2.775558e-17 1
invA%*%A

## [,1] [,2]
## [1,] 1 -2.775558e-17
## [2,] 0 1.000000e+00
d) Encuentre los eigenvalores y eigenvectores de A−1 .
eigen(invA)

## eigen() decomposition
## $values
## [1] 0.2 0.1
##
## $vectors
## [,1] [,2]
## [1,] 0.4472136 -0.8944272
## [2,] 0.8944272 0.4472136

Problema 2.8

Dada la matriz

1 2
 
A=
2 −2
• Busque los eigenvalores λ1 y λ2 y los eigenvectores normalizados asociados e1 e2 :
A<-matrix(c(1,2,2,-2),ncol=2,byrow=T)
A

## [,1] [,2]
## [1,] 1 2
## [2,] 2 -2
eigen(A)

3
## eigen() decomposition
## $values
## [1] 2 -3
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] -0.4472136 0.8944272
• Derermine la descomposición espectral de A .
En base al resultado anterior:

1 2
 
A=
2 −2

   
−0.8944272 −0.4472136
A=2 −0.4472136 − 3 0.8944272
 
−0.8944272 −0.4472136
−0.4472136 0.8944272

Problema 2.12

Demuestre que el determinante de una matriz cuadrada simétrica ApXp puede ser expresado
A| = Πpi=1 λi
como el producto de sus eigenvalores, esto es |A
Se sabe que para una matriz simétrica ApXp , existe una matriz ortogonal Q , tal que:

Qt AQ = D
D, donde D = diag (λ1 , λ2 , ..., λp )

Entonces, por propiedades de los determinantes, y de la matriz ortogonal, se tienen las siguientes igualdades:

AB| = |A
|AB
AB A| |B
B|

1
Q t = Q −1 ⇒ Qt | = |Q
|Q Q−1 | =
|Q |
Q
D | = λ1 (λ2 (...(λp − 0))) = λ1 · λ2 · ... · λp
|D
Por lo tanto, se tiene:
AQ| = |D|
QtAQ
|Q
Qt | |A
|Q Q| = λ1 · λ2 · ... · λp
A| |Q
1
|A Q| = λ1 · λ2 · ... · λp
A| |Q
|Q
Q|
NOTA: El determinante de cada matriz representa un valor escalar

∴ A| = λ1 · λ2 · ... · λp
|A

Que es lo que se quería demostrar.

4
Problema 2.15

Una forma cuadrática x0 Ax es llamada definida positiva si la matriz A es definida positiva.


¿La forma cuadrática 3x21 + 3x22 − 2x1 x2 es definida positiva?
Sea f (x1 , x2 ) = 3x21 + 3x22 − 2x1 x2
Obtenemos las derivadas parciales para optener los valores de los posibles puntos críticos:

df
= 6x1 − 2x2
dx1

df
= 6x2 − 2x1
dx2

d2 f
=6
dx21

d2 f
=6
dx22

df df
= −2
dx1 dx2

Puntos críticos:

df
= 6x1 − 2x2 = 0 (1)
dx1

df
= 6x2 − 2x1 = 0 (2)
dx2

Reduciendo (1) y (2):

3x1 − x2 = 0 (1)

3x2 − x1 = 0 (2)

De (1) obtenemos:

3x1 = x2 (3)

Sustituyendo (3) en (2):

3(3x1 ) − x1 = 0

8x1 = 0

x1 = 0

5
Esto implica:

x2 = 0

Por lo que (x1 = 0, x2 = 0) es un punto crítico de la función f (x1 , x2 ).


Ahora calculamos el discriminante:

d2 f d2 f df df 2
D= −( )
dx21 dx22 dx1 dx2

D = 6(6) − (−2)2 = 32

d2 f d2 f
Ahora evaluaremos (x1 = 0, x2 = 0) en D, dx21
y dx22
,
2 2
D = 32 , ddxf2 = 6 y ddxf2 = 6 los tres valores mayores a cero, por lo que podemos concluir que (x1 = 0, x2 = 0)
1 2
es un mínimo de f (x1 , x2 ).
Evaluando dicho punto en la función f (x1 , x2 ) tenemos que:

f (x1 , x2 ) = 3x21 + 3x22 − 2x1 x2

f (x1 = 0, x2 = 0) = 3(0)2 + 3(0)2 − 2(0)(0) = 0

Por lo que podemos concluir que la función no tomará valores menores a cero en ningun otro punto (x1 , x2 ).

Problema 2.18

Considere el conjunto de puntos (x1 , x2 ) cuyas distancias de la forma original están dadas por


c2 = 4x21 + 3x22 − 2 2x1 x2 (1)

para c2 = 1 y c2 = 4. Determine el eje mayor y menor de las elipses de distancias constantes


y sus longitudes asociadas. Bosqueje las elipses de distancias constantes y comente en sus
posiciones. ¿Qué sucederá si c2 incrementa?
tenemos que la ecuación (1) se ve de la forma
√  
3 − 2

x1
x Ax = x1
t √

x2
− 2 2 x2

con R obtenemos los eigenvalores y eigenvectores


A<-matrix(c(3,-(sqrt(2)),-(sqrt(2)),2),byrow = T,ncol = 2)
a<-eigen(A);a[1]

## $values
## [1] 4 1

6
para obtener el eje mayor y menor utilizamos la fórmula:
c

λi
entonces tenemos:
c<-c(1,1,2,2)
lambda<-c(4,1)
eje<-c/(sqrt(lambda))
eje

## [1] 0.5 1.0 1.0 2.0


Ejes<-matrix(eje,ncol=2,byrow=F)
Ejes

## [,1] [,2]
## [1,] 0.5 1
## [2,] 1.0 2

Entonces para esta elipse el eje mayor es 1 y el menor es 0.5

7
Para esta el eje mayor es 2 y el menor es 1.

Como los valores de c incrementan se obtienen elipses de mayor perimetro y aumentan los ejes.

Problema 2.21

Usando la matriz

1 1
 

A = 2 −2
2 2
a) Calcule AAt y obtenga sus eigenvalores y eigenvectores.
Almacenamos la matriz en R y obtenemos su transpuesta y el Producto AAt :

8
A<-matrix(c(1,1,2,-2,2,2),ncol=2, byrow=T)
A

## [,1] [,2]
## [1,] 1 1
## [2,] 2 -2
## [3,] 2 2
At<-t(A)
At

## [,1] [,2] [,3]


## [1,] 1 2 2
## [2,] 1 -2 2
A%*%At

## [,1] [,2] [,3]


## [1,] 2 0 4
## [2,] 0 8 0
## [3,] 4 0 8
eigen(A%*%At)

## eigen() decomposition
## $values
## [1] 1.000000e+01 8.000000e+00 3.552714e-15
##
## $vectors
## [,1] [,2] [,3]
## [1,] -0.4472136 0 0.8944272
## [2,] 0.0000000 -1 0.0000000
## [3,] -0.8944272 0 -0.4472136
b) Calcule A0 A y obtenga sus eigenvalores y eigenvectores.
At%*%A

## [,1] [,2]
## [1,] 9 1
## [2,] 1 9
eigen(At%*%A)

## eigen() decomposition
## $values
## [1] 10 8
##
## $vectors
## [,1] [,2]
## [1,] 0.7071068 -0.7071068
## [2,] 0.7071068 0.7071068

Problema 2.24

Sea X tal que posee matriz de covarianzas:

9
4 0 0
 
X
= 0 9 0
0 0 1

Encuentre:
P−
a) 1
S<-matrix(c(4,0,0,0,9,0,0,0,1),ncol=3,byrow=T);S

## [,1] [,2] [,3]


## [1,] 4 0 0
## [2,] 0 9 0
## [3,] 0 0 1
Sinv<-solve(S);Sinv

## [,1] [,2] [,3]


## [1,] 0.25 0.0000000 0
## [2,] 0.00 0.1111111 0
## [3,] 0.00 0.0000000 1
eigen(S)

## eigen() decomposition
## $values
## [1] 9 4 1
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 1 0 0
## [3,] 0 0 1
eigen(Sinv)

## eigen() decomposition
## $values
## [1] 1.0000000 0.2500000 0.1111111
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 0 0 1
## [3,] 1 0 0
S%*%Sinv

## [,1] [,2] [,3]


## [1,] 1 0 0
## [2,] 0 1 0
## [3,] 0 0 1
Sinv%*%S

## [,1] [,2] [,3]


## [1,] 1 0 0
## [2,] 0 1 0
## [3,] 0 0 1

10
b) Los eigenvalores y eigenvectores de
P

eigen(S)

## eigen() decomposition
## $values
## [1] 9 4 1
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 1 0 0
## [3,] 0 0 1
P−
c) Los valores y eigenvectores de 1
eigen(Sinv)

## eigen() decomposition
## $values
## [1] 1.0000000 0.2500000 0.1111111
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 0 0 1
## [3,] 1 0 0

Problema 2.25

Sea X tal que posee matriz de varianzas y covarianzas

25 4
 
X −2
= −2 4 1
4 1 9
1
a) Determine P y V 2
1
V 2 no es más que la matriz diagonal que contiene la raiz cuadrada de las varianzas de .
P

Entonces:
5 0 0
 
1
V 2 = 0 2 0
0 0 3

S<-matrix(c(25,-2,4,-2,4,1,4,1,9),ncol=3,byrow=T)
S

## [,1] [,2] [,3]


## [1,] 25 -2 4
## [2,] -2 4 1
## [3,] 4 1 9
raizV<-matrix(c(5,0,0,0,2,0,0,0,3),ncol=3,byrow=T)
raizV

## [,1] [,2] [,3]


## [1,] 5 0 0

11
## [2,] 0 2 0
## [3,] 0 0 3
La matríz P está dada por:
1 1
X
P = V −2 V −2

P<-solve(raizV)%*%S%*%solve(raizV)
P

## [,1] [,2] [,3]


## [1,] 1.0000000 -0.2000000 0.2666667
## [2,] -0.2000000 1.0000000 0.1666667
## [3,] 0.2666667 0.1666667 1.0000000
1 1
b) Multiplique las matrices para checar la relación V 2 P V 2 =
P

## [,1] [,2] [,3]


## [1,] 25 -2 4
## [2,] -2 4 1
## [3,] 4 1 9
raizV%*%P%*%raizV

## [,1] [,2] [,3]


## [1,] 25 -2 4
## [2,] -2 4 1
## [3,] 4 1 9

12