You are on page 1of 7

Universidad de Santiago de Chile

Facultad de Ciencias
ticas y C.C
Departamento de Matema
tica - Laboratiorio de Inferencia Estadstica
Ingeniera Matema

Laboratorio 1:
Simulacion de una Variable Normal
Profesor: Eugenio Saavedra.
Ayudante: Hector Gonzalez.
Integrantes: Yorka Romero y Diego Carvajal.
Santiago, 23 de Abril del 2015

1.

Introducci
on

En este laboratorio, estudiaremos las variables aleatorias independientes con distribucion normal.
Para esto, introduciremos que significa que una v.a sea normal.
En estadstica y probabilidad se llama distribucion normal, distribuci
on de Gauss o distribuci
on Gaussiana, a una de las distribuciones de probabilidad de variable continua que con mas frecuencia aparece
aproximada en fenmenos reales. La gr
afica de su funcion de densidad tiene una forma acampanada y
es simetrica respecto de un determinado parametro estadstico. Esta curva se conoce como campana
de Gauss y es el gr
afico de una funci
on gaussiana. La importancia de esta distribucion radica en que
permite modelar numerosos fen
omenos naturales, sociales y psicologicos. Esta distribucion depende
de dos parametros los cuales resultan ser la media y la desviacion tpica de la distribucion.
En probabilidades, existe la independencia de variables aleatorias, esto nos dice que las variables
aleatorias X1 , X2 , ..., Xn ser
an independientes si su distribucion acumulada conjunta se factoriza
como producto de sus distribuciones conjuntas marginales y para la distribucion normal, tenemos
algunas propiedades cuando existen v.a independientes.
Si X1 y X2 , son v.a iid con distribuci
on normal, entonces
a) X1 + X2 ser
a una nueva v.a con distribucion normal.
b) aX1 sera una nueva v.a con distribucin normal, con a un valor fijo a R.
Es decir, la combinaci
on lineal de variables aleatorias independientes normales seguira siendo normal.
Estudiaremos tambien la funci
on de distribucion normal multivariante, la cual es una generalizacion de la distribucin normal unidimensional a dimensiones superiores. Un vector aleatorio X =
(X1 , X2 , ..., Xn ) que toma valores en Rn se distribuye seg
un la ley normal multivariante, si su densidad es de la forma
1

X
1
f (X) = p
exp{ (X )t
(X )}
P
2
(2)n |
|

P
Donde = (1 , 2 , ..., n ) R,
M(R)nnPdefinida positiva. Con esto decimos que la variable aleatoria distribuye normal, osea X Nn (, ).
Para la distribuci
on normal multivariada, tenemos las mismas
propiedades que para las variables
P
aleatorias independientes normales. Es decir, si XP N (, ), entonces cualquier combinacion lineal
X A, con A matriz, entonces X N ( A, At
P
A). Ademas X+d, donde d = d1n es un vector
de constantes, tiene una distribuci
on X N ( + d, ).

2.

Primer Problema
1. Simule dos variables aleatorias X e Y que satisfagan:
6

a) X N (0, 2 ); Y N (0, 3 )
Entonces, debemos simular dos variables aleatorias con distribucion normal una es X N (0, 2 )
6
y la otra es Y N (0, 3 ). Primero que todo, debemos crear variables aleatorias iid N (0, 1) y luego
hacer alguna combinaci
on lineal que este asociado a lo pedido. Ahora bien, para crear las variables
normales, debemos ocupar el Metodo de Box muller.
1

Para esto, se supone que U1 y U2 son variables aleatorias independientes que estan uniformemente distribuidas en el intervalo (0, 1]. Entonces
p
Z0 = Rcos() = 2 ln U1 cos(2U2 )
p
Z1 = Rsin() = 2 ln U1 cos(2U2 )
Entonces Z0 y Z1 son variables aleatorias independientes con una distribucion normal con desviaci
on
tpica 1.
Notemos que antes debemos crear variables aleatorias independientes que tengan distribucin U (0, 1).
Entonces con el algoritmo enseado en clases, las creamos.
Primero generamos dos vectores con 1000 n
umeros aleatorios, con distribucion uniforme, donde nuestros vectores ser
an a y b. En cada parte veremos el grafico de la variable y de su densidad para
asegurarnos que nuestras variables esten bien definidas.

a numeric(1000)
a[1] = 15
f or(i in 1 : 999)
{
a[i + 1] = (321 + a[i] 12) % % 834
}
a a/833
hist(a)
plot(density(a))

Ahora creamos el vector b

b numeric(1000)
b[1] = 15
f or(i in 2 : 999)
{
b[i + 1] = (321 + b[i] 1) % % 767
}
b /766
hist(b)
plot(density(b))

A continuacion utilizamos el Metodo Box Muller para generar n


umeros aleatorios con distribuci
on
N (0, 1) a partir de nuestras variables uniformes (a y b).
Primera variable aleatoria U - N (0, 1):

U numeric(1000)
f or(i in 1 : 1000) {
U [i] = sqrt(2 log(a[i])) sin(2 pi b[i])
}
hist(U )
mean(U )
var(U )
plot(density(U ))

Notamos que la esperanza de U nos da 0, 00019, pero en este caso el error es tan pequeo, que la
esperanza puede considerarse como 0. En el caso de la varianza (1, 003) tambien existe un peque
no
error, pero este puede ser debido a la eleccion aleatoria de los puntos en las variables.
Segunda variable aleatoria V - N (0, 1):

V numeric(1000)
f or(iin1 : 1000) {
V [i] = sqrt(2 log(a[i])) cos(2 pi b[i])
}
hist(V )
mean(V )
var(V )
plot(density(V ))

En este caso, la esperanza de V es 0, 006 lo cual tambien es muy cercano al cero absoluto. Y la
varianza de V es 1, 01 lo cual es casi 1.
Ahora procederemos a definir las variables X e Y , tales que cumplan con lo pedido en el enunciado.
Tomando = 5, la variable X se define como

X 5U

Calculamos la esperanza y la varianza para asegurarnos que distribuya como queremos

mean(X) = 0, 0009
var(X) = 25, 0984

Luego la variable Y , esta definida como:

Y 0,5 125 (U + (1/(sqrt(3))) V )


mean(Y ) = 0, 23
var(Y ) = 5206

En este caso, la esperanza de Y seguir


a siendo similar a 0, pero con un error un poco mayor y la
varianza de Y debera ser 5208, por lo cual 5206 esta dentro del margen de error.
4

b) Calcular cov(X, Y ) = 2
Ahora para la segunda parte de este problema, calculamos la cov(X, Y ), la cual nos da
cov(X, Y ) = 312, 4838
Esta teoricamente debera ser 312, 5, as, la covarianza calculada por el programa se acerca mucho al
valor teorico.
Ahora calculamos la covarianza entre U y V , como son variables iid, esta debera ser cercana a cero,
y nos dio
cov(U, V ) = 0, 0066
.

3.

Segundo Problema

a) Sea X1 , X2 variables aleatorias iid N (0, 1), y (X, Y ) = (X1 , X2 )A+(1, 2) , A M2 (R) invertible.
Que distribucion tiene el vector (X, Y )?
En primer lugar, como las variables aleatorias X1 y X2 son iid N (0, 1), se tiene algo especial cuando
distribuyen normal independiente, ya que es equivalente a que las covarianzas de X1 y X2 sean cero,
entonces X1 y X2 iid N (0, 1) si, y solamente si (X1 , X2 ) N ((0, 0), I22 ). Luego como (X, Y ) =
(X1 , X2 )A+(1, 2), podemos notar que es una funcion afn en un espacio vectorial, por lo tanto es una
combinacion lineal de un vector normal bivariado (X1 , X2 ). Por lo tanto se tendra que
(X, Y ) N ((1 , 2 ), At I A)
Es la distribucion del vector (X, Y ).
Por otro lado, pasemos esto a codigo R y veamos como se comporta. Entonces generaremos las mismas
variables aleatorias N (0, 1) que hicimos en el problema anterior (Pagina 2-3). Luego definimos una
matriz A y definimos u = (2, 3), entonces

A matrix(c(1, 0, 3, 2), nrow = 2, ncol = 2, byrow = T )


u c(2, 3)

Ahora podremos generar nuestra normal bivariada, con los datos de las variables aleatorias N (0, 1)

M matrix(c(X1, X2), nrow = 1000, ncol = 2)


N ormal M % %A
Biv t(N ormal) + u
Bivtras t(Biv)

Calculamos la varianza y la esperanza para comparar con lo que realmente nos deberia dar

var(Bivtras)
mean(Bivtras[, 1])
mean(Bivtras[, 2])
V AR var(Bivtras)
u1 mean(Bivtras[, 1])
u2 mean(Bivtras[, 2])

Ahora generamos la normal bivariada, con los datos de las v.a. N (0, 1)

M matrix(c(X1, X2), nrow = 1000, ncol = 2)


N ormal M % %A
Biv t(N ormal) + u
Bivtras t(Biv)

Calculamos la varianza y la esperanza para comparar con lo que realmente nos deberia dar

var(Bivtras)
mean(Bivtras[, 1])
mean(Bivtras[, 2])
V AR var(Bivtras)
u1 mean(Bivtras[, 1])
u2 mean(Bivtras[, 2])


5
2
.
b) Simule un vector aleatorio (X, Y ) tal que (X, Y ) N ((1, 2),
2 37/4
En esta segunda parte generamos nuevamente los mismos codigos para poder ocupar el Metodo de
Box Muller, los cuales los podemos apreciar en la Pagina 2-3. Ahora bien, a continuacion de esos
codigos, generaremos la matriz que se nos pide, para as poder simular nuestro vector aleatorio
(X, Y ). Entonces


A matrix(c(sqrt(5), 2/sqrt(5), 0, sqrt(169/20)), nrow = 2, ncol = 2, byrow = T )


u c(1, 2)

Ahora generamos la normal bivariada, con los datos de las la variable aleatoria N (0, 1)

M matrix(c(X1, X2), nrow = 1000, ncol = 2)


N ormal M Biv t(N ormal) + u
Bivtras t(Biv)

Por otro lado, calcularemos la varianza y la esperanza para comparar con lo que realmente nos
debera dar

var(Bivtras)
mean(Bivtras[, 1])
mean(Bivtras[, 2])

4.

Conclusi
on

Despues de todo lo que se trabajo en este informe, podemos concluir que trabajar en Codigo R es
una experiencia muy acogedora para problemas de Probabilidades e Inferencia Estadstica, ademas
del Metodo de Box Muller que nos permitio obtener buenas simulaciones de Variables Aleatorias con
distribucion Normal.