You are on page 1of 8

Estadística II

Tema 3.4 / PC2

Distribuciones Bivariadas

Esperanza Matemática Condicional (Media Condicional)

Caso de una Variable Aleatoria Discreta:

* Esperanza Condicional de X sobre Y:

x.f(x, y)
E[X / Y] =  x.h(x / y)  E[X/Y] =  =  X/Y
fy (y)

* Esperanza Condicional de Y sobre X:

y.f(x, y)
E[Y / X] =  y.h(y / x)  E[Y/X] =  =  Y/X
fx (x)

Además:

2 x 2.f(x, y)
* E[X2/y] =  x h(x / y) = 
f y (y)

2 y 2.f(x, y)
* E[Y2/x]=  y h(y / x) =  f (x)
x

Estadística para la Universidad -1-


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

Caso de una Variable Aleatoria Continua:

* Esperanza Condicional de X sobre Y:

x.f(x, y)
E[X / Y] =  x.h(x / y)dx  E[X/Y] =  dx =  X/Y
f y (y)

* Esperanza Condicional de Y sobre X:

y.f(x, y)
E[Y / X] =  y.h(y / x)dy  E[Y/X] =  dy =  Y/X
fx (x)

Además:

2 x 2.f(x, y)
* E[X2/y] =  x h(x / y)dx =  dx
f y (y)

y 2.f(x, y)
* E[Y2/x] =  y 2h(y / x)dy =  f (x) dy
x

Teoremas:
Sean X e Y dos variables aleatorias con función de probabilidad conjunta, luego,
se cumple que:

* E { E[Y/X] } = E [Y] =  Y
* E { E[X/Y] } = E [X] = μ X

* E [{g1 (Y) + g2 (Y)} / X] = E [g1 (Y) / X] + E [g2 (Y) / X]


* E [g1 (Y) . g2 (X) / X] = g2 (X) . E [g1 (Y) / X]
* E [g1 (X) . g2 (Y) / Y] = g2 (Y) . E [g1 (X) / Y]
* E{ E[g1(Y) / X] } = E[g1(Y)]
* E{ E[g2(X) / Y] } = E[g2(X)]

-2- Estadística para la Universidad


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

ECUACIÓN DE REGRESIÓN
En una distribución bivariada, a la esperanza matemática condicional de Y dado
X = xi, se le denomina ecuación de regresión de Y sobre X, y se denotada por:

 Y.X = x =  Y/X = x = E[Y / X = x i ]


i i

También se puede decir que la esperanza matemática condicional de X sobre Y =


yi, es la ecuación de regresión de X sobre Y, y se denota por:

 X.Y = y =  X/Y = y = E[X / Y = y i ]


i i

Una Ecuación de Regresión también es llamada CURVA o LÍNEA de Regresión.

VARIANCIA CONDICIONAL
Dadas dos variables aleatorias X e Y definidas sobre un mismo espacio
probabilístico, la variancia condicional de Y dado que X = k, está definida por:

Var[Y/X] = E[(Y/x -  y / x )2 ]

Como sabemos, toda varianza se puede expresar también como:

Var[Y/X] = E[Y2 / X] -  2y / x

Además podemos afirmar que la varianza condicional de X dado que Y = k, estará


dada por:

Var[X/Y] = E[X2/Y] -  2x / y

Estadística para la Universidad -3-


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

Ejercicio # 1:
Suponga que el número de profesionales (X) y el número de técnicos calificados (Y)
de 6 empresas de cierto sector tiene la siguiente función de probabilidad conjunta:

Y
X 5 6 8 10
6 - - 1/6 -
7 2/6 - - -
8 - 1/6 - 1/6
9 - 1/6 - -

Halle el valor de la varianza de X cuando y=6. Rpta. 1/4

Ejercicio # 2:
Suponga que el tiempo (decenas de horas) de evaluación de las fallas de un equipo
eléctrico (X) y el tiempo (decenas de horas) requerido para la reparación de las
fallas, tienen como función de probabilidad conjunta:

f (x,y) = 8xy , si 0 < x < y , 0 < y < 1


= 0 , de otro modo

a) Obtenga la expresión general de: Var [X/y] Rpta. Y2/18


b) Halle el valor de la varianza de X cuando y = 0.6. Rpta. 0.02
c) Halle el valor de: E [E [X / y] ] Rpta. 8/15

-4- Estadística para la Universidad


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

MOMENTOS
Los momentos de una distribución son los valores esperados de las potencias de
las desviaciones de la variable aleatoria con respecto a una constante. Si una
variable aleatoria X tiene como función de probabilidad f(x); entonces:

i. El r-ésimo momento de X con respecto al origen es:

E[X r ] =  x r f (x) , si X es una variable aleatoria discreta


x


E[X r ] =  x r f (x)dx , si X es una variable aleatoria continua
−

ii. El r-ésimo momento de X con respecto a una constante “a” es:

r
E[(x − a)r ] =  ( x − a ) f (x) , si X es una variable aleatoria discreta
x


r r
E[(x − a) ] =  (x − a) f (x)dx , si X es una variable aleatoria continua
−

iii. El r-ésimo momento de X con respecto a su media es:

r
E[(X − )r ] =  ( x −  ) f (x) , si X es una variable aleatoria discreta
x


r r
E[(X − ) ] =  ( x −  ) f (x)dx , si X es una variable aleatoria continua
−

Estadística para la Universidad -5-


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

Aplicaciones de momentos.

* El primer momento de una variable con respecto al origen es su media:


E[X] = x

* El primer momento de una variable con respecto a su media es cero:


E[X − ] = 0

* El segundo momento de una variable con respecto a su media es su variancia:

E[(X −  )2 ] = 2x

* El primer momento mixto de una variable (X, Y) con respecto a sus respectivas
medias es la covarianza:
E[(X −  x )(Y −  y )] = Cov [XY]

* El primer momento mixto con respecto al origen es: E [XY]

* El “pqr” ésimo momento mixto o producto respecto a las constantes “a”, “b” y
“c” es:

E[(X − a)p (Y − b)q (Z − c)r ]

* El “pqr” ésimo momento mixto o producto respecto al origen es:

E[(X)p (Y)q (Z)r ]

* El “pqr” ésimo momento mixto o producto respecto a sus medias es:

E[(X −  x )p (Y −  y )q (Z −  z )r ]

-6- Estadística para la Universidad


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

TABLA DE PROBABILIDAD ACUMULADA DE LA DISTRIBUCIÓN NORMAL


ESTÁNDAR

Estadística para la Universidad -7-


Tema 3 / PC2 / Distribuciones Bivariadas / Estadística II

TABLA DE PROBABILIDAD ACUMULADA DE LA DISTRIBUCIÓN NORMAL


ESTÁNDAR

-8- Estadística para la Universidad

You might also like