You are on page 1of 54

Unidad IV

:
Variables Multidimensionales
y Teoremas Límites
Transformaciones de variables
Variables aleatorias multidimensionales
Sumas de variables aleatorias
Variables
bidimensionales
Esperanzas y momentos
Covarianza
Coeficiente de Correlación
Indepen. y Condicionalidad
4.1 Variables bidimensionales
Cuando se está interesado no sólo en el estudio de
una variable aleatoria individual sino que también en
la relación entre dos o más variables aleatorias,
aparecen las variables bidimensionales o n-
dimensionales.
 Dado un experimento, el par (X, Y) se llama
variable aleatoria bidimensional si cada X
i
, i = 1,2
es una variable aleatoria.
El par (X1, X2 ) es conjuntamente continuo si cada
Xi,
i=1,2 es una variable aleatoria continua y es
conjuntamente discreto si cada Xi, es una variable
aleatoria discreta.

Si una variable es discreta y la otra es continua, entonces
(X1, X2) es un vector aleatorio mixto.
 Si el par (X
1
, X
2
) es discreto, entonces su
función de probabilidades es de la forma:
2
2 1 2 2 1 1 2 1
2 1
) , ( ) , ( ) , ( 9 e ¬ = = = x x x X x X P x x p
x x
,
1 ) , ( )
) , ( 0 ) , ( )
)
2
,
1
(
2 1
2 1
2
2 1 2 1
2 1
=
9 e ¬ >
¿
x x
x x
x x
x x p ii
x x x x p i


¿
e
=
A x x
x x
x x p A P
)
2
,
1
(
2 1
2 1
) , ( ) (
Si A _ R
x1x2
entonces la probabilidad del evento A es:
 Las funciones de probabilidades individuales de
las variables X
1
y X
2
se llaman probabilidades
marginales X
1
y X
2
, respectivamente.
¿ ¿
= = = = = =
2
2 1
2 1
2
2 2 1 1 1 1 1
1
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribución marginal de X
1
:
¿ ¿
= = = = = =
1
2 1
2 1
1
2 2 1 1 2 2 2
2
) , ( ) , ( ) ( ) (
x
x x
x
x
x x p x X x X P x X P x p
- Distribución marginal de X
2
:
 Si el par (X
1
, X
2
) es continuo, entonces su función
de densidad de probabilidad debe satisfacer las
siguientes condiciones:
1 ) , ( )
) , ( 0 ) , ( )
2 1 2 1
2 1
2
2 1 2 1
2 1
=
9 e ¬ >
} }
·
·
·
· - -

dx dx x x f ii
x x x x f i
x x
x x
Si A = {(x
1
, x
2
): a
1
< x
1
< b
1
, a
2
< x
2
< b
2
}, entonces:
} }
= < < < < =
1
1
2
2
1 2
2 1
2 1
2 2 2 1 1 1
) , ( ) , ( ) (
b
a
b
a
x x x x
d d x x f b X a b X a P A P
para todo a
1
, a
2
, b
1
, b
2

Densidades marginales para X
1
y X
2

}
·
· ÷
=
2 2 1
2 1
1
1
) , ( ) ( dx x x f x f
x x x
- Densidad marginal para X
1
:
- Densidad marginal de X
2
:
}
·
· ÷
=
1 2 1
2 1
2
2
) , ( ) ( dx x x f x f
x x x
Las función de distribución, F(t
1
,t
2
), para una
variable aleatoria bidimensional (X
1
, X
2
) está dada
por:
2
2 1 2 2 1 1 2 1
) , ( ) , ( ) , ( 9 e ¬ s s = t t t X t X P t t F ,
 Si la función de distribución es continua y la segunda
derivada parcial de F(x
1
,x
2
) existe, la función de densidad
bivariante de (X
1
, X
2
) es:
) , ( ) , (
2 1
2 1
2
2 1
x x F
x x
x x f
c c
c
=
} }
· ÷ · ÷
=
1 2
1 2 2 1 2 1
) , ( ) , (
x x
dt dt t t f x x F
Ejemplo: Consideremos las v.a. bidimensional
(X, Y) con función de probabilidad conjunta

X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1

1.- Calcule la probabilidad conjunta de que:
a) Y no supere a 2 y X supere a 1.
b) Y no supere a X.
2.- Las distribuciones marginales de X e Y.
3.- Las Esperanzas y Varianzas de las v.a. X e Y.
Solución
( ) ( ) ( )
( ) ( ) 4 . 0 3 , 3 2 , 3
3 , 3 2 , 3 2 , 1
= ÷ + =
÷ = = + = = = s >
p p
Y X P Y X P Y X P
1a)
( ) ( )
( ) ( ) ( ) 5 . 0 2 , 3 3 , 3 3 , 1
0
= + ÷ + ÷ =
> ÷ = >
p p p
Y X P Y X P
1b)

x 1 3
p(x) 0.5 0.5


y -3 2 4
P(y) 0.4 0.3 0.3

2)
( ) ( ) ( ) 24 . 9 ) ( ; 6 . 0 y 1 ; 2 = = = = Y V Y E X V X E
3)
Ejemplo: Supongamos que la f.d. conjunta de X e
Y está dada por
( ) 0 , 0 , 2 ,
2
> > =
÷ ÷
y x e e y x f
y x
Determine las marginales.
( )
( )
}
}
·
÷ ÷ ÷
·
÷ ÷ ÷
> = =
> = =
0
2 2
0
2
0 , 2 2
0 , 2
y e dx e e y f
x e dy e e x f
y y x
x y x
Calcular las siguientes probabilidades:
( )
a
a
y x
a
a
a
x
a
e
dydx e e dydx y x f
e dx e dx x f a X P
÷
·
÷ ÷
·
÷ ÷
÷ =
= =
÷ = = = <
} } } }
} }
1
2 ) , (
1 ) (
0 0
2
0 0
0 0
( ) ( ) ( ) Y X P y 1 , 1 ; < < > < Y X P a X P
( )
( )
2 1
1
0
2 1
1
0 1
2
1
2 2 1 , 1
÷ ÷
÷ ÷
·
÷ ÷
÷ =
= = < >
} } }
e e
dy e e dydx e e Y X P
y y x
( ) ( )
3 1 3 2 1 2 2
1 2 2
0
3
0
2
0
2
0 0
2
= ÷ = ÷ =
÷ = = <
} }
} } }
·
÷
·
÷
·
÷ ÷
·
÷ ÷
dy e dy e
dy e e dxdy e e Y X P
y y
y y
y
y x
Ej.: Consideremos las v.a. X e Y, con f.d. conjunta
( )
¹
´
¦
< < < < +
=
caso otro cualquier en 0
1 0 , 1 0
,
y x y x
y x f
Determine la función de distribución de (X,Y)
Obviamente si
( ) 0 , entonces , 0 y 0 = < < y x F y x
( ) ( )
( ) y x xy
dsdt t s y x F y x
y
x
+ =
+ = ¬ < < < <
} }
2
1

, 1 0 , 1 0
0 0
( ) ( )
( ) y x y
dsdt t s y x F y x
y
+ =
+ = ¬ < < >
} }
2
1

, 1 0 , 1
0
1
0
( ) ( )
( ) y x x
dsdt t s y x F y x
x
+ =
+ = ¬ > < <
} }
2
1

, 1 , 1 0
1
0 0
( ) ( ) 1 , 1 , 1
1
0
1
0
= + = ¬ > >
} }
dsdt t s y x F y x
( )
( )
( )
( )
¦
¦
¦
¹
¦
¦
¦
´
¦
> >
> < < +
< < > +
< < < < +
s s
=
1 1 1
1 , 1 0 2 1
1 0 , 1 2 1
1 0 , 1 0 2
0 y ó 0 0
,
,y x
y x x x
y x y y
x x y x xy
x
y x F
4.2 Esperanzas y momentos
Definición: Sea ( ) Y X g , una función real
valuada de las variables aleatorias X e Y.
Entonces la Esperanza de ( ) Y X g , , que
denotaremos por ( ) | | Y X g E , , se define como
( ) | | ( ) ( )
( ) | | ( ) ( )dxdy Y X f Y X g Y X g E
Y X p Y X g Y X g E
} }
=
¿¿
=
·
· ÷
·
· ÷
, , ,
, , ,
 Sea g(X, Y) = X
j
Y
k
, j, k ≥ 0, tenemos E[X
j
Y
k
] llamado momento
conjunto (j, k) de la variable aleatoria bidimensional (X, Y):
0 , ; ] [ > = k j Y X E m
k j
jk

Los momentos conjuntos centrales de X e Y se pueden definir como:
] ) ( ) [(
k
Y
j
X jk
Y X E n µ µ ÷ ÷ =
Utilizando
k
Y
j
X
Y X Y X g ) ( ) ( ) , ( µ µ ÷ ÷ =
 La Covarianza entre las variables X e Y
)] )( [( ) , (
Y X XY
Y X E Y X Cov µ µ o ÷ ÷ = =
 La Correlación o Coeficiente de Correlación entre
las variables X e Y
X X
XY
XY
o o
o
µ =
Se puede probar que es invariante por traslaciones
de ejes; esto es,
XY
µ
XY d cY b aX
µ µ =
+ + ) , (
1 s
XY
µ

X\Y -3 2 4
1 0.1 0.2 0.2
3 0.3 0.1 0.1

( ) ( )
( ) 24 . 9 ) ( ; 6 . 0
1 ; 2
= =
= =
Y V Y E
X V X E
| | ( )
( )( ) ( )( ) ( )( )
( )( ) ( )( ) ( )( ) 0 1 . 0 4 3 1 . 0 2 3 3 . 0 3 3
2 . 0 4 1 2 . 0 2 1 1 . 0 3 1
,
= + + ÷ =
+ + + ÷ =
=
¿¿
y x xyp XY E
| | 2 . 1 ) , ( ÷ = ÷ =
Y X
XY E Y X Cov µ µ
( )
( )( )
394 . 0
04 . 3 1
2 . 1 ,
=
÷
= =
Y X
XY
Y X Cov
o o
µ
4.3 Independencia y Condicionalidad
 Dada una variable aleatoria bidimensional (X
1
, X
2
) con función de
distribución F(x
1
, x
2
) y marginales Fx
1
(x
1
) y Fx
2
(x
2
), diremos que X
1
y
X
2
son independientes si:
) ( ) ( ) , (
2
2
1
1
2 1
x F x F x x F
x x
=
) ( ) ( ) , (
2
2
1
1
2 1
x f x f x x f
x x
=
y
Teorema 4.3 Sean X
1
y X
2
variables aleatorias
independientes. Si Y
1
=G(X
1
) e Y
2
=H(X
2
) son funciones
monótonas de X
1
y X
2
, respectivamente, entonces Y
1
e Y
2
son
variables aleatorias independientes.
Teorema 4.4 Sean X
1
y X
2
variables aleatorias independientes. Si
G(X
1
) y H(X
2
) son sólo funciones de X
1
y X
2
, respectivamente,
entonces:
)] ( [ )] ( [ )] ( ) ( [
2 1 2 1
X H E X G E X H X G E · =
Teorema 4.5 Si X
1
y X
2
son variables independientes, entonces
0
2 1 2 1
= =
X X X X
µ o
 Sea (X
1
, X
2
) una variable aleatoria bidimensional. Entonces:
a) Si (X
1
,X
2
) es conjuntamente discreta, definimos la función de
probabilidad condicional de X
2
dada X
1
=x
1

0 ) (
) (
) , (
) / ( ) / (
1
1
1
1
2 1
1 2 1 2
1
/
2
> = = x p
x p
x x p
x x p x x p
x
x
x x
si ;
y es cero en otro caso
b) Si (X
1
,X
2
) es una variable aleatoria continua, definimos la función
de densidad condicional de X
2
dada X
1
=x
1

0 ) (
) (
) , (
) / ( ) / (
1
1
1
1
2 1
1 2 1 2
1
/
2
> = = x f
x f
x x f
x x f x x f
x
x
x x
si ;
y es cero en otro caso
Análogamente, se pueden definir las distribuciones condicionales de
X
1
dada X
2
=x
2
.
• Si X
1
y X
2
son variables aleatorias independientes
) ( ] / [
1 2 2 1
X E x X X E = =
cuando la esperanza de X
1
existe.
 La media y varianza condicional para una variable
bidimensional continua (X
1
, X
2
).
2
1 1 2 1 1
2
2 1 1 2
]) / [ ( ) / ( ) / ( x X X E x X X E x X X Var = ÷ = = =
}
·
· ÷
= =
2 1 2 1 1 2
) (
2
] / [ dx x x f x x X X E
( )
¹
´
¦
÷ ÷ =
=
caso otro cualquier en 0
2 , 1 , 1 , 2 si 4 1
1
1
1
x
x p
X
Ejemplo: Consideremos la v.a.d. X1 con f.de p.
es y de conjunta p. f.de la Entonces .
2 1
2
1 2
X X X X = Y definamos
( )
( ) ( ) ( ) ( ) ( )
¹
´
¦
÷ ÷ =
=
caso otro cualquier en 0
4 , 2 , 1 , 1 , 1 , 1 , 4 , 2 , si 4 1
,
2 1
2 1
x x
x x p
| | 0
4
8
4
1
4
1
4
8
2 1
= + + ÷
÷
= X X E
| | ( )
es. dependient claramente
son y variables las embargo, Sin . 0
luego y 0 , entonces , 0 como y
2 1
2 1
X
2 1 1
X X
X X Cov X E
X
=
= =
µ
4.4 Transformaciones de variables
 Considerando una variable aleatoria bidimensional (X
1
, X
2
) con
densidad f
x1x2
(x
1
, x
2
) y sea:
)) , ( ), , ( ( ) , (
2 1 2 2 1 1 2 1
X X G X X G Y Y =
una transformación continua y biunívoca.
 Suponiendo que G
1
y G
2
admiten derivadas parciales continuas y
considerando una región A del plano x
1
x
2
tal que el Jacobiano de la
transformación es distinto de cero, entonces, en todos los puntos
de A existe la transformación inversa de (Y
1
,Y
2
)
)) , ( ), , ( ( ) , (
2 1 2 2 1 1 2 1
Y Y H Y Y H X X =
la cual es continua y uniforme en una región B del plano y
1
y
2.

Ejemplo
Consideremos las variables aleatorias X
1
y X
2
con función de
densidad conjunta f(x
1
,x
2
) = e
-(x1+x2)
, x
1
> 0, x
2
> 0.
Determinemos la función de densidad de Y = X
1
/(X
1
+X
2
).
1
2 1 1
) /(
x z
x x x y
=
+ =
0 ) /(
) , (
) , (
2
2 1 1
2 1
= + =
c
c
= x x x
x x
z y
J
La transformación inversa está dada por:
y yz z x
z x
/ ) (
2
1
÷ =
=
siendo el valor absoluto del Jacobiano de la inversa es:
|J
1
| = |z/y
2
|
Definimos la siguiente transformación:
- La función densidad conjunta de Y y Z es:
1 0 , 0 , ) / ( / ) / ) ( , ( ) , (
/ 2 2
2 1
,
< < > = ÷ =
÷
y z e y z y z y yz z z f z y g
y z
X X Z Y

} }
· ·
÷
= =
0 0
/ 2
,
) / ( ) , ( ) ( dz e y z dz z y g y g
y z
Z Y Y
- La marginal de Y es:
Haciendo el cambio de variable u = z/y se tiene que
}
·
÷
< < = I = =
0
1 0 , 1 ) 2 ( ) ( y du ue y g
u
Y

es decir, Y tiene distribución uniforme en (0,1).
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribución uniforme sobre el intervalo (0,1). Determinemos la
función de densidad de Y = X
1
+X
2
.
1 0 , 1 0 1 ) ( ) ( ) , (
2 1 2
2
1
1
2 1
< < < < = = x x x f x f x x f
X X
si ;
Considerando la transformación uno a uno
2
2 1
x z
x x y
=
+ =
- La transformación inversa está dada por:
z x
z y x
=
÷ =
2
1
siendo su Jacobiano J
1
= 1
Como X
1
y X
2
son variables aleatorias independientes, entonces la
densidad conjunta de X
1
y X
2
es el producto de las marginales
correspondientes; esto es,

- La función densidad conjunta de Y y Z es:
1 , 1 0 , 1 ) , ( ) , (
2 1
,
+ < < < < ÷ = z y z z z z y f z y g
X X Z Y

¹
´
¦
+ < < e
=
casos otros en
si
0
1 ), 1 , 0 ( 1
) , (
,
z y z z
z y g
Z Y
o bien
Para obtener la densidad marginal de Y integramos
separadamente en: y ≤ 0 ; 0 <y < 1 ; 1 <y < 2 e y ≥ 2.
¦
¦
¦
¹
¦
¦
¦
´
¦
>
< < ÷ =
< < =
s
=
}
}
÷
2 0
2 1 2
1 0
0 0
) (
1
1
0
y
y y dz
y y dz
y
y g
y
y
Y
si
si
si
si
Ejemplo
Supongamos que X
1
, X
2
y X
3
son variables aleatorias independientes,
cada una con distribución exponencial de parámetro ì = 1.
Calculemos la función de densidad de Y = (X
1
+X
2
+X
3
)/3.
Considerando la siguiente transformación uno a uno
3 3
2 2
3 2 1 1
3 / ) (
x y
x y
x x x y
=
=
+ + =
0 , 0 , 0 ) , , (
3 2 1
)
3 2 1
(
3 2 1
> > > =
+ + ÷
x x x e x x x f
x x x
,
Como las variables son independientes, la densidad conjunta está dada
por:
- La transformación inversa está dada por:
3 3
2 2
3 2 1 1
3
y x
y x
y y y x
=
=
÷ ÷ =
siendo su Jacobiano J
1
= 3
- La densidad conjunta de Y
1
, Y
2
e Y
3
es:
0 , 0 , 0 3 3 ) , , (
3 2 3 2 1
1
3 2 1
> > > ÷ ÷ =
÷
y y y y y e y y y f
y
;
0 ,
2
27
3 ) (
1
3
1
2
1
1
3
0
2 1
3
0
2 3
1
3
1
1
> = =
÷
÷
÷
} }
y e y dy dy e y f
y
y y y
y
Y

y la densidad marginal de Y
1
= (X
1
+ X
2
+ X
3
)/3
Ejemplo
Sean X
1
y X
2
variables aleatorias independientes, cada una con
distribución Poisson con parámetro común µ. Queremos determinar la
función de probabilidades de Y = X
1
+X
2
.
Definiendo la siguiente transformación uno a uno:
2 2
2 1 1
X Y
X X Y
=
+ =
Cuya transformación inversa es
2 2
2 1 1
Y X
Y Y X
=
÷ =
Como X
1
y X
2
son independientes, entonces la función de
probabilidad conjunta es
,... 1 , 0 ,...; 1 , 0 ,
! !
,... 1 , 0 ,...; 1 , 0 ), ( ) ( ) , (
2 1
2
2
1
1
2 1 2
2
1
1
2 1
= = =
= = =
÷ ÷
x x
x
e
x
e
x x x p x p x x p
x x
X X


µ µ
µ µ
La función de probabilidad conjunta de Y
1
e Y
2
es
2 1
2 1
2 2 1
1
2
2 2 1
2 1
2 1
2 1
) , (
! )! (
) , ( ) , (
Y Y
y
X X Y Y
R y y
y y y
e
y y y p y y p e ¬
÷
= ÷ =
÷

µ
µ
} 0 : ) , {(
1 2 2 1
2 1
y y y y R
Y Y
s s Z × Z e =
+ +
donde
La función de probabilidad de Y
1
= X
1
+X
2

,... 1 , 0
!
) 2 (
! )! (
) (
1
1
1
2 1
0
2
2 2 1
1
2
1
1
= =
÷
=
÷
=
÷
¿
y
y
e
y y y
e
y p
y
y
y
y
Y
,
µ µ
µ µ
Por lo tanto, Y
1
= X
1
+X
2
es una variable aleatoria con distribución
Poisson de parámetro 2µ.
4.5 Variables aleatorias multidimensionales
 X = (X
1
,… X
n
) es un vector aleatorio continuo si cada
una de sus componentes X
i
, i = 1,…,n es una variable
aleatoria continua. Análogamente, diremos que X es
discreto si cada X
i
, i = 1,….,n, es una variable aleatoria
discreta. En cada caso y según corresponda, podemos
asociar a X una función de probabilidades o una función
de densidad de probabilidades, respectivamente.
Si X es discreta, la función de probabilidad asociada es
n
n n n X
x x x X x X P x p 9 e ¬ = = > ) ,..., ( ), ,..., ( ) (
1 1 1

La función de probabilidades para la variable n-dimensional
debe satisfacer las reglas análogas al caso unidimensional:
¿
=
9 e = ¬ >
1 ) ( )
) ,..., ( , 0 ) ( )
1
x p ii
x x x x p i
X
n
n X

Dada p
X
(x), podemos calcular las marginales, haciendo
} , 1 ; : { ), ( ) (
1
n j i j x R x p x p
j
i
R
X i
i
X
= = = =
¿
donde
} , 1 ; : { , ) ( ) , (
1
n k i j k x R x p x x p
k
R
X
j i
j
X
i
X
= = = = =
¿
con
También se puede determinar la función de probabilidades
conjuntas de dos o más componentes, a partir de p
X
(x).
 Las variables aleatorias X
i
, i=1,…,n, son idénticamente
distribuidas si cada una de ellas tiene la misma distribución
de probabilidades.
 Las variables aleatorias X
i
, i=1,…,n son independientes si
y sólo si
discreta nte conjuntame es cuando
continua nte conjuntame es cuando
X x x p x p
X x x f x f
n
n
i
i
i
X X
n
n
i
i
i
X X
, ) ( ) (
, ) ( ) (
1
1
9 e ¬ =
9 e ¬ =
[
[
=
=
Teorema 4.5 Si X
1
,…,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
),…,Y
n
=G
n
(X
n
), son funciones
de X
1
,…,X
n
, respectivamente, entonces Y
1
,…,Y
n
son
variables aleatorias independientes.
Teorema 4.6 Si X
1
,X
2
,…,X
n
son variables aleatorias
independientes y si Y
1
=G
1
(X
1
,…,X
r
), Y
2
=G
2
(X
r+1
,…,X
p
),…,
Y
m
=G
m
(X
k+1
,…,X
n
), donde Y
j
, j=1,…,m son funciones de
subconjuntos mutuamente excluyentes de X
1
,X
2
,…,X
n
.
Entonces Y
1
,Y
2
,…,Y
m
son variables aleatorias
independientes.
4.6 Distribución X
2
, t y F
 La distribución X
2
es un caso especial de la distribución
Gamma. Si consideramos la variable aleatoria Z con
distribución normal estándar, entonces la función de
distribución de U = Z
2
, para todo t ≥ 0 está dada por:
1 ) ( 2 1 ) ( 2 ) ( ) ( ) (
2
÷ u = ÷ = s s ÷ = s = t t F t Z t P t Z P t F
Z U
y su función de densidad
0 , ) 2 ( ) ( ) ( ) (
2 / 2 / 1 2 / 1
> = = =
÷ ÷ ÷
t e t t f t t F
dt
d
t f
t
Z U U
t
Teorema 4.7 Si Z
1
,…,Z
n
son variables aleatorias normales
estándar, independientes, entonces:
¿
=
2
) (
2
n i
Z U _ ón distribuci tiene
Ejemplo
Supongamos que X es una variable aleatoria con función de
densidad
0 ,
4
1
) (
2 /
> =
÷
x xe x f
x
X

entonces la función de densidad de X corresponde a la de una Chi-
cuadrado con 4 grados de libertad.
2 / 4
2 / 1 2 / 4
2 /
2 ) 2 / 4 (
4
1
) (
I
= =
÷ ÷
÷
x
x
X
e x
xe x f
Teorema 4.8 Si X
1
,…,X
n
son variables aleatorias
independientes, cada una con distribución X
2
con v
1
,…,v
n

grados de libertad, respectivamente, entonces:
¿ ¿
= libertad. de grados con cuadrado - Chi ón distribuci tiene
i i
v X Y
Teorema 4.9 Sean X
1
y X
2
variables aleatorias independientes.
2
1
2 1
2
2 1
2
1
1
, ~ ~
v v v v
X v v X X X
÷
> + _ _ _ distribuye se entonces, y Si
 La Distribución t-Student: Sea Z una variable aleatoria
normal estándar, y X una variable que se distribuye Chi-
cuadrado con v grados de libertad. Si Z y X son
independientes, entonces la variable aleatoria T definida por
v X
Z
T
/
=
tiene distribución t-Student con v grados de libertad. La
notación usual es Y ~ t
v
.
Siendo su función de densidad
· < < · ÷
+
·
I
+ I
=
+
t
v t
v v
v
t f
v
T
,
)] / ( 1 [
1
) 2 / (
) 2 / ) 1 ((
) (
2 / ) 1 ( 2
t
 La Distribución F de Snedecor: Sean X
1
y X
2
, variables
aleatorias Chi-cuadrado con v
1
y v
2
grados de libertad,
respectivamente. Si X
1
y X
2
son independientes, la variable
aleatoria
1 2
2 1
2 2
1 1
/
/
v
v
X
X
v X
v X
F = =
Siendo su función de densidad
0 ,
) 1 (
2 2
2
) (
2 / )
2 1
(
2
1 2 1
1
2
1
2
1
2
1 2 1
>
+
|
.
|

\
|
I
|
.
|

\
|
I
|
|
.
|

\
|
|
.
|

\
|
+
I
=
+
|
.
|

\
|
÷
t
t
v
v v v
t
v
v v v
t f
v v
v
v
v
F
El valor esperado de F es:
2
] [
2
2
÷
=
v
v
F E
La varianza de F es:
) 4 ( ) 2 (
]
2
1 [ 2
] [
2
2
2
1
2
2
2
÷ ÷
÷
+
=
v v
v
v
v
F Var
4.7 Sumas de variables aleatorias
 Si X
1
,… X
n
son variables aleatorias independientes e
idénticamente distribuidas, diremos que ellas conforman una
muestra aleatoria.
Teorema 4.10 Sean X
1
,…,X
n
variables aleatorias
independientes e idénticamente distribuidas, con funciones
generadoras de momentos M
X1
(t),…,M
Xn
(t), respectivamente.
Si definimos:
¿
=
=
n
i
i
X Y
1
Entonces la función generadora de momentos de Y es:
n
X Y
t M t M )] ( [ ) ( =
Ejemplo
tenemos que
Supongamos que X
1
,…,X
n
son variables aleatorias Bernoulli
independientes, idénticamente distribuidas, cada una con
parámetro p. Entonces M
xi
(t)=q + pe
t
, i=1,…,n.
Si definimos:
¿
=
=
n
i
i
X Y
1
n t n
X Y
pe q t M t M ) ( )] ( [ ) ( + = =
Ejemplo
Supongamos que X
1
,…,X
n
son variables aleatorias normales
independientes, con medias µ
1
,…,µ
n
y varianzas o
1
2
,…,o
n
2

respectivamente. Entonces
) 2 / exp( ) (
2 2
i i
i
X
t t t M o µ + =
Si definimos
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1
¿
=
=
Entonces tenemos que
) 2 / exp( ) ( ) (
2 2 2
1
i i i i
n
i
i
i
X Y
a t a t ta M t M o µ ¿ + ¿ = =
[
=
Entonces
¿¿ ¿ ¿
< = =
+ = =
j i
j i j i
n
i
i i Y
n
i
i i Y
X X Cov a a a a ) , ( 2 ,
1
2 2 2
1
o o µ µ
Teorema 4.11 Sean X
1
,…,X
n
variables aleatorias con medias
µ
1
,…,µ
n
y varianzas o
1
2
,…,o
n
2

respectivamente. Definiendo
s arbitraria constantes con
i
n
i
i i
a X a Y ,
1
¿
=
=
Teorema 4.12 Sean X
1
,…,X
n
variables aleatorias no
correlacionadas. Si
¿ ¿ ¿
= = =
= = =
n
i
i i
Y
n
i
i i Y
n
i
i i
a a X a Y
1
2 2 2
1 1
, o o µ µ y entonces
Teorema 4.13 Sean X
1
,…,X
n
variables aleatorias
independientes e idénticamente distribuidas, cada una con
media µ y varianza o
2
. Si
2 2
1
, o o µ µ n n X Y
Y Y
n
i
i
= = =
¿
=
y entonces
4.8 Máximos y mínimos
Sean X
1
,…,X
n
, n variables aleatorias independientes e
idénticamente distribuidas con función de distribución F
X
(x). Si
ordenamos las variables aleatorias en forma ascendente de
acuerdo a su magnitud, podemos definir dos funciones de
interés primordial en estadística. Ellas son el máximo y el
mínimo, denotadas por:
}
}
n
n n
X X Mínimo X
X X Máximo X
, , {
, , {
1 ] 1 [
1 ] [


=
=
- La función de distribución acumulada del máximo de n
variables aleatorias independientes e idénticamente distribuidas
es:
n
X
t F t G )) ( ( ) ( =
• Si las variables son continuas, podemos obtener la función
de densidad del máximo.
) ( )) ( (
) (
) (
1
t f t F n
dt
t dG
t g
X
n
X
÷
= =
- La función de distribución acumulada del Mínimo de n
variables aleatorias independientes e idénticamente
distribuidas es:
n
X
t F t H )] ( 1 [ 1 ) ( ÷ ÷ =
• Si las variables son continuas, la función de densidad del
mínimo es:
) ( ))] ( 1 [(
) (
) (
1
t f t F n
dt
t dH
t h
X
n
X
÷
÷ = =
Ejemplo
Supongamos que X
1
,…,X
n
son n variables aleatorias
independientes, cada una con distribución exponencial de
parámetro ì>0. La función de densidad del máximo y
mínimo respectivamente son:
y
0 , ) 1 ( ) (
1
> ÷ =
÷ ÷ ÷
t e e n t g
t n t
si
ì ì
ì
0 , )] 1 ( 1 [( ) (
1
> = ÷ ÷ =
÷ ÷ ÷ ÷
t e n e e n t h
tn t n t
si
ì ì ì
ì ì