Professional Documents
Culture Documents
Martnez
2004
Vectores aleatorios.
Extensin a ms de dos dimensiones
Definicin: Sean X 1 ,..., X k variables aleatorias discretas, la funcin de probabilidad conjunta del vector aleatorio ( X 1 ,..., X k ) se define como:
pX
1 ,..., X k
( x1 ,..., x k ) = P ( X 1 = x1 ,...., X k = x k )
( x1 ,..., x k )
En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones de probabilidad marginal. Por ejemplo, la funcin de probabilidad marginal de X 1 est dada por:
p X ( x1 ) = ... p X ,..., X ( x1 , x 2 ,..., x k ) 1 k 1 x x
2 k
Distribucin multinomial: Es una generalizacin de la distribucin Binomial. Supongamos que se repite n veces en forma independiente una experiencia, que en cada repeticin hay k resultados posibles (k 2), cada uno de los cuales ocurre con probabilidad pi (1 i k) y que estas probabilidades se mantienen constantes en todas las repeticiones. Este experimento se denomina experimento multinomial. Si definimos Xi: nmero de veces que ocurre el resultado i (1 i k)
108
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
la distribucin conjunta de (X1,...,Xk) se denomina distribucin multinomial de parmetros n, p1,...pk . Notacin: (X1,...,Xk) ~ M(n, p1,...pk) La correspondiente funcin de probabilidad conjunta est dada por
si 0 xi n i ,
x
i =1
=n
(1)
en otro caso
En efecto, en primer lugar hay que notar que si x1 + x 2 + ... + x k n , la funcin de probabilidad puntual es cero. Sean ahora 0 xi n, tales que configuraciones que producen x i resultados Ri (1 i k), es
12 11 223 2 1 3
x1 + x 2 + ... + x k = n .
Indicando por Ri (1 i k) cada uno de los k resultados posibles, una de las posibles
(alguno de los xi ' s podra ser 0, en cuyo caso no aparecera ninguno de los correspondientes Ri ). Como hemos supuesto independencia entre las repeticiones, esa configuracin tiene x x x probabilidad p1 1 p 2 2 .... p k k , pero es slo una de las configuraciones posibles que producen x i resultados Ri para 1 i k. Cuntas configuraciones diferentes hay?
xk x ! n n x1 n x1 x 2 (n x1 )! n! ...... = k = x x x3 x k ! 0! 1 2 x k x1! (n x1 )! x 2 ! (n x1 x 2 )!
n! x1 ! x 2 !.... x k !
109
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
3 2 4 1 ( X 1 , X 2 , X 3 , X 4 ) ~ M 12, , , , 10 10 10 10
a) Cul es la probabilidad de que se obtengan 3 bolillas rojas, 5 negras, 4 azules y ninguna blanca?
pX
1, X 2 , X 3 , X 4
(3,5,4,0) =
12! 3 2 4 1 = 0.006 3! 5! 4! 0! 10 10 10 10
3 , entonces 10
2 2 i
12 3 P( X 1 2) = p X 1 (i ) = i =0 i = 0 i 10
7 10
12 i
=0.25
c) Calcular la probabilidad de obtener 3 bolillas rojas y 2 blancas. Como las v.a. que nos interesan son X1 y X4, defino una nueva v.a. Y = X2 + X3. El vector aleatorio (X1 , X4 , Y) tambin tendr distribucin multinomial.
3 1 6 ( X 1 , X 4 , Y ) ~ M 12, , , 10 10 10
y, por lo tanto, la probabilidad pedida ser
12! 3 p X1 , X 4 ,Y (3,2,7) = 3! 2! 7! 10
1 10
6 = 0.06 10
110
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
( X 1 ,..., X k )
fX
1 ,..., X k
1 ,..., X k
A k
f X ,..., X ( x1 ,..., x k ) 0 1 k
( x ,..., x ) 1 k
En forma similar a lo hecho para el caso bidimensional se pueden definir las funciones de densidad marginal. Por ejemplo, la funcin de densidad marginal de X 1 est dada por:
f X 1 ( x1 ) = .... f X
1 ,..., X k
( x1 , x 2 ,..., x k ) dx 2 ....dx k
f X 1 , X 2 ( x1 , x 2 ) = ... f X
1 ,..., X k
( x1 , x 2 ,..., x k ) dx 3 ...dx k
( x1 ,..., x k ) ( x1 ,..., x k )
111
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
Ejemplos: 1) En el caso de la distribucin multinomial, las componentes del vector aleatorio son v.a. con distribucin binomial no independientes y sto que es intuitivo ya que su suma es constante (es igual a n), puede verificarse aplicando la definicin. 2) Sea ( X 1 , X 2 , X 3 ) un vector aleatorio con distribucin uniforme en el prisma de vrtices (0,0,0),(1,0,0),(0,2,0),(1,2,0),(0,0,3),(1,0,3),(0,2,3),(1,2,3), cuyo volumen es igual a 6. Entonces, su funcin de densidad conjunta dada por
1 / 6 f X1 , X 2 , X 3 ( x1 , x 2 , x3 ) = 0
si 0 x 1 1, 0 x 2 2, 0 x3 3 en otro caso
Es inmediato verificar que las componentes del vector son variables aleatorias independientes, ya que
3 2 1 1 dx 2 dx3 = 6 = 1 f X 1 ( x1 ) = 6 6 0 0 0
si x1 [0,1] si x1 [0,1]
3 1 1 1 1 dx1 dx3 = 3 = f X 2 ( x2 ) = 6 2 6 0 0 0
2 1 1 1 1 dx1 dx 2 = 2 = f X 3 ( x3 ) = 6 6 3 0 0 0
entonces,
si x 2 [0,2] si x 2 [0,2]
si x3 [0,3] si x3 [0,3]
f X1 , X 2 , X 3 ( x1 , x 2 , x 3 ) = f X 1 ( x1 ) f X 2 ( x 2 ) f X 3 ( x 3 )
( x1 , x 2 , x 3 )
112
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
Ejemplos: 1) Sean X ~ P() e Y ~ P(), v.a. independientes, y sea V = X + Y. Claramente el recorrido de la v.a. V es el conjunto RV = {0,1,2,....} . Sea k RV ,
P( X + Y = k ) = p XY (i, k i ) = p X (i ) pY ( k i )
i =0 i =0
P( X + Y = k ) =
( + ) k e i e k i e k! = i k i = i =0 i =0 i ! (k i ) ! (k i )! i! k!
k
( + ) k!
( + ) k .
Este resultado se extiende por induccin al caso de n v.a. : si X1,..., Xn son v.a. independientes tales que Xi ~ P(i) para i = 1,...,n, entonces X1 +...+ Xn ~ P(1 + ...+n). 2) Sean X e Y v.a. independientes con distribucin exponencial de parmetro , o sea, sean X ~ E() e Y ~ E() independientes, y sea V = X + Y. La v.a. V toma valores en el intervalo (0,), por lo tanto, si v 0, FV(v)=0. Sea v > 0,
FV (v ) = P ( X + Y v ) = ( x, y ) dx dy =
XY
f ( x ) f ( y ) dx dy
X Y
{( x , y ) / x + y v}
{( x , y ) / x + y v}
P ( X + Y v ) = f X ( x ) f Y ( y ) dx dy = e x e
0 0 0 0
v v y
dx dy =
= e
0
v y v y (v y ) e x dx dy = e y 1 e dy =
113
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
= e
0
dy e v dy = 1 e v e v v
0
f V ( v ) = e v + 2 e v v e v I ( 0 , ) ( v ) = 2 e v v I ( 0 , ) (v )
lo que demuestra que V tiene distribucin Gamma de parmetros (2,). 3) Se puede demostrar que, en general, si X ~ (,) e Y ~ (,) son variables aleatorias independientes, entonces X + Y ~ (+,)
Funcin generadora de momentos de la suma de v.a. independientes: Sean, en principio X e Y dos v.a. independientes, entonces la funcin generadora de la suma X + Y es el producto de las funciones generadoras, es decir
M X +Y (t ) = M X (t ) M Y (t )
En efecto, si por ejemplo X e Y son dos v.a. continuas e independientes,
M X +Y (t ) = E e t ( X +Y ) =
) e
t ( x+ y)
f XY ( x, y ) dx dy = e tx e ty f X ( x) f Y ( y ) dx dy =
= e tx f X ( x) dx e ty f Y ( y ) dy = E e tX E e tY = M X (t) M Y (t)
( ) ( )
como queramos demostrar. Para el caso discreto, se demuestra en forma similar. Es inmediato verificar que si X 1 , X 2 ,..., X n son v.a. independientes,
MX
1+ X 2
+...+ X n (t ) = M X i (t )
i =1
Ejemplos: 1) Demostraremos, usando funciones generadoras de momentos que si X ~ P() e Y ~ P() son v.a. independientes, X + Y ~ P( + ). En efecto,
114
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
M X +Y (t ) = M X (t ) M Y (t ) = e
(et 1) (et 1)
e
=e
( + ) (et 1)
y se obtiene la funcin generadora de momentos de una v.a. Poisson con parmetro ( + ). Recordemos que la funcin generadora de momentos determina la distribucin de la v.a.. 2) Demostraremos ahora, usando funciones generadoras de momentos que si X e Y son v.a. independientes con distribucin exponencial de parmetro , o sea X ~ E() e Y ~ E(), entonces V = X + Y ~ (2,). En efecto,
M X +Y (t ) = M X (t ) M Y (t ) = = t t t
E (a1 X 1 + a 2 X 2 ) = a1 E ( X 1 ) + a 2 E ( X 2 ).
Qu ocurre con la varianza de una combinacin lineal de dos variables aleatorias?
) (
2
= E (a1 ( X 1 1 ) ) + E (a 2 ( X 2 2 ) ) + 2 E [a1 a 2 ( X 1 1 )( X 2 2 )] =
2
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
Dem: En primer lugar, probemos la expresin para la esperanza mediante induccin en n. Como dijimos, ya lo hemos demostrado para n=2, supongamos ahora que la expresin es cierta para n = k y probmosla para n = k + 1.
k +1 k E a i X i = E a i X i + a k +1 X k +1 = E (Y + a k +1 X k +1 ) i =1 i =1
siendo Y =
a X
i =1 i
k k +1 E ai X i = E (Y + a k +1 X k +1 ) = E (Y ) + a k +1 E ( X k +1 ) = E ai X i + a k +1 k +1 i =1 i =1
y, utilizando la hiptesis inductiva
k +1 k k +1 E ai X i = ai i +a k +1 k +1 = ai i i =1 i =1 i =1
n n n n ai i a j j = a a X X = E i j i j j =1 i =1 j =1 i =1
n n n n ( ) a a E X X = i j a i a j i j = i j i =1 j =1 i =1 j =1
= ai a j (E ( X i X j ) i j ) = ai a j cov( X i , X j )
n n n n i =1 j =1 i =1 j =1
Teniendo en cuenta que si i = j , cov( X i , X i ) = V ( X i ) y que cov( X i , X i ) = cov( X j , X i ) , obtenemos el resultado que queramos demostrar.
116
Probabilidades y Estadstica (Computacin) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Martnez
2004
Dem: Resulta inmediatamente del hecho que, por ser las v.a. independientes,
cov( X i , X j ) = 0
i j .
Corolario: Sean X 1 , X 2 ,..., X n v.a. independientes e idnticamente distribuidas (i.i.d.) con E ( X i ) = y V ( X i ) = 2 i = 1,..., n y a1 , a 2 ,..., a n nmeros reales, entonces
n n E ai X i = ai i =1 i =1 n n V a i X i = 2 a i2 i =1 i =1
Dem: Se verifica inmediatamente a partir del corolario anterior. Propiedad: Sean X 1 , X 2 ,..., X n v.a. independientes e idnticamente distribuidas (i.i.d.) con E ( X i ) = y V ( X i ) = 2 i = 1,..., n , entonces a) E
X
i =1
i = n
n V X i = n 2 i =1
n Xi b) E (X ) = E i =1 n
Dem: Ejercicio.
n Xi V(X ) = V i =1 n
2 = n
117