Professional Documents
Culture Documents
ESTADISTICA Y PROBABILIDADES
PROFESOR: MAT. FERNANDO CARRASCO
Variables aleatorias
2.1 Definicin.
Sea, X una funcin, y su espacio muestral (sobre el cual est definida la funcin).
A la funcin
Propiedades:
Lim F(x) = 0
x -
Lim F(x) = 1
x +
La ltima propiedad, establece que F(x) es una funcin creciente, lo cual lo podemos
apreciar en el siguiente esquema:
x1
x2
x3
Xn
p1
p2
p3
pn
A esta funcin
pi, = P(X = xi), se le suele llamar tambin, funcin discreta de
densidad o ley de probabilidad de la variable aleatoria discreta X.
Ley de Bernoulli, Ley Binomial, Ley de Poisson, Ley Geomtrica, Ley Binomial
Negativa, etc.
f(x) = F(x)
De esta relacin se definen las propiedades siguientes:
i)
f ( x)dx 1
ii)
F ( x)
f (t )dt
Esta segunda propiedad coincide con la llamada integral con lmite superior variable
estudiada en clculo
1
La nocin de discreta (y continua), tiene el mismo significado dado en tipos de variables visto al inicio de este
curso
iv)
Segn la forma de esta funcin f(x), surgen los modelos llamados: Ley
Uniforme, Ley Normal, Ley t-student, Ley Chi-Cuadrada, etc..
x1
x2
x3
Xn
p1
p2
p3
pn
k E ( X ) xik pi
k
i 1
E ( X ) xi pi
i 1
V ( X ) ( xi ) 2 pi
2
i 1
Estos Momentos Estadsticos sirven para definir algunas caractersticas de la forma como estn distribuidos los
datos de una variable.
k E ( X ) x k f ( x)dx
k
E ( X ) x f ( x)dx
V ( X ) ( x ) 2 f ( x)dx
2
P(xito)
P(fracaso) = P(F) = q
Teniendo que
= P(E) = p
p+q=1
Para el ejemplo planteado, se tiene un xito si sale la cara marcada con el nmero
cuatro, entonces:
p+q=1
q = 1 - p).
E(X) = p
pq
Retomando nuevamente el ejemplo del lanzamiento del dado, (xito si sale la cara
marcada con el nmero cuatro), el promedio y la varianza de este experimento estn
dados por:
P( X = k) = ?
Vamos a deducir la ley de probabilidad para esta variable aleatoria Binomial (para
las otras leyes de probabilidad, se indicar directamente la ley de probabilidad sin
realizar ninguna demostracin).
Se realizan n experimentos de Bernoulli, de los cuales k son xitos (y por lo tanto
tenemos (n-k) fracasos). Supongamos que ocurri la siguiente serie de k xitos y (nk) fracasos.
Luego la probabilidad de tener k xitos para esta serie, est dada por:
P(B1) = P(E E F F E . E E F E E)
= P(E) P(E) P(F) P(F) P(E) .. P(E) P(E) P(F) P(E) P(E)
= p * p * q
* q * p * .
*p*p* q * p * p
= pk q n-k
Supongamos ahora que, de los n eventos de Bernoulli, los primeros k eventos fueron
xitos, y los restantes (n-k) fracasos. Veamos si cambia la probabilidad, para este
esquema, como puede apreciarse en la siguiente figura:
P(B2) = P(E E E E E . F F F F F)
= P(E) P(E) P(E) P(E) P(E) .. P(F) P(F) P(F) P(F) P(F)
= p * p * p * p * p * .
*q*q* q * q * q
= pk q n-k
Y vemos que la probabilidad no cambia. Sin embargo, no nos interesa solamente las
series B1 y B2, sino todas las combinaciones posibles, ya que queremos la
probabilidad de tener k xitos en n eventos de Bernoulli en cualquier orden que
salgan.
Luego la suma de todas las combinaciones posibles de estas probabilidades nos da
la probabilidad deseada, es decir, se tiene que:
C nk
As tenemos que:
P( X k )
n!
p k q ( nk )
k!(n k )!
n!
k!(n k )!
E(X) = np
V(X) = npq
Ntese que si aplicamos esta ley para n=1, tenemos la ley de Bernoulli.
Veamos unos ejercicios sobre este esquema para aclarar los conceptos vistos.
20!
1 5
P( X 15)
15!(20 15)! 6 6
( 2015)
= 0,000000013
As, podemos apreciar que la probabilidad de que ocurra tal situacin es bastante
improbable.
n= 20 (eventos de Bernoulli)
p = P(E) = 0.8 (probabilidad de acertar en una pregunta cualquiera). Y se
deduce dicho valor por una regla de tres, tomando en cuenta que sin estudiar
tienen una probabilidad de acertar de por lo menos 0.5.
q = 0.2 (complemento de p)
los xitos (en la frmula Binomial es el valor k) son 16, 17, 18, 19 y 20.
Veamos ahora el caso del segundo estudiante (que estuvo de farra), los parmetros
son:
n= 20 (eventos de Bernoulli)
p = P(E) = 0.5 (probabilidad de acertar en una pregunta cualquiera, por
definicin bsica de probabilidad)
q = 0.5 (complemento de p)
los xitos (en la frmula Binomial es el valor k) son 16, 17, 18, 19 y 20.
P( A)
k
M
C C
C
( nk )
( N M )
n
N
M!
( N M )!
k!( M k )! (n k )!( N M n k )!
N!
n!( N n)!
N=20
M=10,
n=2
k=1
(poblacin total)
(N-M=10)
(muestra al azar)
(n-k=1)
10!
(20 10)!
1!(10 1)! (2 1)!(20 10 2 1)!
P( A)
= (10*10)/190 = 0.5263158
20!
2!(20 2)!
As, existe casi un 53% de opciones que ocurra el evento planteado.
El espacio muestral est formado por todas las combinaciones posibles de dos
personas que pueden darse de entre las 20 de la poblacin.
As, del grfico podemos ver, por ejemplo, que el primer hombre puede combinarse
o hacer grupos de dos, con cada una de las 10 mujeres, y con cada uno de los
nueve hombres restantes.
Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son
100, ya que son las combinaciones de cada uno de los 10 hombres con cada una de
las 10 mujeres (10*10).
Pero tambin, por ser tomados al azar, pueden formarse grupos de dos hombres o
dos mujeres. Y, podemos ver que el primer hombre se puede combinar con los otros
nueve hombres, teniendo as 9 grupos; luego el segundo hombre se puede combinar
con los 8 hombres restantes, teniendo 8 grupos posibles ms, y as sucesivamente,
hasta llegar al penltimo que forma un grupo ms con el ltimo.
Se tiene que los grupos posibles de 2 hombres son: 9+8+7+6+5+4+3+2+1=45. Y
como se tiene igual nmero de mujeres, tenemos tambin 45 posibles grupos de 2
mujeres.
Luego el espacio muestral est formado por un conjunto de 190 elementos (grupos
posibles de 2 personas), de los cuales, 100 estn compuestos por 1 hombre y una
mujer, 45 estn formados por 2 hombres, y 45 estn formados por 2 mujeres.
Por definicin de probabilidad, tenemos que 100 elementos (de los 190 posibles),
cumplen la condicin (grupos de 2 personas formado por un hombre y una mujer).
Por lo tanto P(A) = 100/190 = 0.5263158, obteniendo el mismo resultado.
10!
(20 10)!
3!(10 3)! (7 3)!(20 10 7 3)!
P( A)
= 120*210 / 77520 = 0.325
20!
7!(20 7)!
Luego, un esquema o sistema que cumpla con estas tres condiciones, se dice o se
llama proceso fsico de Poisson4.
Veamos, por ejemplo, la llegada de aviones a un aeropuerto.
El aeropuerto viene a ser el sistema, los aviones son los elementos que arriban al
sistema. Muchos elementos pueden ser independientes entre s (si son de
compaas areas diferentes, por ejemplo), sin embargo, los aviones no llegan en
forma aleatoria, debido a que tienen horarios establecidos, y por lo tanto, este
esquema o sistema, no es un proceso de Poisson.
Analicemos ahora el caso de los carros que llegan a una determinada esquina de la
cuidad. La esquina con los semforos es el sistema, y los carros son los elementos
que arriban a la esquina (sistema), donde son atendidos y continan.
Los carros, en general, llegan o pasan por el lugar en forma aleatoria, son
independientes entre s, y tambin, en general, los tiempos entre arribos podemos
decir que son aleatorios, y por lo tanto, puede establecerse que este es un proceso
de Poisson.
4
Suele decirse que esta ley sirve para modelar eventos raros.
Pero como se modela una situacin como sta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir de manera continua.
Para modelar estos eventos, se establece un cierto intervalo de tiempo para el
anlisis, por ejemplo, un minuto, o una hora, etc., y se plantea cul ser la
probabilidad de que al sistema arriben k elementos (en el intervalo de tiempo
acordado para el anlisis)?
Sea X, la variable aleatoria discreta que representa el nmero de elementos que
arriban al sistema durante el intervalo de tiempo establecido, se define la Ley de
Poisson de probabilidades por:
P( X k )
k e
k!
Donde,
Los valores que puede tomar la variable aleatoria, tericamente van desde cero
hasta el infinito, es decir, k = 0,1,2,3,.....
Una de las cosas interesantes que podemos notar en estos procesos de Poisson es
que los elementos pueden forman colas (si el tiempo de atencin en el sistema
tarda), como es el caso tpico al ir a un Banco, a un centro comercial, una llamada
en espera, el trfico vehicular, etc.
As, con este modelo, puede estudiarse lo que suele denominarse teora de colas.
El valor esperado y la varianza de una variable aleatoria poisson estn dados por:
E(X) =
V(X) =
1
, si a x b
f ( x) (b a)
0,
en el resto
Grficamente, la ley uniforme, se ilustra a continuacin:
E(X) = (a + b)/2
V(X) = (b a)2 / 12
=aleatorio().
Los nmeros aleatorios tienen un sinnmero de aplicaciones, sirviendo para generar otras variables aleatorias,
o para aplicaciones en estudios por muestreo.
1
f ( x)
e
2
( x )2
2 2
E(X) =
V(X) = 2
Es decir que para utilizar esta ley necesitamos de dos parmetros, la media y la
varianza. Grficamente, esta ley tiene la forma de una campana:
En una distribucin normal, se tiene que al recorrer una desviacin estndar hacia la
izquierda y derecha del promedio (esperanza matemtica), se tiene
aproximadamente el 68% de toda la informacin. Entre dos desviaciones estndar
queda el 95% de toda la informacin, mientras que entre tres desviaciones estndar
se tiene el 99% de toda la poblacin.
Siendo:
La variable aleatoria Z
(X )
1
f ( x)
e
2
ley
x2
2