Professional Documents
Culture Documents
1
b a
si x 2 (a:b)
0 en otro caso
que es la funcin de denisdad de una variable con distribucin uniforme continua. Observen
que la probabilidad de que su valor caiga en un subintervalo I depende slo de la longitud del
intervalo (no del lugar dnde est este intervalo), es decir, los puntos estn uniformemente
distribuidos en el intervalo.
fX (x) =
La esperanza de una variable aleatoria que se distribuye como uniforme continua es el punto
medio del intervalo, lo que es fcil de ver
Z 1
Z b
b
x
1
x2
b 2 a2
a+b
E (X) ==
xfX (x) dx =
dx =
=
=
:
a
b a 2 a 2 (b a)
2
1
a b
Para calcular la varianza, veamos primero la esperanza de X 2 :
Z b 2
b
x
b 3 a3
1
x3
2
E X
=
dx =
=
a
b a 3 a 3 (b a)
a b
b 3 a3
(a + b)2
a2 + ab + b2 a2 + 2ab + b2
=
3 (b a)
4
3
4
4a2 + 4ab + 4b2 3a2 6ab 3b2
a2 2ab + b2
(a b)2
=
=
=
12
12
12
V ar (X) =
Esta distribucin es la base para cualquier simulacin. Los nmeros aleatorios que se obtinen en calculadoreas y paquetes de computacin, se contruyen tomando como base una
distribucin uniforme continua en el intervalo [0; 1)
Distribucin Normal
Esta es la distribucin absolutamente continua estrellita, pues juega un papel muy importante
en la teora matemtica de la Probabilidad. Veamos primero cmo construirla y despus
hablamos un poco de su trascendencia.
Abraham de Moivre observ que si en una distribucin Binomial se hace tender el nmero de
pruebas a innito, dejando ja la probabilidad de xito p en cada una de ellas, la distribucin
tiende a tomar la forma de una campana de Gauss.
<Faltan grcas>
No importa qu tan asimtrica sea la distribucin binomial para un nmero pequeo de
pruebas, al hacer crecer n; siempre se va pareciendo a una campana completamente simtrica.
Aos despus, Laplace complet y redonde el trabajo de De Moivre. Antes de hablar del
importante resultado al que llegaron estos dos matmaticos en relacin al proceso de lmite
mencionado, veamos primero cmo es una funcin de densidad absolutamente continua que
tiene forma de camapana de Gauss.
2
Una funcin (no densidad) cuya grca toma esa forma es h (z) = e z : Ms generalemnte,
2
toda funcin de la forma h (z) = e kz tiene forma de campana de Gauss. Para simplicar
2
los clculo siguientes, tomaremos especcamente la funcin h (z) = e z =2 : Cmo hacerla
densidad? Obsrvese que se trata de una funcin cuyas imgenes son positivas, pero su
integral es diferente de 1. Si la integral en todo R de esta funcin es la constante A; entonces
2
la funcin (z) = A1 e z =2 tendr integral 1 y, por tanto, ser una funcin de densidad.
Veamos entonces cul es la integral de h: El nico problemita es que dicha integral no se
puede obtner por mtodos elementales de integracin as que vamos a tener que usar una
integral en R . los que no hayan visto integracin en Rn tendrn que creerme lo que sigue.
Z
z 2 =2
dz
1
1
x2 =2
dx
x2 =2
y 2 =2
dxdy
y 2 =2
dy
Y tenemos que
1<x<1
0<r<1
()
1<y<1
<2
Para hacer el cambio de variable, necesitamos multiplicar por el Jacobiano de la transformacin, mismo que se dene como
@ (x; y)
=
@ (r; )
@x
@r
@y
@r
@x
@
@y
@
cos
sen
r sen
r cos
=r
As obtenemos que
Z
z 2 =2
dz
1
1
2 Z 1
2
2
2
e (x +y )=2 dxdy
re
r2 =2
r 2 =2
drd
ir=1
r=0
d =2 :
Por lo tanto
z 2 =2
dz =
1
(z) = p e
2
z 2 =2
1 < z < 1;
es una funcin p
de densidad que tiene la forma deseada. Esta es una campana de Gauss que
tiene altura 1= 2 y eje de simetra en el eje Y a la que llamaremos Normal estndar o
Normal de parmetros 0 y 1. Su funcin de distribucin es
Z z
1
2
(z) = p
e z =2 dz
2
1
Pero hay toda una familia de variables cuya grca es una campana de Gauss con distintas
alturas y distintos ejes de simetra. Todas estas variables aleatorias se obtienen multiplicando
una normal estndar por alguna constante y sumndo otra constante.
Sea Z una variable que se distribuye como normal estndar. veamos cmo se distribuye
X = + Z donde es cualquier real y > 0. Empecemos calculando su funcin de
distribucin
FX (x) = P (X
= P
x) = P ( + Z x)
x
x
=
:
Derivando, obtenemos
fX (x) = FX0 (y) =
1
= p e
2
(x
)2
2 2
Una variable aleatoria que tiene esta funcin de densidad se conoce como Normal de parmetros y 2 : Observen que cuando = 0 y = 1 estamos en el caso de la normal estndar.
0.5
0.4
0.3
0.2
0.1
-7
-6
-5
-4
-3
-2
-1
y
0.8
0.6
0.4
0.2
-5
-4
-3
-2
-1
mX (t) = E e
et
p
t(X
=e E e
Z
(x
et
= p
)2 +2 2 t(x
2 2
et(x
(x
)2
2 2
dx
dx
)2
2 2 t (x
2
=
=
=
=
)2
(x
2 2 t (x
)+
2
2
2 2
4 2
t)
t
(x
2
2
2
(x
2
t)
2
2
(x
4 2
t)
2 2
t
2
2 2
De donde, la funcin generadora nos queda en la forma
2
Z
2 2
(x ( + 2 t))
et e( t )=2 1
2 2
p
mX (t) =
e
dx
2
1
Como
2
Z 1
(x ( + 2 t))
1
2 2
p
e
dx = 1
2
1
por tratarse de una funcin de densidad, llegamos nalmente a
mX (t) = e
5
t+
2 t2
2
4 2
4 2
Derivando, obteneomos
E (X) =
dmX (t)
dt
2 t2
2
t+
t e
=
t=0
t=0
d2 mX (t)
dt2
t+
2 t2
2
t+
2 t2
2
t=0
t=0
De donde,
var (X) =
1
2
(z) = p e z =2
2 Z
z
1
(z) = p
e
2
1
1 < z < 1;
y 2 =2
1 < z < 1;
dx
N (0; 1) :
Pero no es la nica forma en que se puede tener una grca tipo campana de Gauss, sino que
hay toda una familia de variables con esta caracterstica. Una normal general tien funciones
Densidad:
Distribucin:
(x
)2
1
fX (x) = p e 2 2
2
Z x
1
FX (x) = p
e
2
1
1 < x < 1;
(x
)2
2 2
dx
1 < x < 1;
Pero esta integral en general, no es fcil de calcular. Por eso, hay tablas donde se tabulan
los valores aproximados, slo que no podra haber tablas para cada pareja de valores y ;
As que nada ms hay tablas para la Normal estndar.que, adems aprovechan la simetra
de la campana de Gauss. Pro ya vimos que si X N ( ; 2 ) ; entonces X = + Z donde
Z N (0; 1) ; es decir, Z = (X
)=
N (0; 1) :
Ejemplo 1 Sea Z una variable aleatoria que se distribuye como Normal estndar. Calculemos las probabilidades siguientes usando las tablas:
1. P (Z
2:03) = 97:88
2. P (Z
1:69) = 1
3. P ( 0:62
0:9545 = 0:0455
1:98) = 0:9761
0:2676 = 0:708 5
Ejemplo 2 Sea X una variable que se distribuye como N ormal con media
varianza 2 = 16: Calculemos las siguientes probabilidades
1. P (X
102) = P
2. P (X > 96) = P
X 100
4
X 100
4
102 100
4
>
96 100
4
= P (Z
0:5) = 0:6915
= P (Z >
X 100
4
97 100
4
<
= 100 y
1) = 1
105 100
4
0:1587 = 0:841 3
= P ( 0:75
Ejemplo 3 La resistencia a romperse de cierto tipo de algodn (en kilos), es una variable
aleatoria que se distribuye como Normal N (165; 9) : Si una muestra tiene resistencia X <
162; se considera defectuosa. Cul es la probabilidad de que una muestra tomada al azar
sea defectuosa?
Buscamos entonces P (X < 162)
P (X < 162) = P
165
3
= P (Z <
<
162
165
3
P (X
1) = 1
1) = 1
0:8413 = 0:1587
Ejemplo 4 Sea X una variable que se distribuye como Normal con media
4: Encontrar c tal que P (X > c) = 2P (X c) :
P (X > c) = P
Z>
P (X
c) = P
3
2
3
2
=1
=
3
2
3
2
= 3 y varianza
3
2
3
2
= 2
3
2
1
= 0:3333
3
Noten que c 2 3 debe ser negativo porque la funcin de distribucin evaluada ah es menor que
0.5 De hecho, es el negativo de un punto y en el que ocurra que P (Z > y) = 0:3333
c
3
2
0:43 ) c = 2:14
Teorema de De Moivre-Laplace
Recordarn que la Esperanza de una Binomial es np y su varianza es npq: Lo que De Moivre
y Laplace demostraron es que cuando se hace tender n a innito, la Distribucin Binomia
tiende a una Normal con media np y varianza npq: Vemos el Teorema.
Teorema 5 Teorema local de De Moivre Laplace. Si Xn se distribuye como binomial
de parmetros n y p y x es un entero no negativo, x n; entonces
(
)
1
(x np)2
1
p exp
P (X = x) p
npq 2
2npq
Es decir, que P (X = x)
= np y 2 = npq:
Ejemplo 6 Sea X una variable que se distribuye como Binomial con parmetros n = 50 y
p = 1=4: En este caso, np = 25
y npq = 75
: de acuerdo al resultado anterior
2
8
P (X = x) =
2
5
50
x
r
1
4
1
exp
3
3
4
50 x
4
75
25
2
Para ver qu tan buena es la aproximacin, tomemos algunos valores particulares. Para
x = 2; tenemos:
P (X = 2) =
P (X = 2)
50
(0:25)2 (0:75)48 = 7:7083 10 5
2
(
)
r
2
2 1
4
25
exp
2
= 3:6414
5 3
75
2
10
= 3:6414 10 4 7:7083 10
2:870677 10 4
=
= 3:724
7:7083 10 5
8
= 2:87067
10
0:000287
50
(0:25)10 (0:75)40 = 0:098518
10
(
)
r
2
2 1
4
25
exp
10
= 0:09336
5 3
75
2
P (X = 10) =
P (X = 10)
En este caso, los errores son:
Error absolt
Error relat
10
0:00516
As que, en el primer caso el error absoluto es menor, pero el relativo mucho mayor que
en el segundo, es decir, una nornal no brinda el mismo tipo de aproximacin para todos los
posibles valores de X:
Teorema 7 Teorema integral de de Moivre Laplace. Sean a y b nmeros reales, a < b;
y n un natural. Si Xn se distribuye como binomial con parmetros n y p 2 (0; 1) ; entonces
lim P
n!1
Xn
a< p
np
<b
npq
1
=p
2
z 2 =2
dz
P
= 1
As que buscamos
np
500
X np
> p
=P Z> p
p
npq
npq
475
500
p
= 0:01
P Z
475
tal que
P
a 500
p
475
a 500
= 0:99 ) p
475
2:33
De donde
550:78: De manera que si asegura que en 10,000 focos no habr ms de 551
defectuosos, en promedio, tendr que pagar a lo ms el 1% de los envos.
Distribucin exponencial
Recordemos que la distribucin (discreta) Poisson est dada por
x
1
x!
fX (x) = P (X = x) =
si x 2 f0; 1; 2; : : : g
en otro caso
e
0
Vimos que esta distribucin sirve para modelar el nmero de ocurrencias de un evento en
una unidad de tiempo y construimos un variable aleatoria Nt = el nmero de ocurrencias en
el intervalo [0; t) : Bajo ciertas condiciones, Nt se distribuye como una Poisson con parmetro
t; donde es el promedio de ocurrencias por unidad de tiempo. Estas condiciones se pueden
resumir en:
a) Empezamos a contar en cero: N0 = 0:
b) El nmero de ocurrencias en un intervalo I; depende slo de su longitud.
c) El nmero de ocurrencias en un intervalo es independiente de el nmero de ocurrencias
en intervalos ajenos.
d) Para t pequeo, P (Nt = 1) es positiva y P (Nt
2) es despreciable.
Es una variable aleatoria absolutamente continua, porque el tiempo que transcurre puede
tomar cualquier valor real positivo.Veamos cmo es su funcin de densidad: Empecemos por
la de distribucin:
FX (t) = P (X t) = 1 P (X > t)
El evento [X > t] ocurre si y slo si el evento [Nt = 0] ; es decir, el tiempo hasta la primera
ocurrencia es mayor que t si hasta t no ha habido ninguna ocurrencia.
P (X > t) = P (Nt = 0) = e
e
0
si t 0
en otro caso
e
0
fX (x) =
si x 0
en otro caso
Veamos que se trata de una funcin de densidad. Ntese que sus imgenes son positivas para
cualquier > 0:
Z
Z
1
fX (x) dx =
dx =
x 1
0
= 1:
<Faltan grcas>
Como la geomtrica, la funcin exponencial es desmemoriada:
Proposicin 10 Si X es una variable aleatoria que se distribuye como exponencial con
parmetro > 0; entonces
P (X > t + sjX
t) = P (X > s)
Demostracin.
P (X > t + sjX
t) =
d (t)
dt
=
t=0
t)
t=0
Ejemplo 11 Si el tiempo en aos que funciona un radio de cierta marca tiene distribucin
exponencial con parmetro = 18 ; cul es la probabilidad de que un radio que se compr
usado funcione 8 aos ms?
Sea X el tiempo de duracin del radio. Buscamos
P (X > t + 8jX
t) = P (X > 8) = e
11
=e
= 0:3679
Ejemplo 12 La duracin X de un componente electrnico, es una variable aleatoria exponencial. Hay dos porcesos para su fabricacin. El proceso I brinda una duracin esperada
de 100 hrs y tiene un costo unitario de c pesos. El proceso II brinda una duracin esperada
de 150 horas y el costo unitario es de 2c pesos. Si un componente dura menos de 200 horas,
el productor tiene un prdida que estima en k pesos. Qu proceso de produccin conviene
ms?
La funcin costo para cada proceso es una funcin de la variable aleatoria X (duracin del
mismo). Para el proceso I es
CI (X) =
c
si X > 200
c + k si X 200
CII (X) =
2c
si X > 200
2c + k si X 200
y para el proceso II es
= 100; es decir,
1
:
100
Entonces, el
4=3
+ (2c + k) 1
4=3
=k 1
4=3
+ 2c
E (CI (X)) = k 1
= c+k e
4=3
2
+ 2c
e
4=3
k 1
c
+c
0:13k
De manera que si c > 0:13k conviene ms el proceso I, si c < 0:13k conviene ms el proceso
II y si se tiene la igualdad, da lo mismo.
Ejemplo 13 Sean T1 y T2 variables aleatorias independientes ambas con distribucin exponencial de parmetros 1 y 2 respectivamente. Cmo se distribuye T = min fT1 ; T2 g? Para
verlo, calculemos
P (T > t) = P (min fT1 ; T2 g > t) = P (T1 > t; T2 > t)
= P (T1 > t) P (T2 > t) = e 1 t e 2 t = e ( 1 +
Es decir, T = min fT1 ; T2 g se distribuye como exponencial con parmetro
12
2 )t
2:
Distribucin gama
Hay todava otra sitribucin que involucra a la funcin exponencial. Esta es una extensin
de la anterior. En las mismas condiciones de la distribucin exponencial, sea X la variable
aleatoria que indica el tiempo desde t = 0 hasta la r sima ocurrencia del evento. Veamos
cmo es su funcin de distribucin
FX (t) = P (X
t) = 1
P (X > t)
Obsrvese que el evento [X > t] ocurre si en el intervalo [0; t] hay menos de r ocurrencias, es
decir
r 1
r 1
X
X
1
P (X > t) =
P (Nt = k) =
( t)k e t
k!
k=0
k=0
Entonces, la funcin de distribucin de X es
r 1
X
1
( t)k e
k!
k=0
FX (t) = 1
dFX (t)
d
=
dt
dt
d
=
dt
=
=
=
r 1
X
d
dt
k=1
r 1
X
k=1
r 1
X
k=1
=
=
r 1
X
1
e
k!
k=1
1)!
1
( t)k e
k!
1
e
k!
1
e
k!
r 1
X
( t)
k=1
r 1
X
( t)k
( t)
t
1
e
k!
( t)k +
( t)r
(k
r 2
X
1
e
k!
k=1
k=2
r 1
X
1
e
k!
k=1
(r
r 1
X
1
( t)k e
k!
k=1
r 1
X
1
( t)k e
k!
k=0
!
(r
1)!
k ( t)k
1
(k
1)!
1
1)!
e
t
( t)k
( t)k
( t)k
t r r 1
As que, la funcin de densidad de una variable que indica el tiempo transcurrido desde t = 0
hasta la r sima ocurrencia de un evento tipo Poisson, es
fX (x) =
y sus parmetros son
1
(r 1)!
r r 1
x
0
y r:
13
si x 0
en otro caso
x9 e
0:001x
dx
10;000
"
e 0:001x
x9
0:001
1
+
0:001
10;000
x8 e
0:001x
10;000
dx
Z
0:0019
0:0019 1
9
0:001(10;000)
10; 000 e
+
x8 e 0:001x dx
9!
9!
10;000
9
9 Z 1
10 10 0:001
x8 e 0:001x dx
e
+
9!
9!
10;000
"
#
Z 1
9
9
0:001x 1
10 10 0:001
e
1
e
+
x8
+
x7 e 0:001x dx
9!
9!
0:001 10;000 0:001 10;000
Z
109 10 0:0018
0:0018 1
8
10
e
+
10; 000 e
+
x7 e 0:001x dx
9!
9!
9!
10;000
9
8
8 Z 1
10 10 10 10 0:001
e
+
e
+
x7 e 0:001x dx
9!
9!
9!
10;000
10
9!
+ 10 + 1 = 0:45793
2.
P (X > 15; 000)
P (X > 5; 000)
R
0:00110 1
x9 e 0:001x dx
9!
15;000
= 0:00110 R 1
x9 e 0:001x dx
9!
5;000
= 0:07215
La funcin gama tiene grcas de las que suben hasta cierto punto y luego bajan:
14
<Faltan grcas>
La distribucin gama se generaliza al caso en que r no es un natural sino cualquier real (reemplazaremos r por ). Con esta generalizacin se pierde un poco el sentido de la denicin de
la variable aleatoria (tiempo transcurrido hasta la
sima ocurrencia, donde 2 R) pero
se obtiene una distribucin que guarda una relacin importante con la Normal. En la tarea
van a demostrar que si X N (0; 1) ; entonces X 2 Gama ( = 1=2; = 1=2) :
Para hacer esta generalizacin requerimos usar en el denominador una funcin que cuando se
aplique a naturales nos de el factorial que tenemos en la funcin fX (x) = (r 11)! r xr 1 e x :
Hay una funcin as que se encuentra uno en Clculo y que se conoce como la funcin gama,
denida por
Z 1
x 1 e x dx
( ) =
0
Z 1
1
x 1
x 2 e x dx
=
x e 0 +(
1)
0
= (
1) (
Adems
(1) =
1)
e x dx = 1
(r) = (r
Denicin 15 Sean
1)!
fX (x) =
1
( )
donde
( )=
x
0
Z
si x 0
en otro caso
e x dx:
fX (x) dx =
( )
Tomando u = x; es decir, x = u=
Z 1
fX (x) dx =
(
1
(
=
(
dx
y dx = du= ; obtenemos
Z 1
Z 1
1
1
1
u
u e du =
u
) 0
( ) 0
)
=1
)
du
Demostracin.
1
2
1=2
e x dx
Para que el integrando se parezca la funcin ' de una normal estndar, hagamos el cambio
de variable x = 12 u2 ; dx = udu: Obtenemos
1
2
Sabemos que
Por lo tanto,
R1
e
1
u2 =2
du =
u2
2
1=2
u2 =2
p Z
udu = 2
u2 =2
du
p p
p
2 2
=
=
:
2
R1
0
u2 =2
x(
du =
t)
2 =2:
dx
De aqu que
E (X) =
d
dt
=
t=0
16
t)
1
t=0