Professional Documents
Culture Documents
Dist Extra
Dist Extra
Funciones de Distribución
Definición
Una variable aleatoria (v.a.) X es una función que toma valores en S (el
espacio muestral de algún experimento de interés) y los manda a R (o un
subconjunto de R).
¿Pero por qué son importantes las variables aleatorias? Primero, porque es más fácil trabajar en R que en
cualquier espacio muestral S y segundo, generalmente cuando se realiza un experimento, no nos interesan todos
los detalles del mismo sino sólo los valores de algunas cantidades numéricas determinadas por estos resultados.
Ası́, las variables aleatorias medirán o modelarán estas cantidades de interés.
1
4.2. FUNCIÓN DE DISTRIBUCIÓN DE UNA VARIABLE ALEATORIA Carlos Erwin Rodrı́guez
Definición
Entonces para v.a. discretas la función de distribución se puede expresar de la siguiente forma:
Definición
Es importante notar que esta función esta definida para toda x ∈ R, además, caracteriza por completo las
probabilidades de una v.a., por lo cual existen tablas y paquetes estadı́sticos para calcularla.
Un comentario muy importante es que en general para v.a. discretas PX (X < x) 6= PX (X ≤ x), entonces para
calcular PX (X < x) lo haremos mediante PX (X < x) = PX (X ≤ x) − PX (X = x), otro cálculo importante es
PX (a < X ≤ b) = FX (b) − FX (a) y para hacer PX (a ≤ X ≤ b) = FX (b) − FX (a) + PX (X = a) etc.
Definición
∂ FX (x)
Entonces por el Teorema Fundamental del Cálculo = fX (x)
∂x
De forma general se tiene que: Z
PX (X ∈ B) = fX (t)dt (4.1)
B
2
4.4. VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS Carlos Erwin Rodrı́guez
Z x
Entonces de 4.1 se sigue que PX (X = x) = fX (t)dt = 0. Como consecuencia inmediata si X es una v.a.
x
continua y a ≤ b tenemos que:
Z b
fX (t)dt = PX (a < X < b)
a
= PX (a < X ≤ b) = PX (a ≤ X < b)
= PX (a ≤ X ≤ b) = FX (b) − FX (a)
Definición
Existen dos requerimientos para que una función pueda considerarse fdp o fmp, los cuales son consecuencia
inmediata de los axiomas de Kolmogorov:
Teorema 1 Una función fX (x) es fdp (o fmp) de una v.a. X, si y sólo si:
fX (x) ≥ 0 ∀ x ∈ R.
X Z ∞
fX (x) = 1 (fmp) ó fX (x)dx = 1 (fdp)
x −∞
En lo subsecuente para indicar que la v.a. X sigue cierta distribución FX (x), lo haremos de las siguientes formas
X ∼ fX (x), X ∼ FX (x) ó X ∼ nombre de la v.a. y parámetros.
Al inicio de este capı́tulo mediante un ejemplo muy sencillo describimos cómo a partir de un experimento
sencillo, lanzar tres monedas, se genera una v.a. y cómo las probabilidades de que la v.a. tome ciertos valores
son inducidas por aquellas del experimento original. Este ejemplo sirvió de motivación, sin embargo se hizo
informalmente. A continuación, con el mismo ejemplo mostraremos cómo se hace de manera formal. Nuestro
espacio muestral era
Y definimos X como la v.a. que cuenta el número de soles, supongamos que queremos calcular PX (X = 1)
Los ω’s son los elementos de S y X es la v.a. que cuenta el número de soles en cada elemento de S. Aquı́ se
puede apreciar claramente que la v.a. X es una función que va de S a R y además que PX es una probabilidad
inducida por P . Ahora calculemos PX (X ≤ 2)
3
4.5. VARIABLES ALEATORIAS DISTRIBUIDAS CONJUNTAMENTE Carlos Erwin Rodrı́guez
Muchas veces es importante saber qué significa cada cosa, lo que el ejemplo anterior nos enseña es que el cuando
calculamos PX (X = x), el conjunto {X = x} en realidad es {ω ∈ S : X(ω) = x} ∈ S, sin embargo por economı́a
sólo se escribe {X = x}. Lo mismo sucede con PX (X ≤ x), pero ya debe tenerse la idea de cómo leer al conjunto
{X ≤ x}.
Para especificar la relación entre dos v.a. con continuas necesitamos una función fX,Y (x, y) definida para todo
(x, y) ∈ R2 con la propiedad de que para cualquer conjunto C ∈ R2
Z Z
PX,Y ((X, Y ) ∈ C) = fX,Y (x, y)dxdy
{(x,y)∈C}
Un conocimiento de la función de distribución conjunta permite, por lo menos en teorı́a, calcular la probabilidad
de cualquier afirmación relacionada con los valores de X y Y . Y de hecho a partir de la densidad conjunta de
X y Y podemos obtener las densidades marginales.
Z x Z ∞
FX (x) = PX (X ≤ x) = PX,Y (X ≤ x, Y ∈ (−∞, ∞)) = fX,Y (t1 , y)dt1 dy
−∞ −∞
La segunda igualdad se debe a que
{X ≤ x} = {ω ∈ S : X(ω ≤ x)}
= {ω ∈ S : X(ω ≤ x)} ∩ S
= {ω ∈ S : X(ω ≤ x)} ∩ {ω ∈ S : Y (ω) ∈ (−∞, ∞)}
= {X ≤ x} ∩ {Y ∈ (−∞, ∞)}
∂FX (x)
Anteriormente vimos que fX (x) = , de donde se sigue que
∂x
Z ∞
fX (x) = fX,Y (x, y)dy
−∞
Entonces si conocemos la fdp conjunta de X y Y , también conocemos sus densidades marginales fX (x) y fY (y),
sin embargo si conocemos las marginales no necesariamente conocemos la conjunta, excepto cuando las v.a. son
independientes, este será un supuesto muy importante en inferencia estadı́stica y lo definiremos a continuación,
pero antes tenemos que decir que cualquier fdp conjunta debe cumplir dos cosas
1. fX,Y (x, y) ≥ 0 ∀(x, y) ∈ R2
Z ∞Z ∞
2. fX,Y (x, y)dxdy = 1
−∞ −∞
4
4.6. VARIABLES ALEATORIAS INDEPENDIENTES Carlos Erwin Rodrı́guez
PX,Y (X ∈ A, Y ∈ B) = PX (X ∈ A)PY (Y ∈ B)
Esto lleva a que X y Y son independientes si FX,Y (x, y) = PX,Y (X ≤ x, Y ≤ y) = PX (X ≤ x)PY (Y ≤ y) =
FX (x)FY (y) y esto a su vez conduce a que fX,Y (x, y) = fX (x)fY (y). En este curso vamos a trabajar casi todo
el tiempo con una n v.a. independientes, entonces de forma general tendremos que
n
Y
fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = fX1 (x1 )fX2 (x2 ) . . . fXn (xn ) = fXi (xi )
i=1
Definición
Por ejemplo si quisiéramos calcular E(X), sólo tenemos que tomar g(X) = X. Directamente de la definición de
esperanza se desprende el siguiente
E(aX + b) = aE(X) + b
El corolario 1 facilita el cálculo de la esperanza de muchas variables aleatorias. Sin embargo, además de la
esperanza de una v.a. X, también necesitamos una medida de su dispersión.
Definición
La varianza nos da una medida del grado de dispersión de una distribución alrededor de su media. En la mayorı́a
de los casos calcular la esperanza vı́a la definición suele ser complicado, sin embargo se puede probar que
Corolario 2
V ar(X) = E(X 2 ) − E(X)2
5
4.7. ESPERANZA Y VARIANZA Carlos Erwin Rodrı́guez
V ar(aX + b) = a2 V ar(X)
En esta parte vamos a dar algunos resultados acerca de las esperanzas y varianzas de sumas de v.a.
Si tenemos dos v.a. X y Y y queremos calcular E[g(X, Y )], en donde g(X, Y ) es cualquier función de X y Y ,
necesitaremos la siguiente
Definición
XX
g(x, y)PX,Y (X = x, Y = y) si X y Y son discretas
x yZ
E[g(X, Y )] = Z ∞ ∞
g(x, y)fX,Y (x, y)dxdy si X y Y son continuas
−∞ −∞
Una consecuencia inmediata de la definición es que E[X + Y ] = E[X] + E[Y ]. Esto se puede generalizar para
n v.a. de la siguiente forma " n n
#
X X
E Xi = E[Xi ]
i=1 i=1
El siguiente paso es ver cómo se comporta la varianza de sumas de v.a. Para introducir este punto vamos a
calcular V ar[2X].
La covarianza es una medida de asociación entre v.a. de hecho es posible demostrar que si Cov[X, Y ] > 0 si X
crece, entonces Y crece y si Cov[X, Y ] < 0 si X crece, entonces Y decrece.
E[g1 (X1 )g2 (X2 ) · · · gn (Xn )] = E[g1 (X1 )]E[g2 (X2 )] · · · E[gn (Xn )] (4.2)
6
4.8. MOMENTOS Y FUNCIÓN GENERADORA DE MOMENTOS Carlos Erwin Rodrı́guez
Definición
De la definición podemos ver que el primer momento de X es E[X] y que con el segundo momento E[X 2 ]
y el primer momento de X podemos calcular V ar[X]. Los momentos de una v.a. son tan importantes que
estableceremos la siguiente
Definición
mX (t) = E[etX ]
Para saber por qué a esta función se le llama fgm, enunciamos el siguiente
Teorema 3 Si X tiene fgm mX (t), entonces
∂n
E[X n ] = m (t)
X
∂tn
t=0
Esto quiere decir que el n-ésimo momento de la v.a. X es igual a la n-ésima derivada de mX (t) evaluada en
cero.
La importancia de la fgm no se encuentra en el resultado anterior, pues puede ser más fácil calcular el n-ésimo
momento directamente que vı́a la fgm. La importancia de mX (t) se encuentra en el siguiente
Teorema 4 Sean X y Y dos v.a. con funciones de distribución de probabilidad FX (x) y FY (y) cuyos momentos
existen. Si mX (t) = mY (t) para −h < t < h con h > 0, entonces FX (u) = FY (u) para toda u.
Entonces si necesitamos demostrar que dos v.a. X y Y tienen la misma distribución, una forma de proceder serı́a
la de encontrar directamente FX (u), FY (u) y compararlas. Otra forma de proceder, serı́a utilizar el Teorema
4, encontrando mX (t), mY (t) y compararlas. En este punto hay que hacer una observación importante; el
procedimiento descrito anteriormente sirve para saber si dos variables aleatorias tienen la misma distribución
de probabilidades, más no nos dice nada acerca de si las variables aleatorias son iguales o no. Para evitar
confusiones, pensemos en el ejemplo de la v.a. X que cuenta el número de soles en el lanzamiento de tres
monedas justas y en la v.a. Y que cuenta el número de águilas en el lanzamiento de tres monedas justas. Debe
ser claro que X 6= Y , sin embargo FX (u) = FY (u) para toda u.
7
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Distribución Bernoulli(Bernoulli(p))
PX (X = x) = px (1 − p)1−x con x = 0, 1
E[x] = p
V ar[x] = p(1 − p)
mX (t) = pet + 1 − p
Distribución Binomial
Esta variable aleatoria cuenta el número de éxitos al realizar n experimentos Bernoulli independientes.
n x
PX (X = x) = p (1 − p)n−x con x = 0, 1, . . . , n
x
E[x] = p
V ar[x] = np(1 − p)
mX (t) = (pet + 1 − p)n
Es importante notar que una v.a Bernoulli(p) ≡ Bin(1, p). La distribución binomial se usa frecuentemente
para estimar o determinar la proporción de individuos de una población que tienen cierta caracterı́stica de
interés. Una observación importante es que para resolver este problema si la muestra se extrae sin reemplazo y
de una población muy pequeña, la distribución binomial no será apropiada; en este caso la distribución hiper-
geométrica es la que deberá usarse. Más adelante en el curso se dará la razón del porqué de esta observación.
La respuesta tiene que ver con la noción de muestra aleatoria y a que se puede definir a la binomial como la
suma de una muestra aleatoria de tamaño n en donde la distribución de cada v.a. de la muestra es Bernoulli(p).
Existen tablas para calcular las probabilidades de la Bin(n, p), sin embargo utilizando R, lo podemos hacer de
forma más precisa y rápida. Por ejemplo, supongamos que X ∼ Bin(100, 0.6) y queremos
100
PX (X = 20) = (0.6)20 (0.4)80 = dbinom(20, 100, 0.6) = 2.864017e − 16
20
X
FX (60) = PX (X = x) = pbinom(60, 100, 0.6) = 0.5379247
x≤60
8
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
En las figuras 4.1 y 4.2 se presenta la gráfica de masa de probabilidad y distribución para algunos valores
particulares de p y n. Debe notarse que para cualquier gráfica de masa de probabilidad, las probabilidades se
le asignan a cada punto que toma la v.a., el hecho de que se dibujaran lı́neas anchas en lugar de rectas es
puramente para efectos de presentación. Para la Bin(0.5, 20) se observa que la fmp es simétrica, mientras que
para la Bin(20, 0.3) las probabilidades son más grandes antes de x = 6 que de hecho es el valor esperado para
esta v.a (E[X] = np = (20)(0.3) = 6).
0.200
1.0
0.9
0.175
0.8
0.150
0.7
0.125
0.6
P(X=x)
FX(x)
0.100
0.5
0.4
0.075
0.3
0.050
0.2
0.025
0.1
0.000
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
x x
1.0
0.9
0.175
0.8
0.150
0.7
0.125
0.6
P(X=x)
FX(x)
0.100
0.5
0.4
0.075
0.3
0.050
0.2
0.025
0.1
0.000
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
x x
9
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Distribución Hipergeométrica
Si se tienen claros algunos conceptos de la teorı́a de conteo, deducir la fmp de la v.a. hipergeométrica es muy
sencillo. Pensemos en el siguiente ejemplo; tenemos un lote en donde en total hay N elementos, de estos N
elementos M están defectuosos y por supuesto N − M no lo están. Si se extraen aleatoriamente n elementos sin
reemplazo y definimos la v.a. X como el número de objetos defectuosos en la muestra, entonces se tiene que
M N −M
x n−x
PX (X = x) = N
con x = 0, 1, . . . , n
n
nM
E[x] =
N
nM (N − M )(N − n)
V ar[x] =
N N (N − 1)
Adicionalmente tenemos que tener M − (N − n) ≤ x ≤ M . Es muy difı́cil trabajar analı́ticamente con la hiper-
geométrica, es por eso que se no se escribió su f gm.
Cuando describimos algunas caracterı́sticas de la binomial se dijo que esta v.a. se usa para estimar p, sin
embargo, si el experimento se realiza sin reemplazo y la población es muy chica entonces se utiliza la v.a. hiper-
geométrica. En general la hipergeométrica se utiliza para trabajar con poblaciones finitas y podremos utilizar
una aproximación mediante la Binomial cuando la población sea finita pero muy grande. Ahora, ¿cómo estimar
una proporción con la v.a. Hipergeométrica? Primero tendrı́amos que estimar M con alguna cantidad, digamos
M̂ y luego simplemente la proporción deseada serı́a M̂
N . Más adelante desarrollaremos métodos para encontrar M̂ .
La Figura 4.3 se hizo para comparar la Bin(20, 0.5) con la v.a Hip(20,50,100) con la idea de entender que
realmente la Bin(n, p) puede aproximar a una Hip(n,M,N). Los parámetros de la hipergeométrica son: N el
tamaño de la población, M el número total de objetos con cierta caracterı́stica y n el tamaño de muestra.
Los parámetros para la binomial son: n el tamaño de muestra o el número de experimentos realizados y p
la probabilidad de obtener un éxito. Para hacer el vı́nculo entre binomial e hipergeométrica hay que fijar los
parámetros de ambas fmp de forma que p = M N y tengan la misma n. En la Figura 4.3 se hace la gráfica para una
50
población muy chica con N = 100 y M = 50 (P = 100 = 0.5), esta gráfica debe parecerse un poco a la Figura
4.1 y si lo que dijimos antes es cierto, al aumentar el tamaño de la población (o N para la hipergeométrica), pero
manteniendo p = M N la gráfica resultante debe ajustarse más a la de la binomial. En la Figura 4.4 el tamaño de
N se aumentó considerablemente, y como se observa el ajuste con la Figura 4.1 es casi perfecto.
10
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
0.200
1.0
0.9
0.175
0.8
0.150
0.7
0.125
0.6
P(X=x)
FX(x)
0.100
0.5
0.4
0.075
0.3
0.050
0.2
0.025
0.1
0.000
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
x x
1.0
0.9
0.175
0.8
0.150
0.7
0.125
0.6
P(X=x)
FX(x)
0.100
0.5
0.4
0.075
0.3
0.050
0.2
0.025
0.1
0.000
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
x x
En R para calcular la fmp ó la función de distribución de una Hip(n, M, N ), se utilizan las funciones “dhyper”
y “phyper”.
11
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Distribución Poisson
Si X es la v.a. poisson entonces X cuenta el número de éxitos en un tiempo fijo si estos eventos ocurren con una
tasa media conocida, y son independientes del tiempo desde el último evento. La v.a. poisson se utiliza mucho
para aproximar las probabilidades de la binomial cuando el número de experimentos es grande y la probabilidad
de éxito es pequeña.
λx
PX (X = x) = eλ con x = 0, 1, . . .
x!
E[x] = λ
V ar[x] = λ
t
mX (t) = eλ(e −1)
Ejemplos de eventos que pueden ser modelados por la distribución Poisson incluyen:
El número de autos que pasan a través de un cierto punto en una ruta (suficientemente distantes de los
semáforos) durante un periodo definido de tiempo.
El número de errores de ortografı́a que uno comete al escribir una única página.
El número de núcleos atómicos inestables que decayeron en un determinado periodo de tiempo en una
porción de sustancia radiactiva. La radiactividad de la sustancia se debilitará con el tiempo, por lo tanto
el tiempo total del intervalo usado en el modelo debe ser significativamente menor que la vida media de
la sustancia.
Vamos a mostrar cómo se realiza el cálculo de las funciones de masa de probabilidad y distribución de la
P oisson(λ) en R. Supongamos que X ∼ P oisson(5), entonces
52
PX (X = 2) = e5 = dpois(2, 5) = 0.08422434
2!
X 5x
FX (10) = e5 = ppois(10, 5) = 0.9863047
x!
x≤10
12
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
1.1
1.0
0.72
0.9
0.64
0.8
0.56
0.7
0.48
0.6
P(X=x)
FX(x)
0.40
0.5
0.32
0.4
0.24
0.3
0.16
0.2
0.08
0.1
0.00
0.0
0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10
x x
1.1
1.0
0.18
0.9
0.16
0.8
0.14
0.7
0.12
0.6
P(X=x)
FX(x)
0.10
0.5
0.08
0.4
0.06
0.3
0.04
0.2
0.02
0.1
0.00
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
x x
13
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Para aproximar los valores de una Bin(n, p) por los de una P oisson(λ) hay que hacer np = λ para n “suficiente-
mente” grande y p “suficientemente” chica. En los libros a veces se dan condiciones para que esta aproximación
sea buena, sin embargo, es mejor hacer el experimento uno mismo y verificar. A continuación mostramos una
forma de hacer lo anterior.
0.20
0.12
0.18
0.10
0.16
0.14
0.08
0.12
P(X=x)
P(X=x)
0.10
0.06
0.08
0.04
0.06
0.04
0.02
0.02
0.00
0.00
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 10 20 30 40 50 60 70 80 90 100
x x
En lugar de hacer el gráfico de barras de la fmp como antes, en esta ocasión sólo se graficaron los puntos
(x, PX (X = x)) para que se pudiera visualizar mejor la situación. En la primer gráfica de la Figura 4.7 se
muestra cómo se aproximarı́an los valores de una Bin(20, 0.3), en rojo, por los de una P oisson(6), en azul (pues
λ = (20)(0.3) = 6). Al parecer la aproximación no es muy buena pues hay sólo 20 valores y para x ≤ 12 se
observan desviaciones considerables. En la segunda gráfica de la Figura 4.7 se muestra cómo se aproximarı́an los
valores de una Bin(100, 0.2), en rojo, por los de una P oisson(20), en azul. Para estos parámetros, en general,
la aproximación es mucho mejor.
Distribución Geométrica
Consideremos una sucesión de experimentos Bernoulli independientes en donde la probabilidad de éxito es p.
Sea X la v.a. que cuenta el número de fracasos antes del primer éxito. Entonces la fmp de X viene dada por
14
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Para calcular la fmp y la función de distribución de esta v.a. en R, lo podemos hacer utilizando las funciones
“dgeom” y “pgeom”.
Se muestran dos gráficas de la fmp y de la función de distribución para algunos valores particulares de p.
0.350
1.0
0.315
0.9
0.280
0.8
0.245
0.7
0.210
0.6
P(X=x)
FX(x)
0.175
0.5
0.140
0.4
0.105
0.3
0.070
0.2
0.035
0.1
0.000
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x x
1.0
0.54
0.9
0.48
0.8
0.42
0.7
0.36
0.6
P(X=x)
FX(x)
0.30
0.5
0.24
0.4
0.18
0.3
0.12
0.2
0.06
0.1
0.00
0.0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x x
15
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Distribución Uniforme
La distribución uniforme asigna la misma probabilidad a intervalos de la misma longitud.
1
fX (x) =
b−a
1(a,b) (x)
a+b (b − a)2
E[x] = , V ar[x] =
2 12
tb ta
e −e
mX (t) =
(b − a)t
La distribución uniforme mayormente se usa para generar muestras aleatorias de otras distribuciones. A con-
tinuación se muestra la gráfica de densidad y de distribución de una U (3, 5).
0.60
1.0
0.9
0.48
0.8
0.7
0.36
0.6
FX(x)
fX(x)
0.5
0.24
0.4
0.3
0.12
0.2
0.1
0.00
0.0
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8
x x
16
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
Distribución Exponencial
La distribución exponencial se utiliza comunmente para modelar tiempos de vida, o la cantidad de tiempo hasta
que ocurre un evento especı́fico. Por ejemplo, la cantidad de tiempo hasta que suceda un temblor, o hasta que
estalle una nueva guerra, o hasta que alguien reciba una llamada telefónica que sea un número equivocado.
1 −x/β
fX (x) =
β
e 1[0,∞) (x) , β > 0
E[x] = β
V ar[x] = β2
1
mX (t) = , t < 1/β
1 − βt
En este caso no presentaremos gráficas pues la Distribución Exponencial es un caso particular de la Distribución
Gamma que veremos a continuación.
Distribución Gamma
1
fX (x) = e−x/β xα−1 1[0,∞) (x) α, β > 0
Γ(α)β α
E[x] = αβ
V ar[x] = αβ 2
α
1
mX (t) = , t < 1/β
1 − βt
Para operar con la fdp Gamma(α, β), conviene tomar en cuenta que Γ(α + 1) = αΓ(α), para α > 0. Si
n ∈ N, Γ(n) = (n − 1)!, además, aunque puede parecer reiterativo, se tiene que Γ(1) = 1.
Dos distribuciones son casos particulares de la Gamma(α, β). En primer lugar, si α = 1 tenemos una Exp(β).
En segundo lugar, si α = n2 y β = 2, se obtiene una distribución Ji-cuadrada con n grados de libertad. La
distribución Ji-cuadrada es una de las más usadas en inferencia estadı́stica.
17
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
1.0
0.9
0.4
0.8
Gamma(1,0.5)
0.7
Gamma(2,0.5)
Gamma(3,0.5)
0.3
0.6
Gamma(5,1)
Gamma(9,2)
FX(x)
fX(x)
0.5
0.2
0.4
Gamma(1,0.5)
0.3
Gamma(2,0.5)
Gamma(3,0.5)
0.1
0.2
Gamma(5,1)
Gamma(9,2)
0.1
0.0
0.0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
x x
1 (x−µ)2
fX (x) = √ e− 2σ2 1(−∞,∞) (x)
2πσ
E[x] = µ , V ar[x] = σ 2
2 2
mX (t) = eµt+σ t /2
X−µ
Si X es una v.a. N (µ, σ 2 ), entonces Z = σ ∼ N (0, 1), a Z suele llamársele normal estándar. También
se tiene que si Z ∼ N (0, 1), entonces X = σZ + µ ∼ N (µ, σ 2 ). Esta relación entre la normal estándar y
cualquier N (µ, σ 2 ) facilita mucho el cálculo de probabilidades, para esta distribución. Si denotamos a la función
de distribución de N (0, 1) como Φ(z), entonces
Z z
1 2
Φ(z) = FZ (z) = PZ (Z ≤ z) = √ e−t /2 dt
−∞ 2π
18
4.9. DISTRIBUCIONES MÁS COMUNES Carlos Erwin Rodrı́guez
1.0
0.9
0.360
0.8
0.7
0.270
0.6
FX(x)
fX(x)
0.5
0.180
0.4
0.3
0.090
0.2
0.1
0.000
0.0
−5 −4 −3 −2 −1 0 1 2 3 4 5 −5 −4 −3 −2 −1 0 1 2 3 4 5
x x
1.0
0.9
0.9
N(0,.2) N(0,.2)
0.8
0.8
N(0,1) N(0,1)
N(0,5) N(0,5)
0.7
0.7
N(−2,.2) N(−2,.2)
0.6
0.6
FX(x)
fX(x)
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0.0
0.0
−5 −4 −3 −2 −1 0 1 2 3 4 5 −5 −4 −3 −2 −1 0 1 2 3 4 5
x x
19