Professional Documents
Culture Documents
1 Distribuciones discretas
Una variable aleatoria es discreta si puede asumir finitos o numerables valores, que deno-
taremos por x1 , x2 , ..., xk , .... La probabilidad de que la variable tome estos valores viene
dada a través de la función de frecuencia o función de probabilidad puntual
pX (xk ) = P (X = xk )
FX (x) = P (X ≤ x) ,x ∈ R
permite calcular la probabilidad de que la variable tome un valor menor o igual que uno
dado y se calcula sumando todas las probabilidades puntuales, es decir:
X
FX (x) = pX (xk )
xk ≤x
E (X) = np
var (X) = np(1 − p)
1
1.2 Distribución Geométrica Ge(p)
Un experimento con sólo dos posibles resultados (éxito y fracaso) se repite en forma inde-
pendiente hasta obtener el primer éxito, siendo la probabilidad de éxito constante a lo largo
de las repeticiones. Definimos la variable aleatoria X por
X = número de intento en el cual aparece el primer éxito
Su distribución se conoce con el nombre de Geométrica, abreviadamente X ∼ Ge(p), y
depende del parámetro:
p = probabilidad de éxito en un intento o a veces llamada proporción poblacional o
verdadera
Su función de frecuencia, su función de distribución acumulada y sus valores esperados
están dados por
FX (k) = P (X ≤ k)
= P (el primer éxito suceda en el intento k o antes)
= 1 − (1 − p)k si k = 1, 2, . . .
1
E (X) =
p
1−p
var (X) =
p2
r
E (X) =
p
r(1 − p)
var (X) =
p2
2
1.4 Distribución Poisson P (λ)
La función de frecuencia de la distribución Poisson con parámetro lambda (λ) o abreviada-
mente, X ∼ P (λ) , es
λk
pX (k) = e−λ si k = 0, 1, 2, . . .
k!
y sus valores esperados
E (X) = λ
var (X) = λ
donde
N : total poblacional
r : cantidad de “buenos” en la población
m : cantidad de individuos elegidos
r
E (X) = m
N
r (N − r) (N − m)
var (X) = m
N N (N − 1)
¡ ¢
Esta variable se puede aproximar por una Bi m, Nr cuando N es grande respecto de m.
3
2 Distribuciones continuas
Las variables aleatorias continuas toman valores en un intervalo o en toda la recta real.
Vienen dadas a través de su función de densidad: una función fX : R → R≥0 . Para calcular
probabilidades relacionadas con estas variables hay que integrar esta función entre los lı́mites
que interesan para poder calcular el área entre la función de densidad y el eje x, es decir,
Z a
P (X ≤ a) = FX (a) = fX (u) du
−∞
Z b
P (a < X ≤ b) = FX (b) − FX (a) = fX (u) du
a
0.4
0.3
0.2
0.1
-4 -2 0 2 4
u
E (X) = µ
var (X) = σ 2
4
La función de distribución de una variable aleatoria normal estándar se encuentra tabulada
en el Apéndice B, tabla 2 del Rice. Para hallar las probabilidades asociadas a cualquier
X ∼ N(µ, σ 2 ) es preciso estandarizarla convirtiéndola en una Z ∼ N(0, 1) del siguiente
modo:
X −µ
Z=
σ
0.2
0.15
0.1
0.05
0 2 4 6 8 10 12 14 16 18
u
Recordemos que el sı́mbolo Γ (α) representa a la función gama que se define por
Z ∞
Γ (y) = xy−1 e−x dx si y > 0
0
Γ (1) = 1
Γ (α) = (α − 1) Γ (α − 1)
Γ (n) = (n − 1)! para n = 1, 2, 3, ...
√
Γ (1/2) = π
5
2.3 Distribución exponencial Exp(λ)
La distribución exponencial es un caso particular de la distribución gama, que corresponde
a tomar α = 1. Su función de densidad queda entonces reducida a:
0.2
0.15
0.1
0.05
0 5 10 15 20 25
u
6
a b
y por lo tanto: ¶ µ
¡ ¢ 1 1 1
E X =E Sn = E (Sn ) = nµ = µ
n n n
µ ¶
¡ ¢ 1 1 1 1
var X = var Sn = 2 var (Sn ) = 2 nσ 2 = σ 2
n n n n
Cuando n es suficientemente grande, la distribución de estos estadı́sticos es aproximada-
mente normal con sus respectivas medias y varianzas, es decir:
¡ ¢
Sn ∼ N nµ, nσ 2
aprox
µ ¶
σ2
X ∼ N µ,
aprox n
Este teorema permite hacer las siguientes aproximaciones:
7
• aproximar la Bi(n, p) —cuando n es suficientemente grande, digamos n ≥ 30— por la
N (np, np(1 − p)) . Esto es válido pues la Bi(n, p) es suma de n Bi(1, p) independientes,
cada una con esperanza p y varianza p(1 − p).
• aproximar la P (λ) por una N (λ, λ) .Aquı́ usamos que la P (λ) es suma de n P (λ/n)
independientes, cada una con esperanza λ/n y varianza λ/n.