You are on page 1of 8

Estadı́stica II

Resumen teórico de Estadı́stica I: Distribuciones más frecuentes y


Teorema Central del Lı́mite

1 Distribuciones discretas
Una variable aleatoria es discreta si puede asumir finitos o numerables valores, que deno-
taremos por x1 , x2 , ..., xk , .... La probabilidad de que la variable tome estos valores viene
dada a través de la función de frecuencia o función de probabilidad puntual

pX (xk ) = P (X = xk )

A su vez, la función de probabilidad acumulada

FX (x) = P (X ≤ x) ,x ∈ R

permite calcular la probabilidad de que la variable tome un valor menor o igual que uno
dado y se calcula sumando todas las probabilidades puntuales, es decir:
X
FX (x) = pX (xk )
xk ≤x

1.1 Distribución Binomial Bi(n, p)


Un experimento con sólo dos posibles resultados (éxito y fracaso) se repite en forma inde-
pendiente n veces siendo la probabilidad de éxito constante a lo largo de las repeticiones.
Definimos la variable aleatoria X por
X = número de éxitos obtenidos en las n repeticiones
Su distribución se conoce con el nombre de Binomial o, abreviadamente, X ∼ Bi(n, p),
y depende de los siguientes dos parámetros:
p = probabilidad de éxito en un intento o a veces llamada proporción poblacional o
verdadera,
n = número de repeticiones del experimento
Su función de frecuencia o probabilidad y sus valores esperados están dados por
µ ¶
n k
pX (k) = P (X = k) = P (k éxitos en n intentos) = p (1 − p)n−k k = 0, 1, . . . , n
k

E (X) = np
var (X) = np(1 − p)

Cuando n = 1, a la Bi(1, p) se la suele llamar con el nombre de Bernoulli(p).


La función de frecuencia acumulada de una binomial se encuentra tabulada para n =
5, 10, 15, 20, 25 en el Apéndice B, tabla 1 del Rice.

1
1.2 Distribución Geométrica Ge(p)
Un experimento con sólo dos posibles resultados (éxito y fracaso) se repite en forma inde-
pendiente hasta obtener el primer éxito, siendo la probabilidad de éxito constante a lo largo
de las repeticiones. Definimos la variable aleatoria X por
X = número de intento en el cual aparece el primer éxito
Su distribución se conoce con el nombre de Geométrica, abreviadamente X ∼ Ge(p), y
depende del parámetro:
p = probabilidad de éxito en un intento o a veces llamada proporción poblacional o
verdadera
Su función de frecuencia, su función de distribución acumulada y sus valores esperados
están dados por

pX (k) = P (el primer éxito suceda en el intento k) = p (1 − p)k−1 si k = 1, 2, . . .

FX (k) = P (X ≤ k)
= P (el primer éxito suceda en el intento k o antes)
= 1 − (1 − p)k si k = 1, 2, . . .

1
E (X) =
p
1−p
var (X) =
p2

1.3 Distribución Binomial Negativa BN(r, p)


Es la generalización de la distribución geométrica. Bajo las mismas condiciones se repite el
experimento hasta obtener el r-ésimo éxito. Sea
X = número de intento en el cual aparece el r-ésimo éxito
resulta que su distribución es la binomial negativa X ∼ BN(r, p) y depende de los
parámetros:
r = número de éxito que nos interesa
p = probabilidad de éxito en un intento o a veces llamada proporción poblacional o
verdadera.
Su función de frecuencia y sus valores esperados están dados por
µ ¶
k−1 r
pX (k) = p (1 − p)k−r k = r, r + 1, . . .
r−1

r
E (X) =
p
r(1 − p)
var (X) =
p2

2
1.4 Distribución Poisson P (λ)
La función de frecuencia de la distribución Poisson con parámetro lambda (λ) o abreviada-
mente, X ∼ P (λ) , es
λk
pX (k) = e−λ si k = 0, 1, 2, . . .
k!
y sus valores esperados

E (X) = λ
var (X) = λ

1.5 Distribución Hipergeométrica H (N, r, m)


Una población está compuesta por N individuos, que se pueden clasificar según un criterio en
“buenos” y “malos”. Sea r el total de “buenos” en dicha población. Se eligen, sin reposición
y al azar, m individuos. Sea
X = el número de “buenos” entre los m elegidos
Resulta que la variable aleatoria X tiene distribución H (N, r, m) con la siguiente función
de frecuencia
¡r ¢¡N−r ¢
k
pX (k) = ¡Nm−k
¢ si k es entero con max(r + m − N, 0) ≤ k ≤ min (r, m)
m

donde
N : total poblacional
r : cantidad de “buenos” en la población
m : cantidad de individuos elegidos

Sus valores esperados son

r
E (X) = m
N
r (N − r) (N − m)
var (X) = m
N N (N − 1)
¡ ¢
Esta variable se puede aproximar por una Bi m, Nr cuando N es grande respecto de m.

3
2 Distribuciones continuas
Las variables aleatorias continuas toman valores en un intervalo o en toda la recta real.
Vienen dadas a través de su función de densidad: una función fX : R → R≥0 . Para calcular
probabilidades relacionadas con estas variables hay que integrar esta función entre los lı́mites
que interesan para poder calcular el área entre la función de densidad y el eje x, es decir,
Z a
P (X ≤ a) = FX (a) = fX (u) du
−∞
Z b
P (a < X ≤ b) = FX (b) − FX (a) = fX (u) du
a

2.1 Distribución Normal N(µ, σ 2 )


La distribución normal es la más frecuente en la estadı́stica, entre todas las distribuciones
que dependen de parámetros. Una razón para que esto ocurra la proporciona el Teorema
Central del Lı́mite, que establece que la suma de un gran número de variables aleatorias
independientes e idénticamente distribuidas tiene una distribución aproximadamente normal.
La densidad de la normal es simétrica alrededor de su media y tiene forma de campana, como
se ve a continuación para µ = 0 y σ 2 = 1.

0.4

0.3

0.2

0.1

-4 -2 0 2 4
u

La función de densidad de la distribución normal viene dada por:


1 2 2
fX (x) = √ e−(x−µ) /2σ
σ 2π
con

E (X) = µ
var (X) = σ 2

La distribución normal estándar corresponde a tomar los valores de media y desvı́o


estándar siguientes
µ=0 y σ=1
es decir N(µ = 0, σ 2 = 1) por lo que la densidad queda reducida a
1 2
f (x) = √ e−x /2

4
La función de distribución de una variable aleatoria normal estándar se encuentra tabulada
en el Apéndice B, tabla 2 del Rice. Para hallar las probabilidades asociadas a cualquier
X ∼ N(µ, σ 2 ) es preciso estandarizarla convirtiéndola en una Z ∼ N(0, 1) del siguiente
modo:
X −µ
Z=
σ

2.2 Distribución Gama Γ (α, λ)


La función de densidad para la distribución gama es
λα α−1 −λx
fX (x) = x e si x > 0
Γ (α)
Los parámetros α y λ son ambos positivos y se denominan parámetro de forma y parámetro de
escala, respectivamente. Al variar α la forma de la densidad cambia, mientras que cambiando
a λ se cambian las unidades en las que se mide la variable y no cambia la forma de la densidad.
Los valores esperados de la variable gama, abreviadamente X ∼ Γ (α, λ) son:
α
E (X) =
λ
α
var (X) = 2
λ
Para ejemplificar la forma de la función de densidad graficamos la densidad correspondi-
ente a α = 2 y λ = 12

0.2

0.15

0.1

0.05

0 2 4 6 8 10 12 14 16 18
u

Recordemos que el sı́mbolo Γ (α) representa a la función gama que se define por
Z ∞
Γ (y) = xy−1 e−x dx si y > 0
0

Satisface las siguientes propiedades:

Γ (1) = 1
Γ (α) = (α − 1) Γ (α − 1)
Γ (n) = (n − 1)! para n = 1, 2, 3, ...

Γ (1/2) = π

5
2.3 Distribución exponencial Exp(λ)
La distribución exponencial es un caso particular de la distribución gama, que corresponde
a tomar α = 1. Su función de densidad queda entonces reducida a:

fX (x) = λe−λx si x > 0

con λ > 0. Sus valores esperados son:


1
E (X) =
λ
1
var (X) = 2
λ
La forma de la densidad es la siguiente (para λ = 1/5)

0.2

0.15

0.1

0.05

0 5 10 15 20 25
u

La función de distribución acumulada de la Exp(λ) es


Z x
FX (x) = λ e−λu du
½0
1 − e−λx si x > 0
=
0 si x ≤ 0

2.4 Distribución Uniforme U [a, b]


La variable aleatoria uniforme es la versión continua de “elegir un número al azar”. La
probabilidad de que una variable aleatoria uniforme en [a, b] tome un valor perteneciente a
alguno de dos subintervalos de [a, b] de igual longitud es la misma.
La función de densidad de una variable aleatoria uniforme está dada por

 0 si x<a
 1
f (x) = si a ≤ x ≤ b

 b−a
0 si x>b
1
= I[a,b] (x)
b−a
con a < b ambos números reales. Su gráfico es:

6
a b

La función de distribución acumulada se define por




 x− 0 si x≤a
a
FX (x) = P (X ≤ x) = si a < x < b

 b−a
1 si x≥b

Los valores esperados de la U [a, b] son:


a+b
E (X) =
2
(b − a)2
var (X) =
12

3 Teorema Central del Lı́mite

Sea X1 , X2 , ..., Xn , ... una sucesión de variables aleatoriasPindependientes ePidénticamente


distribuidas con E (X1 ) = µ y var (X1 ) = σ 2 . Sean Sn = ni=1 Xi y X = n1 ni=1 Xi = n1 Sn
entonces resulta que:
à n !
X Xn Xn
E (Sn ) = E Xi = E (Xi ) = µ = nµ
i=1 i=1 i=1
à n !
X X
n X
n
var (Sn ) = var Xi =
|{z} var (Xi ) = σ 2 = nσ 2
i=1 por indep i=1 i=1

y por lo tanto: ¶ µ
¡ ¢ 1 1 1
E X =E Sn = E (Sn ) = nµ = µ
n n n
µ ¶
¡ ¢ 1 1 1 1
var X = var Sn = 2 var (Sn ) = 2 nσ 2 = σ 2
n n n n
Cuando n es suficientemente grande, la distribución de estos estadı́sticos es aproximada-
mente normal con sus respectivas medias y varianzas, es decir:

¡ ¢
Sn ∼ N nµ, nσ 2
aprox
µ ¶
σ2
X ∼ N µ,
aprox n
Este teorema permite hacer las siguientes aproximaciones:

7
• aproximar la Bi(n, p) —cuando n es suficientemente grande, digamos n ≥ 30— por la
N (np, np(1 − p)) . Esto es válido pues la Bi(n, p) es suma de n Bi(1, p) independientes,
cada una con esperanza p y varianza p(1 − p).

• aproximar la P (λ) por una N (λ, λ) .Aquı́ usamos que la P (λ) es suma de n P (λ/n)
independientes, cada una con esperanza λ/n y varianza λ/n.

You might also like