You are on page 1of 26

tema

65 MATEMÁTICAS

Distribuciones de probabilidad de
variable discreta.
Características y tratamiento.
Las distribuciones binominal
y de Poisson.
Aplicaciones
24-13857-13

Temario 1993
tema 65

matemáticas

1. Distribuciones de probabilidad de variable discreta

2. Características y tratamiento

3. Las distribuciones binomial y de Poisson


3.1. Distribución Binomial o de Bernoulli: características y tratamiento

3.2. Distribución de Poisson: características y tratamiento

4. Aplicaciones

3
tema 65

matemáticas

INTRODUCCIÓN

Frecuentemente, en los experimentos aleatorios, el interés está en una función del resultado
del experimento y no en el resultado propiamente dicho.
Por ejemplo, en el lanzamiento de dos dados el interés puede estar en que la suma de los
resultados sea igual a 7 y es indiferente si este resulta de sumar 6+1, 5+1 ó 4+3.
Este interés sobre el resultado del experimento se formaliza mediante funciones del espa-
cio muestral en R que se denominan variables aleatorias (variable porque son posibles
diferentes valores numéricos y aleatoria porque el valor observado depende de cuál de los
resultados experimentales posibles resulte). El valor de la variable aleatoria es determinado
por el resultado del experimento y a esos valores se le asigna una probabilidad.
Hay dos tipos de variables aleatorias, variables aleatorias discretas y variables aleatorias
continuas.
Una variable aleatoria discreta es una variable aleatoria que toma un número finito o infi-
nito numerable de valores del eje. Esta definición nos sirve para introducirnos en el tema,
donde se va a estudiar además de este concepto de variable aleatoria, las funciones asocia-
das a ella. Además se analizan las principales características de las variables aleatorias dis-
cretas y los modelos más usados para las mismas: la distribución binomial y la distribución
de Poisson.
En lo referente a las aplicaciones se hacen referencia a modo de ejemplo a la aplicación de
la distribución binomial a la herencia biológica, a las trayectorias aleatorias y a las sustan-
cias radiactivas.

5
tema 65

matemáticas

1 Distribuciones de probabilidad de variable


discreta
Recordemos las siguientes definiciones:
„„ Experimento aleatorio
Es aquél cuyos resultados no son predecibles, aunque lo repitamos en análogas
condiciones, es decir, es imposible predecir el resultado cada vez que se realiza
el experimento. Cada resultado posible de un experimento aleatorio se dice que
es un suceso elemental de dicho experimento aleatorio.
„„ Espacio muestral (E)
Es el conjunto formado por todos los sucesos elementales.
„„ Suceso
Es un subconjunto cualquiera del espacio muestral. Un suceso será un elemento
del conjunto de las partes de E, que designaremos por P(E).
P(E) con la ∪, ∩, –, se demuestra que es un álgebra de Boole.
Consideremos E formado por un número infinito de sucesos elementales. Sea A
una clase de sucesos de E, que verifica:

1. ∀S1, S2, ..., Si, ... ∈ A ∪ Si ∈ A
i =1
2. ∀S ∈ A S = E – S ∈ A
Diremos entonces que A es una σ-álgebra. Además E ∈ A, ya que E = A ∪ A
y φ ∈ A pues φ = E
Consideremos el par (E, A) y definamos una probabilidad P como una aplica-
ción P: A → R, que cumpla los siguientes axiomas:
1. ∀ S ∈ A,     1 ≥ P (S) ≥ 0

∞  ∞
2. Si S1, S2, .. son incompatibles, P   Si  = ∑ P ( Si )
 i =1  i =1
3. P (E) = 1
Llamaremos espacio probabilístico a la terna (E, A, P).

XX Variable aleatoria

Definamos una función ξ(a) unívoca de E en R, que asigne a cada suceso elemen-
tal a ∈ E el número real ξ(a).
Sea S un conjunto de números reales. Llamaremos contradominio de S al con-
junto A de todos los sucesos elementales a ∈ A, que verifican ξ(a) ∈ S. Es decir,
A = ξ–1(S).

6
tema 65

matemáticas

Es evidente que el contradominio de R es E, o sea, ξ–1(R) = E.


Definición:
Llamaremos variable aleatoria a la función uniforme ξ(a) definida para todos los
sucesos elementales a del espacio probabilístico (E, A, P), si para cada intervalo
I = (– ∞, c] de R su contradominio A es un suceso del espacio (E, A, P).
Los valores de la variable ξ los denotaremos por x.

XX Variable aleatoria discreta

Sea el espacio probabilístico (E, A, P) y ξ la variable aleatoria ξ: E → R. Diremos


que ξ es una variable aleatoria discreta si toma sólo un número finito o infinito
numerable de valores distintos.
Si E es a lo sumo numerable, entonces cualquier variable aleatoria definida sobre
E es necesariamente discreta.

XX Función de distribución de una variable aleatoria

Llamaremos función de distribución de la variable aleatoria ξ a la función


F(x) = P(ξ ≤ x).
Estamos utilizando la notación anglosajona. En los textos franceses aparece
F(x) = P(ξ < x) y se le denomina función de repartición f ⋅ r.
La función de distribución cumple las siguientes propiedades:
1. F(x) es monótona no decreciente, es decir, x1 < x2 ⇒ F(x1) ≤ F(x2).
2. F(x) es continua por la derecha en todo x ∈ R.
3. F(–∞) = 0 y F(+∞) = 1.
Evidentemente
F(x) = ∑ pi
xi ≤ x

es decir, F(x) es la suma de las probabilidades pk de los puntos xi para los cuales
xi ≤ x.
La gráfica de F(x) es escalonada y monótona no decreciente; es decir, sus valo-
res cambian sólo en un número finito o infinito numerable de puntos x1, ..., xn, ...
reales que no tienen punto límite finito, en los que ocurren saltos de amplitud
Pk = P[ξ = xi). El salto puede expresarse mediante la función de distribución
en la forma:
Pi = P[ξ = xi] = F(xi) – F(xi–)
según la notación habitual del Análisis, y p = P[ξ = x’] = 0 si x’ es un valor que
no toma la variable aleatoria.
Por lo tanto, la función de distribución F(x) de una variable aleatoria discreta ξ
está unívocamente determinada por la función P[ξ = x] que recibe el nombre de
función de probabilidad, masa o cuantía y recíprocamente.

7
tema 65

matemáticas

Ejemplo:
Sea la experiencia aleatoria lanzar un dado y anotar el resultado:
E = {1, 2, 3, 4, 5, 6} y A = P(E)
La variable aleatoria toma los valores 1, 2, 3, 4, 5, 6. La probabilidad de cada
suceso elemental es:
1
P(ξ = xi) = ; xi = 1, 2, ..., 6
6
Los valores de la función de distribución son:
F(0) = P (ξ ≤ 0) = 0
1
F(1) = P (ξ ≤ 1) =
6
1 1 2
F(2) = P (ξ ≤ 2) = + =
6 6 6
3
F(3) =
6
4
F(4) =
6
5
F(5) =
6
F(6) = 1
La función de distribución quedará representada:

8
tema 65

matemáticas

2 Características y tratamiento

XX Esperanza matemática

Sea ξ una variable aleatoria discreta definida sobre (E, A, P), que toma los valores
x1 ,..., xi ,... tal que P(ξ = xi) = pi .
Definiremos esperanza matemática o media de la variable ξ al número

α1 = E(ξ) = ∑x ⋅ p
i=1
i i

supuesto que ∑x i ⋅ pi < +∞

Si la variable aleatoria ξ toma un número finito de valores x1, ..., xn, la esperanza
n

matemática es α1 = E(ξ) = ∑ x p . Se puede decir que la esperanza matemática es


i =1
i i

la media ponderada de los valores xi por las probabilidades pi.


Otro caso particular es aquel en que, además de tomar un número finito de valores,
las probabilidades son iguales, entonces si son n los valores de x:

1 1 n
pi =
n
E( X ) = ∑ xi
n i =1
Ejemplo:
En el caso del dado descrito en el ejemplo anterior la esperanza matemática es:
1 7
α1 = E(ξ) = ⋅ (1 + 2 + 3 + 4 + 5 + 6) =
6 2
En general, si ξ es una variable aleatoria discreta, tal que P(ξ = xi) = pi, definimos
esperanza matemática o media de la variable g(ξ) a la suma de la serie:

E[g (ξ)] = ∑ pi ⋅ g(xi)


i=1

Suponiendo que la serie es absolutamente convergente, es decir:

∑p
i g ( xi ) < +∞

Se impone convergencia absoluta de la serie, pues ésta abarca el caso en que la


suma se extiende a un número infinito numerable de términos y, por tanto, no
siempre tiene sentido hablar de que:
E[g(ξ)] = ∑ pi⋅ g(xi)
i

y también para evitar que al alterar el orden de los términos varíe la esperanza
matemática.

9
tema 65

matemáticas

Propiedades lineales de la esperanza matemática


1. Si ξ ≥ 0 ⇒ E [ξ] ≥ 0
n

En efecto, si: ξ ≥ 0 ⇒ xi ≥ 0, ∀i = 1, 2, ..., n ⇒ ∑ x ⋅ p ≥ 0 ⇒ E[ξ] ≥ 0.


i =1
i i

2. E[ξ] es una aplicación lineal del espacio de las variables simples en R es decir,
∀ξ, η variables aleatorias simples y ∀a, b ∈ R se tiene:
E[aξ + bη] = aE[ξ] + bE[η]
3. E[Kξ] = KE[ξ]
4. E[|ξ + η|] ≤ E[|ξ|] + E[|η|]
5. Si ξ ≥ η ⇒ E[ξ] ≥ E[η], ya que ξ ≥ η ⇒ ξ – η ≥ 0 y por 1) será:
E[ξ – η] ≥ 0 ⇒ E[ξ] – E[η] ≥ 0 ⇒ E[ξ] ≥ E[η]
6. |E[ξ]| ≤ E[|ξ|]

XX Momentos

Se define momento de orden k de la variable aleatoria ξ definida sobre (E, A, P)


respecto al origen, a la esperanza matemática de ξk:
αk = E[ξk]

para distribuciones discretas α k = ∑xi


k
i ⋅ pi (supuesta absolutamente convergente).

Se define momento central de orden k, o momento respecto a la media de la


variable ξ, a la expresión:
µk = E[(ξ – α1)k] = ∑ (x – α )
i
i 1
k
⋅ pi

En general, el momento de orden k respecto a un punto c, de la variable ξ es:


E[(ξ – c)k]
Son importantes, el momento respecto al origen de orden 1, α1 = E(ξ), que hemos
llamado esperanza matemática, y el momento central de orden 2, llamado varian-
za µ2 = σ2:
µ2 = σ2 = E[(ξ – α1)2]
La raíz cuadrada de la varianza σ = D[ξ], es la llamada desviación típica.
Se define momento absoluto de orden k de la variable ξ a:
βk = E[|ξ|k] (supuesta convergente)
Si k es par, βk = αk
Relaciones entre momentos centrales y momentos respecto al origen
Desarrollemos el momento central de orden n:
 n n 
µn = E (ξ − α1 ) n  = E ξ n −   ξ n −1α1 +   ξ n − 2α12 − ... ± α1n  =
 1  2 
n n
= α n −   α1α n −1 +   α1α n − 2 − ... ± α1n
1  2

10
tema 65

matemáticas

En particular,
µ2 = σ 2 = α2 − α12

De este modo, podremos calcular los momentos centrales, conociendo los mo-
mentos respecto al origen.
Si desarrollamos el momento respecto al origen de orden n, se obtiene:

 n 
α n = E[ξ n ] = E (ξ − α1 + α1 ) n  = E (ξ − α1 ) n +   (ξ − α1 ) n −1α1 + ... + α1n  =
 1 
n
= µn +   µn −1α1 + ... + α1n
1

que nos permite calcular los momentos respecto al origen en función de los cen-
trales.

XX Variable tipificada y coeficiente de variación

Sea ξ una variable aleatoria que verifique E[ξ] = µ, D(ξ) = σ, llamaremos variable
tipificada a la definida por:

ξ− µ
η=
σ

La variable tipificada η verifica que:


D(ξ )
E (η) = 0     D(η ) = =1
σ
Definimos coeficiente de variación de la variable aleatoria ξ al cociente:
D(ξ )
V (ξ ) =
E (ξ )

XX Otras medidas de centralización y dispersión

„„ Mediana
Se define mediana de una distribución discreta de la varianza ξ a un valor v,
que verifique:
1 1
P (ξ ≤ v) = P(ξ ≥ v) =
2      2
„„ Desviación media
Asociada a la mediana se define la desviación media por el valor de
E (|ξ – v|)

11
tema 65

matemáticas

„„ Cuartil
Llamaremos cuartil de orden p (0 < p < 1) a un valor xp, tal que:
P(ξ ≤ xp) ≥ p     P(ξ ≥ xp) ≥ 1 – p
„„ Recorrido
Recorrido de la variable ξ es la diferencia entre los valores mayor y menor que
puede tomar.

XX Función característica y función generatriz de momentos

Sea ξ una variable aleatoria discreta definida en (E, A, P). Llamaremos función
característica de la variable ξ, y la designaremos por α(t), a la esperanza mate-
mática de ei t ξ:
α (t ) = E[ei t ξ ] = ∑ pk ⋅ ei t xk
k

La serie es absolutamente convergente, pues |ei t x| = 1 y α(t) es continua por ser


suma de funciones continuas.

Llamaremos función generatriz de momentos de la variable discreta ξ a la función


ϕ(t) = E[etξ] = ∑p k
k ⋅ et xk cuando está definida en un intervalo de centro t = 0.

Propiedades de la función generatriz


1. ϕ (t = 0) = ∑ e k ⋅ pk = ∑ pk = 1
tx

k k

2. Es uniformemente continua en el intervalo (–∞, +∞).


3. Sea ξ tal que ϕξ(t) es conocida e igual a E[et ξ].
Se define la transformada lineal η = aξ + b. Vamos a calcular su función gene-
ratriz:

ϕη (t ) = E etη  = E et ( aξ +b )  = E etb ⋅ etaξ  = etb E etaξ  = etbϕξ (at )

ya que etb es constante.


Por tanto, si η = aξ + b ⇒ ϕη(t) = etb ϕξ(at).
4. Sean ξ1 y ξ2 independientes tales que son conocidas ϕξ (t) y ϕξ (t). Considere- 1 2

mos la variable aleatoria ξ = ξ1 + ξ2

ϕξ (t ) = E etξ  = E et (ξ1 +ξ2 )  = E etξ1 ⋅ etξ2  =


(sólo si ξ1 y ξ2 son independientes)

= E etξ1  ⋅ E etξ1  = ϕξ1 (t ) ⋅ ϕξ2 (t )

Luego si:
ξ = ξ1 + ξ2 ⇒ ϕξ(t) = ϕξ (t) · ϕξ (t)
2 2

12
tema 65

matemáticas

5. Veamos una importante relación entre la función generatriz y los momentos


respecto al origen.

ϕξ (t ) = E etξ  = desarrollando en serie =


 t t2 t3 tk 
= E 1 + x + x 2 + x3 + ... + x k + ... =
 1! 2! 3! k! 
2 k
t t
= E[1] + tE[ x] + E[ x 2 ] + ... + E[ x k ] + ... =
2! k!
2 k
t t
= 1 + tα1 + α 2 + ... + α k + ...
2! k!
Por otro lado, desarrollando por Mac-Laurin:

t 2 k
ϕξ(t) = ϕ(t = 0) + ϕ’(t = 0) + t ϕ”(t = 0) + ... + t ϕ(k(t = 0)
1! 2! k!
Igualando término a término ambos desarrollos, obtenemos:
ϕ(t = 0) = 1, ϕ’(t = 0) = α1, ϕ”(t = 0) = α2, ...., ϕ(k(t = 0) = αk ⇒ αk = ϕ(k(t = 0)
Dicha expresión permite obtener el momento con respecto al origen de orden
k cualquiera, sin más que calcular la k-ésima derivada de la función generatriz
y particularizada en el origen.

13
tema 65

matemáticas

3 Las distribuciones binomial y de Poisson

3.1. Distribución Binomial o de Bernoulli: características y


tratamiento

Supongamos que un experimento aleatorio tiene las siguientes características:


„„ En cada prueba del experimento sólo son posibles dos resultados, el suceso A
y su contrario A .
„„ El resultado obtenido en cada prueba es independiente de los resultados ante-
riores.
„„ La probabilidad del suceso A es constante (no varía de una prueba a otra).
Todo experimento que tenga estas características, se dice que sigue el modelo de
la distribución binomial.
Representaremos por B (n, p) a la variable de la distribución binomial, siendo n y
p los parámetros de dicha distribución. (n = número de pruebas; p = probabilidad
del suceso A.)
Para el caso particular en que n = 1, sólo se realiza una prueba, se le llama vari-
able aleatoria de Bernoulli.
Sea A un suceso de una experiencia aleatoria S y A el suceso contrario. Si p es
la probabilidad de que se verifique el suceso A en una prueba, es evidente que la
probabilidad de A es (1 – p) = q.
Llamaremos éxito a la verificación del suceso A, y fracaso a la verificación de A .
Hagamos dos pruebas consecutivas, los resultados posibles en las dos pruebas
son:
AA, A A , A A, A A
Si calculamos sus probabilidades, teniendo en cuenta que son independientes, ob-
tendremos:
P(AA) = p ⋅ p = p2 P(A A ) = p ⋅ q
P( A A) = q ⋅ p P( A A ) = q ⋅ q = q2
Si no tenemos en cuenta el orden, la probabilidad de obtener dos éxitos consecu-
tivos es p2, la de un éxito y un fracaso 2p · q, y la de dos fracasos q2. Observamos
que las probabilidades calculadas son los términos de (p + q)2.
Realizando tres pruebas consecutivas los resultados posibles son:
AAA, AA A , A A A, A AA, A A A , A A A , A A A, A A A
Por el mismo motivo que antes, si no consideramos el orden, la probabili-
dad de obtener tres éxitos consecutivos es P(AAA) = p3, la de dos éxitos y
un fracaso p2 · q + + p2 · q + p2 · q= 3p2 · q, la de un éxito y dos fracasos
p · q2 + p · q2 + p · q2 = 3p · q2, y la de tres fracasos q3.

14
tema 65

matemáticas

Como observas, son también los términos del desarrollo de (p + q)3.


Supongamos que hemos realizado n pruebas en las que hemos obtenido r éxitos
(r ( n−r
consecutivos, seguidos de n – r fracasos, o sea, A ... A A ... A . La probabilidad
de este suceso es pr · qn–r.
Si queremos saber la probabilidad de obtener r éxitos y n – r fracasos sin conside-
rar el orden en que aparecen, tendremos que averiguar el número de ordenaciones
(r ( n−r
posibles de los n elementos A ... A A ... A , que son las permutaciones con repe-
tición de n elementos donde uno se repite r veces, y el otro n – r.
n!
PRnr , n − r =
r !(n − r )!

Por tanto, la probabilidad de r éxitos y n – r fracasos en n pruebas, que designa-


remos por p(ξ = r), será:
n!
P(ξ = r ) = p r ⋅ q n−r
r !(n − r )!
Hemos obtenido, de esta forma, la ley de probabilidad de la variable aleatoria
ξ(w) = r, en que w = (x1 ... xn) tiene r sucesos A.
Las probabilidades se obtienen del desarrollo binómico:
n
P(ξ = r ) =   p r ⋅ q n − r      r = 1, ..., n
r
Llamaremos distribución binomial o de las pruebas repetidas a aquélla en la que
la función de probabilidad viene dada por:

n
P(ξ = r) =   pr ⋅ qn–r  ;  r = 0, 1, ..., n
r
Ejemplo:
Consideremos una urna con n1 bolas blancas, y n2 bolas negras, todas iguales.
Llamaremos A al suceso obtener bola blanca, y por tanto A será obtener bola
negra.
n1 n2
P ( A) = =p P( A) = =q
n1 + n2      n1 + n2

Efectuemos n extracciones sucesivas, reemplazando la bola en cada extracción.


La probabilidad de obtener en ellas r blancas y n – r negras será:

r n−r
n  n   n1   n2 
P(ξ = r ) =   p r ⋅ q n − r =      
r  r   n1 + n2   n1 + n2 

15
tema 65

matemáticas

„„ Función de distribución: para la distribución binomial la función de distribu-


ción es:
x x
n r = 0, 1, ..., n
F ( x) = ∑ pr = ∑   p r ⋅ q n − r
r =0 r =0  r 
     0 < p < 1
„„ Función característica:
n
α (t ) = E ei t ξ  = ∑ p r q n − r eit r = ( p ei t + q ) n
r =0

„„ Función generatriz de momentos:


n
n n
n
ϕ (t ) = E (et ξ ) = ∑ etr   p r q n − r = ∑   ( pet ) r (1 − p ) n − r = ( pet + 1 − p ) n
r =0 r r =0  r 

„„ Esperanza matemática: no vamos a emplear la función generatriz de momen-


tos, ya que se obtiene fácilmente desarrollando:
n n
n
α1 = E (ξ ) = ∑ xr pr = ∑ r   p r (1 − p ) n − r =
r =0 r =1  r 
n
n! n
(n − 1)!
= ∑r p r (1 − p) n − r = np ∑ p r −1 (1 − p) n − r =
r =1 r !( n − r ) ! r =1 ( r − 1)!( n − r )!
n
= np ∑ ( p + 1 − p ) n −1 = np
r =1

„„ Varianza: σ2 = µ2 = α2 – α12
Hallemos:
n
n
α 2 = E (ξ 2 ) = E [ξ (ξ − 1) + ξ ] = ∑ r (r − 1)   p r (1 − p ) n − r + E (ξ ) =
r =0 r
n
n
= ∑ r (r − 1)   p r (1 − p ) n − r + np =
r =2 r
n
(n − 2)!
= n(n − 1) p 2 ⋅ ∑ ⋅ p r − 2 (1 − p ) n − r + np =
r =2 ( r − 2 )!( n − r )!
n
= n(n − 1) p 2 ⋅ ∑ ( p + 1 − p ) n − 2 + np = n(n − 1) p 2 + np
r =2

Sustituyendo en σ2 = µ2, queda


σ 2 = µ2 = n(n − 1) p 2 + np − n 2 p 2 = np (1 − p ) = npq
„„ Desviación típica:
D(ξ ) = σ = np (1 − p ) = npq
„„ Coeficiente de variación:
D(ξ ) np (1 − p ) 1− p q
V (ξ ) = = = =
E (ξ ) np np np

16
tema 65

matemáticas

Los momentos respecto al origen se obtienen a partir de la función generatriz de


momentos, derivando y particularizando para t = 0.
ϕ(t) = (pet + 1 – p)n
ϕ’(t) = n(pet + 1 – p)n–1pet ; ϕ’(0) = α1 = n(p ⋅ 1 + 1 – p)n–1 p ⋅ 1 = np
ϕ”(t) = np[(n – 1) (pet + 1 – p)n–2pet ⋅ et + (pet + 1 – p)n–1et]
α2 = ϕ”(0) = np[(n – 1) p + 1] = n(n – 1)p2 + np
Siguiendo este procedimiento se pueden obtener el resto de los momentos.

XX Teorema de adición

La suma de variables aleatorias binomiales independientes con el mismo paráme-


tro p es binomial de paramétro p.
Demostración:
Lo demostraremos para el caso de dos variables y el resultado se obtendrá por
inducción.
Sea η = ξ1 + ξ2, en donde ξ1 es independiente de ξ2 y ξ1 sigue una distribución
B(n1, p) y ξ2 una B(n2, p).
La función característica de η será:
ϕη (t ) = ϕξ1 (t ) ⋅ ϕξ2 (t ) = ( peit + q ) n1 ⋅ ( peit + q ) n2 = ( peit + q ) n1 + n2

que es la función característica de una B(n1 + n2, p).

Si ξ1 sigue una distribución B(n1, p) y ξ2 sigue una distribución B(n2, p), enton-
ces si ξ1 y ξ2 son independientes la variable suma ξ1 + ξ2 sigue una distribución
B(n1 + n2, p). Esto se conoce con el nombre de propiedad reproductiva respecto
de n, y es un corolario del teorema anterior.

XX Valores de la variable aleatoria a los que corresponden probabilidad o


probabilidades máximas

n
Como P [ξ = r] =   pr qn–r
r
 n  r–1 n–r+1
P[ξ = r–1] =  p q
 r − 1

 n  n − r +1 n 
y como   =   según puede demostrarse fácilmente, tenemos que
r r  r − 1

 n r n − r
P[ ξ = r ]  r  p q n − r + 1 p (n + 1) p − r
= = = +1
P[ ξ = r − 1]  n  r −1 n−r +1 r q qr
 r − 1 p q

17
tema 65

matemáticas

Por lo tanto, si r < (n + 1) p, las probabilidades crecen, decrecen si r > (n + 1) p y


permanecen estacionarias si r = (n + 1) p.
Designando por m a la parte entera de (n + 1) p, se alcanza el máximo en r = m, y
se llama moda o número más probable de éxitos.
Cuando (n + 1) p es entero, entonces el máximo también es alcanzado en r = m – 1.
Concluimos, pues, que a medida que r va de 0 a n los valores de la función de
probabilidad de una variable binomial B (n, p) siguen el siguiente esquema:

La distribución es simétrica si p = q, asimétrica a la izquierda si p > q y asimétrica


a la derecha si p < q.

3.2. Distribución de Poisson: características y tratamiento

Supongamos que se realizan n pruebas independientes de una experiencia aleato-


ria cualquiera, en cada una de las cuales la probabilidad de que ocurra el suceso
A es p.
Si queremos calcular la probabilidad de que el suceso A ocurra r veces en las n
pruebas, se puede aplicar la fórmula de Bernoulli de la distribución binomial,
pero, como veremos a continuación, en los casos en que n es grande y p pequeño
es más práctica la distribución de Poisson.
Admitamos que n → ∞, p → 0 y que np = λ (constante). Que np = λ significa
que el promedio de apariciones del suceso A para distintos valores de n permane-
ce constante.
La probabilidad de que A ocurra r veces en n pruebas es:
n n n!
Pr =   p r q n − r =   p r (1 − p ) n − r = p r (1 − p ) n − r =
 
r  
r r !( n − r )!
n(n − 1)...(n − r + 1) r
= p (1 − p ) n − r
r!

18
tema 65

matemáticas

λ λ
De n · p = λ, p = , 1 – p = 1 – , sustituyendo en Pr:
n n
n−r
n(n − 1)...(n − r + 1)  λ 
r
 λ
Pr = ⋅  1 −  =
r!  n r
−r
λr n(n − 1)...(n − r + 1) 
n
λ  λ
= ⋅ ⋅ 1 −  ⋅ 1 −  =
r! n r
 r  r
 1   2   r − 1
1 −  1 −  ... 1 − 
n 
n
λ 
r
λ n n
= ⋅ 1 −  ⋅
r!  r   λ
r

1 − 
n

Calculando lim Pr y teniendo en cuenta que:


n→∞
n
 λ
lim 1 −  = e − λ
n→∞  n

y que:
 1   2   r − 1
1 −  1 −  ... 1 − 
n n n 
lim r =1
n→∞
 λ
1 − 
n

pues el denominador tiende a 1 por ser r un número finito y en el numerador hay


r – 1 factores que tienden también a 1, queda:
λr − λ λr
lim Pr = e ⋅1 = e − λ
n→∞ r! r!

Llamaremos distribución de Poisson a aquélla en la que la función de proba-


bilidad de la variable aleatoria discreta ξ, de parámetro λ > 0, definida sobre el
espacio probabilístico (E, A, P), viene dada por:
λr − λ
P( ξ = r ) = e      r = 0, 1, 2, ...
r!
La distribución de Poisson proporciona una buena aproximación de la distribución
binomial bajo determinadas condiciones. Si ξ es una variable aleatoria con distri-
bución binomial B(r,p) con r grande, p pequeño (p<0,1) y 1<r · p<10, entonces:
ξ∼B(r, p) ∼P(λ), con λ = r · p
Esta aproximación se conoce también como la «Ley de los sucesos raros» ya que
se aplica cuando la probabilidad de éxito es pequeña, es decir, el éxito se produce
en raras ocasiones. Lógicamente, la aproximación es igualmente aplicable para
valores grandes de p (p>0,9), pues basta intercambiar el papel del éxito y el fra-
caso.

19
tema 65

matemáticas

Veamos un ejemplo:
Un auditor sospecha que en un conjunto muy grande de facturas, aproximadamen-
te el 5% son fraudulentas
Se extrae al azar una muestra de 50 facturas. Obtener la probabilidad de que haya
más de 5 fraudulentas.
Para empezar, habría que precisar si el muestreo se efectúa con reemplazamiento
o sin reemplazamiento pues en el primer caso obtenemos la distribución binomial
y en el otro la distribución hipergeometrica. Cuando el tamaño de la población
es muy grande en relación al de la muestra, ambas distribuciones (la binomial y
la hipergeométrica) se comportan aproximadamente igual respecto al número de
éxitos, por lo que podemos suponer, en este ejemplo, que se trata de un muestreo
con reemplazamiento y utilizar la distribución binomial.
Así pues, la inspección factura a factura es una binoial con probabilidad de éxito
p=0,05.
Sea ξ=número de facturas fraudulentas en una muestra de 50 facturas
Sabemos que ξ sigue una distribución binomial B(r,p) con r = 50 (grande),
p = 0,05 (pequeño) y r · p = 2,5. Entonces, es válida la aproximación de Poisson a
la distribución binomial con lo que obtenemos:

4
 50  4
e −2,5 2, 5k
P(ξ > 5) = 1 − P(ξ ≤ 4) = 1 − ∑   0, 05k 0, 9550−5 = 1 − ∑ = 0,109
k =0  k  k =0 k!
„„ Función de distribución: para la distribución de Poisson la función de distri-
bución es:
λr
F ( x) = ∑ p x = ∑ e − λ
r≤x r≤x r!

„„ Función característica:

λr i t r
α( x) = E[ei t ξ ] = ∑ e − λ e
r =0 r!
„„ Función generatriz de momentos:

∞ ∞ ∞
λr tr λ
r
( λ et ) r
ϕ(t ) = E[e ] = ∑ e ⋅ e −λ
= e ∑e
−λ
=e ∑
−λ
= e − λ e λ e = e λ( e −1)
t t
tξ tr

r =0 r! r =0 r! r =0 r!

„„ Esperanza matemática: la calcularemos sin utilizar la función generatriz de


momentos, pues su cálculo es sencillo desarrollando la fórmula:
∞ ∞ ∞
λr λr λr
α1 = E[ ξ] = ∑ r e − λ = e− λ ∑ r = e− λ ∑ =
r =0 r! r =0 r! r = 0 ( r − 1)!

λr −1
=e −λ
λ∑ = e− λ λ e λ = λ
r = 0 ( r − 1)!

20
tema 65

matemáticas

„„ Varianza: teniendo en cuenta que α2 = α2 – α12, hallemos α2


α2 = E ( ξ2 ) = E [ ξ( ξ − 1) + ξ] = E [ ξ( ξ − 1) ] + E [ ξ] =
∞ ∞
λr λr
= ∑ r (r − 1) e − λ + λ = ∑ e− λ + λ=
r =0 r! r =2 (r − 2)!

λr − 2
= e − λ λ2 ∑ + λ = e − λ λ2e λ + λ = λ2 + λ
r =2 ( r − 2 )!
σ 2 = α2 − α12 = λ2 + λ − λ2 = λ
„„ Desviación típica:
σ= λ

XX Teorema de adición

La suma de variables aleatorias de Poisson independientes, es también una varia-


ble aleatoria de Poisson de parámetro la suma de los parámetros.
Vamos a demostrarlo, sin pérdida de generalidad, para dos variables.
Sean ξ1 → P ( λ1 ) ξ2 → P ( λ2 ) independientes.
Sea η = ξ1 + ξ2; la función característica de η, ya que ξ1 y ξ2 son independientes,
será:

−1) −1) −1) + λ2 ( eit −1)


ϕη (t ) = ϕξ1 (t ) ⋅ ϕξ2 (t ) = e λ1 ( e ⋅ e λ2 ( e = e λ1 ( e = e( λ1 + λ2 )( e −1)
it it it it

que es la función característica de una P (λ1 + λ2).

21
tema 65

matemáticas

4 Aplicaciones
Mencionaremos a título de ejemplo las siguientes:
„„ Aplicación de la distribución binomial a la herencia biológica
Consideremos un animal cualquiera cuyos padres pertenecen a dos grupos di-
ferentes A y B y sean PA la probabilidad de que el hijo pertenezca al grupo A y
PB = 1 – PA, la probabilidad de que el hijo pertenezca al grupo B.
Si se cruzan n parejas de animales de tal forma que uno es del grupo A y el otro
del grupo B, el número de descendientes que pertenecerán al grupo A sigue
una distribución binomial de parámetros n y PA. Análogamente, el número de
descendientes que pertenecerán al grupo B sigue una distribución binomial de
parámetros n y PB.
„„ Trayectoria aleatoria
Consideremos un punto que parte del origen del eje XX’ y avanza, por ejemplo,
1 cm a la izquierda o a la derecha con igual probabilidad 1/2. Supongamos que
después de dicho salto continúa de la misma forma dando hasta n saltos en
idénticas condiciones.
Puede comprobarse fácilmente que:
 n 
P [x = a] =   1/2n
 n + a / 2 

Haciendo el cambio de variable ξ/n = r/n obtenemos:


n
P [ξ = r] =   p r qn – r
r
que ya nos es conocida.
„„ Sustancia radiactiva
El mejor ejemplo que se conoce de sucesos aleatorios que siguen una distri-
bución de Poisson es la emisión de partículas α por una sustancia radiactiva y
posterior estudio de las que llegan a una cierta región del espacio en un inter-
valo de tiempo t.
Rutherford observó durante N = 2.608 períodos de tiempo de 7,5 segundos el
número de partículas que llegaron al contador en cada período que resultó ser
T = ∑Kpk = 10.094
y el promedio T / N = 10.094 / 2.608 = 3,870 . λ t ⇒ λ . 3,87 / 7,5

22
tema 65

matemáticas

Nk = Número de períodos Valores teóricos


K = Número de partículas
con K partículas N · Pk (t = 3,87)
 0 57 54,399
 1 203 210,523
 2 383 407,631
 3 525 525,496
 4 532 508,418
 5 408 393,515
 6 273 253,817
 7 139 140,325
 8 45 67,882
 9 27 29,189
10 16 17,075
2.608 2.608,000

La probabilidad de que ningún átomo se desintegre en el intervalo de tiempo t


es P0(t) = e–λt y si ponemos e–λt = 1/2 ⇒ t = log 2/λ, que es el tiempo en que la
probabilidad de no desintegración es del 50% y que suele llamarse vida probable
del átomo.
Si en el razonamiento que acabamos de realizar, y que como hemos visto nos lleva
a la distribución de Poisson, sustituyéramos el parámetro tiempo por longitud,
área, volumen, tendríamos otras interpretaciones parecidas.

23
tema 65

matemáticas

BIBLIOGRAFÍA
ARNÁIZ, G.: Introducción a la Estadística Teórica. Ed. Lex Nova.
BONET, E.: Fundamentos de estadística. Ed. Teide.
GNEDENKO, B. V. y KHINICHINE, A. I.: Introducción al Cálculo de Probabilidades. Ed. Universitaria
de Buenos Aires.
LIPSCHUTZ, S. y SCHILLER, J.: Introducción a la probabilidad y estadística. McGraw-Hill, 1999.
TUCKER, H.: Introducción a la Teoría Matemática de las Probabilidades y a la Estadística. Ed.
Vicens-Vives.
DEL BARRIO TELLADO, E. : Modelos probabilísticos, http://www.eio.uva.es/~tasio/

24
tema 65

matemáticas

RESUMEN

Distribuciones de probabilidad de variable discreta.


Características y tratamiento.
Las distribuciones binominal y de Poisson.
Aplicaciones

1.
1 Distribuciones de probabilidad de variable discreta
En este apartado se estudian los conceptos de:
„„ Variable aleatoria discreta.
„„ Su función de distribución: propiedades y representación gráfica.

2.
2 Características y tratamiento
En este apartado se estudian los siguientes conceptos:
„„ Esperanza matemática: propiedades.
„„ Momentos: Relación entre momentos centrales y momentos respecto al origen.
„„ Variable tipificada y coeficiente de variación.
„„ Otras medidas de centralización y dispersión: mediana, desviación media, cuartel y
recorrido.
„„ Función característica y función generatriz de momentos: propiedades.

3.
3 Las distribuciones binomial y de Poisson

3.1. Distribución binomial o de Bernoulli: características y


tratamiento
Un experimento aleatorio con las siguientes características:
„„ En cada prueba del experimento sólo son posibles dos resultados, el suceso A y su
contrario.
„„ El resultado obtenido en cada prueba es independiente de los resultados anteriores.
„„ La probabilidad del suceso A es constante (no varía de una prueba a otra).
Se dice que sigue el modelo de la distribución binomial que representaremos por B (n, p),
siendo n el número de pruebas y p la probabilidad del suceso A.
Para el caso particular en que n = 1, se le llama variable aleatoria de Bernoulli.
En este apartado se estudian las características y tratamiento de la distribución binomial.

25
tema 65

matemáticas

3.2. Distribución de Poisson: características y tratamiento


Una distribución de Poisson a aquélla en la que la función de probabilidad de la variable
aleatoria discreta ξ, de parámetro λ> 0, definida sobre el espacio probabilístico (E, A, P),
viene dada por:
λr − λ
P( ξ = r ) = e r = 0, 1, 2, ...
r!
En este apartado se estudian las características y tratamiento de la distribución Poisson.

4.
4 Aplicaciones
Mencionaremos a título de ejemplo las siguientes:
1. Aplicación de la distribución binomial a la herencia biológica.
2. Trayectoria aleatoria.
3. Sustancia radiactiva.

26