You are on page 1of 12

1

Medidas sobre distribuciones
discretas. La distribución binomial





01. Medidas sobre distribuciones discretas

01.1. La función de densidad:

Para cualquier variable aleatoria, X, su función de distribución viene definida por

| | x X p x F ≤ = ) (

que, si es discreta, se puede expresar por


=
x k
k
p x F ) (
donde es
k
p la función de densidad, que obviamente ha de cumplir la condición de
probabilidad igual a 1 para el espacio muestral:




∞ −
=1
k
p (*)
La función de densidad permite definir el tipo de distribución en estudio, así, por
ejemplo, la distribución binomial queda definida por una función de densidad dada
por:
k k
k
p p
k
n
p ) 1 ( −
|
|
.
|

\
|
=


01.2. Momentos:

Para estudiar las características de una distribución de la variable aleatoria es
necesario estudiar los momentos de la distribución.

Los momentos iniciales están definidos por
k
r
r
p k M


∞ −
= (momento inicial de orden r, r=0,1,…)
El momento inicial de orden cero es la unidad, por (*), pues
1
0
0 ∑ ∑

∞ −

∞ −
= = =
k k
p p k M
Al momento inicial de orden 1 se le denomina Esperanza Matemática o bien Media
de la distribución:

| |
∑ ∑

−∞ =

−∞ =
= = ≡ ≡
k
k
k
k
p k p k M M k E .
1
1


Se llama desviación respecto de la media a la variable M k − .
2

A partir de la Media o Esperanza Matemática se definen los llamados momentos
centrales de la distribución:

| |


−∞ =
− = − =
k
k
r r
k
p M x M x E ) ( ) ( α (momento central de orden r, r=0,1,…)
El momento central de orden cero coincide, obviamente, con la unidad, al igual que
el momento inicial de orden cero:
| | 1 ) ( ) (
0 0
0
= = − = − =
∑ ∑

−∞ =

−∞ = k
k
k
k
p p M k M x E α
El momento central de orden 1 es nulo:
| |
∑ ∑ ∑

−∞ =

=

−∞ =
= − = − = − = − =
k k
k k
k
k
M M p M p x p M x M x E
1
1 1
1
0 . ) ( ) ( α
El momento central de orden 2 se denomina Varianza:


−∞ =
− = =
k
k
p M x . ) (
2
2
2
α σ

La raíz cuadrada de la varianza es lo que denominamos desviación típica o
desviación standard:
2
α σ =

- Relaciones entre los momentos centrales y los momentos iniciales:

El momento central de orden 2 (la varianza) se relaciona con los momentos
iniciales de orden 1 (media) y de orden 2, mediante la relación:

2
2
2
2
M M − = = σ α
puesto que:
∑ ∑ ∑ ∑
= = = =
− = + − = − = =
n
k
n
k
n
k
k k k
n
k
k
M M p M p k M p k p M k
1 1 1
2
2
2 2
1
2
2
2
. 2 . . ) ( α σ

El momento central de orden 3 viene relacionado con los momentos iniciales por la
expresión:

3
2 3 3
2 . 3 M M M M + − = α
puesto que:

( )
3
2 3
1
3
1
2
1
2
1
3
1
3
3
2 . . 3
. . . . 3 . 3 . .
M M M M
p M p M k p M k p k p M k
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+ − =
= − + − = − =
∑ ∑ ∑ ∑ ∑
= = = = =
α


Y el momento central de orden 4:

4
2
2
3 4 4
3 6 . 4 M M M M M M − + − = α
ya que se tiene:
( )
4 2
2 3 4
1 1
4 3
1
2 2
1
3
1
4
1
4
4
3 . 6 . 4
. . 4 . . . 6 . 4 . .
M M M M M M
p M p kM p M k p M k p k p M k
n
k
n
k
k k
n
k
k
n
k
k
n
k
k
n
k
k
− + − =
= + − + − = − =
∑ ∑ ∑ ∑ ∑ ∑
= = = = = =
α

3


01.3. La moda:

La moda se define como el valor que presenta un máximo de la distribución, si
existe, y se obtiene, en las distribuciones discretas de probabilidad, como aquel
valor, k
0
, tal que su probabilidad es máxima. Es decir:

) 1 ( ) ( ) 1 ( ) ( mod
0 0 0 0 0
+ ≥ ∧ − ≥ → k p k p k p k p a k



01.4. El cálculo de los momentos. La función característica:

Para calcular los momentos, tanto iniciales como centrales, es necesario resolver
sumas de cierta dificultad en muchos casos, como es el de la distribución binomial.
Para solventar el problema de estos cálculos, Alexander M. Lyapunov (1857-1918)
introdujo en 1904 un método que llamó de las funciones características, y que
consiste en definir una cierta función a partir de la cual se extraen de forma sencilla
los correspondientes momentos. Esta cierta función, fácil de integrar, permitiría
obtener todos los momentos (media, desviación standard, etc) de forma inmediata.

Es la llamada función característica de la distribución:
| |


∞ −
= =
k
itk itx
p e e E t) ( ϕ
Si calculamos sus derivadas para t=0, tenemos:
) 0 ( ' . . ) 0 ( ' . . ) ( '
1 1
ϕ ϕ ϕ i M iM p k i p e k i t
k k
itk
− = → = = → =
∑ ∑

∞ −

∞ −

) 0 ( " . . ) 0 ( ' ' . . ) ( "
2 2
2 2 2 2 2
ϕ ϕ ϕ − = → = = → =
∑ ∑

∞ −

∞ −
M M i p k i p e k i t
k k
itk

en general, se tiene la fórmula siguiente para los momentos iniciales de la
distribución:
) 0 ( . ) (
) k k
k
i M ϕ − =

cuya aplicabilidad depende, en consecuencia, de que las derivadas de la función
característica se obtengan de forma sencilla.

Así, podemos obtener la media y la varianza de forma inmediata:

) 0 ( ' ) 0 ( . ) (
) 1 1
1
ϕ ϕ i i M M − = − = =

2 2 " 2 2
2 2
2
) 0 ( ' ) 0 ( " )) 0 ( ' ( ) 0 ( ) ( ϕ ϕ ϕ ϕ α σ + − = − − − = − = = i i M M (1.4)

Y el momento central de tercer orden sería:


3 ' ' '
3 ' ' ' 3 3
2 3 3
) 0 ( ' 2 ) 0 ( " ) 0 ( ' 3 ) 0 (
) 0 ( ' 2 ) 0 ( " ) 0 ( ' 3 ) 0 ( ) ( 2 . 3
ϕ ϕ ϕ ϕ
ϕ ϕ ϕ ϕ α
i i i
i i i M M M M
+ − =
= + − − = + − =


Y el momento central de cuarto orden:

4

4
2 ) 3 ) 4 4 4 2 2 2
) 3 3 ) 4 4 4
2
2
3 4 4
) 0 ( ' 3
) 0 ( " ) 0 ( ' 6 ) 0 ( ) 0 ( ' 4 ) 0 ( ) 0 ( ' ) ( 3 ) 0 ( " ) ( ) 0 ( ' ) ( 6
) 0 ( ) )( 0 ( ' ) ( 4 ) 0 ( ) ( 3 6 . 4
ϕ
ϕ ϕ ϕ ϕ ϕ ϕ ϕ ϕ
ϕ ϕ ϕ α

− + − = − − − − +
+ − − − − = − + − =
i i i
i i i M M M M M M




01.5. La simetría y la curtosis de una distribución:

Simetría:

Para medir la simetría de la gráfica de una distribución se utiliza el llamado
coeficiente de simetría de Fisher, que es el cociente de dividir el momento central
de tercer orden por el cubo de la desviación típica:
3
3
σ
α
γ =

Si 0 = γ : la gráfica es simétrica.
Si 0 > γ : la gráfica tiene asimetría a la derecha.
Si 0 < γ : la gráfica tiene asimetría a la izquierda.

Curtosis:

Cuando se pretende medir el grado de aplanamiento o de apuntamiento de la
gráfica se utiliza el coeficiente de curtosis o de Pearson, que consiste en dividir el
momento central de cuarto orden por la cuarta potencia de la desviación típica y
restar 3 al resultado:
3
4
4
2
− =
σ
α
g

Si 0
2
= g : la gráfica se dice mesocurtica.
Si 0
2
> g : la gráfica es leptocurtica.
Si 0
2
< g : la gráfica platicurtica.





02. La distribución binomial

02.1. Las funciones básicas:

Consideremos el espacio probabilístico ( ) p U , , Φ , donde es U el conjunto de
sucesos elementales, Φ es la sigma álgebra de partes de U, y p es la función de
probabilidad.

Si consideramos un determinado suceso, A, en un experimento aleatorio
cualquiera, nos planteamos que tal suceso puede ocurrir en la realización del
experimento, o bien, puede no ocurrir. Es decir, puede verificar A o A.

5
Si se trata de una distribución de probabilidad discreta, esto es, con probabilidad en
los n puntos n ,..., 2 , 1 , 0 , la probabilidad del suceso A y la de su contrario, A, se
complementan a uno, pues siendo φ = = A A U A A I U , , se tiene que

1 ) ( ) ( = + A p A p

representaremos estas probabilidades por ), ( A p p = y ), ( A p q = lo cual nos
indicará que 1 = + q p . La verificación del suceso A la denominaremos “éxito” y la
verificación de A será “fracaso”, con probabilidades respectivas, pues, indicadas
por p y q.

En una repetición del experimento N veces aparecen un cierto número k de éxitos,
siendo el resto, n-k, fracasos. ¿De cuantas maneras pueden aparecer k éxitos en
una muestra de N pruebas? Combinatoriamente sabemos que son todas las
maneras de tomar N de k en k, es decir, las combinaciones de las N pruebas
tomadas de k en k, siendo el suceso x resultante:
A A
k n
A A
k
k
N
x
k .......
) (
. ......
− − − − −
|
|
.
|

\
|
=

y la probabilidad
k N k
k
q p
k
N
k p p

|
|
.
|

\
|
= = ) (

Así, la función de densidad es:

¹
´
¦

= =
=
k x si
k x si k p p
x f
k
, 0
), (
) (

Y la función de Distribución:
∑ ∑



|
|
.
|

\
|
= =
x k
k n k
x k
k
q p
k
n
p x F ) (

Cumpliéndose, obviamente, que
∑ ∑
=


= + =
|
|
.
|

\
|
= = ≤ ≤
n
k
n k n k
n k
k
q p q p
k
n
p n F b x f a
0
1 ) ( ) ( ) , 1 ) ( 0 )
(Las sumas desde menos infinito a más infinito quedan reducidas a los valores de k
comprendidos entre 0 y el numero total de pruebas n)

La función característica:

| |
k n k
n
k
itk
n
k
k
itk itk
q p
k
n
e p e e E t

= =
∑ ∑
|
|
.
|

\
|
= = =
0 0
) ( ϕ





6
02.2. Los momentos de la distribución:

Los momentos iniciales
r
M se definen por

∑ ∑
= =

|
|
.
|

\
|
= =
n
k
n
k
k n k r
k
r
r
q p
k
n
k p k M
1 1


y los momentos centrales
s
α con respecto a la media M:
k n k
n
k
s
n
k
k
s
s
q p
k
n
M k p M k

= =
∑ ∑
|
|
.
|

\
|
− = − =
1 1
) ( ) ( α

Media y varianza de la distribución:

La media o esperanza matemática de la distribución se define como el momento de
primer orden de la variable aleatoria k:
| |
∑ ∑
= =

|
|
.
|

\
|
= = ≡ ≡
n
k
n
k
k n k
k
q p
k
n
k p k M k E M
1 1
1
1


La varianza de la distribución se define asimismo como el momento central de
segundo orden respecto de la media:
k n k
n
k
n
k
k
q p
k
n
M k p M k

= =
∑ ∑
|
|
.
|

\
|
− = − = ≡
1
2
1
2
2
2
) ( ) ( α σ
La desviación típica o Standard, σ , es la raiz cuadrada de la varianza.

Para una función, g(x), medible borel, se verifica que la media o esperanza
matemática de g(x) es el momento inicial de primer orden,
1 g
M , y la varianza es el
momento central de segundo orden,
2 g
α .

Media de : ) (x g
∑ ∑
= =

|
|
.
|

\
|
= = ≡
n
k
n
k
k n k
k g g
q p
k
n
k g p k g M M
1 1
1
1
) ( ) (
Varianza de : ) (x g
k n k
n
k
n
k
k g g
q p
k
n
M k g p M k g

= =
∑ ∑
|
|
.
|

\
|
− = − = ≡
1
2
1
2
2
2
) ) ( ( ) ) ( ( α σ

Simetría y curtosis:

El coeficiente de simetría de Fisher es
3
3
σ
α
γ =

La gráfica de la distribución presentará asimetría a la derecha si , 0 > γ y a la
izquierda si es 0 < γ . Si el coficiente es nulo indica que la gráfica es simétrica.

El coeficiente curtosis de Pearson es 3
4
4
22
− =
σ
α
g
7
Se llama mesocúrtica a una distribución en la que , 0
22
= g platicúrtica si es 0
22
< g ,
y, finalmente, leptocúrtica si es 0
22
> g .



02.3. La función característica. Cálculo de momentos:

Se define la función característica ) (t ϕ de una distribución cualquiera como la
esperanza matemática de
itx
e . Su importancia estriba en el hecho de que, desde
sus derivadas, ) (
)
t
h
ϕ , se obtienen los momentos iniciales, M
h
, de la distribución:
| |

=
= =
n
k
k
itk itk
p e e E t
1
) ( ϕ
Derivando:
) 0 ( ' . . . . ) 0 ( ' . . . ) ( '
1 1
1 1
ϕ ϕ ϕ i M M i p k i p e k i t
n
k
k
n
k
k
itx
− = → = = → =
∑ ∑
= =

) 0 ( ' ' ) ( . . ) 0 ( ' ' . . ) ( ' '
2
2
1
2
2 2 2
1
2 2
ϕ ϕ ϕ i M M i p k i p e k i t
n
k
k
n
k
k
itk
− = → = = → =
∑ ∑
= =

… … … … … …
… … … … … …
) 0 ( ' ' ) ( . . ) 0 ( ' ' . . ) (
1
2
1
)
ϕ ϕ ϕ
h
h
n
k
h k
h h
n
k
k
itk h h h
i M M i p k i p e k i t − = → = = → =
∑ ∑
= =

Así, el momento inicial de orden h se obtiene mediante la expresión:

) 0 ( ) (
) h h
h
i M ϕ − =

En el caso de la distribución binomial es:
| | ( ) ( )
( )
n
it
n
k
k n
k
it
n
k
k n k itk
n
k
k n k itk
n
k
k
itk itk
q e p
q p e
k
n
q p e
k
n
q p
k
n
e p e e E
+ =
=
|
|
.
|

\
|
=
|
|
.
|

\
|
=
|
|
.
|

\
|
= =
∑ ∑ ∑ ∑
=

=

=

=
.
1 1 1 1
En definitiva, es ( )
n
it
q e p t + = . ) ( ϕ

Veamos los momentos iniciales:

- El momento inicial de orden 1, o Media de la distribución:
( ) np i M npi q p i p n q e p e i p n t
n
n
it it
= − = → = + = → + =


) 0 ( ' . ) .( . . ) 0 ( ' . . . . . ) ( '
1
1
1
ϕ ϕ ϕ

- El momento inicial de orden 2:
( ) ( ) | |
( ) ( )
npq p n p np p n np np p n i M
np np p n np p n n
q e p e npi q e p e i p n n
q e p e i e q e p e i p n i p n t
n
it it
n
it it
n
it it it
n
it it
+ = − + = + − = − =
→ − + − = − − − =
→ + + + − =
= + + + − =
− −
− −
2 2 2 2 2 2 2 2
2
2 2 2 2
1
2
2
2 2 2
1 2
) 1 ( ) 0 ( ' ' ) (
). 1 .( ) 0 ( ' '
. . . . . . ) 1 .(
. . . . . . . . ) 1 ( . . . ) ( ' '
ϕ
ϕ
ϕ


- El momento inicial de orden 3:
8
( ) ( )
( )
→ − + −
− + − − = − − − − − − =
→ + − − +
+ + − + + =

− −
i p n i p n i p n
i p n i p n i p n i p n n n i p n n i p n
q e p e i p n n n
q e p e p i n n q e p e p i n t
n
it it
n
it it
n
it it
. . 2 . . 3 . .
. . 3 . 3 . . . ). 2 ).( 1 .( . ). 1 .( . 3 . . ) 0 ( ' ' '
. . . ). 2 ).( 1 .(
. . . . ). 1 .( 3 . . . . ) ( ' ' '
3 3 2 3 3
2 2 2 3 2
3
3 3 3
2
2 2 3
1
3
ϕ
ϕ

3 3 2 3 3 2 2 2 3
3
2 3 3 3 ) 0 ( ' ' ' . ) ( np p n p n np p n np i M + − + − + = − = ϕ

- El momento inicial de orden 4:
( ) ( )
( ) ( )
→ − − − + − − + − + =
→ + − − − + + − − +
+ + − + + =
− −
− −
4 3 2 )
4
4 4 4
3
3 3 4
2
2 2 4
1
4 )
). 3 ).( 2 ).( 1 .( ). 2 ).( 1 .( 6 ). 1 .( . 7 . ) 0 (
. . . ). 3 ).( 2 ).( 1 .( . . . ). 2 ).( 1 .( 6
. . . . ). 1 .( 7 . . . . ) (
p n n n n p n n n p n n p n
q e p e p i n n n n q e p e p i n n n
q e p e p i n n q e p e p i n t
iv
n
it it
n
it it
n
it it
n
it it iv
ϕ
ϕ

= − − − + − − + − + = − =
4 3 2 ) 4
4
). 3 ).( 2 ).( 1 .( ). 2 ).( 1 .( 6 ). 1 .( . 7 . ) 0 ( . ) ( p n n n n p n n n p n n p n i M
iv
ϕ
4 4 2 4 3 4 4 3 3 2 3 3 2 2 2
6 11 6 12 18 6 7 7 np p n p n p n np p n p n p n np np − + − + + − + + − =

Veamos también los momentos centrales:

Es obvio, como ya se ha dicho, que el momento central de orden cero es 1 y que el
momento central de orden 1 es cero, en cualquier distribución.

La varianza (o momento central de orden 2):
npq np npq p n
M M p M p k M p k p M k
n
k
n
k
n
k
k k k
n
k
k
= − + =
= − = + − = − = =
∑ ∑ ∑ ∑
= = = =
2 2 2
1 1 1
2
2
2 2
1
2
2
2
) (
. 2 . . ) ( α σ


El momento central de orden 3:
( )
3 2
3 3 3 2 2 2 3 3 3 3 2 3 3 2 2 2 3 3
2 2 3 3 2 3 3 2 2 2 3
2 3
1
3
1
2
1
2
1
3
1
3
3
2 3
2 3 3 3 2 3 3 3 2
)) 1 ( .( 3 2 3 3 3 2 . 3
. . . . 3 . 3 . .
np np np
p n p n p n p n np p n p n np p n np p n
p np p n np np p n p n np p n np M M M M
p M p M k p M k p k p M k
n
k
k
n
k
k
n
k
k
n
k
k
n
k
k
+ − =
= + + − − + − + − + = +
+ − + − + − + − + = + − =
= − + − = − =
∑ ∑ ∑ ∑ ∑
= = = = =
α

El momento central de orden 4:
( )
( )
( )
4 4 2 3 3 2 2 2 2 4 4 2 2 2 2
3 3 2 3 3 2 2 2 4 4 2 4 3 4 4
3 3 2 3 3 2 2 2 4 2
2 3 4
1 1
4 3
1
2 2
1
3
1
4
1
4
4
6 3 12 6 7 3 3 6
2 3 3 3 4 6 11 6
12 18 6 7 7 3 . 6 . 4
. . 4 . . . 6 . 4 . .
np p n np p n np p n np p n npq p n p n
np p n p n np p n np np np p n p n p n
np p n p n np p n np M M M M M M
p M p kM p M k p M k p k p M k
n
k
n
k
k k
n
k
k
n
k
k
n
k
k
n
k
k
− + + − − + = − + +
+ + − + − + − − + − +
+ + − + − + = − + − =
= + − + − = − =
∑ ∑ ∑ ∑ ∑ ∑
= = = = = =
α



02.4. El cálculo de la moda en la distribución binomial:

Veamos primero el siguiente teorema:

9
Dada la distribución binomial B(n,p), si el número entero ) 1 (
0 0
n k k ≤ ≤ es una
moda de la distribución, entonces está acotada superiormente por p n ) 1 ( + e
inferiormente por 1 ) 1 ( − + p n , es decir, se cumple que

p n k p n ) 1 ( 1 ) 1 (
0
+ ≤ ≤ − +

Demostración:
) 1 ( ) ( ) 1 ( ) ( mod
0 0 0 0 0
+ ≥ ∧ − ≥ → k p k p k p k p a k , por tanto, se cumple que:

a) → − ≥ + →
+



|
|
.
|

\
|
+

|
|
.
|

\
|
− − − + −
p k n q k q p
k k n
q p
k
n
q p
k
n
k n k k n k
) ( ) 1 ( .
1
1 1
1
0 0
1
0 0
1 1
0 0
0 0 0 0

1 ) 1 ( ) 1 ( ) (
0 0 0
− + ≥ → − − ≥ → − ≥ + → p n k p np k q np q p k
b) → ≥ + − →
+ −
≥ →
|
|
.
|

\
|


|
|
.
|

\
|
− + − − −
q k p k n q p
k n k
q p
k
n
q p
k
n
k n k k n k
0 0
1
0 0
1 1
0 0
) 1 ( .
1
1 1
1
0 0 0 0

p n k q p k p n ) 1 ( ) ( ) 1 (
0 0
+ ≤ → + ≥ + →

En definitiva:
p n k p n ) 1 ( 1 ) 1 (
0
+ ≤ ≤ − +

El valor de la moda:

En virtud de este teorema podemos determinar el valor de la moda, según los
casos posibles para la probabilidad de éxito p:
- Si 0 = p entonces 0 0 1
0 0
= → ≤ ≤ − k k
- Si 1 = p entonces n k n k n = → + ≤ ≤
0 0
1 (pues el máximo valor es n)
- Si 1 0 < < p se pueden dar dos situaciones:
- que Z p n ∈ + ). 1 ( (sea número entero), entonces también Z p n ∈ − + 1 ) 1 ( ,
por lo cual, de ser p n k p n ) 1 ( 1 ) 1 (
0
+ ≤ ≤ − + se deduce que ambas cotas son
modas de la distribución, esto es, 1 ) 1 ( , ). 1 (
02 01
− + = + = p n k p n k
- que Z p n ∉ + ). 1 ( (no sea número entero), entonces el único entero
comprendido entre 1 ) 1 ( − + p n y p n ) 1 ( + es la parte entera de p n ) 1 ( + , por
lo cual, de ser p n k p n ) 1 ( 1 ) 1 (
0
+ ≤ ≤ − + , se deduce que | | p n E k ). 1 (
0
+ =
(parte entera)




02.5. Simetría y curtosis

Coeficiente de simetría de Fisher:

( )
) 1 (
2 1
) 1 ( ) 1 (
) 1 ( 2 ) 1 (
) 1 ( ) 1 (
2 2
) 1 (
2 3
2 3 2 2
3
3 2
3
3
p np
p
p np p np
p np p np
p np p np
np np np np
p np
np np np


=
− −
− − −
=
− −
+ − −
=

+ −
= =
σ
α
γ


Coeficiente de curtosis de Pearson:
10

) 1 (
) 1 ( 6 1
) 1 (
6 6 1
) 1 (
3 3 3 6 6 3 1
3
) 1 (
3 6 6 3 1
3
) 1 (
) 1 ( 3 ) 1 ( 6 ) 1 ( 6 ) 1 ( 3 ) 1 (
3
) 1 (
6 3 12 6 7 3
3
2
2 2 2 2 2
2 2 2
3 2 2 3 2 2
2 2 2
4 4 2 3 3 2 2 2 2
4
4
22
p np
p p
p np
p p
p np
np np np p p np
p np
np p p np
p p n
p p n p np p np p p n p np
p p n
np p n np p n np p n np
g

− −
=

− −
=
=

+ − − − + +
= −

− − + +
=
= −

− − − − − + − + −
=
= −

− + + − − +
= − =
σ
α



02.6. La media y desviación típica de la función frecuencia relativa:

Para trabajar algunos temas, como por ejemplo, la demostración de la ley débil de
los grandes números (Teorema de Jacob Bernoulli), es conveniente determinar la
media, y desviación típica con respecta a ella, cuando la variable no es k, número
de éxitos, sino k/n, esto es, la frecuencia relativa del número de éxitos con
respecto al total de la muestra. Se tiene:

p np
n
p p
k
n
k
n
p p
k
n
n
k
p
n
k
M
n
k
k n k
n
k
k n k
n
k
k f
= = −
|
|
.
|

\
|
= −
|
|
.
|

\
|
= =
∑ ∑ ∑
=

=

=
1
) 1 (
1
) 1 (
1 1 1


n
p p
p p n p np
n
M M
n
p M
p M
n
k
p
n
k
p M M
n
k
n
k
p M
n
k
f
n
k
k f
n
k
k f
n
k
k
n
k
k f f
n
k
k f f
) 1 (
) ) 1 ( (
1 1
2 2
2 2 2
2
2
2
2
1
2
1 1
2
1
2
2
1
2
2

= − + − = − = +
+ |
.
|

\
|
− |
.
|

\
|
=
|
|
.
|

\
|
+ − |
.
|

\
|
= |
.
|

\
|
− =

∑ ∑ ∑ ∑
=
= = = =
σ





02.7. Ejemplos de cálculos en una distribución binomial

1) Sea la binomial B(30,0’2). Cálculos:

- Función de densidad:

30 ,..., 1 , 0 , ) 8 ' 0 ( ) 2 ' 0 (
30
) (
30
=
|
|
.
|

\
|
=

k
k
k p
k k


- Función de Distribución:




|
|
.
|

\
|
=
x k
k k
k
x F
30
) 8 ' 0 ( ) 2 ' 0 (
30
) (

- Función característica:

( )
30
8 ' 0 ). 2 ' 0 ( ) ( + =
it
e t ϕ
11
- Media:

6 2 ' 0 . 30 = = M
- Varianza:

8 ' 4 8 ' 0 . 2 ' 0 . 30
2
= = σ

- Desviación típica o estándar:

19089023 ' 2 8 ' 4 = = σ
- Moda:

| | 6 2 ' 6 2 ' 6 2 ' 0 . 31 ). 1 (
0
= = → ∉ = = + E k Z p n

- Coef. de simetría:

... 666666666 ' 1
8 ' 4
6 ' 0
8 ' 0 . 2 ' 0 . 30
2 ' 0 . 2 1
) 1 (
2 1
= =

=


=
p np
p
γ

- Coef. de curtosis:

... 0083333 ' 0
8 ' 4
04 ' 0
8 ' 0 . 2 ' 0 . 30
8 ' 0 . 2 ' 0 . 6 1
) 1 (
) 1 ( 6 1
22
= =

=

− −
=
p np
p p
g




2) Sea la binomial B(9,0’4). Cálculos:


- Función de densidad:

9 ,..., 1 , 0 , ) 6 ' 0 ( ) 4 ' 0 (
9
) (
9
=
|
|
.
|

\
|
=

k
k
k p
k k


- Función de Distribución:




|
|
.
|

\
|
=
x k
k k
k
x F
9
) 6 ' 0 ( ) 4 ' 0 (
9
) (

- Función característica:

( )
9
6 ' 0 ). 4 ' 0 ( ) ( + =
it
e t ϕ
- Media:

6 ' 3 4 ' 0 . 9 = = M
- Varianza:

16 ' 2 6 ' 0 . 4 ' 0 . 9
2
= = σ

- Desviación típica o estándar:
12

469693846 ' 1 16 ' 2 = = σ
- Moda:

4 , 3 4 4 ' 0 . 10 ). 1 (
02 01
= = → ∈ = = + k k Z p n (bimodal)

- Coef. de simetría:

136082763 ' 0
16 ' 2
2 ' 0
6 ' 0 . 4 ' 0 . 9
4 ' 0 . 2 1
) 1 (
2 1
= =

=


=
p np
p
γ

- Coef. de curtosis:

203703703 ' 0
16 ' 2
44 ' 0
6 ' 0 . 4 ' 0 . 9
6 ' 0 . 4 ' 0 . 6 1
) 1 (
) 1 ( 6 1
22
− =

=

=

− −
=
p np
p p
g








3. Bibliografía

Cramer, H.; “Métodos matemáticos de la Estadística”. Ediciones Aguilar.
Frechet, M.; “Recherches theoriques modernes sur la theorie des probabilities”,
Gauthier-Villars, 10ª edic. 1950
Gmurman, V.E. ; “Teoría de las probabilidades y estadística matemática”, Editorial
Mir, Moscú,1983
Gndenko, B. ; “Teoría de probabilidades ». Editorial Mir
Schweizer, B;Sklar, A.; “Probabilistic metric spaces”, North Holland, N.York, 1983
Quesada P,V.; García Perez, A.; “Lecciones de Cálculo de probabilidades”, Diaz de
Santos, Madrid, 1988.
Martín Pliego, F.; Ruiz-Maya Pérez, L.; “Fundamentos de Probabilidad”, Thomson-
Paraninfo, 1998.
S. Chinea, C., “Aleatoriedad y álgebras de sucesos”,
(http://casanchi.com/mat/aleatoria01.pdf )
S. Chinea, C., “De las álgebras de sucesos a los espacios probabilísticos”,
(http://casanchi.com/mat/sucesospro01.pdf )
S. Chinea, C., “Variables aleatorias. Una incursión en los espacios probabilizables”,
(http://casanchi.com/mat/valeatoria01.pdf )
S. Chinea, C., “Distribución de variables aleatorias. La función de distribución”,
(http://casanchi.com/mat/fdistribucion01.pdf )





Carlos S. CHINEA
casanchi@teleline.es