You are on page 1of 16

DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS

Una variable aleatoria tendrá una función de densidad o una función de probabilidad.
Existe una gran cantidad de variables aleatorias cuya función no se conoce de antemano.
Para obtenerla se deben recolectar datos (realizar el experimento), y a partir de ellos
describir las características de esa variable aleatoria, éstas funciones se conocen como
distribuciones empíricas.
Otras variables aleatorias pueden determinarse o suponerse sobre la base de
consideraciones teóricas, a partir de las cuales surge una función matemática que cumple
con las propiedades de las funciones de distribución o de las funciones de densidad (para
variables discretas o continuas respectivamente). Estas variables para las que la forma o
expresión matemática de su función se deduce son las que tienen distribuciones de
probabilidad teóricas.
Una distribución de probabilidad teórica puede tomarse como modelo para
explicar y/o describir el comportamiento de una variable de interés, y así podrá utilizarse
para realizar predicciones y calcular probabilidades asociadas a los valores posibles de esa
variable. Este modelo es una representación simplificada de la realidad.
Vamos a estudiar distribuciones de probabilidad teóricas discretas y continuas que
son de gran aplicación en las Ciencias Naturales:

binomial (b)
D. de probabilidad discretas poisson (p)
hipergeométrica (h)

normal (n)
D. de probabilidad continuas t de Student (t)
Chi cuadrado (X2)
F de Snedecor (F)

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS

DISTRIBUCIÓN BINOMIAL
En muchos casos el experimento aleatorio que realizamos puede tener sólo dos resultados
posibles, mutuamente excluyentes, a los que arbitrariamente llamamos éxito y fracaso.
Por ejemplo: seleccionar un animal y registrar si es macho o hembra.
Cada uno de los resultados tiene una probabilidad asociada: si p = probabilidad del
resultado “éxito”, q = (1 - p) será la probabilidad del otro resultado (“fracaso”).
Un ensayo con sólo dos resultados posibles se denomina ensayo de Bernoulli. Una
sucesión de n de estos ensayos se denomina proceso de Bernoulli si cumple con las
siguientes condiciones:
∗ El experimento consiste de n intentos repetidos, donde n es constante; es decir el
ensayo se repite n veces.
∗ Para cada ensayo existen sólo dos resultados posibles, mutuamente excluyentes:
éxito y fracaso.
∗ La probabilidad de un éxito p es la misma en cada ensayo.

Distribuciones de probabilidad teóricas - 2016 5


∗ Los n ensayos son independientes.

A partir de un ensayo de Bernoulli se puede definir una variable aleatoria discreta que
tendrá una distribución de probabilidad denominada distribución binomial.
Una variable con distribución binomial se define como
X : número de éxitos en n ensayos independientes
Función de distribución binomial
n
f ( x) = b( x; n, p ) =   p x q ( n− x ) para x = 0, 1, 2, ..., n
 x

En realidad, la ecuación anterior define una familia de distribuciones de probabilidad, cada


una caracterizada por los valores específicos de n y p. A estos valores únicos necesarios
para definir la distribución se los denomina PARÁMETROS.

Como cualquier variable con distribución de probabilidad satisface las condiciones:


f(x) ≥ 0 y ∑ f(x) = 1 , donde f(x) = P(X = x)

Ejemplo: Consideremos el siguiente ensayo de Bernoulli: de una bolsa de semillas de


tomate se extrae una y se pone a germinar. Pasados 10 días se registra el resultado: si
germina se considera un éxito, si no germina se considera un fracaso. Se repite este
ensayo dos veces más. Se sabe que el 75% de las semillas de tomate son viables (o sea que
germinan), es decir que la probabilidad de éxito p es 0.75.
Todos los resultados posibles del experimento son:
S = {GGG; GGN; GNG; GNN; NGG; NGN; NNG; NNN }
En este ejemplo el ensayo de Bernoulli se repite tres veces (n = 3), y la probabilidad de
éxito p = 0.75.
Si transformáramos los resultados del experimento en una variable aleatoria X definida
como el número de éxitos, es decir el número de semillas germinadas en la muestra de
tres, obtendríamos una distribución de probabilidad para esta variable. Esta variable tiene
distribución binomial, ya que satisface las condiciones planteadas anteriormente.
Podemos, entonces, anticipar los valores que tomará la variable y calcular la probabilidad
de registrar cada uno de los valores posibles de esa variable usando la función.
La probabilidad de obtener, por ejemplo, una semilla germinada al repetir el ensayo 3
veces, se calcula utilizando la función de la distribución binomial f(x) para la variable X ∼ b
(n = 3; p = 0,75) :
n  3
P ( X = 1) = f (1) =   p x q ( n−x ) =   0.751 0.25( 3−1) = 0.140
 x 1 
La distribución de probabilidad definida será:

xi Probabilidad
0 0,016
1 0,140
2 0,422
3 0,422

Distribuciones de probabilidad teóricas - 2016 6


Características de la distribución binomial:
∗ Los parámetros que la definen son n y p.
∗ La probabilidad de éxito p es constante.
∗ La ocurrencia de un éxito en un ensayo es independiente de la de otro ensayo.
∗ El número de repeticiones del ensayo n, es constante.
∗ La variable X es discreta, puede asumir n +1 valores diferentes, en un rango de 0
hasta n.
∗ La media E(X) = µ = np , y la varianza V(X) = σ2 = npq

La distribución binomial es aplicable también a variables aleatorias derivadas de


experimentos que consisten en realizar muestreos sucesivos con reposición.
Ejemplos: número de respuestas correctas en un examen de 8 preguntas, número de
vacas preñadas en una muestra de 7, número de semillas germinadas en un lote de 10
semillas, número de peces machos en una muestra de 5 peces tomada con reposición de
un estanque de cría.

DISTRIBUCIÓN HIPERGEOMÉTRICA

Cuando se realiza un experimento que consiste en repetir un ensayo n veces, en el que los
resultados posibles de cada ensayo son éxito y fracaso, pero los resultados de cada ensayo
no son independientes, no podemos aplicar la función de distribución binomial para
calcular las probabilidades. Los ensayos repetidos no formarían un proceso de Bernoulli.
Un caso en el que se considera que los ensayos no son independientes es cuando el
experimento consiste en muestreos sucesivos sin reposición de una población finita,
compuesta por elementos que pueden ser clasificados en dos categorías mutuamente
excluyentes (a los que llamaremos arbitrariamente éxito y fracaso). En ese caso las
probabilidades de éxito de cada ensayo no serían independientes.
A partir de ensayos de este tipo se puede definir una variable aleatoria discreta que
tendrá una distribución de probabilidad denominada distribución hipergeométrica. Esta
variable se define como
X: número de éxitos en n ensayos repetidos no independientes entre sí
Para deducir la función de distribución hipergeométrica debemos conocer las cantidades
N, n y k.
N: número de elementos en la población = tamaño de la población
n: número de elementos en la muestra = tamaño de la muestra
k: número de éxitos en la población = número de elementos en la población que
presentan la característica de interés a la que arbitrariamente se denomina “éxito”.
Podemos deducir que (N – k) = n° de fracasos en la población y (n – x): n° de fracasos en la
muestra.
función de distribución hipergeométrica
 k  N − k 
  
 x  n − x 
f ( x) = h( x; N , n, k ) = para x = 0, 1, 2,...,n
N
 
n 

Distribuciones de probabilidad teóricas - 2016 7


La ecuación anterior define una familia de distribuciones de probabilidad, cada una
caracterizada por los parámetros N, k y n.
Ojo: El InfoStat utiliza la letra m para denotar el tamaño de la población

Ejemplo: Se seleccionan 4 alumnos sin reposición de Estadística de un grupo formado por


3 estudiantes de Agronomía y 5 estudiantes de Recursos Naturales. Se define la variable
número de alumnos de Agronomía en esa muestra.
Por ejemplo, la probabilidad de obtener un éxito será, o sea la probabilidad de que en la
muestra uno de los alumnos sea de Agronomía, P (x = 1):
Sabemos que n = 4, k = 3, y se deduce que N = 8

 k  ( N − k )   3  5 
     
 n  (n − x)  1  3  = 3.10 = 0.429
N 8  70
   
x   4

Características de la distribución hipergeométrica:


∗ Se repiten n veces los ensayos, n es constante.
∗ Existen dos resultados posibles, mutuamente excluyentes, para cada ensayo.
∗ Los n ensayos no son independientes.
∗ La probabilidad de éxito no es constante de un ensayo a otro.
∗ La variable X es discreta, puede asumir n + 1 valores diferentes, en un rango de 0
hasta n.
∗ Los parámetros que la definen son N, k y n.
∗ La media y la varianza de esta distribución se definen como:

k  k   N − k   N − n
E( X ) = µ = n V ( X ) = σ 2 = n    
N  N   N   N − 1

Ejemplos: número de pejerreyes macho en una muestra de 6 peces tomada sin reposición
de un estanque de cría, número de plantas enfermas en una muestra simultánea de 3
plantas tomadas de un lote de 30 plantas sanas y 50 enfermas, número de alumnos de
Biología en una muestra de 20 alumnos tomada sin reposición de la Facultad de Ciencias
Naturales.

DISTRIBUCIÓN DE POISSON

Una variable aleatoria podría surgir de observar el número de ocurrencias de un hecho (nº
de éxitos) en una unidad especificada. Por ejemplo: el número de hormigueros por ha, el
número de peces capturados por hora de pesca, el número de semillas por vaina, el
número de bacterias por litro de agua, etc.

Distribuciones de probabilidad teóricas - 2016 8


La unidad especificada puede referirse a un intervalo de tiempo, una unidad de área, de
volumen, etc (en los ejemplos mencionados eran respectivamente una ha, una hora de
pesca, una vaina, un litro de agua).
Una variable aleatoria discreta X que se define como el nº de ocurrencias de un hecho (o
el nº de éxitos) en una unidad especificada tendrán una distribución de probabilidad
definida como distribución de poisson si cumplen las siguientes propiedades:
∗ El número de ocurrencias de un hecho en una unidad es independiente del de
otra unidad.
∗ La ocurrencia de un hecho en una unidad es independiente de la ocurrencia de
otro hecho en la misma unidad.
∗ El número medio de ocurrencias de un hecho en una unidad es directamente
proporcional al tamaño de la unidad.
∗ La probabilidad de ocurrencia de un hecho en una unidad muy pequeña, es tan
pequeña que se despreciable, se trata por tanto de sucesos “raros”.

Como las demás distribuciones teóricas de probabilidad, podemos definir su función:

Función de distribución poisson


e − λ .λx
f ( x) = p( x; λ ) = donde x = 0, 1, 2, ..., ∝
x!

El único parámetro necesario para definir por completo la distribución es λ.


λ es el número medio de ocurrencias de un hecho por unidad especificada, es decir es la
media de esta distribución.

Características de la distribución de poisson:


∗ El número medio de ocurrencias de un hecho, lamba (λ λ), es proporcional al
tamaño de la unidad especificada.
∗ La probabilidad de ocurrencia de un hecho es constante para cada unidad
especificada.
∗ La variable X es discreta, puede asumir ∞ valores diferentes, en un rango de 0 a ∞.
∗ La ocurrencia de un hecho es independiente de la ocurrencia de otro hecho en la
misma unidad o en otra unidad.
∗ El parámetro que la define es λ.
∗ La media y la varianza de la distribución son iguales : µ = σ2 = λ

Ejemplos: número de hojas por planta, número de nidos por árbol, número de huevos por
nido, número de semillas por fruto, número de crías por camada.

EJEMPLOS DE APLICACIÓN para distribuciones discretas

Podemos resolver problemas referidos a las distribuciones de probabilidad utilizando el


programa InfoStat. Se debe entrar en el menú principal “Estadísticas” y seleccionar la
opción “Probabilidades y cuantiles”. Entonces se despliega un cuadro de diálogo que pide

Distribuciones de probabilidad teóricas - 2016 9


que indiquemos cuál es la distribución teórica de interés, qué valores tienen sus
parámetros y para qué valor de la variable queremos calcular las probabilidades (xi).
Una vez indicada esta información se hace clic sobre el botón “calcular” y el programa nos
provee las cantidades: P(X<=xi) , P(X>xi) y P(X= xi)

Ejemplo 1: Se sabe que el 60% de la descendencia de cierta especie de ratones es de color negro. Si
se analizan camadas de tamaño 10 de esta especie, cuál será la probabilidad de se registren:
a) 2 crías de color negro. b) más de 5 crías de color negro. c) entre 2 y 5 crías de color negro. d)
no más de 4 crías de color negro.
Solución:
X: número de ratones de color negro en una camada de 10.
X tiene distribución binomial ya que el hecho de que una cría sea de color negro no incide sobre el
color de otra cría, los ensayos (cada uno de los 10 nacimientos) son independientes.
los parámetros son: n = 10, p = 0.6 → X ∼ b (n = 10; p = 0,6)

a) P (X = 2), aplicando la función


n 10 
f ( x) =   p x q ( n− x ) → f ( 2) =  0,60 2 0,40 (10−2) = 0,0106
 x 2 

b) Aplicamos la función para cada valor de la variable que incluye el suceso y luego sumamos
P (X > 5 ) = P (X = 6) + P (X = 7) + P (X = 8) + P (X = 9) + P (X = 10) = 0.633
También podemos deducir esta probabilidad como P (X > 5 ) = 1 - P (X ≤ 5)

c) P (2 ≤ X ≤ 5) = P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) =
= P ( X ≤ 5 ) - P ( X ≤ 1) = 0.367 - 0.002 = 0.365
También podemos deducir esta probabilidad como P (2 ≤ X ≤ 5) = P (X ≤ 5) + P (X ≤ 1)

d) P (X ≤ 4) = P (X = 4) + P (X = 3) + P (X = 2) + P (X = 1) + P (X = 0) = 0.166

Ejemplo 2: Se sabe que el número medio de colonias de bacterias que se forman por día en un
experimento de laboratorio es 4. a) ¿Cuál es la probabilidad de que se formen 6 colonias en un
día?
Solución:
X: n° de colonias formadas por día
X tiene distribución de poisson ya que se define el número de éxitos (que se forme una colonia) en
una unidad especificada (un día)
El parámetro es: λ = 4 → X ∼ p (λλ = 4)

P (X = 6) aplicando la función
e − λ . λx e −4 .4 6
f ( x ) = p( x ; λ ) = f (6) = = 0,104
x! 6!
b) ¿Cuál es la probabilidad de que se formen 11 colonias en 3 días?
X: n° de colonias formadas cada 3 días (cambió la unidad especificada, ahora es tres días)
X tiene distribución poisson pero cambió su parámetro, ya que se triplicó el tamaño de la unidad,
entonces: λ = 4x3 = 12 → X ∼ p (λλ = 12).

Distribuciones de probabilidad teóricas - 2016 10


e −12 .1211
P (X = 11) = f (11) = = 0,114
11!
Ejemplo3: Se necesitan seleccionar al mismo tiempo 4 alumnos de un grupo de 420 alumnos de la
Facultad de Ciencias Naturales compuesto por: 158 de Recursos Naturales, 142 de Biología y 120
de Agronomía.
a) ¿Cuál es la probabilidad de que dos de ellos sean de Recursos Naturales?
X: n° de alumnos de RRNN en una muestra de 4 seleccionados sin reposición.
La característica considerada éxito en este caso es “que sea de RRNN”.
X tiene distribución hipergeométrica con parámetros: k = 158 (nº de alumnos de RRNN en la
población), N = 420 (tamaño de la población), n = 4 (tamaño de la muestra).
→ X ∼ h (k = 158, N = 420, n = 4)
158  420 − 158 
P ( X = 2) = 0.332   
 2  4 − 2  = 12403 ⋅ 34191 = 0,332
f ( 2) =
 420  1278098745
 
4 
b) ¿Cuál es la probabilidad de que por lo menos dos sean de Biología?
X: n° de alumnos de Biología una muestra de 4 seleccionados sin reposición. La característica
considerada éxito ahora es “que sea de Biología”.

X ∼ h (k = 142, N = 420, n = 4)

P ( X ≥ 2) = 1 - P( X ≤ 1) = 1 – (0.190 + 0.395) = 1 - 0.584 = 0.416

142  420 − 142  142  420 − 142 


     
 0  4 − 0  = 0.190  1  4 − 1  = 0.395
f ( 0) = f (1) =
 420   420 
   
4  4 

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS

DISTRIBUCIÓN NORMAL

La distribución normal, también llamada distribución gaussiana o de Laplace, es la


distribución de probabilidad más importante en toda la Estadística Clásica, ya que muchas
variables continuas, así como varios estadísticos siguen este modelo de distribución.
Muchas de las variables de interés en Ciencias Naturales tienen distribuciones
continuas que siguen este modelo, por ejemplo: longitud total del cuerpo, altura de
plantas, nivel de ruido en decibeles, área de distribución de una especie, longevidad
promedio, concentración de urea en sangre, entre otras.

Distribuciones de probabilidad teóricas - 2016 11


La función de densidad está dada por la fórmula:
1 ∞ ≤×≤∞
, -∞
e − ( x − µ ) / 2σ
2 2
f ( x) =
σ 2π

Donde π = 3,14159 y e = 2,71828.


Características de la distribución normal:
1. Su campo de variación es desde - ∞ hasta + ∞.
2. Es simétrica respecto a su media µ. Esto implica que a dos valores situados a la misma
distancia del valor medio por izquierda y por derecha de la distribución, les
corresponde la misma probabilidad. P ( µ - a < x < µ) = P ( µ < x < µ + a)
3. La media, la mediana y la moda coinciden. Me = µ = Mo
4. El área total debajo de la curva por encima del eje de las x es igual a uno, como en
todas las densidades de probabilidad. En símbolos: P(- ∞ < x < ∞) = 1 .
De esta característica se deduce que el 50 % del área está a la derecha de la
perpendicular levantada en la media µ y el 50 % está a la izquierda de la misma.
En símbolos: P(- ∞ < x < µ) = 0,5 y P( µ < x < ∞) = 0,5.
5. La distancia horizontal que hay desde el punto de inflexión de la curva (el punto donde
la curva deja de ser cóncava hacia abajo y empieza a ser cóncava hacia arriba) hasta una
perpendicular levantada sobre la media es igual a la desviación estándar σ .

0,40
0,30
0,20 σ
0,10
0,00
-4,00 -3,00 -2,00 -1,00 0,00 1,00 2,00 3,00 4,00
µ

6. El área bajo la curva entre los puntos (µ + una desviación estándar) y (µ - una
desviación estándar) corresponde aproximadamente al 68 % del área total de la curva.
En símbolos: P( µ - σ < x < µ +σ σ ) = 0,682.
Entre µ ± 2 se encuentra aproximadamente el 95 % del área total de la curva, es decir:
P(µ - 2 σ < x < µ + 2 σ) = 0,954.
Entre µ ± 3 se encuentra aproximadamente el 99 % del área total de la curva, o sea :
P(µ - 3 σ < x < µ + 3 σ) = 0,998.
Esta última característica permite aproximar variables de recorrido finito a la
distribución normal.
7. La distribución normal queda completamente determinada por sus parámetros µ y σ.
La media µ está comprendida entre - ∞ y +∞. La varianza σ²debe ser finita (σ²> 0).
Distintos valores de µ desplazan la curva sobre el eje de las x; distintos valores de σ²
determinan el mayor o menor grado de curtosis de la curva.

Distribuciones de probabilidad teóricas - 2016 12


Para calcular probabilidades de la distribución normal deberíamos aplicar la operación
integral a la función de densidad, reemplazando los parámetros µ y σ por los valores de
alguna combinación en particular. El procedimiento sería complicado y casi imposible de
realizar a mano.
No es práctico tener una tabla para cada distribución normal posible, serían infinitas
tablas. Existe una distribución normal particular que se encuentra ampliamente tabulada:
la distribución normal estandarizada.

DISTRIBUCIÓN NORMAL ESTANDARIZADA (Z)


La variable aleatoria Z tiene una distribución normal particular cuya media vale 0 y cuya
varianza vale 1 :
Z ~ n (0,1)
Existe un procedimiento matemático, la estandarización, a través del cual se puede
transformar a cualquier variable X con distribución normal con media µ y desviación
estándar σ, X ~ n (µ, σ ), en la distribución normal estandarizada Z ~ n (0,1). Para ello
primero debemos correr el origen hacia la media de la distribución para que la nueva
media sea cero: cada valor se expresa como desvíos de su media, o sea (x - µ). Luego
debemos cambiar la unidad de medida, para transformarla en unidades de desviación
estándar, para lo cual debemos dividir los desvíos por σ. Así resulta la transformación:

x−µ
Z=
σ

Cada valor Z nos dice a qué distancia está el valor de la media, esa distancia está medida
en “número de unidades de desviación estándar” o “número de desviaciones tipificadas”
Por ejemplo:
Z = 1,3 significa que el valor de la variable está a una distancia equivalente a 1,3 unidades
de desviación típica por encima de la media.
Z = - 2,7 significa que el valor de la variable está a 2,7 unidades de desviación típica por
debajo de la media

Dada una variable X ~ n (µ = 30, σ = 6), ¿qué valor le corresponderá a X = 32 en la


distribución Z? Para responder estandarizamos el valor 32:
x−µ 32 − 30
Z= = = 0,33
σ 6
Respuesta: le corresponde el valor 0,33.

¿Cómo calcular probabilidades asociadas a valores de una variable con d. normal?


* Aplicando la operación integral a la función de densidad, reemplazando los
parámetros µ y σ. DIFÍCIL!!
* Usando una tabla de distribución de probabilidades, que indica cuál es el valor de
probabilidad para diferentes intervalos de valores de Z (normal estandarizada)
* Usando InfoStat

Distribuciones de probabilidad teóricas - 2016 13


Ejemplo 4: Se sabe que la altura de las plantas de maíz de dos semanas es una variable
aleatoria con distribución aproximadamente normal, con µ = 12 cm y σ = 1 cm.
Si se analiza una planta extraída al azar de la población, ¿cuál es la probabilidad de que:
a) Mida más de 13 cm.
b) Mida entre 10 y 12,5 cm.
c) Mida menos de 11,7 cm.
d) Mida entre 12,5 y 14 cm.
e) Qué medida es superada por el 68% de los datos?

Solución:
X: altura de plantas de maíz
Parámetros: µ = 12 cm y σ = 1 cm
Normal(12,1): p(evento)=0,1587
0,40

a) Mida más de 13 cm 0,30


13 − 12
P ( X ≥ 13) = Z= =1
0,20
0,10
= P(Z ≥ 1) = 0,1587 1 0,00
8 9 11 12 13 15 16

d) Mida menos de 11,7 cm 0,40


Normal(12,1): p(evento)=0,3821

P(X ≤ 11,7) 0,30

11,7 − 12
Z= = −0,3
0,20

0,10
1 0,00
= P (Z ≤ -0,3) = P( Z ≥ 0,3) = 0,3821 8 9 11 12 13 15 16

c) Mida entre 10 y 12,5 cm


P( 10 ≤ X ≤ 12,5) =
Normal(12,1): p(evento)=0,6687
0,40

10 − 12 0,30
Z= = −2 0,20
1 0,10

12,5 − 12 0,00
Z= = 0,5 8 9 11 12 13 15 16
1

P( -2 ≤ Z ≤ 0,5) = 1 – P ( Z ≤ -2) – P( Z ≥ 0,5) = 1 – P ( Z ≥ 2) – P( Z ≥ 0,5)


= 1 – 0,0228 – 0,3085 = 0,6687

d) Mida entre 12,5 y 14 cm


P( 12,5 ≤ X ≤ 14) = 0,40
Normal(12,1): p(evento)=0,2858

0,30

12,5 − 12 14 − 12
Z= = 0,5 Z= =2
0,20

1 1 0,10

0,00
8 9 11 12 13 15 16

P( 12,5 ≤ X ≤ 14) =
= P( 0,5 ≤ Z ≤ 2) = P (Z ≥ 0,5) – P( Z ≥ 2) =
= 0,3085 – 0,0228 = 0,2857

Distribuciones de probabilidad teóricas - 2016 14


e) ¿Qué medida es superada por el 68% de los Normal(12,1): p(evento)=0,6808
datos? 0,40

Puede expresarse como: ¿qué valor de la variable 0,30

deja el 68% de la distribución a la derecha? 0,20

0,10

P ( X > xi) = 0,68 ⇒ P ( Z > zi) = 0,68 0,00 68%


⇒ P (Z < zi) = 0,32 (el valor que deja a la derecha el
8,00 10,00 12,00 14,00 16,00

68% de la distribución también deja por debajo el


32%)
buscamos en el interior de la tabla normal el valor de probabilidad 0,32 (o el más parecido)
y luego vemos a qué valor de la variable Z corresponde ⇒ zi = -0,47
Finalmente des-estandarizamos el valor -0,47:
Xi = Zi . σ + µ = -0,47 . 1 + 12 = 11,53 cm

IMPORTANCIA DE LA DISTRIBUCIÓN NORMAL


1) Si la variable considerada tiene distribución normal se podrán aplicar a los datos
correspondientes a esta variable muchas pruebas estadísticas que requieren de esta
condición.
2) El saber si una variable tiene distribución normal puede confirmar o rechazar hipótesis
fundamentales acerca de la naturaleza de los factores que afectan el fenómeno
estudiado. Esto tiene que ver con las suposiciones exigidas para la normalidad: los
factores que afectan a una variable distribuida normalmente son aditivos,
independientes y de igual varianza.
3) Si analizamos una variable que suponemos que tiene distribución normal, las
desviaciones de la normalidad pueden alertar sobre la fiabilidad de los datos. Por
ejemplo:
∗ Si la distribución es bimodal puede indicar mezcla de poblaciones.
∗ Si la distribución es asimétrica puede indicar que el muestreo fue selectivo,
y no están representados los valores de alguno de los extremos de la
distribución.
4) Suponiendo la normalidad de la variable se pueden hacer predicciones, es decir,
contestar preguntas de probabilidad igual que hicimos con las distribuciones de
probabilidad de variables aleatorias discretas.
5) Muchas variables no normales pueden convertirse en normales aplicando alguna
transformación como logaritmo, raíz cuadrada, inversa de x, etc; pudiendo entonces
aplicar pruebas estadísticas que requieran normalidad.
6) Gran parte de los estadísticos muestrales tienen distribución normal. En estos casos
podemos hacer inferencias respecto de los valores paramétricos de la población, a partir
de estadísticos muestrales.

Algunas aplicaciones de la distribución normal:


prueba de hipótesis y estimación de µ

Distribuciones de probabilidad teóricas - 2016 15


prueba de hipótesis y estimación de ∆µ (diferencia de medias)
prueba de hipótesis y estimación de π
prueba de hipótesis y estimación de ∆π (diferencia de proporciones)

DISTRIBUCIÓN t DE STUDENT
Se tiene una población de N elementos y se está estudiando una variable de tipo continua
X. Podemos suponer que: X ∼ n (µ , σ)
Si extraemos una muestra de n individuos a los cuales se les mide dicha variable en
estudio, obtenemos los siguientes datos:
X 1, X 2, X 3, . . . , X n
Estos valores también se distribuirán en forma normal ∼ n (µ , σ). Si la muestra es
representativa de la población de origen, es lógico suponer que las observaciones muestrales
también son variables aleatorias con media µ y desviación típica σ.
Efectuando una transformación z obtenemos la siguiente serie de variables normales
estandarizadas:
Z 1, Z 2, Z 3, . . . , Z n
Si hacemos el cociente:
Ζi
t= ≈ tδ i = 1, 2, 3 ,. . . , n
Z 1 + Z 2 + Z 3 + ...+ Z n / n

Esta variable que simbolizamos con t tiene distribución t de Student con δ grados de
libertad.
La variable con distribución t de Student se define como el cociente entre una
variable normal estandarizada y la raíz cuadrada de la suma de variables
aleatorias normales dividido n.

Características de la distribución t:
− El campo de variación es de - ∞ a ∞
− Tiene forma de campana simétrica
− La media vale 0, la desviación típica es mayor que 1
− Comparada con la distribución normal estandarizada (Z), es más alta en las
colas y más baja en el centro.
− El área total debajo de la curva de distribución t es igual a 1
− Existe una familia de distribuciones t cada una de las cuales depende de los
grados de libertad (δδ ).
− Cuanto mayor es δ más se parece la distribución a la normal estandarizada.
Para grados infinitos de libertad (en la práctica cuando δ ≤ 30) las curvas son
iguales.
− El parámetro que define a la distribución t es δ.

Distribuciones de probabilidad teóricas - 2016 16


0,37
normal

0,28 t de student

Densidad
0,18

0,09

0,00
-8,66 -4,33 0,00 4,33 8,66
Variable

Para realizar cálculos de probabilidades asociadas a valores de t se utilizan las tablas de


distribución de t de Student.

Algunas aplicaciones de la distribución t de Student :


prueba de hipótesis y estimación de µ
prueba de hipótesis y estimación de ∆µ
prueba de hipótesis y estimación del coeficiente de regresión β
prueba de hipótesis y estimación de µd (media de la diferencia de muestras pareadas)
prueba de hipótesis para el coeficiente de correlación ρ

DISTRIBUCIÓN CHI CUADRADO X2


Se tiene una población de N elementos y se está estudiando una variable de tipo
continua X. Podemos suponer que: X ∼ n (µ , σ)
Si extraemos una muestra de n individuos a los cuales se les mide dicha variable en
estudio, obtenemos los siguientes datos: X1, X2, X3, . . . , Xn
Efectuando una transformación z obtenemos la siguiente serie de variables normales
estandarizadas: Z1, Z2, Z3, . . . , Zn donde cada Zi = X1- µ / σ
Si elevamos al cuadrado cada una de estas variables normales estandarizadas y las
sumamos, obtenemos:
χ 2 = Z12 + Z22 + Z32 +...+ Zn2 ≈ χ δ2
La suma de las Zi2 es lo que se llama variable chi cuadrado y se simboliza X2.

La distribución chi cuadrado es la suma de n variables estandarizadas


elevadas al cuadrado.

Características de la distribución X2:


− Su campo de variación va de 0 a ∞ .
− La curva de distribución es asimétrica positiva .
− Los valores de X2 dependen de las observaciones muestrales y de δ.
− Si δ es mayor los valores de X2 serán mayores, es decir que habrá una curva de
2
distribución X para cada valor de δ (el valor δ, que especifica la cantidad de

Distribuciones de probabilidad teóricas - 2016 17


2
sumandos independientes que intervienen en la definición de una variable X se
denominan grados de libertad).
− La asimetría disminuye al aumentar δ.
2
− La esperanza matemática de una distribución X es igual a sus grados de
libertad.
2
E(X ) = δ
2
− La varianza de una distribución X es igual al doble de sus grados de libertad
2
V(X ) = 2 δ
2
− El parámetro que define a la distribución X es δ

0,24
d=3

0,18
Densidad

0,12 d = 12
d = 30
0,06

0,00
0,00 5,00 10,00 15,00 20,00
Variable

Algunas aplicaciones de la distribución X2


-Estadística paramétrica: prueba de hipótesis y estimación de σ
-Estadística no paramétrica: prueba de bondad de ajuste a la distribución normal
prueba de bondad de ajuste a una distribución teórica
prueba de independencia
prueba de homogeneidad
prueba de ajuste a proporciones teóricas

DISTRIBUCIÓN F DE SNEDECOR
Si definiéramos dos variables X2, podremos efectuar el cociente entre estas dos
variables, dividiendo a cada una por sus correspondientes grados de libertad, obteniendo
una distribución F de Snedecor

χ δ2 / δ 1
F= 1
≈ F(δ 1 ,δ 2 )
χδ / δ 2
2
2

La variable así definida tiene distribución F con δ1 y δ2 grados de libertad, donde δ1 se


define como los grados de libertad del numerador y δ2 como los grados de libertad del
denominador.

Distribuciones de probabilidad teóricas - 2016 18


Características de la distribución F:
− El campo de variación va de 0 a ∞ 0≤F≤∞
− Es una curva asimétrica positiva.
− Sus parámetros son δ1 y δ2.
− La forma de la curva depende de los grados de libertad: al incrementarse los
grados de libertad, la curva se va haciendo más simétrica.

1,2

1,0
Densidad

0,7

0,5

0,2

0,0
0,00 2,00 4,00 6,00 8,00
Variable

Propiedad recíproca:
Si X es una variable ~ F (δ1; δ2) y Y = 1 /X , tendrá una distribución ~ F (δ2; δ1).
Una F con δ1 y δ2 grados de libertad que acumula una probabilidad α es igual a la
recíproca de una F con los grados de libertad cambiados de orden (δ2 , δ1) y una
probabilidad igual a 1 - α

1
F( δ 1 ,δ 2 ;α ) =
F ( δ 2 , δ 1 ;1 − α )

Aplicación de la distribución F: prueba de homogeneidad de varianzas

Distribuciones de probabilidad teóricas - 2016 19


GRADOS DE LIBERTAD

El concepto de grados de libertad es un concepto matemático. Corresponde al número de


observaciones linealmente independientes que intervienen en una suma de cuadrados; es
decir, las observaciones que son libres de variar.
Se encuentran mediante la fórmula (n – 1), donde n es el número de sujetos en la
muestra, aunque también pueden ser representados por (k - 1), donde k es el número de
grupos, cuando se realizan operaciones con grupos y no con sujetos individuales.

Para generalizar, el número de grados de libertad puede definirse como:


- el número de elementos que pueden escogerse libremente
- el número de variables que pueden variar libremente
- el número de variables independientes.

También podemos decir que dado el tamaño de la muestra n, δ = (n – m), donde m es el


número de restricciones impuestas para los cálculos de un estadístico que abarca sumas
de cuadrados. Las restricciones pueden referirse a las mencionadas anteriormente o al
número de parámetros que se deben estimar para el cálculo del estadístico.
Por ejemplo para calcular la varianza muestral de un conjunto de datos utilizamos una
suma de cuadrados: S2 = ∑(xi - x )2 / g l

Al calcular los desvíos de cada valor respecto de la media, uno de ellos no resulta
independiente ya que debe cumplir con la restricción impuesta por la propiedad de la
media: ∑(xi - x ) = 0. Por lo tanto, uno de los desvíos no es linealmente independiente del resto
⇒ los grados de libertad se calculan como (n - 1).
Valores xi (xi - x ) La media de estos valores es 7.
3 (3 - 7) = - 4 Si calculamos los desvíos de cada valor respecto de
6 (6 - 7) = -1 la media vemos que suman cero.
12 (12 - 7) = 5
sumatoria 0

Distribuciones de probabilidad teóricas - 2016 20

You might also like