You are on page 1of 23

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN

UNIVERSIDAD VALLE DEL MOMBOY

FACULTAD DE INGENIERÍA

CARVAJAL, ESTADO TRUJILLO

Distribuciones discretas y
continuas de probabilidad.

Estudiante:

Lupi D. Estefany.

C.I 27.981.833

CARVAJAL, NOVIEMBRE 2018


INTRODUCCIÓN

La distribución de probabilidad de una variable aleatoria es una función que asigna


a cada suceso definido sobre la variable la probabilidad de que dicho suceso
ocurra. Una distribución de probabilidad indica toda la gama de valores que
pueden representarse como resultado de un experimento.

Dichas distribuciones son distribuciones de probabilidad continuas o distribuciones


de probabilidad discretas, dependiendo de si definen probabilidades para variables
continuas o discretas.

Se denomina distribución de variable discreta a aquella cuya función de


probabilidad solo toma valores positivos en un conjunto de valores de X finito o
infinito numerable.

Y además, si la variable es continua, esto significa que puede tomar cualquier


valor dentro de un intervalo, por lo tanto la distribución que se generará será una
distribución continua.

Por otra parte, mediante la distribución muestral se puede estimar el error para un
tamaño de muestra dado.
Distribución Discreta y Continua de Probabilidad.

Las distribuciones de probabilidad son distribuciones de probabilidad continuas o


distribuciones de probabilidad discretas, dependiendo de si definen probabilidades
para variables continuas o discretas. Una distribución de probabilidad indica toda
la gama de valores que pueden representarse como resultado de un experimento.
Una distribución de probabilidad es similar al distribución de frecuencias relativas.

Variables discretas: Una variable discreta es una variable que no puede tomar
algunos valores dentro de un mínimo conjunto numerable, quiere decir, no acepta
cualquier valor, únicamente aquellos que pertenecen al conjunto. En estas
variables se dan de modo coherente separaciones entre valores observables
sucesivos. Entonces, son aquellas cuyas observaciones se agrupan
‘inherentemente’ o ‘naturalmente’ en categorías, porque dichas variable por su
naturaleza sólo pueden tomar ciertos valores muy específicos.

Por ejemplo: Los seres humanos pueden ser mujeres u hombres, se ajustan a una
u otra categoría y no hay continuidad ni puntos intermedios entre ellas. Los países
o regiones del mundo también son buenos ejemplos de variables discretas.

Variables continuas: Una variable continua puede tomar un valor fijo dentro de
un intervalo determinado. Y siempre entre dos valores observables va a existir un
tercer valor intermedio que también podría tomar la variable continua. Una variable
continua toma valores a lo largo de un continuo, esto es, en todo un intervalo de
valores. Un atributo esencial de una variable continua es que, a diferencia de una
variable discreta, nunca puede ser medida con exactitud; el valor observado
depende en gran medida de la precisión de los instrumentos de medición. Con una
variable continua hay inevitablemente un error de medida. Además, como su
nombre lo indica, sólo se pueden agrupar en forma arbitraria en categorías,
porque por su naturaleza pueden tomar cualquier valor a lo largo de un continuo (o
de una escala numérica continua).

Como ejemplo, la estatura de una persona (1.72m, 1.719m, 1.7186m....). Otro


ejemplo, puede ser el tiempo que toma un atleta en recorrer 100 metros planos, ya
que este tiempo puede tomar valores como 9,623 segundos; 10,456485 segundos;
12,456412 segundos; es decir, un intervalo de valores.

La distinción entre variables discretas y continuas es de gran aplicabilidad en la


estadística. Pero su importancia sólo queda clara después de comprender el
concepto estadístico fundamental de ‘distribución’ o ‘distribución de frecuencias’.
Distribución Continua

Una distribución continua describe las probabilidades de los posibles valores de


una variable aleatoria continua. Una variable aleatoria continua es una variable
aleatoria con un conjunto de valores posibles (conocido como el rango) que es
infinito y no se puede contar.

Las probabilidades de las variables aleatorias continuas (X) se definen como el


área por debajo de la curva de su PDF. Por lo tanto, solo los rangos de valores
pueden tener una probabilidad diferente de cero. La probabilidad de que una
variable aleatoria continua equivalga a algún valor siempre es cero.

En el caso de variable continua la distribución de probabilidad es la integral de la


función de densidad, por lo que tenemos entonces que:

Tipos de distribuciones de variable continua

Las distribuciones continuas más utilizadas incluidas en el módulo de


“Cálculo de probabilidades” son:

 Distribución uniforme o rectangular (a,b)

La distribución uniforme es útil para describir una variable aleatoria con


probabilidad constante sobre el intervalo (a,b) en el que está definida y se denota
por U(a,b). También es conocida con el nombre de distribución rectangular por el
aspecto de su función de densidad.

Campo de variación:

a<x<b

Parámetros:

a: mínimo, -∞ < a < ∞

b: máximo, -∞ < b < ∞ con a < b

 Normal
 Lognormal
 Logística
 T de Student.
 F de Snedecor
 Pareto
 Cauchy

Distribuciones definidas en un intervalo acotado:

Algunas de éstas son:

 La distribución arcoseno, definida en el intervalo [a,b].

 La distribución beta, definida en el intervalo [0, 1], que es útil a la hora de


estimar probabilidades.

 La distribución del coseno alzado.


 La distribución degenerada en x0, en la que X toma el valor x0 con
probabilidad 1. Puede ser considerada tanto una distribución discreta como
continua.

 La distribución de Irwin-Hall o distribución de la suma uniforme, es la


distribución correspondiente a la suma de n variables aleatorias i.i.d. ~ U(0,
1).

Definidas en un intervalo semi-infinito, usualmente [0,∞)

Algunas de éstas son:

 La distribución beta prima.


 La distribución de Birnbaum–Saunders, también llamada distribución de
resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.

 La distribución χ² o distribución de Pearson, que es la suma de cuadrados


de n variables aleatorias independientes gaussianas. Es un caso especial de
la gamma, utilizada en problemas de bondad de ajuste.

 La distribución exponencial, que describe el tiempo entre dos eventos


consecutivos en un proceso sin memoria.
Definidas en la recta real completa:

Algunas de éstas son:

 La distribución de Behrens–Fisher, que surge en el problema de Behrens–


Fisher.

 La distribución de Cauchy, un ejemplo de distribución que no tiene


expectativa ni varianza. En física se le llama función de Lorentz, y se asocia
a varios procesos.

 La distribución de Chernoff.

 La distribución estable o distribución asimétrica alfa-estable de Lévy, es una


familia de distribuciones usadas e multitud de campos. Las distribuciones
normal, de Cauchy, de Holtsmark, de Landau y de Lévy pertenecen a esta
familia.

 La distribución estable geométrica.

Definidas en un dominio variable

Algunas de éstas son:

 La distribución de Fisher–Tippett o distribución del valor extremo


generalizada, puede estar definida en la recta real completa o en un
intervalo acotado, dependiendo de sus parámetros.

 La distribución de Pareto generalizada está definida en un dominio que


puede estar acotado inferiormente o acotado por ambos extremos.

 La distribución lambda de Tukey, puede estar definida en la recta real


completa o en un intervalo acotado, dependiendo de sus parámetros.

Distribución Discreta

Una distribución discreta describe la probabilidad de ocurrencia de cada valor de


una variable aleatoria discreta. Una variable aleatoria discreta es una variable
aleatoria que tiene valores contables, tales como una lista de enteros no
negativos.
Con una distribución de probabilidad discreta, cada valor posible de la variable
aleatoria discreta puede estar asociado con una probabilidad distinta de cero. Por
lo tanto, una distribución de probabilidad discreta suele representarse en forma
tabular.

Se denomina distribución de variable discreta a aquella cuya función de


probabilidad solo toma valores positivos en un conjunto de valores de X finito o
infinito numerable. A dicha función se le llama función de masa de probabilidad.

En este caso la distribución de probabilidad es la suma de la función de masa, por


lo que tenemos entonces que:

Tipos de Distribuciones de Variable Discreta

Definidas sobre un dominio finito

Algunas de éstas son:

 La distribución binomial.

 La distribución de Bernoulli, la clásica binomial, que toma valores "1", con


probabilidad p, o "0", con probabilidad q = 1 – p.
 La distribución de Rademacher, que toma valores "1" o "-1" con
probabilidad 1/2 cada uno.

 La distribución uniforme discreta.

Definidas sobre un dominio infinito

Algunas de éstas son:

 La distribución binomial negativa o distribución de Pascal, que describe el


número de ensayos de Bernoulli independientes necesarios para conseguir
n aciertos, dada una probabilidad individual de éxito p constante.

 La distribución geométrica.

 La distribución beta-binomial negativa, que describe el número de


experimentos del tipo "si/no" necesarios para conseguir n aciertos, cuando
la probabilidad de éxito de cada uno de los intentos está distribuida de
acuerdo con una beta.
 La distribución binomial negativa extendida.
Entre las más utilizadas en el módulo de “cálculo de probabilidad” tenemos:

 Distribución uniforme discreta (a,b).

La distribución uniforme discreta describe el comportamiento de una variable


discreta que puede tomar n valores distintos con la misma probabilidad cada uno
de ellos. Un caso particular de esta distribución, cuando los valores son enteros
consecutivos. Esta distribución asigna igual probabilidad a todos los valores
enteros entre el límite inferior y el límite superior que definen el recorrido de la
variable. Si la variable puede tomar valores entre a y b, debe ocurrir que b sea
mayor que a, y la variable toma los valores enteros empezando por a, a+1, a+2,
etc. hasta el valor máximo b. Por ejemplo, cuando se observa el número obtenido
tras el lanzamiento de un dado perfecto, los valores posibles siguen una
distribución uniforme discreta en {1, 2, 3, 4, 5, 6}, y la probabilidad de cada cara es
1/6.

Valores:

k: a, a+1, a+2, ..., b, números enteros

Parámetros:

a: mínimo, a entero

b: máximo, b entero con a < b

Ejemplo

- El temario de un examen para un proceso selectivo contiene 50 temas, de los


cuales se elegirá uno por sorteo. Si una persona no ha estudiado los 15 últimos
temas ¿cuál es la probabilidad de que salga un tema que haya estudiado?

La variable que representa el número del tema seleccionado para el examen sigue
una distribución uniforme con parámetros a = 1 y b = 50. La persona ha estudiado
los temas del 1 al 35; por tanto, la probabilidad que se pide es la cola a la
izquierda de 35. Para obtener los resultados basta con proporcionarle los
parámetros de la distribución, y seleccionar la opción de calcular probabilidades
para el punto 35.
La persona tiene una probabilidad del 70% de que el tema elegido sea uno de los
que haya estudiado.

 Distribución binomial (n,p)

Esta distribución aparece de forma natural al realizar repeticiones independientes


de un experimento que tenga respuesta binaria, generalmente clasificada como
“éxito” o “fracaso”; este experimento recibe el nombre de experimento de Bernoulli.
Ejemplos de respuesta binaria pueden ser el hábito de fumar (sí/no), si un
paciente hospitalizado desarrolla o no una infección, o si un artículo de un lote es
o no defectuoso. La variable discreta que cuenta el número de éxitos en n pruebas
independientes de ese experimento, cada una de ellas con la misma probabilidad
de “éxito” igual a p, sigue una distribución binomial de parámetros n y p, que se
denota por (Bi(n,p)). Este modelo se aplica a poblaciones finitas de las que se
toman elementos al azar con reemplazo, y también a poblaciones
conceptualmente infinitas, como por ejemplo las piezas que produce una máquina,
siempre que el proceso de producción sea estable (la proporción de piezas
defectuosas se mantiene constante a largo plazo) y sin memoria (el resultado de
cada pieza no depende de las anteriores).

Un ejemplo de variable binomial puede ser el número de pacientes con cáncer de


pulmón ingresados en una unidad hospitalaria.

Un caso particular se tiene cuando n=1, que da lugar a la distribución de Bernoulli.

Valores:

k: 0, 1, 2, ..., n

Parámetros:
n: número de pruebas, n ≥ 1 entero

p: probabilidad de éxito, 0 < p < 1

 Distribución geométrica (p)

Supóngase que se efectúa repetidamente un experimento o prueba, que las


repeticiones son independientes y que se está interesado en la ocurrencia o no de
un suceso al que se refiere como “éxito”, siendo la probabilidad de este suceso p.
La distribución geométrica permite calcular la probabilidad de que tenga que
realizarse un número k de repeticiones antes de obtener un éxito por primera vez;
esta probabilidad decrece a medida que aumenta k con lo que la función de masa
de probabilidad es siempre decreciente. Así pues, se diferencia de la distribución
binomial en que el número de repeticiones no está predeterminado, sino que es la
variable aleatoria que se mide y, por otra parte, el conjunto de valores posibles de
la variable es ilimitado.

Para ilustrar el empleo de esta distribución, se supone que cierto medicamento


opera exitosamente ante la enfermedad para la cual fue concebido en el 80% de
los casos a los que se aplica; la variable aleatoria “intentos fallidos en la aplicación
del medicamento antes del primer éxito” sigue una distribución geométrica de
parámetro p = 0,8.

Distribución Normal

La distribución normal es, sin duda, la distribución de probabilidad más importante


del Cálculo de probabilidades y de la Estadística. Fue descubierta, como
aproximación de la distribución binomial, por Abraham De Moivre (1667-1754). En
1809, Carl Friedrich Gauss (1777- 1855) publicó un libro sobre el movimiento de
los cuerpos celestes donde asumía errores normales, por este motivo esta
distribución también es conocida como distribución Gaussiana.

La importancia de la distribución normal queda totalmente consolidada por ser la


distribución límite de numerosas variables aleatorias, discretas y continuas, como
se demuestra a través de los teoremas centrales del límite. Las consecuencias de
estos teoremas implican la casi universal presencia de la distribución normal en
todos los campos de las ciencias empíricas: biología, medicina, psicología, física,
economía, etc. En particular, muchas medidas de datos continuos en medicina y
en biología (talla, presión arterial, etc.) se aproximan a la distribución normal.
Junto a lo anterior, no es menos importante el interés que supone la simplicidad de
sus características y de que de ella derivan, entre otras, tres distribuciones (ji-
cuadrado, t de Student y F de Snedecor), de importancia clave en el campo de la
contrastación de hipótesis estadísticas.

La distribución normal queda totalmente definida mediante dos parámetros: la


media () y la desviación estándar o desviación típica (). Su función de densidad
es simétrica respecto a la media y la desviación estándar nos indica el mayor o
menor grado de apertura de la curva que, por su aspecto, se suele llamar
campana de Gauss. Esta distribución se denota por N(,).

Campo de variación:

- < x < 

Parámetros:

: media, - <  < 

: desviación estándar,  > 0

Función de densidad:

Valores característicos:

Media = Mediana = Moda: 

Varianza: 2
Asimetría: 0

Curtosis: 0

Cuando la distribución normal tiene como parámetros  = 0 y  = 1 recibe el


nombre de distribución normal estándar. Cualquier variable X que siga una
distribución normal de parámetros  y  se puede transformar en otra variable Y=
(X-)/ que sigue una distribución normal estándar; este proceso se denomina
estandarización, tipificación o normalización.

Distribución normal estándar:

Existe un número infinito de distribuciones normales, cada una de ellas con su


media y desviación típica propias. Como no podemos trabajar con tal número de
posibilidades, convertiremos todas estas distribuciones normales en una sola
forma estándar, esto es, usaremos la N (0, 1) cuya función de densidad está dada
por

 Es simétrica respecto a x = 0.
 Es creciente para x < 0 y decreciente para x > 0.
 1, −1 son puntos de inflexión.
 y = 0 es una asíntota horizontal.
 F (−x) = 1 − F (x)

Ejemplo
- Se supone que el nivel de colesterol de los enfermos de un hospital sigue una
distribución normal con una media de 179,1 mg/dL y una desviación estándar de
28,2 mg/dL.

1. ¿Cuál es el porcentaje de enfermos con un nivel de colesterol inferior a 169


mg/dL?

2. Representar la función de densidad.

1.-

El porcentaje de enfermos con un nivel de colesterol inferior a 169 mg/dL es 36%.


2.-

Tabla de la Distribución Normal

La tabla de la distribución normal presenta los valores de probabilidad para una


variable estándar Z, con media igual a 0 y varianza igual a 1.

Para usar la tabla, siempre debemos estandarizar la variable por medio de la


expresión:
Debemos calcular Z usando los datos de nuestra muestra. En general, el valor de
Z se interpreta como el número de desviaciones estándar que están comprendidas
entre el promedio y un cierto valor de variable x. En otras palabras, se puede decir
que es la diferencia entre un valor de la variable y el promedio, expresada esta
diferencia en cantidad de desviaciones estándar.

Supongamos un conjunto de personas con edad promedio 25 años y desviación


estándar 3,86. Nuestro valor de interés (x) es 30 años. El valor de Z
correspondiente será:

Este valor de Z nos dice que la edad de 30 años está a 1,29 desviaciones
estándar sobre el promedio.

La tabla de la distribución normal, entrega valores de probabilidad para los


distintos valores de Z.

En la primera columna de la tabla aparece el entero y primer decimal del valor de


Z, vemos que los valores van desde -3,4 a 3,3. En la primera fila (arriba), aparece
el segundo decimal del valor de Z y, como es lógico, hay 10 números (0,00 a
0,09).
¿Cuál es la probabilidad de encontrar un valor de Z menor o igual a 1,96?

Z = 1,96 buscaremos 1,9 en la primera columna de la tabla y 0,06 en la primera


fila de la tabla. Trazaremos líneas perpendiculares desde esos valores y
llegaremos a un número en el cuerpo de la tabla. El número que encontramos y
que está destacado es: 0,9750.

Por lo tanto, la probabilidad asociada a Z=1,96 es 0,9750, es decir, la probabilidad


de encontrar un valor de Z menor o igual a 1,96 es 0,9750.

En el ejemplo de la edad 30 años, vemos que el valor Z = 1,29, calculado


anteriormente, tiene una probabilidad asociada de 0,9014.

Entonces, la probabilidad de encontrar una persona con edad de 30 años o


menos, en este grupo humano, es 0,9014.

Distribución T de Student.

Esta distribución fue propuesta y tabulada por William Sealy Gosset (1876-1937),
más conocido por el seudónimo de Student, como resultado de un estudio sobre la
estimación de la media cuando el tamaño de muestra es pequeño.

La distribución t de Student queda completamente definida por medio de sus


grados de libertad, n, y se denota por tn. Surge cuando se plantea estudiar el
cociente entre una variable aleatoria con distribución normal estándar y la raíz
cuadrada del cociente entre una variable aleatoria con distribución ji-cuadrado y
sus grados de libertad (n), siendo las dos variables independientes. Esta
distribución desempeña un papel muy importante en la inferencia estadística
asociada a la teoría de muestras pequeñas y es usada habitualmente en el
contraste de hipótesis para la media de una población o para comparar medias de
dos poblaciones.

En cuanto a la forma que presenta su función de densidad cabe destacar las


similitudes que mantiene con la función de densidad de la distribución normal
estándar: forma acampanada, simétrica y centrada en el origen; la única diferencia
existente entre ambas distribuciones es que la función de densidad de la t de
Student presenta unas colas más pesadas (mayor dispersión) que la normal.

Cabe destacar que el programa sólo permite realizar el cálculo para una
distribución t de Student con 150 grados de libertad o menos. Esto no supone una
limitación ya que, a medida que aumentan los grados de libertad, esta distribución
se va aproximando a la normal estándar, de forma que a partir de ese valor de n
pueden considerarse prácticamente idénticas.

Campo de variación:

- < x < 

Parámetros:

n: grados de libertad, n ≥ 1 entero

Función de densidad:

Valores característicos:

Media = Mediana = Moda: 0

Varianza: n/ n – 2 para n > 2

Asimetría: 0

Curtosis: 6/ n – 4 para n > 4


Ejemplo

- La distribución t de Student se aproxima a la normal a medida que aumentan los


grados de libertad.

1. Calcular, para una distribución N(0,1), el punto que deja a la derecha una cola
de probabilidad 0,05.

2. Calcular, para una distribución t de Student, la probabilidad de que la variable


tome un valor a la derecha de ese punto. Tomar como grados de libertad
sucesivamente n = 10 y n = 150.

Para el primer apartado hay que seleccionar en la lista de distribuciones la normal


de parámetros  = 0 y  = 1.

En el segundo apartado se ejecutará dos veces: la primera vez para una


distribución t de Student con 10 grados de libertad y la segunda vez con 150
grados de libertad.
Se aprecia claramente que, al aumentar los grados de libertad de la t de Student,
la probabilidad se acerca a la calculada con la distribución normal.

Tabla de Distribución de T- Student.

En la primera columna de la tabla aparecen los grados de libertad.

Para definir los grados de libertad se hará referencia a la varianza maestral:

Esta fórmula está basada en n-1 grados de libertad.

Ejemplo:

Para 10 grados de libertad.


P[ t > 1.812] = 0.05

P[ t < -1.812] = 0.05

El resultado es: 1,812.

Ejemplo 2

¿Cuál es el valor de T0.975,10?

- Grados de libertad v=10 y α = 0,975.


Se busca la intersección y el resultado es 2,228.

Distribuciones muestrales

La distribución muestral es lo que resulta de considerar todas las muestras


posibles que pueden ser tomadas de una población. Su estudio permite calcular la
probabilidad que se tiene, dada una sola muestra, de acercarse al parámetro de la
población. Mediante la distribución muestral se puede estimar el error para un
tamaño de muestra dado.

El objetivo es efectuar una generalización de los resultados de la muestra a la


población. Inferir o adivinar el comportamiento de la población a partir del
conocimiento de una muestra.

Para ello es necesario conocer las distribuciones de probabilidad de ciertas


funciones de las muestras que constituyen variables aleatorias asociadas al
experimento aleatorio, selección de una muestra al azar de una población.

• Dada una población y el experimento aleatorio consistente en seleccionar una


muestra de dicha población, se define la variable aleatoria U (estadístico muestral)
como una aplicación que asigna a cada muestra, m, un resumen estadístico
determinado,U(m). Esta nueva variable aleatoria U tiene una distribución de
probabilidad denominada distribución muestral de U.

m=(x1, x2, …,xn) => U(m)=estadístico muestral.

• Su comportamiento dependerá del que tenga X en la población y del tamaño de


las muestras.

Estaremos interesados en conocer su comportamiento probabilístico, porque esto


nos permitirá hacer inferencias acerca del comportamiento de la población.

A veces nos resultará útil conocer su esperanza matemática y/o su varianza.

Ejemplo

Distribución muestral de la media

Si la variable de partida es normal


- El CI de los alumnos de un centro especial se distribuye normalmente con media
80 y desviación típica 10. Si extraemos una muestra aleatoria simple de 25
alumnos:

a) Si se extrae un sujeto al azar, ¿Cuál es la probabilidad de que obtenga como


mínimo una puntuación en CI de 75?

b) ¿Cuál es la probabilidad de que su media aritmética sea mayor de 75?

Tenemos que:
CONCLUSIONES

Las distribuciones de probabilidad pueden ser distribuciones de probabilidad


continuas o distribuciones de probabilidad discretas, esto va a depender de si
definen probabilidades para variables continuas o discretas.

Se puede decir que las variables discretas son aquellas cuyas observaciones se
agrupan naturalmente en categorías, porque dichas variables sólo pueden tomar
ciertos valores muy específicos es decir, no acepta cualquier valor, únicamente
aquellos que pertenecen al conjunto.

Por otro lado, las variables continuas, sólo se pueden agrupar en forma arbitraria
en categorías, puede tomar un valor fijo dentro de un intervalo determinado a lo
largo de una escala numérica continua.

Existen diferentes tipos dentro de las distribuciones continuas, como lo son las
distribuciones normal; la cual es una de las más importantes por ser la distribución
límite de numerosas variables aleatorias, discretas y continuas. También, la
distribución de T Student que surgió del problema de estimar la media de una
población normalmente distribuida cuando el tamaño de la muestra es pequeño.

Además, la distribución muestral es lo que resulta de considerar todas las


muestras posibles que pueden ser tomadas de una población.

Entonces, podemos decir que las distribuciones de probabilidad muestran todos


los resultados posibles de un experimento y la probabilidad de cada resultado.
BIBLIOGRAFÍA

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/basics/continuous-and-discrete-
probability-distributions/

https://www.sergas.es/Saude-
publica/Documents/1899/Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubr
e2014.pdf

https://www.monografias.com/trabajos29/distribucion-probabilidades/distribucion-
probabilidades.shtml

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_muestral

You might also like