You are on page 1of 13

GRUPO: CIVIL BETA

MATERIA: MÉTODOS ESTADÍSTICOS


DOCENTE: ING. FLAVIO CARREÑO HEVIAVACA
INTEGRANTES:
CAUCOTA YAPURA ROLY 216158321
CLEMENTE ANAGUA DAVID 216013046
FLORES RAMIREZ NAILA 216062675

JEREZ DE LOS RIOS LISANDRO PABLO F. 217024653

MEDRANO CARRILLO JUAN EYAEL 217029876

PITIGAS TAPANACHE BRYAN 216167760

SANDOVAL YUCRA JHONNY 217047505

SEJAS ZAMBRANA JONATHAN DANIEL 216049733


TEMA Nº3

DISTRIBUCIÓN DISCRETA DE PROBABILIDADES

VARIABLE ALEATORIA. -

En términos generales se considera que una variable aleatoria es aquella variable


que toma diferentes valores como resultado de un experimento aleatorio. Su
definición matemática es:

Dado un experimento aleatorio de espacio muestra S. Su función X que asigna a


cada elemento s pertenece a S un número real X (s), se llama variable aleatoria.

Las variables aleatorias se designan por las últimas letras del alfabeto en
mayúsculas y cursivas: X, Y, Z. A las variables se las llama también variables
estocásticas o variables de azar.

“El nombre de variable aleatoria no es totalmente correcto, ya que propiamente por


definición es una función, entonces el nombre debería ser función de variable
aleatoria, sin embargo, dado su uso universal se mantendrá ese incorrecto nombre.

¿Qué es una variable aleatoria discreta?

Se llama variable aleatoria discreta cuando su rango es un conjunto finito o infinito


numerable de valores

FUNCIÓN DE PROBABILIDAD DE VARIABLE DISCRETA

Si X es una variable aleatoria discreta, se llama función de probabilidad de X a la


función f(xi) definida por f(xi)=P(X=xi) llamada probabilidad de xi, para toda xi que
pertenece al rango x1, x2, ……xn de X. f(xi) debe satisfacer las siguientes
condiciones:

i) F(xi)>= 0
ii) ∑ 𝑓(𝑥𝑖) = 1

Significa que si para valor de la variable aleatoria X considerado como un evento,


se asigna su probabilidad, se obtendrá una función que se denomina función de
distribución de probabilidades de la variable aleatoria. Esa función f(x) deberá ser
siempre mayor o igual a 0 y la suma de todos sus valores deberá ser uno.
DISTRIBUCIÓN DE BERNOULLI

Se llama prueba o ensayo de Bernoulli a todo experimento aleatorio que contiene


solo dos resultados posibles mutuamente excluyentes, llamados éxito y fracaso (E,
F).

El espacio muestral asociado con una prueba de Bernoulli es: S= {E, F}

Por ejemplo, al lanzar una moneda se está realizando una prueba de Bernoulli, ya
que solo hay dos posibilidades: cara o escudo. No se admiten otro resultado
intermedio.

Otro ejemplo es el de tener que comprar un artículo al azar con las opciones de que
este o no defectuoso, pero sin admitir un resultado a medias.

“si X tiene distribución de Bernoulli de parámetro P, entonces su esperanza


matemática y su varianza respectivamente son:

Esperanza matemática: E(X)=u=p

Varianza: V(X)=o^2= p*q

La distribución de Bernoulli es el fundamento teórico de las distribuciones de


variable aleatoria discreta.

DISTRIBUCIÓN BINOMIAL

Un experimento sigue el modelo de la distribución binomial si:

1. En cada prueba del experimento sólo son posibles dos resultados: el suceso A
(éxito) y su contrario .

2. La probabilidad del suceso A es constante, es decir, que no varía de una


prueba a otra. Se representa por p.

3. El resultado obtenido en cada prueba es independiente de los resultados


obtenidos anteriormente.

La distribución binomial se suele representar por B(n, p).

N= es el número de pruebas de que consta el experimento.

p=es la probabilidad de éxito.

La probabilidad de es 1− p, y la representamos por q.


Variable aleatoria binomial

La variable aleatoria binomial, X, expresa el número de éxitos obtenidos en cada


prueba del experimento.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas.

Ejemplo:

k = 6, al lanzar una moneda 10 veces y obtener 6 caras.

La función de probabilidad de la distribución binomial, también


denominada función de la distribución de Bernoulli, es:

n es el número de pruebas.

k es el número de éxitos.

p es la probabilidad de éxito.

q es la probabilidad de fracaso.

El número combinatorio

Ejemplos

La última novela de un autor ha tenido un gran éxito, hasta el punto de que el 80% de
los lectores ya la han leido. Un grupo de 4 amigos son aficionados a la lectura:

1 ¿Cuál es la probabilidad de que el grupo hayan leído la novela 2 personas?


n=4 p = 0.8 q = 0.2

Media

Varianza

Desviación típica

Ejemplo

La probabilidad de que un artículo producido por una fábrica sea defectuoso es 0.02.
Se envió un cargamento de 10.000 artículos a unos almacenes. Hallar el número
esperado de artículos defectuosos, la varianza y la desviación típica.
DISTRIBUCIÓN BINOMIAL NEGATIVA O PASCAL:

La distribución binomial negativa, simbólicamente descrita como BN(r,p), describe


las probabilidades de obtener k fracasos antes del r-ésimo éxito, al realizar
sucesivas tiradas de Bernoulli independientes, con probabilidad p de éxito. La
Binomial negativa es una suma de variables geométricas de parámetro p,
independientes. Para r=1 coincide con la distribución geométrica.

Su función de probabilidad es:

Para r=1 coincide con la distribución geométrica.

r= número de éxitos.

k=número de ensayos

p=probabilidad de éxitos.

q=probabilidad de fracaso.

Para r=1 coincide con la distribución geométrica.

El coeficiente de simetría vale , y el de curtosis, .

CONDICIONES PARA QUE SE CUMPLA

Este proceso consta de varias condiciones:

1. El proceso tiene un número indefinido de pruebas y este concluirá cuando se


tenga un número determinado de resultados favorables K.

2. Las pruebas pueden dar dos resultados posibles y excluyentes a su vez, es


decir, A y no A.
3. La probabilidad de obtener un resultado A en las pruebas es p, y la de
conseguir no A es q, de forma que p+q=1.

4. p y q son constantes en cada prueba y a su vez estas son independientes.

5. Derivación de la distribución: si la variable aleatoria x es "el número de


pruebas necesarias para conseguir K éxitos o resultados A " ; entonces x seguirá
una distribución binomial negativa con parámetros p y k.
Ejemplos:

Si la probabilidad de que un niño expuesto a una enfermedad contagiosa la


contraiga es 0,40, ¿Cuál es la probabilidad de que el décimo niño expuesto a la
enfermedad sea el tercero en contraerla? En este caso, X es el número de niños
expuestos la enfermedad y

X=10, K=3, P= 0,40


La solución es:

DISTRIBUCIÓN HIPERGEOMÉTRICA
En teoría de la probabilidad la distribución hipergeométrica es
una distribución discreta relacionada con muestreos aleatorios y sin reemplazo.
Suponga que se tiene una población de N elementos de los cuales, Np pertenecen
a la categoría A y Nq (N-NP) a la B. La distribución hipergeométrica mide la
probabilidad de obtener x (0 ≤ x ≤ Np) elementos de la categoría A en una muestra
sin reemplazo de n elementos de la población original.
Cada elemento de la muestra tiene dos resultados posibles (es un evento o un no
evento). Al no tener reemplazo cada elemento de la muestra es diferente, es decir,
que la probabilidad de x no será constante. Cuando se elige un elemento de la
población, no se puede volver a elegir, entonces la probabilidad de que un elemento
sea seleccionado aumenta con cada ensayo, presuponiendo que aún no haya sido
seleccionado.
PROPIEDADES:
La función de probabilidad de una variable aleatoria con distribución
hipergeométrica puede deducirse a través de razonamientos combinatorios y es
igual a:
𝑁𝑝 𝑁𝑞 𝑁
𝑃(𝑥) = [ ] [ ]÷[ ]
𝑥 𝑛−𝑥 𝑛
DONDE:
N: Tamaño de la población.
Np: N.º de elementos de la población que tiene los requisitos deseados (con
probabilidad p= 1 – q).
Nq: N.º de elementos de la población que no tienen los requisitos deseados (con
probabilidad q= 1 – p).
n: tamaño de muestra extraída.
X: N.º de elementos de la muestra que tienen cumplen los requisitos.
PARAMETROS:
 Esperanza
E(x)= n. p
 Varianza
V(x)= n . p . q
La distribución hipergeométrica a diferencia de la binomial la cual posee muestreos
con reemplazo, en situaciones en las que el número esperado de repeticiones en el
muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda.
Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N, es
pequeño.

EJEMPLO DE CÁLCULO DE LAS PROBABILIDADES HIPERGEOMÉTRICAS


Supongamos que hay diez automóviles disponibles para que usted los pruebe (N =
10) y cinco de ellos tienen motores turbo (Np = 5). Si prueba tres de los vehículos
(n = 3), ¿cuál es la probabilidad de que dos de los tres que probará tengan motores
turbo?

𝑁𝑝 𝑁𝑞 𝑁
𝑃(𝑥) = [ ] [ ]÷[ ]
N: 10
𝑥 𝑛−𝑥 𝑛
Np: 5 P(x) = 10 * 5 / 120
Nq: 5 P(x) = 0.4167
n: 3 probabilidad en %: 0.4167 * 100 = 41.67%
x: 2
La probabilidad de que seleccione exactamente dos automóviles con motores turbo
de forma aleatoria cuando pruebe tres de los diez vehículos es 41.67%.
DISTRIBUCIÓN MULTINOMIAL
La distribución multinomial es una generalización de la distribución binomial
En este caso, en un experimento no interesa estudiar la ocurrencia de un único
suceso o la de su contrario, sino la de varios sucesos (tres o más).
La distribución multinomial, m(x1, x2,….Xn) proporciona probabilidades de obtener
en M repeticiones independiente de un experimento x1 veces el suceso A1, x2
veces el suceso A2,nx veces el suceso An.
Función de probabilidad de una variable
Multinomial

𝑁!
𝑓(𝑋1 , 𝑋2 , … … . 𝑋𝑛 ) = . 𝑝 𝑋1 . 𝑝 𝑋2 … … . 𝑝 𝑋𝑛 =
𝑋1 !. ! 𝑋2 ! … … … . 𝑋𝑛 !

Donde “N” equivale al total de las variables,


“Xn” Son las variables individuales y
“Pn” es la probabilidad de cada variable individual.
EJEMPLO: la probabilidad son de 0.40, 0.20 y 0.10 respectivamente, de que un
delegado llegue por aire a una cierta conversión, llegue en autobús, en automóvil
o en tren ¿Cuál es la probabilidad de que entre 9 delegados seleccionados
aleatoriamente en esta convención a) 3 hayan llegado por aire, 3 en automóvil, 1
en auto y 2 en tren?
Solución:
a) n=9
X1= # de delegados que llegan por aire =3
X2 = # de delegados que llegan en autobús = 3
X3= # de delegados que llegan en auto = 1
X4= # de delegados que llegan en tren = 2
P1 = probabilidad de que un delegado llegue por aire = 0.40
P2 = probabilidad de que un delegado llegue en autobús = 0.20
P3 = probabilidad de que un delegado llegue en auto = 0.30
P4 = probabilidad de que un delegado llegue en tren = 0.10

9!
𝑓(𝑋1 = 3, 𝑋2 = 3, 𝑋3 = 1, 𝑋4 = 2, 𝑛 = 9) = . (0.40)3 . (0.20)3 . (0.30)1 (0.10)2
3! . 3! . 1! . 2!
= 0.0077414

DISTRIBUCIÓN DE POISSON
La distribución de Poisson se llama así en honor a su creador, el francés Simeón
Dennis Poisson (1781-1840). Esta distribución de probabilidades fue uno de los
múltiples trabajos matemáticos que Dennis completó en su productiva trayectoria
(Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
Es una distribución de probabilidad de variable aleatoria discreta que nos
proporciona la probabilidad de que ocurra un determinado suceso en un número de
veces K en un intervalo de tiempo, longitud, aire, etc.
Se dice que la variable aleatoria X, cuyos valores posibles son de X =0,1,2, 3,…
tiene distribución de poisson con parámetros λ (λ>0) y se escribe como: P (λ ) si su
función de probabilidad es:
X=0,1,2, …

λ =números de veces que ocurre nuestro suceso de tiempo, área,


longitud.
Lo parámetros son:
Valor esperado => E(x)= λ
Varianza=> V(x)= λ
La distribución de Poisson se especifica por un parámetro: lambda (λ). Este
parámetro es igual a la media y la varianza.
También llamada la distribución de eventos raros, comprende un caso límite de la
binomial a medida en que el valor de p disminuye. La distribución de Poisson, puede
ser más usada mejor que la binomial cuando se hace una aproximación de esta
última.
Muy utilizada en situaciones donde la probabilidad de que suceda sea muy pequeña
en N repeticiones de un experimento dado.
Diferencia entre la distribución de poisson y la binomial
La distribución de Poisson es similar a la distribución binomial porque ambas
modelan conteos de eventos. Sin embargo, dentro de su espacio de observación
finito, la distribución de Poisson no establece un límite superior a este conteo: una
central telefónica podría recibir un número ilimitado de llamadas en un día y no violar
los requisitos de la distribución de Poisson. En cambio, la distribución binomial
establece un límite superior en el conteo: el número de eventos que usted observa
no puede exceder el número de ensayos que realiza.
Ejemplos:
1.- La probabilidad de que haya un accidente en una compañía de manufactura
es de 0.02 por cada día de trabajo. Si se trabajan 300 días al año, ¿cuál es la
probabilidad de tener 3 accidentes?
Como la probabilidad p es menor que 0.1, y el producto n * p es menor que 10
(300 * 0.02 = 6), entonces, aplicamos el modelo de distribución de Poisson:

Al realizar el cómputo tenemos que P(x = 3) = 0.0892


Por lo tanto, la probabilidad de tener 3 accidentes laborales en 300 días de
trabajo es de 8.9%.

DISTRIBUCION UNIFORME DISCRETA

Definición:
La más simple de todas las distribuciones de probabilidad discreta es una donde la
variable aleatoria toma cada uno de sus valores con la misma probabilidad. Tal
distribución se denomina distribución uniforme discreta. Si la variable aleatoria X toma
los valores x1, x2, …, xk, con idénticas probabilidades, entonces la distribución uniforme
discreta está dada por

cuando x no tiene el valor de las cantidades dadas la función inmediatamente se vuelve cero.
N=k=número de opciones posibles; o también el parámetro (límite inferior, límite superior).
Características para identificar a una distribución uniforme.

En la distribución de probabilidad uniforme discreta, la variable aleatoria toma cada uno de sus
valores con idéntica probabilidad.
- El parámetro de la distribución de probabilidad uniforme discreta, viene dado por la inversa de
los valores que puede tomar la variable aleatoria.
- La variable aleatoria que describe el número de caras obtenidas al lanzar dos monedas legales
sigue una probabilidad de distribución uniforme.
- La media de una variable aleatoria discreta uniforme, f(x;k), siempre coincide con uno de los
valores de la misma observados en el experimento.
- La varianza de una variable aleatoria discreta uniforme, f(x;k), no depende del número de
valores que pueda tomar la variable.

Se obtiene una frecuencia relativa de los valores de interés


Por su elementalidad no es una distribución de excesivo interés práctico.
En esta distribución la varianza no depende de los valores que pueda tomar la variable
La media está definida como:

La varianza esta dada de la siguiente


forma
CITAS BIBLIOGRÁFICAS
ESTADÍSTICA AUTOR MANUEL CÓRDOVA ZAMORA
ESTADÍSTICA Y PROBABILIDAD AUTOR VICTOR CHUNGARA CASTRO
MÉTODOS ESTADÍSTICOS AUTOR: ING. LUIS FERNANDO YAVARI
ESTADÍSTICAS Y PROBABILIDAD AUTOR: MURRAY R. SPIEGEL
INTERNET
YOU TUBE