You are on page 1of 73

Repblica Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental Politcnica de las Fuerza Armada
Ncleo Anzotegui
Extensin Piritu

Distribuciones de probabilidad
Ley de los grandes nmeros

Profesor (a):
Ing. Liliana Balza

Integrantes:
Oliveros, Yahely C.I:25615258
Hernndez, Luis C.I:25129239
Hernndez, Merlin C.I: 25664656
Faras, Darlenys C.I:27396907
Escobar, Christians C.I: 25569622
Castillo, Samuel C.I: 23920239
III Sem. Ing. Civil U

Asignatura:
Probabilidades y Estadsticas

Puerto Piritu, noviembre de 2016


NDICE
1

Pg.
INTRODUCCIN ..

UNIDAD 4: DISTRIBUCIONES DE PROBABILIDAD


Distribucin de Variables Aleatorias Discretas ...

Distribucin Binomial ..

Esperanza Matemtica y Varianza de la Distribucin Binomial .

Distribucin de Geomtrica .........

13

Esperanza Matemtica y Varianza de la Distribucin Geomtrica .

16

Distribucin Hipergeomtrica ..

17

Esperanza Matemtica y Varianza de la Distribucin Hipergeomtrica .

19

Distribucin de Variables Aleatorias Continuas ..

20

Distribucin Uniforme .

22

Distribucin Gamma

36

Distribucin Normal .

37

Esperanza Matemtica y Varianza de la Distribucin Normal ....

41

Distribucin X2 de Pearson ..

44

UNIDAD 5: LEY DE LOS GRANDES NMEROS. TEOREMA DEL


LMITE CENTRAL
Desigualdad de Chebychev .

48

Ley de los Grandes Nmeros ...

55

Teorema del Lmite Central .

58

CONCLUSIONES ..
BIBLIOGRAFA ...
ANEXOS

62
63

INTRODUCCIN

En el mundo natural y en las sociedades humanas existen fenmenos cuyo


comportamiento no puede establecerse mediante leyes fijas, sino que obedecen a la
conjuncin de mltiples factores cuya interaccin es a menudo incontrolable. En tales
casos se recurre a anlisis estadsticos, que recogen datos sobre un nmero elevado de
manifestaciones del fenmeno y los relacionan y describen por medio de tablas, grficos
y valores numricos representativos.
Muchos fenmenos de la naturaleza, como la cada libre de un cuerpo en la
superficie terrestre, pueden predecirse mediante leyes deterministas. Otros, en cambio,
se rigen por el azar, aun cuando se produzcan siempre en unas mismas condiciones. Por
ejemplo, qu nmero saldr al lanzar un dado? Los sucesos que obedecen al azar se
denominan aleatorios o estocsticos, y su comportamiento se estudia a travs del clculo
de probabilidades.
Cada uno de los resultados de un experimento aleatorio se llama suceso elemental, y
el conjunto de todos los sucesos elementales distintos que pueden producirse en el
experimento se denomina espacio muestral.
La investigacin distingue diferentes concepciones relacionados a la distribucin de
probabilidades estadsticas, entre ellas: las variables aleatorias, la binomial, de Poisson,
la geomtrica, la hipergeomtrica, la uniforme, la exponencial, la gamma, la normal, la
X2 de Pearson; sus propiedades y funciones caractersticas. Igualmente se conceptualiza
la Desigualdad de Chebychev, la Ley de los grandes nmeros y el Teorema del Lmite
Central.

UNIDAD 4. DISTRIBUCIONES DE PROBABILIDAD.

1. Distribucin de Variables Aleatorias Discretas


Una variable aleatoria es aquella que toma un conjunto de valores numricos
asociados a los resultados de nuestro inters que produce un experimento aleatorio.
En un experimento aleatorio cabe definir una aplicacin que asigne a cada suceso
estocstico del espacio muestral un cierto nmero. Esta aplicacin recibe el nombre de
variable aleatoria, y el conjunto de valores que puede asumir una variable aleatoria es su
recorrido. Segn el nmero de elementos del recorrido, se distinguen dos tipos de
variables aleatorias:

Variable aleatoria continua, de recorrido infinito, donde el nmero al que se hace


corresponder la aplicacin pertenece al conjunto de los nmeros reales R.

Variable aleatoria discreta, que produce como resultado un nmero finito de valores
predeterminados, por lo que su recorrido es finito.

En general, una variable aleatoria discreta se define como una aplicacin f(xi) tal
que:
Esta expresin se conoce comnmente por los nombres de distribucin de
probabilidad, funcin de probabilidad o funcin de cuanta.

Ejemplo de variable aleatoria discreta:


al lanzar dos dados, la suma de los puntos
de ambos puede tomar un conjunto finito
de valores.

Distribuciones de Probabilidad Discretas


Las distribuciones de probabilidad discretas son aquellas en las que la variable
aleatoria solo puede asumir ciertos valores claramente separados, y son resultado de un
conteo. Por ejemplo, el nmero de guilas en dos lanzamientos de una moneda:
X
P(X)

0
0.25

1
0.50

2
0.25

Hay varios tipos de distribuciones discretas de probabilidad, tales como: la


distribucin binomial, normal, de Poisson.
Distribuciones de Probabilidad Continuas
Las distribuciones de probabilidad continuas son aquellas en las que la variable
aleatoria puede asumir un nmero infinito de valores, que son resultado de una
medicin. Por ejemplo, el tiempo que tarda un atleta en recorrer 100 metros planos. Por
supuesto que las variables aleatorias continuas dependen de la exactitud del instrumento
de medicin.
Tambin existen varios tipos de distribuciones continuas de probabilidad: la
distribucin normal, la distribucin t, la distribucin ji-cuadrada, entre otras. Las
distribuciones continuas son imposibles de tabular y por lo tanto se representan con
curvas.

Curva de una distribucin de probabilidad continua

Funcin de Distribucin
Dada una variable aleatoria X, se llama funcin de distribucin a aquella que
proporciona la probabilidad de que la variable aleatoria tome un valor menor o igual que
xi. Es decir:

Si se conoce la funcin de distribucin F(x) de una variable aleatoria X, ya sea sta


discreta o continua, siempre se cumple que la probabilidad de que la variable aleatoria
tome valores en el intervalo (a, b] es:

Esperanza Matemtica
En un experimento aleatorio, la esperanza matemtica se define como la suma del
producto de cada valor de la variable aleatoria considerada por su probabilidad.

Cuando la variable aleatoria X es discreta, el valor de la esperanza matemtica


asociada viene dado por:

Si se trata de una variable aleatoria continua, el nmero de valores de la variable es


infinito, por lo que el sumatorio se convierte en una integral.

Siendo f(x) la funcin de densidad de la variable aleatoria continua.

Varianza y Desviacin Tpica


La esperanza media constituye un valor de tendencia central, una media del valor de
la variable estadstica. Para saber si los valores de una variable estadstica siguen una
distribucin centrada o dispersa, es preciso completar el valor de la esperanza media con
el de la varianza.
En variables aleatorias discretas, la varianza se define como:

En las variables aleatorias continuas, existe un nmero infinito de valores, por lo que
el sumatorio de la frmula anterior se convierte en integral:

Siendo f(x) la funcin de densidad de la variable aleatoria continua.


La raz cuadrada de la varianza recibe el nombre de desviacin tpica:

2. Distribucin Binomial

Una forma corriente de descripcin de los experimentos aleatorios equiprobables con


variable discreta es la distribucin binomial. En este tipo de distribucin se estudia la
probabilidad de que se produzca un cierto resultado, que se describe por medio de dos
parmetros: el nmero de repeticiones realizadas del experimento y la probabilidad
individual del suceso aleatorio que se persigue como resultado.
Condiciones para una Distribucin Binomial
Una distribucin se denomina binomial cuando se cumplen las condiciones
siguientes:

El experimento aleatorio de base se repite n veces, y todos los resultados obtenidos


son mutuamente independientes.
En cada prueba se tiene una misma probabilidad de xito (suceso A), expresada por
p. Asimismo, existe en cada prueba una misma probabilidad de fracaso (suceso), que
es igual a q = 1 - p.
El objetivo de la distribucin binomial es conocer la probabilidad de que se produzca
un cierto nmero de xitos. La variable aleatoria X, que indica el nmero de veces
que aparece el suceso A (xito), es discreta, y su recorrido es el conjunto {0, 1, 2,
3, ..., n}.

La distribucin binomial se expresa como B (n, p), siendo n el nmero de veces que
se repite el experimento y p la probabilidad de que se produzca un xito.

Ejemplo de experimento aleatorio


descrito por una distribucin binomial: al tirar
un dado cuatro veces, cuntas veces saldr el
nmero 6? Este suceso es el xito del
experimento.

Funcin de Probabilidad
La distribucin binomial se caracteriza porque su funcin de probabilidad viene dada
por la expresin siguiente:

donde r es el nmero de xitos asociado al experimento aleatorio.


En una distribucin binomial B(n, p) se verifica que:

La probabilidad de que aparezca al menos un xito en las n repeticiones es igual a:

La probabilidad de que
mximo en las n repeticiones se determina como:

se produzca un xito como

Ejemplos
1 - El experimento consiste en lanzar cuatro veces al aire una moneda. Nuestro inters
es el nmero de sellos en los cuatro lanzamientos. Como es evidente, la probabilidad
de obtener un xito (sellos), en una de las pruebas (lanzamiento) es 0.50 y la de
obtener un fracaso es tambin 0.50.
a)

Cul es la probabilidad de no obtener sello en los cuatro lanzamientos?

b)

Cul es la probabilidad de obtener un sello en los cuatro lanzamientos?

c)

Calcular la media y la desviacin estndar de la distribucin binomial.


Solucin:
a)

Como tenemos 4 pruebas (n=4) y esperamos cero xitos (x=0). La probabilidad


de no obtener sello es:

P(X = 0) = 0.0625
b) De la misma manera tenemos 4 pruebas (n=4), solo que ahora esperamos un xito
(x=1). La probabilidad de obtener un sello es:

P(X = 1) = 0.25

c) La media y la varianza de una distribucin binomial se calculan:


m = np = (4)(0.50) = 2
s2 = npq = (4)(0.50)(0.50) = 1

2.- Hallar la probabilidad de que lanzar una moneda tres veces resulten:
a) 3 caras
b) 2 sellos
c) al menos una cara
Solucin:
a) 3 caras

P(X = 3) = 0,125

b) 2 sellos
x = 2, n = 3, p= 1/2, q= 1/2

P(X = 2) = 0,375
c) al menos una cara
P(1)
n=3

P(2)
n=3

P(3)
n=3

x=1
p= 0,5
q = 0,5

x=2
p= 0,5
q = 0,5

x=3
p= 0,5
q = 0,5

P(al menos una cara) = P(1cara) + P(2caras) + P(3caras)

P(1cara) + P(2caras) + P(3caras) = 0,875

3. Esperanza Matemtica y Varianza de la Distribucin Binomial.


En una distribucin binomial denotada por B(n,p), donde n es el nmero de
repeticiones del experimento y p la probabilidad de que se produzca un cierto suceso
(xito), la esperanza matemtica de la variable aleatoria X viene dada por la expresin
siguiente:

Anlogamente, la varianza de la variable aleatoria X, al ser sta de tipo discreto, se


calcula como:

Siendo que la probabilidad de no xito (fracaso). La desviacin tpica es, como de


costumbre, la raz cuadrada de la varianza:

Ajuste de una Distribucin Binomial


En ocasiones, el clculo de la probabilidad de una distribucin binomial del tipo
B(n,p) resulta muy complicado. Segn demostr el matemtico francs Abraham de
Moivre (1667-1754), la probabilidad de una distribucin binomial B(n,p) puede
aproximarse por medio de una distribucin normal de tipo N(np,
particularmente adecuada cuando:

El valor de n es muy elevado.

npq

), que resulta

Tanto np y nq son que 5. (Obsrvese que cuanto mayor es n y ms se aproxima p a


0,5 tanto mejor es la aproximacin realizada).

Para transformar una distribucin binomial (de variable discreta) en una normal (de
variable continua), es preciso proceder a la siguiente transformacin:

4.
de Poisson.
Poisson)

Distribucin
(Simon-Denis

En Teora de Probabilidad y Estadstica, la distribucin de Poisson es una


distribucin de probabilidad discreta que expresa, a partir de una frecuencia de
ocurrencia media, la probabilidad de que ocurra un determinado nmero de eventos
durante cierto perodo de tiempo. Concretamente, se especializa en la probabilidad de
ocurrencia de sucesos con probabilidades muy pequeas, o sucesos raros.
Se trata de un modelo discreto, pero en el que el conjunto de valores con
probabilidad no nula no es finito, sino numerable. Se dice que una variable aleatoria X
sigue la distribucin de Poisson si su funcin de densidad viene dada por:

Como vemos, este modelo se caracteriza por un slo parmetro , que debe ser
positivo.
Esta distribucin suele utilizarse para contajes del tipo nmero de individuos por
unidad de tiempo, de espacio, etc.

Propiedades del Modelo de Poisson

Esperanza: E(X) = .

Varianza: V(X) = .
En esta distribucin la esperanza y la varianza coinciden.

La suma de dos variables aleatorias independientes con distribucin de Poisson


resulta en una nueva variable aleatoria, tambin con distribucin de Poisson, de
parmetro igual a la suma de parmetros: La funcin de masa o probabilidad de la
distribucin de Poisson es:

y definimos Z = X1 + X2, entonces,


Este resultado se extiende inmediatamente al caso de n variables aleatorias
independientes con distribucin de Poisson. En este caso, la variable suma de todas ellas
sigue una distribucin de Poisson de parmetro igual a la suma de los parmetros.

La funcin de masa o probabilidad de la distribucin de Poisson es:

donde

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la


probabilidad de que el evento suceda precisamente k veces).

es un parmetro positivo que representa el nmero de veces que se espera que


ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado
tiene lugar en promedio 4 veces por minuto y estamos interesados en la
probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos,
usaremos un modelo de distribucin de Poisson con = 104 = 40.

e es la base de los logaritmos naturales (e = 2,71828...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribucin
de Poisson son iguales a . Los momentos de orden superior son polinomios de
Touchard en cuyos coeficientes tienen una interpretacin combinatoria. De hecho,
cuando el valor esperado de la distribucin de Poisson es 1, entonces segn la frmula
de Dobinski, el n-simo momento iguala al nmero de particiones de tamao n.
La moda de una variable aleatoria de distribucin de Poisson con un no entero es
igual a , el mayor de los enteros menores que (los smbolos representan la
funcin parte entera). Cuando es un entero positivo, las modas son y 1.
La funcin generadora de momentos de la distribucin de Poisson con valor esperado
es:

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente


divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de
parmetro 0 a otra de parmetro es:
Intervalo de Confianza
Un criterio fcil y rpido para calcular un intervalo de confianza aproximada de es
propuesto por Guerriero (2012). Dada una serie de eventos k (al menos el 15 - 20) en un
periodo de tiempo T, los lmites del intervalo de confianza para la frecuencia vienen
dadas por:

entonces los lmites del parmetro estn dadas por:

Relacin con otras distribuciones.


a) Sumas de variables aleatorias de Poisson
La suma de variables aleatorias de Poisson independientes es otra variable aleatoria
de Poisson cuyo parmetro es la suma de los parmetros de las originales. Dicho de otra
manera, si

son N variables aleatorias de Poisson independientes, entonces

b) Distribucin binomial
La distribucin de Poisson es el caso lmite de la distribucin binomial. De hecho, si
los parmetros n y de una distribucin binomial tienden a infinito (en el caso de n) y a
cero (en el caso de ) de manera que = n se mantenga constante, la distribucin lmite
obtenida es de Poisson.
c) Aproximacin normal
Como consecuencia del teorema central del lmite, para valores grandes de , una
variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente

converge a una distribucin normal de media 0 y varianza 1.


d) Distribucin Exponencial
Supngase que para cada valor t > 0, que representa el tiempo, el nmero de sucesos
de cierto fenmeno aleatorio sigue una distribucin de Poisson de parmetro t.
Entonces, los tiempos transcurridos entre dos sucesos sucesivos sigue la distribucin
exponencial.

Procesos de Poisson
La distribucin de Poisson se aplica a varios fenmenos discretos de la naturaleza
(esto es, aquellos fenmenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido
de tiempo o en un rea determinada) cuando la probabilidad de ocurrencia del fenmeno
es constante en el tiempo o el espacio.
Ejemplos de estos eventos que pueden ser modelados por la distribucin de Poisson
incluyen:

El nmero de autos que pasan a travs de un cierto punto en una ruta


(suficientemente distantes de los semforos) durante un periodo definido de tiempo.

El nmero de errores de ortografa que uno comete al escribir una nica pgina.

El nmero de llamadas telefnicas en una central telefnica por minuto.

El nmero de servidores web accedidos por minuto.

El nmero de animales muertos encontrados por unidad de longitud de ruta.

El nmero de mutaciones de determinada cadena de ADN despus de cierta cantidad


de radiacin.

El nmero de ncleos atmicos inestables que se han desintegrado en un


determinado perodo.

El nmero de estrellas en un determinado volumen de espacio.

La distribucin de receptores visuales en la retina del ojo humano.

La inventiva 2 de un inventor a lo largo de su carrera.

La distribucin de la riqueza humana.

Ejemplos
a) Si el 2% de los libros encuadernados en cierto taller tiene encuadernacin defectuosa,
para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller
tengan encuadernaciones defectuosas usamos la distribucin de Poisson.
Solucin:
En este caso concreto, k es 5 y, , el valor esperado de libros defectuosos es el 2% de
400, es decir, 8. Por lo tanto, la probabilidad buscada es

b) Si un banco recibe en promedio 6 cheques sin fondos por da, cuales son las
posibilidades de que reciban 4 cheques sin fondo en un da dado.
Solucin:
x = variable que nos define el nmero de cheques sin fondo que llegan al banco en
un da cualquiera.
= 6 cheques sin fondo x da
e = 2.718
Aplicando la frmula

5. Esperanza matemtica y varianza de la distribucin Poisson.

En esta distribucin la esperanza y la varianza coinciden

Esperanza: E(X) = .

Varianza: V(X) = .
.
6. Distribucin de Geomtrica.

Esta distribucin sirve para calcular la probabilidad de que ocurra un xito por
primera y nica vez en el ltimo ensayo que se realiza del experimento.
En un experimento binomial se tiene una serie de eventos idnticos e independientes,
y cada uno origina un xito E o un fracaso F, con p(E) = p y p(F) = 1- p = q. Si se
interesa el nmero x de pruebas hasta la observacin del primer xito, entonces x posee
una distribucin de probabilidad geomtrica. El nmero de pruebas podra seguir
indefinidamente y que x es un ejemplo de variable aleatoria discreta que puede tomar un
nmero infinito (pero contable) de valores. Las frmulas para la distribucin geomtrica
son:
p(x) = pq x-1 x = 1,2,,8
Donde,
x = nmero de pruebas independientes hasta la ocurrencia del primer xito.
p = probabilidad de xito en una sola prueba, q = 1 p.
Media:

Variancia:
Desviacin estndar:

La distribucin de probabilidad geomtrica es un modelo para el intervalo de tiempo


que un jugador (o inversionista) tiene que esperar hasta ganar. Por ejemplo, si la
ganancia media en una serie de apuestas idnticas en la ruleta (o en alguna otra serie de
pruebas idnticas), no es una buena medida para su prospectiva de ganar, podra tener
una racha de mala suerte y quedarse sin dinero antes de tener la posibilidad de recuperar
sus prdidas.
La distribucin de probabilidad geomtrica tambin proporciona un modelo discreto
para el lapso, digamos el nmero x de minutos, antes de que un consumidor en una fila

o lnea de espera (en un supermercado, servicio de reparaciones, hospital, etc.) reciba la


atencin [ntese que el lapso o intervalo de tiempo es una variable aleatoria continua.
La distribucin de probabilidad geomtrica es una analoga discreta de (una
aproximacin para) una distribucin de probabilidad continua particular, conocida como
distribucin exponencial]. Este modelo discreto para la distribucin de probabilidad de
tiempo de espera x se basa en la suposicin de que la probabilidad de recibir el servicio
durante cualquier minuto es idntica e independiente del resultado durante cualquier
otro minuto y que x se mide en minutos enteros, es decir, x = 1, 2, 3.

Ejercicio.
Los registros indican que una cierta vendedora tiene xito en formular venta en 30%
de sus entrevistas. Supngase que una venta en una entrevista es independiente de una
venta cualquier otro momento.
a) Cul es la probabilidad de que esta vendedora tenga que tratar con 10 personas
antes de hacer su primera venta?
b) Cul es la probabilidad que la primera venta se realice antes o en la dcima
oportunidad?
Solucin:
a) La probabilidad de realizar una venta en un solo contacto o entrevista es p = 0.3
Entonces la probabilidad de que necesita exactamente x = 10 contactos antes de hacer
su primera venta es:
p(x) = pqx-1
o bien
p(10) = (0.3)(0.7)9 = 0.012
b) La probabilidad de que se realice la primera venta antes de o en la dcima entrevista,
es:
P(x = 10) = p(0) + p(1) + p(2) +.+ p(10)
La manera ms sencilla de hallar esta probabilidad es expresarla como el
complemento de una serie infinita, es decir:
P(x = 10) = 1- P(x > 10)
donde,

P(x > 10) = p(11) + p (12) + p (13) +


= pq10 + pq11 +
La suma de una serie geomtrica infinita es igual a a /(1 - r), donde a es el primer
trmino de la serie, r es la razn, comn, y r2 < 1. Utilizando este resultado, tenemos.

Por lo tanto existe una alta probabilidad (0.972) de que la vendedora realice primera
venta antes de o en el dcimo contacto.

Funcin de Distribucin

La funcin de densidad de la variable aleatoria geomtrica slo depende del


parmetro p, y presenta siempre una asimetra a la derecha como se puede observar en
las siguientes funciones de densidad:

Funcin Generadora de Momentos

Demostracin

Funcin Caracterstica
La funcin caracterstica se calcula teniendo en cuenta que de nuevo aparece la suma
de los trminos de una progresin geomtrica, pero esta vez de razn eitq:

7. Esperanza Matemtica y Varianza de la Distribucin Geomtrica.


a) Esperanza

Demostracin

b) Varianza

Demostracin

Por tanto,

8. Distribucin Hipergeomtrica.
Si se selecciona una muestra aleatoria de n consumidores de una poblacin de N
consumidores, el nmero x de usuarios que favorecen un producto especfico tendra
una distribucin binomial cuando el tamao muestra n es pequeo respecto al nmero
de N de consumidores en la poblacin, el nmero x a favor del producto tiene una
distribucin de probabilidad hipergeomtrica, cuya frmula es:

Dnde:
N = nmero de elementos en la poblacin.
r = nmero de elementos que tienen una caracterstica especfica, por ejemplo el
nmero de personas a favor un producto particular.
n = nmero de elementos en el muestra.
En base a la ecuacin anterior se puede realizar las operaciones factoriales siguientes:

La distribucin hipergeomtrica sele aparecer en procesos mustrales sin reemplazo,


en lo que se investiga la presencia o ausencia de cierta caracterstica. Pinsese, por
ejemplo, en procedimiento de control de calidad en na empresa farmacutica, durante el
cual se extraen muestras de las capsulas fabricadas y se someten a anlisis para
determinar su composicin. Durante las pruebas las capsulas son destruidas y no pueden
ser devueltas al lote del que provienen. En esta situacin, la variable que cuenta el
nmero de capsulas que no cumplen los criterios de calidad establecidos sigue na
distribucin hipergeomtrica. Por tanto, esta distribucin es la equivalente a la binomial,
pero cuando el muestreo se hace sin reemplazo.
Esta distribucin se puede ilustrar del modo siguiente:
Se tiene una poblacin finita con N elementos, de los cuales R tiene na determinada
caracterstica que se llama xito (diabetes, obesidad, hbitos de fumar, etc.).

El nmero de xitos es una muestra aleatoria del tamao n, extrada sin reemplazo
de la poblacin, es una variable aleatoria con distribucin hipergeomtrica de
parmetros N, R y n.
Cando el tamao de la poblacin es grande, los muestreos con o sin reemplazo son
equivalentes, por lo que la distribucin hipergeomtrica se aproxima en tal caso a la
binomial.
Valores:
x:max{0,n-(N-R)}, , min{R,n};
donde max{0,n-(N-R)} indica el valor mximo entre 0 y n-(N-R), y min{R,n} indica el
valor mnimo entre R y n.
Parmetros:
N: tamao de la poblacin, N>0 entero.
R: nmero de xitos dela poblacin, R0 entero
n: nmero de pruebas, n>0

Ejercicios
Se sabe que el 7% de los tiles quirrgicos en un lote de 100 no cumplen ciertas
especificaciones de calidad. Tomada na muestra al azar de 10 unidades sin reemplazo,
interesa conocer la probabilidad de que no ms de dos sean defectuosos.
Solucin:
El nmero de tiles defectuosos en el lote es R=0,07 x 100 = 7. Para n tamao
muestral n=10, la probabilidad buscada es P{nmero de defectuosos 2}.

La probabilidad de que a lo sumo haya


dos tiles defectuosos en el lote es
aproximadamente 0,98%.

9. Esperanza Matemtica y Varianza de la Distribucin Hipergeomtrica


El valor esperado de una variable aleatoria X que sigue la distribucin
hipergeomtrica es:

y su varianza,

En la frmula anterior, definiendo


y
se obtiene
La distribucin hipergeomtrica es aplicable a muestreos sin reemplazo y la binomial
a muestreos con reemplazo. En situaciones en las que el nmero esperado de
repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por
la segunda. Esto es as cuando N es grande y el tamao relativo de la muestra extrada,
n/N, es pequeo.

10. Distribucin de Variables Aleatorias Continuas.


Una variable aleatoria continua es la que puede tomar un nmero infinitamente grande
de valores que corresponden a los puntos en un intervalo de una recta. Las estaturas y los
pesos de las personas, el tiempo entre dos eventos o la vida til de un equipo de oficina, son
ejemplos tpicos de variables aleatorias continuas.
El modelo probabilstico para la distribucin de frecuencias de una variable aleatoria
continua implica la seleccin de una curva, generalmente regular o aislada, a la que se llama
distribucin de probabilidad o funcin de densidad de probabilidad de una variable
aleatoria. Si la ecuacin de esta distribucin de probabilidad continua es f(x), entonces la
probabilidad de que x est en el intervalo a < x < b es el rea bajo la curva de distribucin
para f(x) entre los dos puntos a y b.

Distribucin de probabilidad
para una variable aleatoria continua.

Esto concuerda con la interaccin de un histograma de frecuencias relativas, donde


las reas sobre un intervalo, bajo el histograma, correspondieron a la proporcin de
observacin que cae en dicho intervalo. Ya que el nmero de valores que puede tomar x
es infinitamente grande y no se puede contar, la probabilidad de que x sea igual a un
valor especfico, por ejemplo a, es 0.
Entonces las afirmaciones probabilsticas acerca de las variables aleatorias continuas
siempre corresponden a reas bajo la distribucin de probabilidad sobre un intervalo por
ejemplo, de a a b, y se expresan como P(a < x< b). Ntese que la probabilidad en a < x
<b es igual a la probabilidad de que a < x = b, pues P(x = a) = P (x = b) = 0. Hay
muchas distribuciones de probabilidad continuas y cada una se representa mediante una
ecuacin f(x), que se escoge de la manera que el rea total bajo la curva de distribucin
de probabilidad sea igual a 1.
Una vez que conocemos la ecuacin f(x) de una distribucin de probabilidad
particular se pueden encontrar probabilidades especficas, por ejemplo, la probabilidad
de que x est en el intervalo a < x <b, de dos maneras. Podemos graficar la ecuacin y
utilizar mtodos numricos para aproximar el rea sobre el intervalo a < x < b. Este
clculo puede realizarse utilizando mtodos muy aproximados o una computadora para
obtener cualquier grado de precisin. O bien, si f(x) tiene una forma particular, podemos
usar el clculo integral para encontrar P(a < x< b). Afortunadamente, no hay que
utilizar en la prctica, ninguno de estos mtodos, porque se han calculado y tabulado las
reas bajo la mayora de las distribuciones de probabilidades continuas ms empleadas.
Una de las distribuciones de probabilidad continuas de mayor uso es la distribucin
de probabilidad normal (de campana). En la distribucin de probabilidad normal se trata
de ensear a encontrar la probabilidad de un suceso por medio de la curva normal y la
tabla de las reas bajo la curva normal. La distribucin normal se utiliza cuando existe
una variable aleatoria continua, donde dicha variable puede asumir cualquier valor de
una gama de ellos y por tanto la distribucin de probabilidad es continua. La
distribucin normal representa las siguientes propiedades:
1. La curva es simtrica, tiene un solo pico, por consiguiente es unimodal, presenta una
forma de campana.
2. La media de una poblacin distribuida normalmente se encuentra en el centro de su
curva normal.
3. A causa de la simetra de la distribucin normal de probabilidad, la media, la moda y
la mediana de la distribucin se encuentran tambin en el centro; en consecuencia,
para una curva normal, la media, la mediana y la moda tienen el mismo valor.
4. Tericamente, la curva se extiende en ambas direcciones, y tiende gradualmente a
unirse con el eje horizontal. Sin embargo, se extiende al infinito, sin tocar nunca el
eje de la abscisa.

Por consiguiente, uno de los ms importantes ejemplos de una distribucin de


probabilidad continua es la distribucin normal, curva normal o distribucin
Gaussiana, definida por la ecuacin:

dnde:
= la media.
= la varianza.
= la desviacin tpica.
= constante (3.14159).
e (exponencial) = 2.71828.
La ecuacin de una distribucin normal con = 0 y = 1 (una distribucin normal
estandarizada) es igual a:

1)Distribucin normal

2)Una distribucin normal con varianzas


iguales y medias aritmticas desiguales

3)Funcin de densidad de
probabilidad normal

La distribucin de probabilidad normal, mostrada en la Figura 3 (una desviacin


estndar de ), es simtrica respecto a la media . En la prctica se encuentran pocas
veces variables que cambien de menos infinito a ms infinito, cualquier que sea el
significado que se debe atribuir a estas expresiones. Ciertamente, la estatura de personas
o la vida til de un equipo de oficina no satisfacen estos requisitos, sin embargo, el
histograma de frecuencia relativa para muchas de las mediciones tiene forma
acampanada se puede aproximar con la funcin mostrada en la Figura 3.
El rea total limitada por la curva y el eje x es 1; por tanto, el rea bajo la curva entre
x = a y x = b, con a < b, representa la probabilidad de que x est entre a y b. Esta
probabilidad se denota por P{a <x < b}, y se calcula mediante la frmula:

dnde:

z = la desviacin normal con la media igual a cero y desviacin tpica = 1.

11. Distribucin Uniforme.


La distribucin Uniforme es el modelo (absolutamente) continuo ms simple.
Corresponde al caso de una variable aleatoria que slo puede tomar valores
comprendidos entre dos extremos a y b, de manera que todos los intervalos de una
misma longitud (dentro de (a, b)) tienen la misma probabilidad. Tambin puede
expresarse como el modelo probabilstico correspondiente a tomar un nmero al azar
dentro de un intervalo (a, b).
De la anterior definicin se desprende que la funcin de densidad debe tomar el
mismo valor para todos los puntos dentro del intervalo (a, b) (y cero fuera del
intervalo). Es decir,

Grficamente:

La funcin de distribucin se obtiene integrando la funcin de densidad y viene dada


por:

Grficamente:

Distribucin Uniforme Continua


La distribucin uniforme continua es una familia de distribuciones de probabilidad
para variables aleatorias continuas, tales que para cada miembro de la familia, todos los
intervalos de igual longitud en la distribucin en su rango son igualmente probables. El
dominio est definido por dos parmetros, a y b, que son sus valores mnimo y mximo.
La distribucin es a menudo escrita en forma abreviada como U(a,b).
Caractersticas:
a) Funcin de Densidad de Probabilidad
La funcin de densidad de probabilidad de la distribucin uniforme continua es:

Los valores en los dos extremos a y b no son por lo general importantes porque no
afectan el valor de las integrales de f(x)dx sobre el intervalo, ni de xf(x)dx o expresiones
similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b a).
Este ltimo resulta apropiado en el contexto de estimacin por el mtodo de mxima
verosimilitud. En el contexto del anlisis de Fourier, se puede elegir que el valor de f(a)
f(b) sean 1/(2(ba)), para que entonces la transformada inversa de muchas
transformadas integrales de esta funcin uniforme resulten en la funcin inicial, de otra
forma la funcin que se obtiene sera igual en casi todo punto, o sea excepto en un
conjunto de puntos con medida nula. Tambin, de esta forma resulta consistente con la
funcin signo que no posee dicha ambigedad.
b) Funcin de Distribucin de Probabilidad
La funcin de distribucin de probabilidad es:

c) Funciones Generadoras Asociadas

Funcin Generadora de Momentos:

La funcin generadora de momentos es:

a partir de la cual se pueden calcular los momentos mk.

y, en general,

Para una variable aleatoria que satisface esta distribucin, la esperanza matemtica es
entonces m1 = (a + b)/2 y la varianza es m2 m12 = (b a)2/12.

Propiedades
a) Generalizacin a Conjuntos de Borel:
Esta distribucin puede ser generalizada a conjuntos de intervalos ms complicados.
Si S es un conjunto de Borel de medida finita positiva, la distribucin probabilidad
uniforme en S se puede especificar definiendo que la pdf sea nula fuera de S e igual a
1/K dentro de S, donde K es la medida de Lebesgue de S.
b) Estadsticas de Orden:
Sea X1,..., Xn una muestra i.i.d. de U(0,1). Sea X(k) el orden estadstico k-simo de
esta muestra. Entonces la distribucin de probabilidad de X(k) es una distribucin Beta
con parmetros k y n k + 1. La esperanza matemtica es

Esto es til cuando se realizan Q-Q plots.


Las varianzas son:

c) Uniformidad:
La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre
dentro de algn intervalo de longitud finita es independiente de la ubicacin del
intervalo (aunque s depende del tamao del intervalo), siempre que el intervalo est
contenido en el dominio de la distribucin.
Es posible verificar esto, por ejemplo si X U(0,b) y [x, x+d] es un subintervalo de
[0,b] con d fijo y d > 0, entonces:

lo cual es independiente de x. Este hecho es el que le da su nombre a la distribucin.


Uniforme Estndar
Si se restringe a=0 y b=1, a la distribucin resultante U(0,1) se la llama distribucin
uniforme estndar.
Una propiedad interesante de la distribucin uniforme estndar es que si u1 es una
distribucin uniforme estndar, entonces 1-u1 tambin lo es.
Distribuciones Relacionadas
Si X tiene una distribucin uniforme estndar, entonces:

Y = -ln(X)/ tiene una distribucin exponencial con parmetro .

Y = 1 - X1/n tiene una distribucin beta con parmetros 1 y n. (Notar que esto
implica que la distribucin uniforme estndar es un caso especial de la distribucin
beta, con parmetros 1 y 1).
Relaciones con otras Funciones

Siempre y cuando se sigan las mismas convenciones en los puntos de transicin, la


funcin densidad de probabilidad puede tambin ser expresada mediante la funcin
escaln de Heaviside:

en trminos de la funcin rectngulo

No existe ambigedad en el punto de transicin de la funcin signo. Utilizando la


convencin de la mitad del mximo en los puntos de transicin, la distribucin uniforme
se puede expresar a partir de la funcin signo como:

Aplicaciones
Cuando se utiliza un p-valor a modo de prueba estadstica para una hiptesis nula
simple, y la distribucin de la prueba estadstica es continua, entonces la prueba
estadstica esta uniformemente distribuida entre 0 y 1 si la hiptesis nula es verdadera.
a) Muestreo de una Distribucin Uniforme
Existen muchos usos en que es til realizar experimentos de simulacin. Muchos
lenguajes de programacin poseen la capacidad de generar nmeros pseudo-aleatorios
que estn distribuidos de acuerdo a una distribucin uniforme estndar.
Si u es un valor muestreado de una distribucin uniforme estndar, entonces el valor
a+(ba)u posee una distribucin uniforme parametrizada por a y b, como se describi
previamente.
b) Muestreo de una Distribucin Arbitraria
La distribucin uniforme resulta til para muestrear distribuciones arbitrarias. Un
mtodo general es el mtodo de muestreo de transformacin inversa, que utiliza la
distribucin de probabilidad (CDF) de la variable aleatoria objetivo. Este mtodo es
muy til en trabajos tericos. Dado que las simulaciones que utilizan este mtodo
requieren invertir la CDF de la variable objetivo, se han diseado mtodos alternativos
para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro mtodo
similar es el rejection sampling.
La distribucin normal es un ejemplo importante en el que el mtodo de la
transformada inversa no es eficiente. Sin embargo, existe un mtodo exacto, la
transformacin de Box-Muller, que utiliza la transformada inversa para convertir dos
variables aleatorias uniformes independientes en dos variables aleatorias independientes
distribuidas normalmente.

Ejemplo en el intervalo [0,1]


Para este caso el intervalo queda definido por a=0 y b = 1.
Entonces resulta:

12. Esperanza Matemtica y Varianza de la Distribucin Uniforme

Su esperanza vale (b + a)/2

Su varianza es (b a)2/12

13. Distribucin Exponencial


Mientras que la distribucin de Poisson describe las llegadas por unidad de tiempo,
la distribucin exponencial estudia el tiempo entre cada una de estas llegadas. Si las
llegadas son de Poisson el tiempo entre estas llegadas es exponencial. Mientras que la
distribucin de Poisson es discreta la distribucin exponencial es continua porque el
tiempo entre llegadas no tiene que ser un nmero entero. Esta distribucin se utiliza
mucho para describir el tiempo entre eventos. Ms especficamente la variable aleatoria
que representa al tiempo necesario para servir a la llegada.
Ejemplos tpicos de esta situacin son el tiempo que un mdico dedica a una
exploracin, el tiempo de servir una medicina en una farmacia, o el tiempo de atender a
una urgencia.
Funcin de Densidad de la Distribucin Exponencial
La funcin de densidad de la distribucin exponencial es la siguiente:

y se describe X-exp() si s funcin de densidad es:

Su funcin de distribucin acumulada es:

Donde e representa el nmero e.


Su grfica es un modelo apropiado a vida til de objetos.

Donde obtenemos la funcin de distribucin:

Observar tambin que:

Adems para nmeros reales positivos s y t cualquiera, se verifica:

En efecto:

Para calcular la esperanza matemtica y la varianza, se hallar primero el momento


de orden r respecto del origen:

Siendo r

Como r(r+1)=r r(r), se, se obtiene para el orden I:

y la varianza:

Por lo tanto la distribucin exponencial del parmetro tiene una media y


desviacin.
Se dice que la variable aleatoria continua X tiene distribucin exponencial con
parmetro. La distribucin exponencial es el equivalente continuo de la distribucin
geomtrica discreta. Esta ley de distribucin describe procesos en los que:

Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,

el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra
en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha
pasado nada.

Ejemplos de este tipo de distribuciones son:

El tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento


de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datacin de
fsiles o cualquier materia orgnica mediante la tcnica del carbono 14, C14;

El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de


un paciente;

En un proceso de Poisson donde se repite sucesivamente un experimento a


intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos
sucesos consecutivos sigue un modelo probabilstico exponencial. Por ejemplo, el
tiempo que transcurre entre que sufrimos dos veces una herida importante.

Concretando, si una variable aleatoria continua X distribuida a lo largo de


que su funcin de densidad es

Se dice que sigue una distribucin exponencial de parmetro

, es tal

,.

Un clculo inmediato nos dice que si x>0,

Luego la funcin de distribucin es:

Figura: Funcin de distribucin, F, de


,
calculada como el rea que deja por debajo de
s la funcin de densidad.

de la
primer lugar la funcin caracterstica

Para calcular el valor esperado y la varianza


distribucin exponencial, obtenemos en

Para despus, derivando por primera vez

y derivando por segunda vez,

Entonces la varianza vale

Ejemplo
En un experimento de laboratorio se utilizan 10 gramos de
. Sabiendo que la
duracin media de un tomo de esta materia es de 140 das, cuantos das transcurrirn
hasta que haya desaparecido el 90% de este material?
Solucin:
El tiempo T de desintegracin de un tomo
distribucin exponencial:

de es una variable aleatoria de

Como el nmero de tomos de


existentes en una muestra de 10 gramos es
enorme, el histograma de frecuencias relativas formado por los tiempos de
desintegracin de cada uno de estos tomos debe ser extremadamente aproximado a la
curva de densidad, f. Del mismo modo, el polgono de frecuencias relativas acumuladas
debe ser muy aproximado a la curva de su funcin de distribucin F. Entonces el tiempo
que transcurre hasta que el 90% del material radiactivo se desintegra es el percentil 90,
t90, de la distribucin exponencial, es decir

Figura: Como el nmero de tomos


(observaciones) es extremadamente alto en 10
gramos de materia, el histograma puede ser
aproximado de modo excelente por la funcin de
densidad exponencial, y el polgono de frecuencias
acumuladas por la funcin de distribucin

Ejemplo
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una
distribucin exponencial con media de 16 aos. Cul es la probabilidad de que a una
persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes
de 20 aos? Si el marcapasos lleva funcionando correctamente 5 aos en un paciente,
cul es la probabilidad de que haya que cambiarlo antes de 25 aos?
Solucin:
Sea T la variable aleatoria que mide la duracin de un marcapasos en una persona.
Tenemos que

Entonces

En segundo lugar

Luego como era de esperar, por ser propio a un mecanismo exponencial,

o sea, en la duracin que se espera que tenga el objeto, no influye en nada el tiempo que
en la actualidad lleva funcionando. Es por ello que se dice que la distribucin
exponencial no tiene memoria.
Ejercicios:
1) El tiempo durante el cual cierta marca de batera trabaja en forma efectiva hasta que
falle (tiempo de falla) se distribuye segn el modelo exponencial con un tiempo
promedio de fallas igual a 360 das.

qu probabilidad hay que el tiempo de falla sea mayor que 400 das?.

Si una de estas bateras ha trabajado ya 400 das, qu probabilidad hay que trabaja
ms de 200 das ms?

Si se estn usando 5 de tales bateras calcular la probabilidad de que ms de dos de


ellas continen trabajando despus de 360 das.
Solucin

Sea X = el tiempo que trabaja la batera hasta que falle. El tiempo promedio de falla
es de 360 das. Entonces, X ~Exp (=1/360) y su funcin de densidad es:

a) .
b) Si la batera ya trabajo 400 das, quiere decir qe s tiempo de falla es mayor que
400, luego
c) La probabilidad de que na batera trabaje ms de 360 das.

Sea Y=# de bateras de 5 que siguen trabajando despus de 360 das entonces
Y~(5,p) , y

2) Suponga que la vida de cierto tipo de tubos electrnicos tiene una distribucin
exponencial con vida media de 500 horas. Si X representa la vida del tubo (tiempo
que dura el tubo).
a) Hallar la probabilidad que se queme antes de las 300 horas.
b) Cul es la probabilidad que dure por lo menos 300 horas?
c) Si un tubo particular ha durado 300 horas. cul es la probabilidad de que dure
otras 400 horas?
Solucin:
Sabemos que

, entonces

, donde

La funcin de densidad de la variable aleatoria X es:

La funcin distribucin es:

a) .
b) .
c) .
Obsrvese que
Este, es na propiedad de la distribucin exponencial que se conoce como la de no
tener memoria.

3) Suponga que el tiempo que necesita un cajero de un banco para atender a un cliente
tiene una distribucin exponencial con una media de 40 segundos.
a) Hallar la probabilidad que el tiempo necesario para atender un cliente dado sea
mayor que 20 minutos?
b) Cul es la probabilidad que el tiempo necesario para atender a un cliente est
comprendido entre 1 y 2 minutos.
Solucin
Sea X la variable aleatoria definida por X(w)= intervalo de tiempo necesario para
atender a un cliente.

De donde =3/2 minutos, por lo tanto la funcin de distribucin es:

a) .
b) .

14. Esperanza Matemtica y Varianza de la Distribucin Exponencial


El valor esperado y la varianza de una variable aleatoria X con distribucin
exponencial son:
y
La distribucin exponencial es un caso particular de distribucin gamma con k = 1.
Adems la suma de variables aleatorias que siguen una misma distribucin exponencial
es una variable aleatoria expresable en trminos de la distribucin gamma.

15. Distribucin Gamma


La distribucin gamma es una distribucin de probabilidad continua con dos
parmetros k y cuya funcin de densidad para valores x > 0 es:

Aqu e es el nmero e y es la funcin gamma. Para valores k N la funcin


gamma es ( k ) = ( k 1 )!. En este caso (por ejemplo para describir un proceso de
Poisson) se llaman la distribucin Erlang con un parmetro = 1 / .
Grficamente:

Propiedades de la distribucin Gamma

Su esperanza es p.

Su varianza es p2

La distribucin Gamma (,p=1) es una distribucin Exponencial de parmetro . Es


decir, el modelo Exponencial es un caso particular de la Gamma con p=1.

Dadas dos variables aleatorias con distribucin Gamma y parmetro comn


X ~ G(, p1) y Y ~ G(, p2)
se cumplir que la suma tambin sigue una distribucin Gamma
X + Y ~ G(, p1 + p2).

Una consecuencia inmediata de esta propiedad es que, si tenemos k variables


aleatorias con distribucin Exponencial de parmetro (comn) e independientes, la
suma de todas ellas seguir una distribucin G(, k).

Relaciones con otras distribciones.


El tiempo hasta que el suceso nmero k ocurre en un Proceso de Poisson de
intensidad es una variable aleatoria con distribucin gamma. Eso es la suma de k
variables aleatorias independientes de distribucin exponencial con parmetro .

16. Esperanza matemtica y varianza de la distribucin gamma


Utilizando otra simbologa, el valor esperado y la varianza de una variable aleatoria
X de distribucin gamma son:
y

17. Distribucin Normal


Entre las distribuciones probabilsticas de variable continua, la ms ampliamente
utilizada es la llamada distribucin normal, cuya representacin grfica tiene una forma
muy conocida en el mbito de la estadstica y las ciencias naturales: la campana de
Gauss.
Concepto y Funcin de Probabilidad
Dado un experimento de variable aleatoria continua X, se llama distribucin normal a
aquella que queda perfectamente descrita por su media aritmtica y su desviacin
tpica s. Las distribuciones normales, tambin llamadas gaussianas, se denotan por la
expresin N( , s).

La grfica de una distribucin normal es la conocida campana de Gauss.


La funcin de densidad de la distribucin normal sigue la ecuacin que determina la
conocida campana de Gauss, cuya expresin matemtica es la siguiente:

Media y Desviacin
Tpica
Una funcin de densidad asociada a una distribucin normal se caracteriza por dos
parmetros complementarios:
La media
un mximo.

, que corresponde al punto en el que la funcin de distribucin alcanza

La desviacin tpica s, que seala la anchura de la distribucin.


La funcin que describe una distribucin normal presenta puntos de inflexin en las
abscisas: - s y
+ s, donde se modifica la concavidad de la curva. Finalmente, en
los valores de la variable estadstica que tienden a - y +, la funcin tiende a cero.
Lo distribucin normal queda definida por dos parmetros, su medio y su desviacin
estndar y se representa as:

Ejemplo:
4) Supongamos que se sabe que el peso de los sujetos de una determinada poblacin
sigue una distribucin aproximadamente normal, con una media de 80 kg y una
desviacin estndar de 10 kg. Podremos saber cul es la probabilidad de que una
persona, elegida al azar, tenga un peso superior a 100 kg?
Solucin:
= 80
= 10

= 100
Aplicando la formula, tenemos:

como el rea total bajo la curva es igual a 1, se puede deducir que:

Por lo tanto, la probabilidad buscada de que una persona elegida aleatoriamente de


eso poblacin tenga un peso mayor de 100 Kg, es de 10.9772 = 0.0228, es decir,
aproximadamente de un 2.3%
Ejemplo
La vida media de una lmpara, segn el fabricante, es de 68 meses, con una
desviacin tpica de 5, distribuye segn una distribucin normal en un lote de 10.000
lmparas. Cuntas lmparas superan 75 meses?
Solucin:
T = 75-68/5 = 1.4 P(X>75) = (t>1.4) = 1-p (t<1.4) = 1-0.9192 = 0.0808
10.000 x 0.808 = 808 lmparas superan los 75 meses

Ejemplo
Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La
duracin de una distribucin normal con media de 302 das y desviacin tpica de 40
das. Calcular.
a) Cuntas bombillas Se fundirn antes de 365 das?
b) cuantas duraran ms de 400 das?
Solucin:
a) t = 365 - 302 /40 = 1.575 P(X < 365) = P(t <1.575) = 0.9418

20.000 x 0.9418 = 18.836 bombillas se fundirn antes de 365 das.


b) t = 400 - 302 / 40 = 2.45 P (X > 400) = P (t > 2.45) = 1 - P,(t < 2.45) =1 - 0.9929 =
0.0071
20.000 x 0.0071 = 142 bombillas duraran ms de 400 das
Tipificacin de la Variable
El clculo de las probabilidades asociadas a una distribucin normal por medio de
integrales resulta, en general, complejo. Por ello, suele utilizarse una funcin de
distribucin de apoyo cuya media es 0 y cuya desviacin tpica es la unidad. Tal funcin
se denomina distribucin normal tipificada, y se expresada como N(0,1).
Se llama tipificacin a la operacin consistente en cambiar de una variable aleatoria
X a otra variable Z de distribucin tipificada, por medio de la expresin siguiente:

Tabla de Tipificacin
La distribucin normal tipificada tiene por ecuacin de su funcin de densidad:

Para determinar la probabilidad de que esta funcin sea menor que un valor dado a,
se utiliza un mtodo aproximativo y una tabla de tipificacin muy conocida.

Fragmento de la tabla
de tipificacin N(0,1)

La distribucin normal como aproximacin de la binomial


Segn demostr Abraham de Moivre (1667-1754), las distribuciones binomiales de
variable discreta pueden aproximarse a distribuciones normales siempre que el producto
np 5). La equivalencia establecida sera la siguiente:

Ejemplo grfico de aproximacin de


una distribucin binomial mediante una
normal. Como se aprecia, la exactitud de
la aproximacin aumenta conforme se
incrementa el nmero de experimentos (n).

18. Esperanza Matemtica y Varianza de la Distribucin Normal


Esperanza
Los nombres de esperanza matemtica y valor esperado tienen su origen en los
juegos de azar y hacen referencia a la ganancia promedio esperada por un jugador
cuando hace un gran nmero de apuestas.
Si la esperanza matemtica es cero, E(x)=0, el juego es equitativo, es decir, no existe
ventaja ni para el jugador ni para la banca.
Ejemplos
a) Si una persona compra una papeleta en una rifa, en la que puede ganar de 5.000
un segundo premio de 2000 con probabilidades de: 0.001 y 0.003. Cul sera el
precio justo a pagar por la papeleta?
Solucin: E(x) = 5000 0.001 + 2000 0.003 = 11
b) Un jugador lanza dos monedas. Gana 1 2 si aparecen una o dos caras. Por otra
parte pierde 5 si no aparece cara. Determinar la esperanza matemtica del juego y
si ste es favorable.
Solucin: E = {(c,c);(c,x);(x,c);(x,x)}
p(+1) = 2/4

p(+2) = 1/4
p(5) = 1/4
E(x)= 1 2/4 + 2 1/4 - 5 1/4 = 1/4.
R: Es desfavorable
Desviacin estndar
La desviacin estndar () mide cunto se separan los datos.
La frmula es fcil: es la raz cuadrada de la varianza. As que, qu es la
varianza?
Varianza
La varianza (que es el cuadrado de la desviacin estndar: 2) se define as:
Es la media de las diferencias con la media elevadas al cuadrado.
En otras palabras, sigue estos pasos:
a) Calcula la media (el promedio de los nmeros)
b) Ahora, por cada nmero resta la media y eleva el resultado al cuadrado (la diferencia
elevada al cuadrado).
c) Ahora calcula la media de esas diferencias al cuadrado.
Ejemplo
T y tus amigos han medido las alturas de sus perros (en milmetros):

Las alturas (de los hombros) son: 600mm, 470mm, 170mm, 430mm y 300mm.
Calcula la media, la varianza y la desviacin estndar.
Solucin:

s que la altura media es 394mm. Vamos a dibujar esto en el grfico:

Ahora calculamos la diferencia de cada altura con la media:

Para calcular la varianza, toma cada diferencia, elvala al cuadrado, y haz la media:

As que la varianza es 21,704.


Y la desviacin estndar es la raz de la varianza, as que:
Desviacin estndar: = 21,704 = 147
y lo bueno de la desviacin estndar es que es til: ahora veremos qu alturas estn a
distancia menos de la desviacin estndar (147mm) de la media:

As que usando la desviacin estndar tenemos una manera estndar de saber qu


es normal, o extra grande o extra pequeo.
Los Rottweilers son perros grandes. Y los Dachsunds son un poco menudos... pero
que no se enteren!.
Nota: por qu al cuadrado?

Elevar cada diferencia al cuadrado hace que todos los nmeros sean positivos (para
evitar que los nmeros negativos reduzcan la varianza)
Y tambin hacen que las diferencias grandes se destaquen. Por ejemplo 1002=10,000
es mucho ms grande que 502=2,500.
Pero elevarlas al cuadrado hace que la respuesta sea muy grande, as que lo
deshacemos (con la raz cuadrada) y as la desviacin estndar es mucho ms til.
19. Distribucin X2 de Pearson
Llamada tambin ji cuadrada(o) o chi cuadrado(a) (X), es una distribucin de
probabilidad continua con un parmetro k que representa los grados de libertad de la
variable aleatoria.

Donde
son variables aleatorias normales independientes de media cero y varianza
uno. El que la variable aleatoria X tenga esta distribucin se representa habitualmente
as: X

La distribucin X2 de Pearson ji cuadrada nos permite probar, si dos o ms


proporciones de poblacin pueden ser consideradas iguales.
Si clasificamos a una poblacin en diferentes categoras con respecto a dos atributos
(edad, y desempeo en el trabajo), podemos utilizar una prueba ji cuadrada, para
comprobar si los dos atributos son independientes entre s. La distribucin ji cuadrada,
se denota por la letra griega X(Ji), elevada al cuadrado: X2.
A medida que aumentan los grados de libertad la curva se va haciendo ms simtrica
y su cola derecha se va extendiendo.
Propiedades
Su funcin de densidad es:

donde es la funcin gamma.

Funcin de Distribucin Acumulada

Su funcin de distribucin es:

donde (k,z) es la funcin gamma incompleta.


Relacin con otras Distribuciones
La distribucin X es un caso especial de la distribucin gamma.
De hecho,
. Como consecuencia, cuando k = 2, la distribucin X es una
distribucin exponencial de media k = 2.
Cuando k es suficientemente grande, como consecuencia del teorema central del
lmite, puede aproximarse por una distribucin normal:

Aplicaciones
La distribucin X tiene muchas aplicaciones en inferencia estadstica. La ms
conocida es la de la denominada prueba X utilizada como prueba de independencia y
como prueba de bondad de ajuste y en la estimacin de varianzas. Pero tambin est
involucrada en el problema de estimar la media de una poblacin normalmente
distribuida y en el problema de estimar la pendiente de una recta de regresin lineal, a
travs de su papel en la distribucin t de Student.
Aparece tambin en todos los problemas de anlisis de varianza por su relacin con
la distribucin F de Snedecor, que es la distribucin del cociente de dos variables
aleatorias independientes con distribucin X.

Caractersticas de la Distribucin

Todos los valores de x2 son positivos.

Es una curva sesgada hacia la derecha.

La media de la distribucin son sus grados de libertad


Precauciones que se deben tomar cuando se use una prueba ji_cuadrada

Para utilizar una prueba de hiptesis ji_cuadrada, debemos tener un tamao de


muestra lo suficientemente grande para garantizar la similitud entre la distribucin
terica correcta y nuestra distribucin de muestreo de x2, estadstica ji_cuadrada.
Cuando las frecuencias esperadas son muy pequeas el valor de x2 estar sobrestimado
y se tendr como resultado demasiados rechazos de la hiptesis nula, para evitar incurrir
en inferencias incorrectas de la prueba de hiptesis ji_cuadrada. Siga la regla general
que dice que una frecuencia esperada de menos de cinco en una celda de una tabla de
contingencia es demasiado pequea para utilizarse.
Si el valor de ji_cuadrada hubiera sido cero, hubisemos tenido que ser cuidadosos
al preguntar si absolutamente no existen diferencias entre las frecuencias observadas y
las esperadas. Si tenemos fuertes creencias de que debera existir alguna diferencia
tendramos que examinar tanto la forma en que recabamos datos o la manera como
iniciamos las mediciones o ambas cosas para tener la certeza de que las diferencias
existentes no fueron minimizadas o pasadas por alto al recolectar los datos de muestra.
Propiedades de las distribuciones ji_cuadradas
a) Los valores de x2 son mayores o iguales que 0
b) La forma de una distribucin x2 depende del gI=nl. En consecuencia hay un nmero
infinito de distribuciones x2.
c) EI rea bajo una curva ji_cuadrada y sobre el eje horizontal es 1.
d) Las distribuciones x2 no son simtricas, tienen colas estrechas que se extienden a la
derecha; estn sesgadas a la derecha.
e) Cuando n>2 la media de una distribucin x2 es n-l y la varianza es 2(n-l).
f) EI valor modal de una distribucin x2 se da en el valor (n-3).
(Tabla de Contingencia: Compara la cuenta de respuestas categricas entre dos
grupos independientes para desplegar la frecuencia de xitos y fracasos en cada grupo).

Distribucin Ji cuadrada para V=2, 5 y 10.

Grafica Distribucin Ji Cuadrada


Para V= 2, 5 y 10 Grados de Libertad

La estadstica de Ji cuadrada se calcula de la manera siguiente:


Esta frmula establece que ji_cuadrada, o x2, es la suma que obtendremos si:
a) Restamos Fe de Fo para cada una de las celdas de la tabla.
b) Elevamos al cuadrado cada una de las diferencias.
c) Dividimos cada diferencia al cuadrado entre Fe, y
d) Sumamos los resultados.
Cuando las observaciones de una investigacin corresponden a muestras
independientes y las mediciones se tienen en escala nominal, la prueba de ji cuadrada
es el procedimiento de eleccin para el contraste de hiptesis. Esta prueba estadstica se
emplea en el anlisis de dos o ms grupos y de dos o ms variables.
La eficacia de la prueba no se ha determinado con exactitud; sin embargo, a medida
que el tamao de la muestra aumenta, el valor de probabilidad de error para aceptar
hiptesis alternas (Ha o Ho) se acerca a 1. En sentido opuesto, cuando el nmero de la
muestra es menor que 20, se pierde eficacia. En estas condiciones, es conveniente no
aplicar la prueba de ji cuadrada, pero existen alternativas.
Si en el modelo experimental se tiene una tabla de contingencias de 2x2 y la
muestra total es menor a 20 e incluye cero en alguna casilla, la prueba estadstica
aconsejable ser la de probabilidad exacta de Fischer y Yates.
Con grupos mltiples, pero con frecuencias pequeas, menores que cinco, se
recomienda usar la prueba de ji cuadrada de proporciones.
Las dos alternativas propuestas aumentan notoriamente la eficacia con muestras de
tamao pequeo y se limita la probabilidad de cometer el error del tipo I.
La frmula es:

Dnde:
X2 = valor estadstico de ji cuadrada.
Fo = frecuencia observada.
Fe = frecuencia esperada.
= desviacin tpica.

Pasos para aplicar la distribucin X2 de Pearson:

Arreglar las observaciones en una tabla de contingencias.


Determinar el valor terico de las frecuencias para cada casilla.
Calcular las diferencias entre los valores observados con respecto a los tericos de
cada casilla.
Elevar al cuadrado las diferencias y dividirlas entre el valor terico de la casilla
correspondiente.
Obtener la sumatoria de los valores anteriores, que es el estadstico X2.
Calcular los grados de libertad (gl): gl = (K columnas -1) [H hileras -1].
El valor de X2 se compara con los valores crticos de ji cuadrada de la tabla de
valores crticos de X2 y de acuerdo con los grados de libertad, y se determina la
probabilidad.
Decidir si se acepta o rechaza la hiptesis X2c X2t se rechaza Ho.
20. Esperanza Matemtica y Varianza de la Distribucin X2 de Pearson

El valor esperado y la varianza de una variable aleatoria X con distribucin X son,


respectivamente, k y 2k.

UNIDAD 5: LEY DE LOS GRANDES NMEROS. TEOREMA DEL LMITE


CENTRAL
1. Desigualdad de Chebychev

La desigualdad de Chebyshov (tambin escrito como Chebychev) es un resultado que


ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con
varianza finita est a una cierta distancia de su esperanza matemtica. La desigualdad
recibe su nombre del matemtico ruso Pafnuti Chebyshov.
En la literatura, a este tipo de desigualdades, cuya caracterstica es la comparacin de
la probabilidad de la cola de la distribucin y su valor esperado, se le conoce como
desigualdades tipo Chebyshov.
Estas desigualdades son la herramienta bsica para demostrar resultados como la ley
de los grandes nmeros, entre otros. Adems de que tienen aplicaciones en estadstica,
as como en otras reas de las matemticas.

Formulacin
Sea X una variable aleatoria no negativa y una funcin f: R R + creciente tal que
E[f(X)] < +. Entonces a R se da la desigualdad siguiente:

Casos particulares de la Desigualdad


Algunas formulaciones menos generales que se desprenden de la primera son las
siguientes:
a) Sea X variable aleatoria con momento de orden k finito, entonces

siendo a > 0 y f(X) = |X|k


b) Sea X con momento centrado de orden 2 finito, entonces:

siendo Y=|XE(X)|, f(Y)=Y2, y E(Y2)= E(|XE(X)|2)=var(X)

c) Sea X variable aleatoria de media y varianza finita 2, entonces, para todo nmero
real a > 0,

Slo en caso de que a > 1 la desigualdad proporcionan una cota no trivial.

Ejemplos
Para ilustrar este resultado, supongamos que los artculos de Wikipedia tienen una
extensin media de 1000 caracteres y una desviacin tpica de 200 caracteres. De la
desigualdad de Chebyshov, usando k=2, se deduce que al menos el 75% de los artculos
tendrn una extensin comprendida entre 600 y 1400 caracteres.

Otra consecuencia del teorema es que para cada distribucin de media y desviacin
tpica finita , al menos la mitad de sus valores se concentrarn en el intervalo (-2 ,
+2 )
Demostracin
En primer lugar considrense una desigualdad y una igualdad:

Ntese que

Si ahora se aplica la funcin esperanza a los dos lados de la primera desigualdad que
se han establecido se habr demostrado el resultado.

Demostracin del tercer caso particular


Para demostrar la desigualdad se parte de la variable aleatoria auxiliar Y definida as:

Entonces, trivialmente,
aY |X|
y por lo tanto,
a22Y2 (X)2.
Tomando esperanzas en ambos miembros se obtiene:

por lo que
Pero, a su vez, dado que Y slo puede ser 0 1,

lo que prueba el resultado.


Aplicaciones de la Desigualdad de Chebyshev
Dentro de las principales aplicaciones de la desigualdad de Chebyshev, podemos
mencionar las siguientes:
a) Clculo de cotas para probabilidades, lo cual es importante cuando es difcil dar un
valor exacto de la probabilidad;
b) Demostracin de teoremas lmite en probabilidad, y
c) Clculo de tamao de muestra en la aproximacin de la media de una poblacin.
A continuacin haremos una descripcin ms precisa de cada uno de estos puntos.
Acotamiento de Probabilidades
Esta aplicacin es la ms directa, y se utiliza para dar una cota superior para
P(|
X | k), donde k > 0, usando la esperanza y varianza de la variable aleatoria X, sin
necesidad de conocer su distribucin.
A continuacin se presenta un ejemplo, para ilustrar mejor esta aplicacin.

Ejemplo
Suponga que el nmero de artculos producidos en una fbrica durante una semana es
una variable aleatoria con media 50. Si la varianza de una semana de produccin se sabe
que es igual a 25, entonces:
Qu podemos decir acerca de la probabilidad de que en esta semana la produccin
difiera en ms de 10 a la media?
Solucin: Por la desigualdad de Chebyshev
Entonces la probabilidad de que en la semana de produccin el nmero de artculos
exceda en ms de 10 a la media es a lo ms 0.25.

Teoremas Lmite
La desigualdad de Chebyshev juega un papel muy importante en la demostracin de
algunos de los ms importantes teoremas lmite En esta parte del trabajo se presentarn
algunos de ellos.
Sean X1, X2,, Xn, variables aleatorias independientes con media y varianza
finitas, y denotemos
. Entonces, para todo n 1

Ahora, por la desigualdad de Chebyshev,


(A)
para todo n 1.
La relacin de la frmula anterior es el punto clave en la demostracin de los
siguientes resultados.

Teorema. (Ley Dbil de los Grandes Nmeros).


Sean X1, X2,, Xn, variables aleatorias con media p y varianza 2 finitas.
Entonces, para todo > 0

Demostracin.
Observemos que y
obtenemos:

. Entonces, por la frmula (A)

Haciendo n , llegamos a que


Teorema. (Chebyshev).
Si X1, X2,, Xn, es una sucesin de variables aleatorias independientes tal que
existe alguna C< ,

entonces, para cualquier > 0,

Demostracin.
Como la sucesin de varianzas es uniformemente acotada, tenemos que

De acuerdo a la relacin (A) tenemos que:

Haciendo n , obtenemos

Y como una probabilidad no puede exceder el valor de 1, obtenemos el resultado


deseado.
Como casos particulares del Teorema de Chebyshev tenemos los siguientes.

Teorema. Suponga que se repite un experimento n veces de forma independiente con


dos posibles resultados: xito y fracaso. Sea X la variable aleatoria que representa el
nmero de xitos obtenidos.
a) (Bernoulli). Si la probabilidad de xito en cada ensayo es p, entonces para cada
>0,

b) (Poisson). Si la probabilidad de xito en el k-simo ensayo es pk, entonces para


cada > 0,

La demostracin de este teorema se sigue directamente observando que


donde

y adems EXk = Pk1, k = 1, 2, , n.


Teorema. (Markov). Si una sucesin de variables aleatorias X1, X2,, Xn, es tal
que

cuando n . Entonces para cualquier > 0

Tamao de Muestra
La desigualdad de Chebyshev permite encontrar, en trminos de la varianza, un
tamao de muestra n que es suficiente para garantizar que la probabilidad de que la
desigualdad
ocurre es tan pequea como se desee, lo cual permite obtener
una aproximacin a la media.
Concretamente, sea Sean X1, X2,, Xn, una muestra aleatoria de tamao n, es
decir, variables aleatorias i.i.d., y supngase que tienen media y varianza 2 finitas.
Entonces, por la desigualdad de Chebyshev,

Sea > 0 fijo. De esta manera,

Ejemplo.
Supngase que Sean X1, X2,, Xn, son variables aleatorias con distribucin de
Bernoulli, de tal forma que toman el valor 1 con probabilidad p = 0.5. Entonces, De
qu tamao se tiene que tomar la muestra para garantizar que la probabilidad de que la
diferencia entre la media aritmtica y su valor esperado no exceda en ms de una
dcima, sea menor o igual a una centsima?
Solucin:
Tenemos que = p = 0.5 y 2 = p(1-p) = (0.5)2. Por la desigualdad de Chebyshev,

para cualquier > 0. Ahora para = 0.01, = 0.1 se tiene que

De esta manera se concluye que se necesitan un tamao de muestra de al


menos 2500 para garantizar que la probabilidad del evento
sea
menor que 0.01.
2. Ley de los Grandes Nmeros
Sean X1, X2, ..., Xn variables aleatorias independientes, con la misma distribucin
(misma media y varianza 2). Entonces, para
Sn = X1+ X2 + ... + Xn y cualquier real > 0:

o de forma equivalente

Demostracin:

Usando la desigualdad de Chebyshev y fijado una psilon:

o de forma equivalente

Observa que Sn/n es un promedio y por eso a la ley de los grandes nmeros suele
conocerse tambin como ley de los promedios.

Hemos visto su forma dbil. En su forma fuerte nos dice que si repetimos el
lanzamiento de una moneda, la proporcin de caras se aproxima ms y ms a 1/2 a
medida que aumentamos el nmero de lanzamientos.
Si Sn es el nmero de caras en n lanzamientos, la ley fuerte de los grandes nmeros
dice que cuando n tiende a infinito:

Ejemplos
Distribuciones para el nmero de caras en n lanzamientos de una moneda. La ley de
los grandes nmeros predice que el porcentaje de caras para n grande estar prximo a
1/2.

En las grficas se ha marcado con puntos las probabilidades comprendidas entre 0.45
y 0.55.
Vemos como a medida que n crece la distribucin se concentra ms y ms alrededor
de 0.5 y el porcentaje de rea correspondiente al intervalo (0.45, 0.55) se hace ms y
ms grande.

Supongamos que tomamos al azar n nmeros del intervalo [0,1] con una distribucin
uniforme. Si la variable aleatoria Xi describe la eleccin i-sima, tenemos:

De modo que, para cualquier > 0, tendremos:

Es decir, si escogemos al azar n nmeros del intervalo [0,1], las probabilidades son
mejores que 1 - 1/(12n2) de que la diferencia |Sn/n - 1/2| sea menor que .

Grficos semejantes al caso del lanzamiento de n monedas anterior, pero ahora con la
suma de n valores independientes tomados de una U(0,1). Rigen los mismos
comentarios.

La frase ley de los grandes nmeros es tambin usada ocasionalmente para


referirse al principio de que la probabilidad de que cualquier evento posible (incluso
uno improbable) ocurra al menos una vez en una serie, incrementa con el nmero de
eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotera es

bastante baja; sin embargo, la probabilidad de que alguien gane la lotera es bastante
alta, suponiendo que suficientes personas comprasen boletos de lotera.

3. Teorema del Lmite Central.


Este teorema afirma que la distribucin de medias mustrales tiende hacia una
distribucin normal, aunque las muestras procedan de una distribucin no normal
determinar un modelo de probabilidad para describir el comportamiento de una variable
continua.
Es un Teorema de gran importancia en Estadstica, especialmente para la parte de
Inferencia Estadstica. Establece que si X1,,Xn son variables aleatorias independientes
con media i y varianza i2, al margen del tipo de distribucin que sigan los sumandos,
la suma de todas ellas, Y=X1++Xn tiende a distribuirse aproximadamente normal, con
media =(1++n) y varianza 2 =(

2 ++

2 )/n, siendo las aproximaciones

mejores a medida que aumenta n.


De acuerdo con el resultado siempre que observemos una variable que sea el
resultado de muchas causas independientes, esperamos que su distribucin sea
aproximadamente normal, de ah la frecuencia con la que se presentan en realidad
variables aleatorias cuya distribucin puede aproximarse a la distribucin normal,
debido a que muchas de stas variables reales pueden considerarse la suma de variables
independientes. Por ejemplo, las medidas fsicas de una persona son debidas a muchas
variables: gentica, alimentacin, ejercicio fsico, etc. y se esperan que sigan una
distribucin normal.
Dado que la variable Binomial, no es ms que la suma de n variables independientes
(o la suma de los resultados obtenidos al efectuar n repeticiones de un experimento
aleatorio con una variable aleatoria que slo poda tomar dos posibles valores), su
distribucin tienda a aproximarse a la normal a medida que aumenta n, con media, la
esperanza E(X)=np y varianza 2 = np(1p), resultado demostrado por De Moivre en
1733. Este autor encontr que si X es una variable B(n,p), la distribucin:
(A) Ecuacin de convergencia de la
distribucin binomial a la distribucin
normal

converge hacia una distribucin normal tipificada o estandarizada, N(0,1).

Existe mucha controversia para determinar el tamao de muestra adecuado para que
la aproximacin a la normal proporcione resultados aceptables. Aunque muchos autores
suele dar por aceptable cuando el producto np(1p)>5, nosotros por mayor seguridad y

fiabilidad de que las aproximaciones son adecuadas, trabajaremos con la regla de que
ducho producto sea np(1p) 9. En nuestro caso una variable Binomial B(n,p) se
aproxima a una normal N(,), mediante la siguiente expresin:
(B) Ecuacin de transformacin distribucin binomial
a la distribucin normal.

Esta misma situacin aparece con variables de Poisson. Una variable aleatoria X que
sigue una distribucin Ps(), puede aproximarse a una distribucin normal con media, la
esperanza E(X)= y varianza 2 = , cuando n es grande, lo que requiere elevados
valores de . Aunque, como en el caso de la binomial, muchos autores suelen dar por
aceptable cuando el producto >5, nosotros por mayor seguridad y fiabilidad de que las
aproximaciones son adecuadas, trabajaremos con la regla de 9.
El procedimiento es similar al caso anterior. Si X es una variable Ps(), la
distribucin:
(C) Ecuacin de convergencia de la
distribucin de Poisson a la distribucin
normal

converge hacia una distribucin normal con tipificada o estandarizada, N(0,1).

Es decir, una variable Ps(), se aproxima a una normal N(, ), mediante la siguiente
expresin:
(D) Ecuacin de transformacin distribucin
Poisson a la distribucin normal

Ejemplos:
a) Calcular la probabilidad obtener 200 puntos al lanzar 70 dados.
Solucin:
Sea la variable X ~ nmero de puntos obtenidos en los 70 lanzamientos ~B(n=70,
p=1/6).

Consideramos cada uno de los 70 lanzamientos como variables independientes, con


lo cual podemos aplicar el Teorema Central del Lmite y aproximarla a una distribucin
normal, pues se cumple que np(1p)= 9,72 es decir, 9.
X~ nmero de puntos obtenidos en los 20 lanzamientos ~ B (n=20, p=1/6) ~N(E(X),
(X)), donde E(X) y (X) son la esperanza y la desviacin tpica de la distribucin
binomial, lanzamiento de 70 dados.
Aprovecharemos la propiedad, de que conocidos lo la esperanza (o puntos medios
obtenidos al lanzar un dado) y la varianza de la variable puntos obtenidos al lanzar un
dado, que sigue una distribucin B(n=1, p=1/6), con una media E1(X) y una varianza

2 (X), podemos calcular, E(X) y 2(X) como:

Luego X ~ nmero de puntos obtenidos en los 70 lanzamientos ~ B(n=20, p=1/6)


~N(245, 12,66)

b) En un proceso de fabricacin se producen en promedio 2 defectos por minuto.


Calcular la aproximadamente la probabilidad de que en una hora se produzcan ms
de 150 defectos.
Solucin:
X ~ Nmero defectos por minuto sigue una distribucin de Poisson de parmetro
=2.
En consecuencia, Y~ Nmero de defectos por hora sigue una distribucin de Poisson
de parmetro hora=60*2=120.

Consideramos cada uno de los defectos por minuto como variables independientes,
con lo cual podemos aplicar el Teorema Central del Lmite y aproximarla a una
distribucin normal, pues se cumple que hora 9.
Y~ Nmero de defectos por hora sigue una distribucin de Ps(hora120)
~N(E(X), (X)), donde E(X) y (X) son la esperanza y la desviacin tpica de la de
Poisson.
E(X)= hora=120
2(X)= hora=120

El Teorema Central del Lmite establece que la suma de n variables aleatorias


independientes de varianza finita e idntica distribucin tiende a la distribucin normal
cuando n tiende a infinito.
El Teorema Central del Lmite, permite calcular razonablemente bien las
probabilidades de variables que siguen una distribucin Binomial y de Poisson, siempre
que el tamao de muestra sea suficientemente grande, lo cual equivale a que se cumpla
que np(1p) 9 o que 9, respectivamente.
Una variable Binomial B(n,p) se aproxima a una normal N(,), mediante la
siguiente expresin:

Una variable Poisson Ps() se aproxima a una normal N(,), mediante la siguiente
expresin:

CONCLUSIONES
Por definicin, se llama experimento aleatorio, estocstico o estadstico al que puede
producir resultados diferentes en unas mismas condiciones. Lanzar una moneda al aire o
tirar un dado son ejemplos comunes de experimentos aleatorios.
Los valores de una variable sirven para describir o clasificar individuos o distinguir
entre ellos. La mayora de nosotros hacemos algo ms que simplemente describir,
clasificar o distinguir, porque tenemos ideas respecto a las frecuencias relativas de los
valores de una variable. En estadstica decimos que la variable tiene una funcin de

probabilidad, una funcin de densidad de probabilidad o simplemente una funcin de


distribucin.
Las distribuciones de probabilidad estn relacionadas con la distribucin de
frecuencias. De hecho, podemos pensar en la distribucin de probabilidad como una
distribucin de frecuencias terica. Una distribucin de frecuencias terica es una
distribucin de probabilidades que describe la forma en que se espera que varen los
resultados. Debido a que estas distribuciones tratan sobre expectativas de que algo
suceda, resultan ser modelos tiles para hacer inferencias y tomar decisiones de
incertidumbre.
El conjunto de valores que constituyen un carcter estadstico se denomina variable
estadstica. En trminos estrictos, se denomina variable estadstica a todo carcter
cuantitativo de un individuo, mientras que los caracteres cualitativos se suelen llamar
atributos.
Las variables estadsticas se clasifican en dos grandes grupos: variables discretas,
que toman nicamente valores puntuales, por ejemplo el nmero de hijos de una mujer
es siempre un valor entero: 0, 1, 2, 3, ..., y variables continuas, que pueden tomar
cualquier valor dentro del conjunto de los nmeros reales R o de un intervalo suyo, por
ejemplo las medidas antropomrficas de los recin nacidos, la altura de los ciudadanos
de un determinado colectivo, la medicin de temperaturas, otros.
Una distribucin de probabilidad de una variable aleatoria discreta utilizada
ampliamente es la distribucin binomial. Esta distribucin es apropiada para una
variedad de procesos que describe datos discretos, que son resultado de un experimento
conocido como proceso de Bernoulli, el cual lleva a uno de slo dos resultados posibles
que son mutuamente exclusivos, tales como muerto o vivo, enfermo o saludable, etc., en
donde la obtencin del resultado deseado se considera como xito p y el resultado no
deseado como fracaso q, donde, q = 1 p.
Los objetivos de distribuciones de probabilidad son: introducir las distribuciones de
probabilidad que ms se utilizan en la toma de decisiones; utilizar el concepto de valor
esperado para tomar decisiones; mostrar qu distribucin de probabilidad utilizar y
cmo encontrar sus valores, y; entender las limitaciones de cada una de las
distribuciones de probabilidad que utilice.

BIBLIOGRAFA

Mendenhall, W.; Reinmuth, J.E. (1978). Estadstica para administracin y economa.


(Ed.) Grupo Editorial Iberoamericana. ISBN 9687270136.
Pea, D. (2001). Fundamentos de Estadstica. (Ed.) Alianza Editorial, S.A. Madrid.
ISBN: 8420686964.

Romero, R y Znica, L.R. (1993). Estadstica (Proyecto de Innovacin Educativa).


SPUPV93.637.
Romero, R y Znica, L.R. (2000). Introduccin a la Estadstica. (Ed.). SPUPV
2000.4071.
Martn Pliego, F.J. (2004). Introduccin a la Estadstica Econmica y Empresarial. (Ed.)
Thomson. Madrid.
http://isis.faces.ula.ve/COMPUTACION/Bioestadistica/node78.htm
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_%CF%87%C2%B2
http://www.itchihuahuaii.edu.mx/academico/CB/MEG/documentos/1.3.htm
http://personal5.iddeo.es/ztt/Tem/t21_distribucion_normal.htm
http://www.hiru.eus/matematicas/distribucion-binomial
http://www.hiru.eus/matematicas/distribucion-normal
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_Poisson
http://html.rincondelvago.com/estadistica_45.html
http://estadistica-santiago.blogspot.com/2010/09/distribucion-geometrica_26.html
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_uniforme_continua
http://www.monografias.com/trabajos84/distribucion-exponencial/distribucionexponencial.shtml
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_exponencial
https://es.wikipedia.org/wiki/Distribuci%C3%B3n_gamma
http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t7.ht
m
http://www.disfrutalasmatematicas.com/datos/desviacion-estandar.html
http://www.disfrutalasmatematicas.com/datos/media.html
http://www.academia.edu/6345866/Teorema_de_Chebyshev
https://es.wikipedia.org/wiki/Desigualdad_de_Chebyshov

ANEXOS

Fig 1. Variables Aleatorias. Una variable


aleatoria X es una funcin que asocia un
nmero real a cada punto del espacio
muestral.

Fig 2: Distribucin Binomial

Fig 3: Distribucin Geomtrica

Fig 6: Distribucin Uniforme

Fig 4: Propiedades de Distribucin Geomtrica

Fig 5: Distribucin de Variables Aleatorias Continuas

Funciones de la Densidad Gamma


para distintos pares de parmetros ,
Fig 7: Distribucin Gamma

Fig 8: Distribucin Normal

Fig 9: Distribucin X2 de Pearson

Fig 10: Desigualdad de Chebychev

Fig 11: Ley de los Grandes Nmeros


Esta imagen representa una grfica en la cual
podemos observar como a mayor nmero de tiradas, la
media va aproximndose en este caso a 0,5 (existe un
error en la imagen, la media es de 0,5). Esto no quiere
decir que la media del resultado de todos los
experimentos sea exactamente este nmero, sino que
se va a ir aproximando a l.
Podemos observar este fenmeno en tres
experimentos distintos, es decir, tres monedas
diferentes en este caso. La media representa la
probabilidad a la que van a tender los tres
experimentos segn el nmero de tiradas. Claramente
se encuentra en la mitad, lo que quiere decir que con
un nmero cada vez ms alto de tiradas, la moneda
tendr las mismas posibilidades de que sea cara o de
que sea cruz.

Fig 12: Teorema del Lmite Central.


La distribucin de las medias aleatorias se
aproximan a na distribucin normal conforme
el tamao de la muestra n crece.