You are on page 1of 19

ESCUELA POLITECNICA NACIONAL

ESTADISTICA Y PROBABILIDADES
PROFESOR: MAT. FERNANDO CARRASCO

Variables aleatorias
2.1 Definicin.
Sea, X una funcin, y su espacio muestral (sobre el cual est definida la funcin).

A la funcin

X : ----------- R, se le llama variable aleatoria.

En otras palabras se tiene una variable aleatoria, si como resultado de un


experimento, no se sabe que valores va a tomar de antemano, es decir, es un
resultado incierto que depende del azar.

2.2 Tipos de variables aleatorias.


Se tiene dos tipos de variables aleatorias, las variables aleatorias discretas y las
variables aleatorias continuas.
Se tiene una variable aleatoria discreta (vad), cuando se pueden numerar los valores
que puede tomar la variable, pudiendo establecer una correspondencia con el
conjunto de los nmeros enteros positivos. La numeracin o conteo de los valores
de la variable aleatoria discreta puede ser finita o infinita.
Por otro lado, se tiene una variable aleatoria continua (vac), cuando los valores que
puede tomar la variable no se pueden numerar, y no se puede establecer una
correspondencia con los enteros positivos (1,2,3, ...).

2.3 Funcin de distribucin de probabilidad


La funcin de distribucin de probabilidad F(x), conocida tambin como ley integral
de distribucin de probabilidad, o funcin de distribucin acumulativa, nos da la
probabilidad que existe desde el menos infinito hasta el valor x de la variable
aleatoria (sea discreta o continua).
As, se define la funcin de distribucin de probabilidad para la variable aleatoria
(discreta o continua) por:
F(x) = P( x)
Grficamente, F(x)
Representa el rea sombreada
siguiente:

Propiedades:

Lim F(x) = 0
x -

Lim F(x) = 1
x +

Si x1 < x2, entonces F(x1) F(x2)

La ltima propiedad, establece que F(x) es una funcin creciente, lo cual lo podemos
apreciar en el siguiente esquema:

Caracterizacin de variables aleatorias


3.1 Introduccin.
Al definir la probabilidad, esta se la hace siempre sobre los eventos A, B, C, etc. ,
teniendo P(A), o P(B), etc. Sin embargo, para el caso de las variables aleatorias, la
notacin, como se aprecia en la definicin de funcin de distribucin de probabilidad,
cambia. Esto no implica que cambie la nocin de probabilidad, es solamente una
forma diferente de designar a los eventos.
As, por ejemplo, para designar la probabilidad de que al lanzar un dado salga un
nmero menor o igual que 3, tenemos lo siguiente:

Sea A, en evento salga un nmero menor o igual que 3, se notaba P(A).

Ahora, se define una variable aleatoria X, que representa el valor de la cara


al lanzar un dado, y se escribe simplemente:
P(X 3)

3.2 Variables aleatorias discretas


Las variables aleatorias discretas1, se caracterizan por su tabla de distribucin de
probabilidad:
Variable
aleatoria
Distribucin o
ley de
probabilidad

x1

x2

x3

Xn

p1

p2

p3

pn

Teniendo que: p1 + p2 + p3 +...+ pn = 1


En donde, se tiene la notacin siguiente:

P(X = xi) = pi, para i=1,2,3,...,n.

A esta funcin
pi, = P(X = xi), se le suele llamar tambin, funcin discreta de
densidad o ley de probabilidad de la variable aleatoria discreta X.

Luego, de acuerdo a la situacin y el descubridor de tales funciones, se han


bautizado estos modelos de probabilidad con diferentes nombres, tales como:

Ley de Bernoulli, Ley Binomial, Ley de Poisson, Ley Geomtrica, Ley Binomial
Negativa, etc.

3.3 Variables aleatorias continuas


Para el caso de una variable aleatoria continua X, se caracteriza a la variable
aleatoria X, por la funcin f(x), llamada funcin de densidad o ley de
probabilidad de la variable aleatoria continua X.
Esta funcin de densidad se obtiene tomando la derivada de su funcin de
distribucin de probabilidades F(x), es decir:

f(x) = F(x)
De esta relacin se definen las propiedades siguientes:

i)

f ( x)dx 1

ii)

F ( x)

f (t )dt

Esta segunda propiedad coincide con la llamada integral con lmite superior variable
estudiada en clculo
1

La nocin de discreta (y continua), tiene el mismo significado dado en tipos de variables visto al inicio de este
curso

iii) La funcin f(x) es siempre positiva, es decir: f(x) 0

La probabilidad en un intervalo dado [a,b] est dado por:


b

P(a X b) f ( x)dx F (b) F (a)

iv)

Grficamente esta probabilidad se la puede apreciar en el grfico siguiente:

Estas funciones de densidad o leyes de probabilidad surgen de situaciones y


problemas reales y frecuentes en todos los mbitos del saber.

Segn la forma de esta funcin f(x), surgen los modelos llamados: Ley
Uniforme, Ley Normal, Ley t-student, Ley Chi-Cuadrada, etc..

A continuacin vamos a definir las medidas de tendencia central y de dispersin


para las variables aleatorias.
Esto se hace con lo que se denomina momentos de orden k, y que sirven tambin
para definir otras estadsticas acerca de las distribuciones de los datos, como es la
simetra, nmeros ndice, entre otros.

3.4 Definicin de momentos estadsticos de orden k

Momentos para una variable aleatoria discreta X


Dada su tabla de distribucin de probabilidades:
Variable
aleatoria
Distribucin o
ley de
probabilidad

x1

x2

x3

Xn

p1

p2

p3

pn

Definicin.- Se define el momento2 de orden k para la variable discreta X, por:


n

k E ( X ) xik pi
k

i 1

Se dice tambin que el momento de orden k, es el valor esperado de la variable


aleatoria elevada a la potencia k.
Nota: al caso particular del momento de orden 1
(k=1), se le llama
ESPERANZA MATEMTICA, o valor esperado de la variable X, que no es
sino el valor promedio de la distribucin de los datos.
Es decir, se define (y se nota) el promedio (o valor esperado, o esperanza
matemtica) como:
n

E ( X ) xi pi
i 1

La varianza, se define como:


n

V ( X ) ( xi ) 2 pi
2

i 1

Esta expresin representa el momento de orden 2 de la variable (X-).


La desviacin estndar, como ya sabemos, se la obtiene tomando la raz cuadrada
de la varianza.
2

Estos Momentos Estadsticos sirven para definir algunas caractersticas de la forma como estn distribuidos los
datos de una variable.

Vemos ahora las mismas definiciones para una variable aleatoria


continua X. Siendo f(x) su funcin de densidad:
Definicin.- Se define el momento de orden k para la variable aleatoria continua X,
por:

k E ( X ) x k f ( x)dx
k

Se dice tambin que el momento de orden k, es el valor esperado de la variable


aleatoria elevada a la potencia k (Xk).
Nota: al caso particular del momento de orden 1
(k=1), se le llama
ESPERANZA MATEMTICA, o valor esperado de la variable X, que no es
sino el valor promedio de la distribucin de los datos.
Es decir, se define el promedio (o valor esperado, o esperanza matemtica) como:

E ( X ) x f ( x)dx

La varianza, se define como:

V ( X ) ( x ) 2 f ( x)dx
2

Esta expresin representa el momento de orden 2 de la variable (X-). Para la


desviacin estndar, tomamos la raz cuadrada de la varianza.
Con base en estas definiciones, se calcula la tendencia central y la dispersin de las
diferentes leyes de probabilidad, teniendo que estos parmetros (o valores o
caractersticas) representan atributos muy importantes en los diferentes esquemas
de probabilidad y aplicaciones.
Adems, con estas definiciones pueden plantearse algunos ndices, como el ndice
de precios al consumidor (IPC), a partir del cual se mide la inflacin de los precios,
sea para la canasta bsica, o precios de la industria, etc.

A continuacin se describen algunos modelos de probabilidad.

4.1 Ley Bernoulli


Bernoulli, es el esquema ms simple de las leyes o modelos de probabilidad para
variables aleatorias discretas y consiste en lo siguiente:
Se realiza un experimento, sobre el cual se plantea si ocurre o no un cierto evento.
As, este es un experimento donde se tienen dos posibles resultados: ocurre el
evento y, no ocurre el evento.
Cuando ocurre el evento, suele decirse que se tiene un xito (E), mientras que,
cuando no ocurre el evento, se dice que se tiene un fracaso (F).
Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con
el nmero cuatro. Si sale el nmero cuatro, decimos que tenemos un xito, en caso
contrario (si sale el uno o el dos o el tres o el cinco o el seis), decimos que tenemos
un fracaso.
Sea X, la variable aleatoria discreta que representa el resultado del experimento
(xito o fracaso en este caso). Esta variable siempre cuenta el nmero de xitos
obtenidos, por lo que puede tomar los valores 0 (fracaso) o 1 (xito).
Se definen las probabilidades de tener un xito y un fracaso, por:

P(xito)

P(fracaso) = P(F) = q

Teniendo que

= P(E) = p

p+q=1

Estas probabilidades (p y q) representan la ley de probabilidad, (en este caso Ley


Bernoulli de probabilidades), de la variable aleatoria discreta X.

Para el ejemplo planteado, se tiene un xito si sale la cara marcada con el nmero
cuatro, entonces:

P(E) = 1/6 (por definicin bsica de probabilidad), y

P(F) = 5/6 (ya que

p+q=1

q = 1 - p).

Veamos la tendencia central y la dispersin de esta ley de probabilidad:


El valor promedio de esta variable de Bernoulli, dado por la esperanza matemtica o
valor esperado (que se nota como E(X)) es:

E(X) = p

Y la varianza para la variable discreta de Bernoulli, est dada por:


V(X) = pq

La desviacin estndar, es por supuesto

pq

Retomando nuevamente el ejemplo del lanzamiento del dado, (xito si sale la cara
marcada con el nmero cuatro), el promedio y la varianza de este experimento estn
dados por:

Promedio = E(X) = 1/6


Varianza = V(X) = 1/6 * 5/6 = 5/36.

4.2 Ley Binomial


Supongamos ahora, que se realizan n experimentos de Bernoulli, cada uno de
ellos de manera independiente.
Consideremos en este caso, la variable aleatoria discreta X, como el resultado de la
suma de xitos obtenidos en los n experimentos de Bernoulli. Como posibles
resultados de suma de xitos, podemos tener: 0 xitos, 1 xito, 2 xitos, 3 xitos...,
hasta n xitos posibles.
As, bajo este esquema se plantea lo siguiente, cul ser la probabilidad de obtener
k xitos, como resultado de los n experimentos de Bernoulli?.
A este esquema planteado, se lo denomina, el esquema o modelo Binomial 3de
probabilidades.
Luego, nos interesa calcular la probabilidad siguiente:

P( X = k) = ?

Vamos a deducir la ley de probabilidad para esta variable aleatoria Binomial (para
las otras leyes de probabilidad, se indicar directamente la ley de probabilidad sin
realizar ninguna demostracin).
Se realizan n experimentos de Bernoulli, de los cuales k son xitos (y por lo tanto
tenemos (n-k) fracasos). Supongamos que ocurri la siguiente serie de k xitos y (nk) fracasos.

Luego la probabilidad de tener k xitos para esta serie, est dada por:

P(B1) = P(E E F F E . E E F E E)
= P(E) P(E) P(F) P(F) P(E) .. P(E) P(E) P(F) P(E) P(E)

Toma este nombre en honor al famoso Binomio de Newton.

= p * p * q

* q * p * .

*p*p* q * p * p

= pk q n-k

Supongamos ahora que, de los n eventos de Bernoulli, los primeros k eventos fueron
xitos, y los restantes (n-k) fracasos. Veamos si cambia la probabilidad, para este
esquema, como puede apreciarse en la siguiente figura:

La probabilidad de tener k xitos para esta serie, est dada por:

P(B2) = P(E E E E E . F F F F F)
= P(E) P(E) P(E) P(E) P(E) .. P(F) P(F) P(F) P(F) P(F)
= p * p * p * p * p * .

*q*q* q * q * q

= pk q n-k
Y vemos que la probabilidad no cambia. Sin embargo, no nos interesa solamente las
series B1 y B2, sino todas las combinaciones posibles, ya que queremos la
probabilidad de tener k xitos en n eventos de Bernoulli en cualquier orden que
salgan.
Luego la suma de todas las combinaciones posibles de estas probabilidades nos da
la probabilidad deseada, es decir, se tiene que:

P( X = k) = pk q n-k + pk q n-k + pk q n-k + + pk q n-k

Por anlisis combinatorio el total de combinaciones es:

C nk

As tenemos que:

P( X = k) = pk q n-k + pk q n-k + pk q n-k + + pk q n-k

P( X k )

n!
p k q ( nk )
k!(n k )!

Siendo sta, la LEY BINOMIAL DE PROBABILIDADES.

n!
k!(n k )!

El valor esperado o promedio y la varianza de una variable aleatoria binomial estn


dados por:

E(X) = np

V(X) = npq

Ntese que si aplicamos esta ley para n=1, tenemos la ley de Bernoulli.

Veamos unos ejercicios sobre este esquema para aclarar los conceptos vistos.

Ejemplo 1. En un hospital se tiene una unidad de 20 enfermos con una enfermedad


grave transmisible con una probabilidad de muerte de 1/6, cual ser la probabilidad
de que puedan morir 15 pacientes?.
Solucin:
Este problema se ajusta al esquema binomial de probabilidades. As, un paciente
puede ser visto como un evento de Bernoulli, en donde el xito es cuando muere el
paciente y el fracaso es cuando no muere. Luego tenemos 20 eventos de Bernoulli,
y queremos la probabilidad de que ocurran 15 xitos, es decir la probabilidad de que
ocurran 15 muertes.
La probabilidad de un xito est dada por la probabilidad de que muera por la
enfermedad grave, P(E)= p = 1/6, y q = 5/6.
Utilizando la ley binomial de probabilidades tenemos:
Probabilidad de que mueran 15 de entre los 20 pacientes =
15

20!
1 5
P( X 15)

15!(20 15)! 6 6

( 2015)

= 0,000000013

As, podemos apreciar que la probabilidad de que ocurra tal situacin es bastante
improbable.

Ejemplo 2. El siguiente ejercicio, es una adaptacin a una inquietud real. Hace un


tiempo atrs, un profesor de la Facultad de Medicina de la Universidad Central, me
coment que en su rea, suelen tomar algunos exmenes con un cierto nmero
(variable) de preguntas de respuestas verdadero o falso. Y me plante si se poda
determinar de alguna manera, cuntas preguntas deberan aplicarse, de tal manera
que, quienes ms estudien, tengan ms opciones de aprobar, y viceversa.
Y la respuesta fue afirmativa a tal inquietud; y, se resolvi con base en la ley
binomial de probabilidades.
As, planteamos lo siguiente: cul ser la probabilidad que tienen de aprobar, en un
examen de 20 preguntas de respuestas verdadero o falso, dos estudiantes que

estudiaron la materia, el uno aproximadamente un 60% de todos los temas, mientras


que la otra persona estuvo de farra la noche anterior, y va a la suerte que le toque.
Se plantea adems que para aprobar el examen deben responder correctamente por
lo menos 16 preguntas.
Solucin:
Cada una de las respuestas puede ser vista como un evento de Bernoulli, teniendo
un xito si aciertan la pregunta, o fracaso si responden incorrectamente la pregunta.
Luego, como son 20 preguntas, tenemos el equivalente a 20 eventos de Bernoulli,
sabiendo que para aprobar el examen deben tenerse por lo menos 16 xitos, es
decir, pueden ser 16 o 17 o 18 o 19 o 20 xitos.
Entonces, la probabilidad de aprobar = P(A) = P( X 16 )
= P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)
Siendo X, la variable aleatoria binomial que representa el nmero de xitos
obtenidos (respuestas correctas).
Para el primer estudiante (que estudi alrededor del 60% de la materia), los
parmetros son:

n= 20 (eventos de Bernoulli)
p = P(E) = 0.8 (probabilidad de acertar en una pregunta cualquiera). Y se
deduce dicho valor por una regla de tres, tomando en cuenta que sin estudiar
tienen una probabilidad de acertar de por lo menos 0.5.
q = 0.2 (complemento de p)
los xitos (en la frmula Binomial es el valor k) son 16, 17, 18, 19 y 20.

Entonces, usando la ley binomial de probabilidades, se tiene

P(A) = P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)


= 0.2182 + 0.2054 + 0.1369 + 0.0576 + 0.0115 = 0.6296

Este alumno tiene alrededor de un 63% de posibilidades de aprobar el examen.

Veamos ahora el caso del segundo estudiante (que estuvo de farra), los parmetros
son:

n= 20 (eventos de Bernoulli)
p = P(E) = 0.5 (probabilidad de acertar en una pregunta cualquiera, por
definicin bsica de probabilidad)
q = 0.5 (complemento de p)
los xitos (en la frmula Binomial es el valor k) son 16, 17, 18, 19 y 20.

Usando la ley binomial de probabilidades, se tiene:

P(A) = P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)


= 0.0046 + 0.0011 + 0.0002 + 0.0000 + 0.0000 = 0.0059

Las posibilidades de aprobar no llegan ni al 1%.


Si dividimos estas probabilidades (0.6296 / 0.0059 ), la persona que estudi tiene
107 oportunidades ms de xito con el examen, frente a quin no estudi.

4.3 Ley Hipergeomtrica


Esta ley modela el siguiente esquema:
Se tiene una poblacin N de elementos, la cual est caracterizada o definida por dos
grupos o clases (G1 y G2), y digamos que M elementos pertenecen al grupo G1 y
(N-M) elementos pertenecen al grupo G2.
De esta poblacin, se toma al azar un grupo de n elementos (n<N), planteando
obtener la probabilidad de que dicho grupo est formado por k elementos del grupo
G1, y (n-k) elementos del grupo G2
Grficamente, el esquema es:

A este modelo, se le llama el esquema Hipergeomtrico de probabilidades, y


su ley de probabilidad est dada por:

P( A)

k
M

C C
C

( nk )
( N M )
n
N

M!
( N M )!
k!( M k )! (n k )!( N M n k )!

N!
n!( N n)!

Ejemplo 3. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10


mujeres. Se toma al azar un grupo de 2 personas. Cul ser la probabilidad de que
el grupo tomado al azar est compuesto por 1 hombre y 1 mujer?.
Solucin: Este ejercicio se ajusta al esquema Hipergeomtrico de probabilidades,
teniendo el grupo de 10 hombres (digamos G1), y el grupo de 10 mujeres (G2). De
estas 20 personas, se toma al azar un grupo de n=2 personas.
De acuerdo a la notacin utilizada, tenemos:

N=20
M=10,
n=2
k=1

(poblacin total)
(N-M=10)
(muestra al azar)
(n-k=1)

Utilizando la ley Hipergeomtrica de probabilidades, tenemos:

10!
(20 10)!
1!(10 1)! (2 1)!(20 10 2 1)!
P( A)
= (10*10)/190 = 0.5263158
20!
2!(20 2)!
As, existe casi un 53% de opciones que ocurra el evento planteado.

Vamos a resolver nuevamente este mismo ejercicio, pero con base en la


definicin bsica de probabilidades
Para esto debemos definir el espacio muestral (conjunto de posibles resultados), y
de este conjunto, contamos cuantos elementos cumplen la condicin (grupos de 2
personas, compuestos por un hombre y una mujer). Veamos el siguiente grfico
para ayudarnos a establecer el espacio muestral:

El espacio muestral est formado por todas las combinaciones posibles de dos
personas que pueden darse de entre las 20 de la poblacin.

As, del grfico podemos ver, por ejemplo, que el primer hombre puede combinarse
o hacer grupos de dos, con cada una de las 10 mujeres, y con cada uno de los
nueve hombres restantes.
Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son
100, ya que son las combinaciones de cada uno de los 10 hombres con cada una de
las 10 mujeres (10*10).
Pero tambin, por ser tomados al azar, pueden formarse grupos de dos hombres o
dos mujeres. Y, podemos ver que el primer hombre se puede combinar con los otros
nueve hombres, teniendo as 9 grupos; luego el segundo hombre se puede combinar
con los 8 hombres restantes, teniendo 8 grupos posibles ms, y as sucesivamente,
hasta llegar al penltimo que forma un grupo ms con el ltimo.
Se tiene que los grupos posibles de 2 hombres son: 9+8+7+6+5+4+3+2+1=45. Y
como se tiene igual nmero de mujeres, tenemos tambin 45 posibles grupos de 2
mujeres.
Luego el espacio muestral est formado por un conjunto de 190 elementos (grupos
posibles de 2 personas), de los cuales, 100 estn compuestos por 1 hombre y una
mujer, 45 estn formados por 2 hombres, y 45 estn formados por 2 mujeres.
Por definicin de probabilidad, tenemos que 100 elementos (de los 190 posibles),
cumplen la condicin (grupos de 2 personas formado por un hombre y una mujer).
Por lo tanto P(A) = 100/190 = 0.5263158, obteniendo el mismo resultado.

Sin embargo, el ejercicio resulta fcil resolver por la definicin bsica de


probabilidad, pero debido solamente a que se toma un grupo de dos personas. Para
el caso de que se tomara, por ejemplo, 7 personas al azar, de las cuales 3 sean
hombres, y 4 mujeres, resulta casi imposible resolver por la definicin bsica de
probabilidad, pero en cambio es muy fcil hacerlo con la ley Hipergeomtrica que
modela tal situacin.
Utilizando la ley Hipergeomtrica de probabilidades para el caso de tomar al azar
una muestra de 7 personas, la probabilidad de que el grupo est formado por 3
hombres y 4 mujeres, est dada por:

10!
(20 10)!
3!(10 3)! (7 3)!(20 10 7 3)!
P( A)
= 120*210 / 77520 = 0.325
20!
7!(20 7)!

4.4 Ley de Poisson


Existen eventos o esquemas, en los cuales se tiene arribos o llegadas de elementos
a un sistema, por ejemplo:

personas que llegan a un banco para ser atendidos,


personas que llegan o arriban a un centro comercial,
carros que llegan a una cierta esquina
aviones que arriban a un aeropuerto
llamadas telefnicas que arriban a una central, etc.

Esquemticamente podemos tener lo siguiente:

Se pueden modelar algunas de estas situaciones, digamos raras, en el sentido que


muchas de ellas no tienen control sobre la forma como arriban los elementos, como
es el caso de los carros que llegan a una determinada esquina.
As, surge lo que se llama el proceso de Poisson, el cual consiste en lo
siguiente:

Los elementos que arriban al sistema son independientes entre s.


Los elementos arriban o llegan al sistema en forma aleatoria, y
Los tiempos entre arribos de los elementos son tambin aleatorios.

Luego, un esquema o sistema que cumpla con estas tres condiciones, se dice o se
llama proceso fsico de Poisson4.
Veamos, por ejemplo, la llegada de aviones a un aeropuerto.
El aeropuerto viene a ser el sistema, los aviones son los elementos que arriban al
sistema. Muchos elementos pueden ser independientes entre s (si son de
compaas areas diferentes, por ejemplo), sin embargo, los aviones no llegan en
forma aleatoria, debido a que tienen horarios establecidos, y por lo tanto, este
esquema o sistema, no es un proceso de Poisson.
Analicemos ahora el caso de los carros que llegan a una determinada esquina de la
cuidad. La esquina con los semforos es el sistema, y los carros son los elementos
que arriban a la esquina (sistema), donde son atendidos y continan.
Los carros, en general, llegan o pasan por el lugar en forma aleatoria, son
independientes entre s, y tambin, en general, los tiempos entre arribos podemos
decir que son aleatorios, y por lo tanto, puede establecerse que este es un proceso
de Poisson.
4

Suele decirse que esta ley sirve para modelar eventos raros.

Pero como se modela una situacin como sta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir de manera continua.
Para modelar estos eventos, se establece un cierto intervalo de tiempo para el
anlisis, por ejemplo, un minuto, o una hora, etc., y se plantea cul ser la
probabilidad de que al sistema arriben k elementos (en el intervalo de tiempo
acordado para el anlisis)?
Sea X, la variable aleatoria discreta que representa el nmero de elementos que
arriban al sistema durante el intervalo de tiempo establecido, se define la Ley de
Poisson de probabilidades por:

P( X k )

k e
k!

Donde,

, se denomina el parmetro de Poisson, y representa al nmero


promedio de elementos que arriban al sistema durante el intervalo
de tiempo acordado.

e, es el nmero 2.7182 (base de los logaritmos naturales)

Los valores que puede tomar la variable aleatoria, tericamente van desde cero
hasta el infinito, es decir, k = 0,1,2,3,.....

Una de las cosas interesantes que podemos notar en estos procesos de Poisson es
que los elementos pueden forman colas (si el tiempo de atencin en el sistema
tarda), como es el caso tpico al ir a un Banco, a un centro comercial, una llamada
en espera, el trfico vehicular, etc.
As, con este modelo, puede estudiarse lo que suele denominarse teora de colas.
El valor esperado y la varianza de una variable aleatoria poisson estn dados por:

E(X) =
V(X) =

Estas leyes (Bernoull, Binomial, Hipergeomtrica y Poisson), son


modelos para variables aleatorias discretas.

A continuacin se presentan dos modelos de probabilidad para variables


de tipo continuo (ver tipos de variables abordado al inicio del curso)

5.1 Ley Uniforme de probabilidades


Se dijo que el evento de Bernoulli, era el esquema ms simple de las leyes
discretas. De manera similar puede decirse que la ley uniforme de probabilidades es
el ms sencillo de los modelos para variables aleatorias continuas.
Esta ley se caracteriza por ser constante en el intervalo [a, b] donde est definida, y
suele llamarse tambin ley o distribucin rectangular.
Se llama Ley Uniforme de Probabilidades a la funcin de densidad:

1
, si a x b

f ( x) (b a)
0,
en el resto
Grficamente, la ley uniforme, se ilustra a continuacin:

El valor esperado o promedio y la varianza de una variable aleatoria uniforme estn


dados por:

E(X) = (a + b)/2
V(X) = (b a)2 / 12

Esta ley sirve para modelar el comportamiento de errores de redondeo cuando se


toman o registran valores de ciertas variables. Sin embargo, lo ms notable es que
de esta ley surgen los llamados nmeros aleatorios5.
As, un nmero aleatorio r, es una variable aleatoria continua, cuya ley de
probabilidad, es la ley uniforme de probabilidades definida en el intervalo [0, 1].

En el Excel, el comando para generar nmeros aleatorios, es


5

=aleatorio().

Los nmeros aleatorios tienen un sinnmero de aplicaciones, sirviendo para generar otras variables aleatorias,
o para aplicaciones en estudios por muestreo.

5.2 Ley Normal de probabilidades


De todas las leyes de probabilidad, la ley normal de probabilidades (conocida
tambin como ley o campana de Gauss), es una de las leyes o modelos ms
importante de todos.
Se afirma esto debido a la enorme cantidad de aplicaciones que surgen de esta ley,
adems de que conforme aumenta el nmero de muestras de las estadsticas de
tendencia central, estas tienden o convergen hacia la ley normal,
independientemente de la distribucin que tengan.
Se llama Ley Normal de Probabilidades a la funcin dada por:

1
f ( x)
e
2

( x )2
2 2

Vlida para todo valor x de los nmeros reales.


Siendo

E(X) =
V(X) = 2

Es decir que para utilizar esta ley necesitamos de dos parmetros, la media y la
varianza. Grficamente, esta ley tiene la forma de una campana:

En una distribucin normal, se tiene que al recorrer una desviacin estndar hacia la
izquierda y derecha del promedio (esperanza matemtica), se tiene
aproximadamente el 68% de toda la informacin. Entre dos desviaciones estndar
queda el 95% de toda la informacin, mientras que entre tres desviaciones estndar
se tiene el 99% de toda la poblacin.

Siendo:

X, una variable aleatoria normal,


, su promedio (esperanza matemtica), y
2, la varianza

La variable aleatoria Z

(X )

, tiene como ley de probabilidad, la llamada

normal estandarizada6 o tipificada,

con media 0 y varianza 1,

cuya funcin de densidad est dada por:

1
f ( x)
e
2

ley

x2
2

De esta funcin se encuentran tabulados valores de probabilidad en los libros de estadstica.

You might also like