1

UNIVERSIDAD NACIONAL DEL SANTA
E.A.P: INGENIERÍA DE SISTEMAS E INFORMÁTICA



TEMA: VARIABLES ALEATORIAS
INTEGRANTES:
- CALLAN ARANDA, Rider
- CUEVA MELGAREJO, Jhonny Erick
- FLORES SOLÍS, Edwin
- GONZALES HIDALGO, Bryan
- SEBASTIAN CASTILLO, Jerson
- TRINIDAD ALVARADO, Abel

PROFESOR: Carlos Vega
CHIMBOTE – PERÚ
2014





2


ÍNDICE


1.-Introducción… 5

2.-Fundamento Teórico 6

3.-Conclusiones 12

4.-Bibliografía 14

5.-Apéndice o Anexos 15




3


1.-INTRODUCCIÓN:
La generación de variables aleatorias significa la obtención de
variables que siguen una distribución de probabilidad
determinada.
Esto es, hasta ahora se trataron los datos observados y se encontró
que los mismos ajustan a una distribución de probabilidad. Ahora,
con esta función de distribución de probabilidad se generan datos
(matemáticamente o por medio de simulación) que siguen dicha
distribución, entonces, los mismos representan los datos reales.








4


2.-FUNDAMENTO TEÓRICO:
- Variables aleatorias discretas

Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma
todos sus valores, x
1
, x
2
... , x
k
, con igual probabilidad; el espacio muestral debe ser
finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:

donde k es el parámetro de la distribución (un parámetro es un valor que sirve
para determinar la función de probabilidad o densidad de una variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las
expresiones:


El histograma de la función toma el aspecto de un rectángulo, por ello, a la
distribución uniforme se le suele llamar distribución rectangular.
5



Distribución binomial
La distribución binomial es típica de las variables que proceden de un
experimento que cumple las siguientes condiciones:
1) El experimento está compuesto de n pruebas iguales, siendo n un número
natural fijo.
2) Cada prueba resulta en un suceso que cumple las propiedades de la
variable binómica o de Bernouilli, es decir, sólo existen dos posibles
resultados, mutuamente excluyentes, que se denominan generalmente
como éxito y fracaso.
3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las
pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q
4) Las pruebas son estadísticamente independientes,
En estas condiciones, la variable aleatoria X que cuenta el número de
‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio
muestral estar compuesto por los números enteros del 0 al n. Se suele decir que
una variable binómica cuenta objetos de un tipo determinado en un muestreo de n
elementos con reemplazamiento.
La función de probabilidad de la variable binomial se representa como
b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los
parámetros de la distribución.
6



La manera más fácil de calcular de valor de números
combinatorios, como los incluidos en la expresión anterior, es utilizando
eltriángulo de Tartaglia


La media y la varianza de la variable binomial se calculan como:
Media = μ = n p
Varianza = σ
2
= n p q
Gráficamente el aspecto de la distribución depende de que sea o no
simétrica Por ejemplo, el caso en que n = 4:
7



Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la única
diferencia de que cada prueba tiene más de dos posibles resultados mutuamente
excluyentes.
Si tenemos K resultados posibles (E
i
, i = 1, ... , K) con probabilidades fijas
(p
i
, i = 1, ... , K), la variable que expresa el número de resultados de cada tipo
obtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x
1
resultados E
1
, x
2
resultados E
2
, etc. se
representa como:


Los parámetros de la distribución son p
1
,..., p
K
y n.

8

Distribución hipergeométrica
Una variable tiene distribución hipergeométrica si procede de un
experimento que cumple las siguientes condiciones:
1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto
finito de N objetos.
2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como
fracasos.
X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral
es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es
constante pues depende del resultado de las pruebas anteriores. Por tanto, las
pruebas no son independientes entre sí.
La función de probabilidad de la variable hipergeométrica es:


Los parámetros de la distribución son n, N y K.
Los valores de la media y la varianza se calculan según las ecuaciones:


Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito
variar muy poco de una prueba a otra, así pues, la variable, en este caso, es
esencialmente binomial; en esta situación, N suele ser muy grande y los números
combinatorios se vuelven prácticamente inmanejables, así pues, la probabilidades
se calculan más cómodamente aproximando por las ecuaciones de una binomial
con p = K / N.
9

La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la
de la variable antes de la aproximación; sin embargo, la varianza de la variable
binomial es ligeramente superior a la de la hipergeométrica.


el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto
sea que n << N.
El aspecto de la distribución es bastante similar al de la binomial. Como
ejemplo, mostramos los casos análogos a los de las binomiales del apartado
anterior (p inicial = 0,25 y n = 4)


Distribución multihipergeométrica
Este variable se define igual que la hipergeométrica con la única diferencia
de que se supone que el conjunto de objetos sobre el que se muestrea se divide
en R grupos de A
1
, A
2
,..., A
R
objetos y la variable describe el número de objetos de
cada tipo que se han obtenido (x
1
, x
2
,..., x
R
)


Esta situación es análoga a la planteada en el caso de la distribución
multinomial. La función de probabilidad es:
10


Distribución de poisson
Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:
1. El número de éxitos que ocurren en cada región del tiempo o del
espacio es independiente de lo que ocurra en cualquier otro tiempo
o espacio disjunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra fuera
de él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio.
Como consecuencia de estas condiciones, las variables Poisson típicas
son variables en las que se cuentan sucesos raros.
La función de probabilidad de una variable Poisson es:


El parámetro de la distribución es λ que es igual a la media y a la varianza
de la variable.

Esta característica puede servirnos para identificar a una variable Poisson
en casos en que se presenten serias dificultades para verificar los postulados de
definición.
La distribución de Poisson se puede considerar como el límite al que tiende
la distribución binomial cuando n tiende a y p tiende a 0, siendo np constante (y
menor que 7); en esta situación sería difícil calcular probabilidades en una variable
11

binomial y, por tanto, se utiliza una aproximación a través de una variable Poisson
con media l = n p.
La varianza de la variable aproximada es ligeramente superior a la de la
variable binomial.


Las variables Poisson cumplen la propiedad de que la suma de variables
Poisson independientes es otra Poisson con media igual a la suma las medias.
El aspecto de la distribución depende muchísimo de la magnitud de la
media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ
= 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la
distribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener un
aspecto acampanado.

12



- Variables aleatorias continuas
Distribución normal o de Gauss
La distribución normal fue definida por De Moivre en 1733 y es la
distribución de mayor importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números,
es decir, cuando sus valores son el resultado de medir reiteradamente una
magnitud sobre la que influyen infinitas causas de efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de
campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:


Los parámetros de la distribución son la media y la desviación típica, μ y σ,
respectivamente. Como consecuencia, en una variable normal, media y desviación
típica no deben estar correlacionadas en ningún caso (como desgraciadamente
ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a
la normal.
La curva normal cumple las siguientes propiedades:
13

1) El máximo de la curva coincide con la media.
2) Es perfectamente simétrica respecto a la media (g
1
= 0).
3) La curva tiene dos puntos de inflexión situados a una desviación típica de la
media. Es convexa entre ambos puntos de inflexión y cóncava en ambas
colas.

4) Sus colas son asintóticas al eje X.

Para calcular probabilidades en intervalos de valores de la variable, habría
que integrar la función de densidad entre los extremos del intervalo. por desgracia
(o por suerte), la función de densidad normal no tiene primitiva, es decir, no se
14

puede integrar. Por ello la única solución es referirse a tablas de la función de
distribución de la variable (calculadas por integración numérica) Estas tablas
tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad
enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede
establecer una correspondencia de sus valores con los de otra variable con
distribución normal, media 0 y varianza 1, a la que se llama variable normal
tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la
ecuación:

La función de distribución de la variable normal tipificada está tabulada y,
simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de
variables normales independientes es otra normal.


Histograma de una normal idealizada Histograma de una muestra de una
variable normal




Distribución Gamma (Γ)
La distribución gamma se define a partir de la función gamma, cuya
ecuación es:
15



La función de densidad de la distribución gamma es:


α y β son los parámetros de la distribución.
La media y la varianza de la variable gamma son:




16

Distribución exponencial
Es un caso particular de la distribución gamma cuando α = 1. Su función
de densidad es:


Su parámetro es β.
La media y la varianza de la distribución exponencial son:


Distribución Chi-cuadrado (_2)
Es otro caso particular de la distribución gamma para el caso β = 2 y α = n
/ 2, siendo n un número natural.
Su función de densidad es:


El parámetro de la distribución _2 es v y su media y su varianza son,
respectivamente:

Otra forma de definir la distribución _2 es la siguiente: Supongamos que
tenemos n variables aleatorias normales independientes, X
1
,..., X
n
, con media μ
i
y
varianza (i = 1 ... n), la variable definida como
17



tiene distribución _2 con n grados de libertad y se le denomina _2
n
.

Variables chi-cuadrado con valores de progresivamente
mayores son cada vez menos asimétricas.

Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal
tipificada, Z , y otra con distribución _2 con v grados de libertad, la variable
definida según la ecuación:


18

tiene distribución t con v grados de libertad.
La función de densidad de la distribución t es:


El parámetro de la distribución t es v, su número de grados de libertad.
Esta distribución es simétrica respecto al eje Y y sus colas se aproximan
asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y,
por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden
considerar prácticamente iguales para valores de n mayores o iguales que 30..

Variables T con valores de v progresivamente mayores
son cada vez menos platicúrticas
19


Comparación entre la variable T y la normal tipificado.

Distribución F de Snedecor
Sean U y V dos variables aleatorias independientes con
distribución _2 con v
1
y v
2
grados de libertad, respectivamente. La variable definida
según la ecuación:


tiene distribución F con v
1
, v
2
grados de libertad.
La función de densidad de la distribución F es:

20


Los parámetros de la variable F son sus grados de libertad v
1
y v
2
.
Las distribuciones F tienen una propiedad que se utiliza en la construcción
de tablas que es la siguiente:
Llamemos f
o,v1,v2
al valor de una distribución F con v
1
y v
2
grados de
libertad que cumple la condición, P(F > f
o,v1,v2
) = α; llamemos f
1÷o,v1,v2
al valor de
una distribución F con v
1
y v
2
grados de libertad que cumple la condición, P(F
> f
1÷o,v1,v2
) = 1- α. Ambos valores están relacionados de modo que uno es el
inverso del otro.



Variables F con distintos valores de
1
,
2









21

3.-CONCLUSIONES























22

4.-BIBLIOGRAFÍA

- “Discret-Event System Simulation”, Jerry Banks, John S. Carson II, Barry
Nelson, Fifth Edition, Ed. Prentice-Hall, (2010).
- Alemán de Sánchez, A. 1999. "La enseñanza de la Matemática asistida por
computadora".
- Universidad Tecnológica de Panamá. Facultad de Ciencias y Tecnología.
- http://mail.udlap.mx/~site/01.pdf
- [5] Vaquero, A. Fernández de Chamizo, C. 1987. "La Informática Aplicada a
la Enseñanza".
- Eudema S.A. Madrid. España.
- [6] Marquès Graells, Pere. “Diseño y Evaluación de programas educativos”.
- http://www.xtec.es/~pmarques/edusoft.htm
- [7] López, M.V., Mariño, S.I., Petris, R.H. 1999. “Un análisis comparativo de
generadores de
- números pseudo-aleatorios en Mathematica 3.0”. FACENA. Revista de la
Facultad de Cs.
- Exactas y Nat. y Agrimensura. Univ. Nac. del Nordeste. Pág. 119-136.
Vol.15. Corrientes.
- Argentina.
- [8] Pace, G. J., López, María V., Mariño, Sonia I. y Petris, Raquel H. 1999.
“Programación de un
- paquete de simulación con Mathematica". Reunión de Comunicaciones
Científicas y
- Tecnológicas 1999. UNNE. Corrientes. Argentina. Tomo VIII. Cs. Exactas.
8:9-12. En:
- http://www.unne.edu.ar/cyt/1999/cyt.htm.
- [9] Castillo, E., Iglesias, A., Gutiérrez, J. M., Álvarez, E. y Cobo, A. 1996.
“Mathematica”. Ed.
- Paraninfo. Madrid, España.




23





















5.-APÉNDICE O ANEXOS

Variación del peso en el carrito
24

K+50 Tiempo empleado: 2.27
K+100 Tiempo empleado: 2.52
K+150 Tiempo empleado: 2.55
K+200 Tiempo empleado: 2.65
K+250 Tiempo empleado: 2.73
K+300 Tiempo empleado: 2.83
K+350 Tiempo empleado: 2.93
K+400 Tiempo empleado: 3.01
K+450 Tiempo empleado: 3.15
K+500 Tiempo empleado: 3.22





Variación del peso en la polea
c+20 Tiempo empleado: 2.24
c+30 Tiempo empleado: 1.8
c+40 Tiempo empleado: 1.56
25

c+50 Tiempo empleado: 1.39
c+60 Tiempo empleado: 1.27
c+70 Tiempo empleado: 1.18
c+80 Tiempo empleado: 1.02
c+90 Tiempo empleado: 0.93
c+100 Tiempo empleado: 0.85
c+110 Tiempo empleado: 0.54