VARIABLES ALEATORIAS DEFINICIÓN DE VARIABLE ALEATORIA Podemos decir que las variables aleatorias son aquellas que tienen

un comportamiento probabilístico en la realidad. Por ejemplo, el número de clientes que llegan cada hora a un banco depende del momento del día, del día de la semana y de otros factores. Las variables aleatorias deben cumplir reglas de distribución de probabilidad como éstas:  La suma de las probabilidades asociadas a todos los valores posibles de la variable aleatoria x es uno.  La probabilidad de que un posible valor de la variables x se presente siempre es mayor que o igual a cero.  El valor esperado de la distribución de la variable aleatoria es la media de la misma, la cual a su vez estima la verdadera media de la población.  Si la distribución de probabilidad asociada a una variable aleatoria está definida por más de un parámetro, dichos parámetros pueden obtenerse mediante un estimador no sesgado. Por ejemplo, la varianza de la población σ puede ser estimada usando la varianza de una muestra que es s2. TIPOS DE VARIABLES ALEATORIAS Podemos diferenciar las variables aleatorias de acuerdo con el tipo de valores aleatorios que representan. Podemos diferenciar entre variables aleatorias discretas y variables aleatorias continuas.  Variables aleatorias discretas: este tipo de variables deben cumplir con estos parámetros:

() ≥ 0
∞ =0

� = 1

Algunas distribuciones discretas de probabilidad son la uniforme discreta, la de Bernoulli, la hipergeométrica, la de Poisson y la binomial. Podemos asociar a estas u otras distribuciones de probabilidad el comportamiento de una variable aleatoria.

( ≤ ≤ ) = � = + ⋯ +
=

la de Weibull. de tablas estadísticas. Variables aleatorias continuas: este tipo de variables se representan mediante una ecuación que se conoce como función de densidad de probabilidad. las variables aleatorias continuas deben cumplir los siguientes parámetros: () ≥ 0 ∞ ( = ) = 0 −∞ � () = 1 ( ≤ ≤ = ( ≤ ≤ ) = � () Entre las distribuciones de probabilidad tenemos la uniforme continua. Establecer explícitamente la hipótesis nula. Calcular la media y varianza de los datos.  Prueba Chi-cuadrada Se trata de una prueba de hipótesis a partir de datos. basada en el cálculo de un valor llamado estadístico de prueba. mismo que se obtiene. generalmente. DETERMINACIÓN DEL TIPO DE DISTRIBUCIÓN DE UN CONJUNTO DE DATOS La distribución de probabilidad de los datos históricos puede determinarse mediante las pruebas Chi-cuadrada. la exponencial. al cual suele comparársele con un valor conocido como valor crítico. la Chi-cuadrada y la de Erlang. proponiendo una distribución de probabilidad que se ajuste a la forma del histograma. y obtener la frecuencia observada en cada intervalo O i. Obtener al menos 30 datos de la variable aleatoria a analizar. 4. Dada esta condición. Crear un histograma de m = √n intervalos. 2. El procedimiento general de la prueba es: 1. 3. Por lo tanto. . la normal. cambiamos el uso de la sumatoria por la de una integral para conocer la función acumulada de la variable aleatoria. de Kolmogorov-Smirnov y de Anderson-Darling.

a partir de la función de probabilidad propuesta. 7. esto es. 5. Comparar el estadístico de prueba con el valor crítico. y determinar el valor crítico de la prueba. Calcular la frecuencia esperada. D α. a. POA i . 8. k. PEA I . a partir de la función de probabilidad propuesta..  Prueba de Kolmogorov-Smirnov Desarrollada en la década de los treinta del siglo xx. Definir el nivel de significancia de la prueba. 3. Calcular la probabilidad observada en cada intervalo PO i = O i /n. 8. Acumular las probabilidades PO i para obtener la probabilidad observada hasta el i-ésimo intervalo.. Obtener al menos 30 datos de la variable aleatoria a analizar. 2 . dividir la frecuencia observada O i entre el número total de datos. Ei. Establecer explícitamente la hipótesis nula. Calcular el estadístico de prueba: ( − )2 = � =1 7. 2. 6. Comparar el estadístico de prueba con el valor crítico. 2. Calcular la probabilidad esperada acumulada para cada intervalo. esta prueba permite al igual que la prueba Chi-cuadrada determinar la distribución de probabilidad de una serie de datos. 10. proponiendo una distribución de probabilidad que se ajuste a la forma del histograma.3. Si el estadístico de prueba es menor que el valor crítico no se puede rechazar la hipótesis nula. 4.Smirnov en la sección de apéndices). Si el estadístico de prueba es menor que el valor crítico no se puede rechazar la hipótesis nula. . Definir el nivel de significancia de la prueba α. n. y obtener la frecuencia observada en cada intervalo O i .. y determinar el valor crítico de la prueba.n (consulte la tabla de valores críticos de la prueba de Kolmogorov.. m 9. El procedimiento general de la prueba es: 1.5. Calcular el estadístico de prueba: C= máx |PEA i – POA i | i = 1. Calcular la media y la varianza de los datos.. 6. Crear un histograma de m = √n intervalos. Una Iimitante de la prueba de Kolmogorov-Smirnov estriba en que solamente se puede aplicar al análisis de variables continuas.. 4. − − 1 (k es el número de parámetros estimados en la distribución propuesta)...

El procedimiento general de la prueba es: Obtener n datos de la variable aleatoria a analizar. 2. de Weibull y valor extremo tipo 1. 4. Actualmente es posible encontrar tablas de valores críticos para las distribuciones normal. 7.…. Método de la transformación directa. Calcular la media y la varianza de los datos. proponiendo una distribución de probabilidad. n Establecer explícitamente la hipótesis nula. i = 1. Método de composición. . 8. Calcular el estadístico de prueba: 2 1 = 1 � + �(2 − 1)⌊1PEA(Yi) + 1n(1 − PEA( + 1 − )⌋� =1 1. Si el estadístico de prueba es menor que el valor crítico no se puede rechazar la hipótesis nula. Prueba de Anderson-Darling Esta prueba tiene como propósito corroborar si una muestra de variables aleatorias proviene de una población con una distribución de probabilidad específica. Método de convolución. lognormal. a partir de la función de probabilidad propuesta. 6.n 10. Definir el nivel de significancia de la prueba a. y determinar su valor crítico. a α. 3. logIogística.2. Comparar el estadístico de prueba con el valor crítico.2. exponencial. n Organizar los datos en forma ascendente: Y i Ordenar los datos en forma descendente: Y n+1-i i = 1. y la probabilidad esperada acumulada para cada número. Ajustar el estadístico de prueba de acuerdo con la distribución de probabilidad propuesta. PEA(Y i ). 9. No es confiable para distribuciones de tipo de discreto. Calcular la probabilidad esperada acumulada para cada número Y i . GENERACIÓN DE VARIABLES ALEATORIAS Los principales métodos para generar las variables aleatorias son: • • • • • Método de la transformada inversa. Método de aceptación y rechazo. La principal desventaja de la prueba de Anderson-Darling estriba en que es necesario calcular los valores críticos para cada distribución. PEA(Y n+1-i ). 5.….

Distribución de Erlang: la variable aleatoria k-Erlang con media 1/λ puede producirse a partir dela generación de k variables exponenciales con media 1/kλ: 1 = = − � �(1 − )� λ =1 Distribución normal: la variable aleatoria normal con media µ y desviación estándar σ puede generarse usando el teorema del límite central: = 1 + 2 + ⋯ + ~( 2 ) Distribución binomial: La variable aleatoria binomial con parámetros N y P puede ser generada a través de la suma de N variables aleatorias con distribución de Bernoulli con parámetro p. normal. binomial y de Poisson) pueden ser generadas a través de este método. Método de convolución  En algunas distribuciones de probabilidad la variable aleatoria a simular.. lo cual se logra mediante la función acumulada f(x) y la generación de números pseudoaleatorios r ~ U(O. Generar las variables aleatorias x. 1). = = 1 + 2 + ⋯ + ~(. el método de convolución se puede expresar como: Y = X. Despejar la variable aleatoria x y obtener la función acumulada inversa F(x-1).. ) . Método de la transformada inversa El método de la transformada inversa puede utilizarse para simular variables aleatorias continuas. El método consiste en: 1. Definir la función de densidad F(x) que represente la variable a modelar. 4. 2. Entonces. 3. 1) en la función acumulada inversa. r ~ U(O. + X 2 +. puede generarse mediante la suma de otras variables aleatorias X de manera más rápida que a través de otros métodos. + X k Las variables aleatorias de cuatro de las distribuciones más conocidas (de Erlang. sustituyendo valores con números pseudoaleatorios. Calcular la función acumulada F(x). como se verá a continuación. Y.

 Método de composición El método de composición conocido también como método mixto permite generar variables aleatorias x cuando éstas provienen de una función de densidad fx que puede expresarse como la combinación convexa de m distribuciones de probabilidad f¡(x). Asegurar que cada función f i (x) sea función de densidad. las expresiones para generar variables aleatorias de cada una de las distribuciones f i (x).dora anterior para obtener Y. Calcular la probabilidad de cada una de las distribuciones f i (x).  Método de transformación directa Utilizado para generar variables aleatorias normales. este método se basa en el teorema de Pitágoras. de Laplace y trapezoidal. Obtener. 2. = �√2|(1 − )cos(2)� + . El procedimiento general de generación es el siguiente: 1. Entonces. 3. la combinación convexa se puede expresar como: donde: 0 ∈ |A(x) = � � 1 () = � ()|() =1 Algunas de las distribuciones más conocidas que pueden expresarse como una combinación convexa son: triangular. Generar un número pseudoaleatorio r i que permita definir el valor de |A(x) 5. Seleccionar la función generadora correspondiente a la función f i (x). mediante el método de la transformada inversa. 6. 4. Generar un segundo número pseudoaleatorio r i y sustituirlo en la función genera.