You are on page 1of 32

Contenido

4.1 Lista de estimadores a obtener de la simulación...........................................................................2
4.1.1 Instrumentos de medición ..................................................................................................2
4.1.2 Medios de registro de datos .............................................................................................2
4.2. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. .......4
4.3 Muestras preliminares de los proyectos aprobados en 3.4...........................................................6
4.4 Características estadísticas del estimador lider .............................................................................6
4.4.1 Establecimiento de la precisión ..................................................................................................8
4.4.2 Cálculo del número mínimo de observaciones necesarias ..................................................... 10
 Método Estadístico............................................................................................................. 10
4.4.3 Intervalos de confianza ............................................................................................................ 16
4.3.5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de probabilidades
hipotética, discreta o continúa con (hoja de cálculo o con paquete de estadístico). ...................... 18
4.5.4 Otras Pruebas (Anderson-Darling), Prueba G .......................................................................... 21
El estadístico de Anderson-Darling ............................................................................................... 21
¿Qué es el estadístico de Anderson-Darling? ....................................................................... 21
Prueba G o prueba del logaritmo de la razón de Verosimilitudes ................................................ 23
Formula ......................................................................................................................................... 23
Función de verosimilitud para distribuciones continuas .............................................................. 24
4.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. ................. 26
Sistemas, modelos y simulación ................................................................................................... 26
Tipos de sistemas .......................................................................................................................... 27
Sistemas estáticos y sistemas dinámicos .................................................................................. 28
Sistemas deterministas y sistemas estocásticos. ...................................................................... 28
Sistemas continuos y sistemas discretos .................................................................................. 28
Tipos de modelos .......................................................................................................................... 28
Necesidad de la simulación........................................................................................................... 29
Verificación. .............................................................................................................................. 30
Ventajas de la simulación ............................................................................................................. 30
Bibliografía ........................................................................................................................................ 32

4.1 Lista de estimadores a obtener de la simulación

Definiremos algunas propriedades de los estimadores.

1) Parámetro. Verdadero valor de una caracterı́stica de interes, denominado por θ, que
raramente es conocido.

2) Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una
m uestra.

3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por:
vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ

Cuadrado médio del error (ECM). Es dado por:

ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies

1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0

2) Las leyes de los grandes números explican por qué el promedio o media de una muestra
al azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.

4.1.1 Instrumentos de medición

El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las
actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir
de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath,
1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue
vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que
han sido usados más frecuentemente.

4.1.2 Medios de registro de datos

La elección del método depende de la estrategia de recopilación de datos, el tipo de variable, la
precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos entre

una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a escoger
métodos apropiados. Los principales métodos de recopilación de datos son:

 Registros: los registros y licencias son particularmente valiosos para los censos
completos, pero se limitan a variables que cambian lentamente, como el número de
embarcaciones pesqueras y sus características.
 Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método
poco costoso que resulta útil cuando los índices de alfabetización son altos y los
encuestados colaboran.
 Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el
encuestado. Más caros que los cuestionarios, pero mejores para preguntas más
complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos
colaboración.
 Observaciones directas: la realización de mediciones directas es el método más preciso
para todas las variables, como las capturas, pero a menudo resulta caro. Muchos
métodos, como los programas de observación, se limitan a la pesca industrial.
 Presentación de informes: la principal alternativa a la realización de mediciones directas
consiste en pedir a los pescadores y a terceros que presenten informes de sus
actividades. La preparación de informes presupone la alfabetización y requiere espíritu
de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones
directas.

Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:

a- El tipo de investigación que se esté haciendo.

b- El tipo de análisis de datos que vamos a utilizar posteriormente.

c- El problema que queramos estudiar.

d- Los objetivos que pretendamos alcanzar con la investigación.

Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede
utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc.

Sin embargo.2. En el ejemplo del mercado de pescado. Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. Un tercer planteamiento es establecer la duración de la ejecución de modo que se obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis estadística. Determinación de condiciones iniciales La determinación de condiciones iniciales para las variables es una decisión táctica importante en la simulación. 2) Seleccionar las condiciones iniciales que reducen la duración del periodo de calentamiento o 3) Seleccionar las condiciones iniciales que eliminan el sesgo. los analistas han seguido varios planteamientos como 1) Descartar los datos generados durante las primeras partes de la ejecución. significaría que las ventas simuladas de pescado corresponden a sus frecuencias relativas históricas. una de las únicas características de la simulación es que permite la crítica en el diseño y análisis de la simulación. Para manejar este problema.4. puede cambiar conforme se estudian diferentes alternativas en otras simulaciones. Determinación de duración de la ejecución La duración de la ejecución de simulación (duración de la ejecución o tiempo de ejecución) depende del propósito de la simulación. 1 año o una década y ver si las condiciones al final del periodo son razonables. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. Por definición. Otro planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes. Por lo tanto. en cierto sentido. el valor de una variable cambia conforme avanza la simulación. para emplear cualquiera de estas alternativas. . aunque se le debe dar un valor inicial. Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el modelo llega a un estado estable. el analista debe tener una idea del margen de datos de salida esperado. Cabe recordar que el valor de un parámetro permanece constante. sin embargo. el analista sesga los resultados. se debe incluir. Por otro lado. por lo que si el analista tiene cierta información que alberga un problema. Esta alternativa se considera en la siguiente sección.

diremos que un estimador es consistente. Sin embargo. datos operativos del desempeño de sistemas semejantes y la percepción del analista de la operación del sistema real. Desde un punto de vista más riguroso diremos que un estimador es consistente si converge en probabilidad al verdadero valor del parámetro que queremos estimar. el análisis tiene más información disponible con la cual comparar los resultados de simulación: datos operativos antiguos del sistema real. muchos analistas consideran la simulación como una forma de prueba de hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles al análisis formal a través de los métodos estadísticos inferenciales. En la mayoría de las situaciones. aunque también depende del diseño de la simulación en un sentido estadístico. Es decir. se debe admitir que la información obtenida de estas fuentes probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el tamaño muestral. que esperaremos obtener mejores estimaciones cuanto mayor sea el número de individuos. Por lo tanto. De hecho. . Ejemplo: Consideremos el caso de la estimación de la media de una población Normal (μ) y consideraremos dos estimadores:  Estimador 1: La primera observación de la muestra (para cualquier tamaño muestral). análisis de regresión y pruebas t. la única prueba real de una simulación es qué tan bien se desempeña el sistema real después de haber implantado los resultados del estudio. Los procedimientos estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el análisis de varianza. Si se cumple dicho requerimiento.  Estimador 2: La media aritmética de las observaciones.Desde luego que las conclusiones que se pueden obtener de una simulación dependen del grado en que el modelo refleja el sistema real.

Carencia de sesgo. Es decir.3 Muestras preliminares de los proyectos aprobados en 3. Se trata de rasgos que podrían entenderse como criterios de calidad de los estimadores. 2) Haced lo mismo con el estimador 2: media aritmética. 10 . 10. 3) Obtened nuevas simulaciones y repetid el estudio anterior. 50. si es igual a Ө la media de los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo tamaño. σ = 1). 50. por tanto. Se tratará. Recuerda que el verdadero valor del parámetro a estimar (μ) es cero y que corresponde a la línea central en negro: 1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños muestrales (n = 2. 1. ese estimador carece de sesgo cuando . 500) procedentes de una distribución Normal de parámetros (μ = 0.4 Características estadísticas del estimador lider Hay una serie de características deseables en los estimadores para que éstos constituyan una buena aproximación a los respectivos parámetros. Si el estadístico Ê es utilizado como estimador del parámetro Ө. 4.4 4. Se dice que un estimador es insesgado si el valor esperado de su distribución de probabilidad es igual al parámetro. de un estudio de simulación (generamos muestras procedentes de una determinada distribución) para comparar el comportamiento de ambos estimadores.Para observar el comportamiento de ambos estimadores utilizaremos el siguiente programa que genera automáticamente diez muestras de diferentes tamaños (n = 2. 4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra? Es evidente que el estimador correspondiente a la primera observación no mejora al aumentar el tamaño de la muestra. Mientras que la media aritmética converge hacia el verdadero valor del parámetro (μ = 0) al aumentar el tamaño de la muestra. En resumen: la primera observación no es un estimador consistente de μ. 500). mientras que la media aritmética sí que lo es.

decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө. tal y como vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media. muestral infinito obtenemos una varianza del estimador nula. además de carecer de sesgo. o que tiene un sesgo negativo si E(Ê) < Ө. Cuando E(Ê) ≠ Ө. los valores de Ê se concentran cada vez más en torno al valor del parámetro. la media [D] es un estimador insesgado de µ. aunque la muestra sea elegida aleatoriamente. presentados en el apartado anterior. se aproxima cada vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. el valor esperado resulta ser: [D] El segundo de los estimadores posee la característica de ser un estimador insesgado de σ2. Para cada uno de ellos. Por tanto. Un estimador sesgado tenderá a ofrecer sistemáticamente valores que se alejan en un sentido u otro del parámetro. . razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el parámetro varianza poblacional. [D] También se comprueba que los dos estimadores de la varianza. puesto que se verifican las condiciones anteriores. Si el tamaño n se hace indefinidamente grande. Un estimador Ê es consistente si. var(Ê) = 0 La media es un estimador consistente del parámetro µ. Es decir. un estimador es consistente si cuando n tiende a infinito se cumple E(Ê) = Ө. que E( [D]) = µ En el caso de la varianza. suelen manejarse habitualmente dos estimadores: [D] o bien. Consistencia. hasta que con un tamaño 2. puesto que se cumple.E(Ê) = Ө Por ejemplo. resultan ser estimadores consistentes de σ2. [D].

La función de densidad teórica -desconocida. para un mismo parámetro Ө.de Xt asigna una probabilidad pH al intervalo H. La eficiencia de un estimador está vinculada a su varianza muestral. utilizamos la fórmula: [D] para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi.4. Así. Definiremos ahora una variable ficticia. 3. se dice que el estimador Ê1 es más eficiente que el estimador Ê2 si se cumple var(Ê1) < var(Ê2) Por tanto. Suficiencia. de la siguiente forma: De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1.de la variable XNr . Todos ellos pueden ser considerados estimadores suficientes de los respectivos parámetros. Esto significa que: . significa que varía menos de unas muestras a otras. Del mismo modo. Se demuestra que la media es un estimador del parámetro µ más eficiente que la mediana. Eficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la información de la muestra. 4. Otro tanto ocurre con los estimadores Sn-12 y Sn2 de la varianza. XH . si un estadístico es más eficiente que otro. al calcular el estimador [D] del correspondiente parámetro poblacional. 4. la varianza Sn-12 es un estimador de σ2 más eficiente que Sn2.1 Establecimiento de la precisión Sea H un intervalo cualquiera definido sobre la recta real. Por ejemplo.

b(pH . se tiene : Si t^ es el cuantil aJ2 correspondiente a la cola derecha de la distribución N(0. A] es el conjunto de errores de simulación aceptables.^. . 7^. ZH IT.+ X y T . implica disponer de una muestra de T “observaciones" de la variable real X.T p^ [1.pH ]) de manera que si T pH > 1 S se suele tomar como válida la siguiente aproximación a la distribución de ZH : entonces. Esta muestra lleva asociada. para la frecuencia binomial. Es oportuno aquí hacer una adaptación al presente contexto del concepto de estimación precisa de Finster{ 1987) Definición 1.2). EI teorema de Moivre (ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b(pH . si EI conjunta de precisión [-A.Esta variable sigue una distribución binaria de parámetro pH . sigue una distribución binomial b(pH . ZH = XH^ +. En lo que sigue a continuación se intentará determinar cuál es el número de replicaciones mínimo para obtener una estimación de pH can nivel de imprecisión fijo A y confianza 1-a..1).1).ZH /T es una estimación precisa de pN con nivel de imprecisión A y confianza 1-a (can 0< cx < 1). b(pH .. . una muestra de tamaño T de la variable Xy . así que la suma de las T observaciones de XH . es asintóticamente normal N{T pH . ... a su vez.Producir T replicaciones del vector y. .

Los métodos más utilizados para determinar el número de observaciones son:  Método estadístico  Método tradicional  Método Estadístico MÉTODO ESTADÍSTICO . Este proceso tiene como objetivo determinar el valor del promedio representativo para cada elemento.2 Cálculo del número mínimo de observaciones necesarias El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la etapa de cronometraje.4.4. dado que de este depende en gran medida el nivel de confianza del estudio de tiempos.

8. 8.45% Y UN MÁRGEN DE ERROR DE ± 5% Siendo: n = Tamaño de la muestra que deseamos calcular (número de observaciones) n' = Número de observaciones del estudio preliminar Σ = Suma de los valores x = Valor de las observaciones. 40 = Constante para un nivel de confianza de 94. para luego poder aplicar la siguiente fórmula: NIVEL DE CONFIANZA DEL 95. 7. los valores de los respectivos tiempos transcurridos en centésimas de minuto son: 8.El método estadístico requiere que se efectúen cierto número de observaciones preliminares (n'). 7. Ahora pasaremos a calcular los cuadrados que nos pide la fórmula: 8 64 7 49 8 64 8 64 7 49 Σx = 38 Σx² = 290 8 .45% Ejemplo Se realizan 5 observaciones preliminares.

restar del tiempo mayor el tiempo menor de la muestra: R (Rango) = Xmax . 2) Calcular el rango o intervalo de los tiempos de ciclo. Este método consiste en seguir el siguiente procedimiento sistemático: 1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5 lecturas sí los ciclos son > 2 minutos. que en tiempos muy pequeños donde la probabilidad de error puede aumentar. debe aumentarse el tamaño de las observaciones preliminares. esto debido a que hay más confiabilidad en tiempos más grandes.Xmin . es decir.7 8 8 7 N' = 5 Sustituyendo estos valores en la fórmula anterior tendremos el valor de n: Dado que el número de observaciones preliminares (5) es inferior al requerido (7). luego recalcular n. Puede ser que en recálculo se determine que la cantidad de 7 observaciones sean suficientes.

se ubica el valor correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de precisión de ± 5%. 3) Bus car ese cociente en la siguiente tabla. 1) Calcular la media aritmética o promedio: Siendo: Σx = Sumatoria de los tiempos de muestra n = Número de ciclos tomados Hallar el cociente entre rango y la media: 2) Buscar ese cociente en la siguiente tabla. se ubica el valor correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de precisión de ± 5%. en la columna (R/X). en la columna (R/X). .

Las observaciones son las siguientes: 8 7 .Ejemplo Tomando como base los tiempos contemplados en el ejemplo del método estadístico. se realizan 5 muestras adicionales (6. 8. abordaremos el cálculo del número de observaciones según el método tradicional. En primer lugar como el ciclo es inferior a los 2 minutos. 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. 8. 7.

8 8 7 6 8 8 7 8 Σx = 75 8 7 8 8 7 Se calcula el rango: R (Rango) = 8 .6 = 2 Ahora se calcula la media aritmética: Ahora calculamos el cociente entre el rango y la media: Ahora buscamos ese cociente en la tabla y buscamos su intersección con la columna de 10 observaciones: .

es poco probable que dos muestras de una población en particular . Debido a su naturaleza aleatoria.Tenemos entonces que el número de observaciones a realizar para tener un nivel de Confianza del 95% según el método tradicional es: 11 Al adicionar los 5 tiempos y utilizar el método estadístico tenemos un número de observaciones igual a: 12. derivado de los estadísticos de la muestra. que posiblemente incluya el valor de un parámetro de población desconocido. 4.3 Intervalos de confianza Un intervalo de confianza es un rango de valores. Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y que la elección del método se deja a criterio del especialista.4.8 aproximadamente 13.

la línea negra horizontal representa el valor fijo de la media desconocida de la población. usted puede estar 95% seguro de que la longitud media de todos los lápices se encuentra entre 50 y 54 milímetros.54). Margen de error . Estimación de punto Este valor individual estima un parámetro de población usando los datos de su muestra. Sin embargo.generen intervalos de confianza idénticos. un determinado porcentaje de los intervalos de confianza resultantes incluiría el parámetro de población desconocido. Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por lo tanto. un fabricante desea saber si la longitud media de los lápices que produce es diferente de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y determina que la longitud media de la muestra es 52 milímetros y el intervalo de confianza de 95% es (50. El intervalo de confianza rojo que está completamente por debajo de la línea horizontal no lo contiene. Los intervalos de confianza azules verticales que se sobreponen a la línea horizontal contienen el valor de la media de la población. si usted repitiera muchas veces su muestra. El intervalo de confianza se determina calculando una estimación de punto y luego determinando su margen de error. En este caso. Un intervalo de confianza de 95% indica que 19 de 20 muestras (95%) de la misma población generarán intervalos de confianza que contendrán el parámetro de población. Por ejemplo. µ.

el margen de error es la mitad del ancho del intervalo de confianza. Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma. Weibull.5% y. El margen de error es 1. la longitud media estimada de un árbol de levas es 600 mm y el intervalo de confianza oscila entre 599 y 601. se ubica entre 50% y 60%. Gumbel. Usted probablemente ya entiende el margen de error. el margen de error es la distancia desde el estadístico estimado hasta el valor de cada intervalo de confianza. Por ejemplo. el periodo de retorno del evento de diseño de una .5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de probabilidades hipotética. A menudo. porque está relacionado con los resultados de las encuestas.Cuando usted utiliza estadísticos para estimar un valor. El empleo de las pruebas de Kolmogorov-Smirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable en hidrología. Cramer-Von Mises y Anderson-Darling. más ancho será el intervalo y menos seguro podrá estar usted del valor de la estimación de punto. es importante recordar que sin importar lo bien que esté diseñado su estudio. Dicho estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov. Los resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error estándar de ajuste. su estimación está sujeta a error de muestreo aleatorio. 4. una encuesta política podría indicar que el nivel de popularidad de un candidato es de 55% con un margen de error de 5%. Esto significa que el nivel de popularidad real es +/. Cuando un intervalo de confianza es simétrico. El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar de ajuste como criterio de selección en el análisis de frecuencias.3. El margen de error cuantifica este error e indica la precisión de su estimación. por lo tanto. Para un intervalo de confianza bilateral. Mientras mayor sea el margen de error. ya que para obtener un desempeño aceptable se necesitan muestras más grandes de las que normalmente se tienen en esta disciplina. El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad de ocurrencia de dichos eventos. discreta o continúa con (hoja de cálculo o con paquete de estadístico). log-normal y log-logística. Por ejemplo.

Una forma de extrapolar los datos históricos consiste en emplear el método gráfico. 2012). por lo que en muchos casos. que incluyen las pruebas de Kolmogorov-Smirnov (KS). Shin et al. 2009). más de una distribución puede ser aceptada por una prueba específica (Laio. 2011). Suhaila & Jemain. 2005). Shamsudin. Sin embargo. Este problema no es exclusivo de la hidrología. Atroosh & Moustafa. Generalmente. log-normal. & Singh. & Montanari.. las pruebas estadísticas de bondad de ajuste tienen poco poder para rechazar distribuciones equivocadas (Mitosek. Gumbel. Weibull y log-normal. Encontraron que si bien ambos . Entre los métodos estadísticos con mayor aplicación en la hidrología se encuentran las pruebas de chi-cuadrado (c2) y del error estándar de ajuste (EEA) (Ganancias- Martínez. Jung. Una técnica más objetiva es encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos y usar esta función para la extrapolación. Low y Wong (2005) evaluaron la efectividad de los criterios de Akaike. Un problema importante en el análisis de frecuencias es la selección de una distribución de probabilidad apropiada para los datos observados. ej. que incluyen métodos gráficos y estadísticos. 2002). el concepto de criterio de selección de modelos representa una alternativa a las pruebas de bondad de ajuste. 2010. Jeong. Pueden definirse diversos criterios de selección en función de los estadísticos de bondad de ajuste antes mencionados. Algunas de las distribuciones de probabilidad usadas en hidrología son normal.. también se observa en otras áreas. Otros métodos usados a menudo son los de función de distribución empírica (FDE). que requiere de un analista experimentado y presenta la desventaja de la subjetividad. En este caso.obra hidráulica excede el periodo de las observaciones y deben hacerse extrapolaciones a partir de los valores registrados. la selección de modelos se basa en pruebas de bondad de ajuste. siendo preferibles los métodos estadísticos por su objetividad (Shin. 2009). Pearson tipo III y log-Pearson tipo III (Aksoy. Weibull. y de Quesenberry y Kent. 2009). gamma. Laio. Dan'azumi. 2004. & Heo. 2007. Demostraron la efectividad de su criterio a partir de un estudio de Monte Carlo para distinguir entre las distribuciones exponencial. como el criterio de información de Akaike (CIA) y el criterio de información Bayesiano (CIB) (Laio et al. 2000. Strupczewski. Baldasarre. gamma. Otros criterios de selección se basan en la función de verosimilitud. & Aris. 2011. Cramer-Von Mises (CVM) y Anderson- Darling (AD) (p.. como la confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron un criterio de selección de distribuciones basado en estadísticos invariantes bajo transformaciones de escala. Aparicio-Mijares. Balasooriya.

Anderson-Darling (AD) y Karl-Pearsoon (KP). Utilizaron el criterio de clasificación de Werner y Upper (2002). que constaron de los siguientes pasos: a) se eligieron las siguientes distribuciones de probabilidad madre: Gumbel. d) sub-exponenciales. El Adlouni. 80 y 100. Estos autores propusieron el empleo de métodos gráficos para determinar la clase de la distribución y después utilizar criterios como el CIA. Laio et al. quienes dividieron las distribuciones en: a) estables. la de la distribución log-logística. Weibull. El análisis se llevó a cabo por medio de una serie de experimentos de Monte Carlo. CIB y AD. Kolmogorov-Smirnov (KS). las funciones de densidad de probabilidad (fdp) de las primeras cuatro distribuciones se pueden consultar en el texto de Haan (1994). e) con momentos exponenciales inexistentes. en Dey y Kundu (2009). aplicados para identificar el mejor modelo probabilístico de un ajuste de datos hidrológicos extremos. la dificultad computacional de este criterio hace preferible el empleo del CIA. Bobée y Ouarda (2008) utilizaron técnicas gráficas para seleccionar la clase de distribuciones que proporciona el mejor ajuste a un conjunto de datos. concluyeron que la función de verosimilitud normalizada representaba el mejor criterio de selección. KS y EEA. la media cuadrática y la función de verosimilitud normalizada. gamma. El análisis numérico para comparar los desempeños de diferentes criterios de selección de modelos probabilísticos. Los criterios de selección de modelos probabilísticos han recibido poca atención en la literatura hidrológica. Los criterios considerados fueron las pruebas de error estándar de ajuste (EEA). Por su parte.criterios tuvieron un buen desempeño. d) para cada una de las distribuciones se calcularon los estadísticos de AD. c) las distribuciones de interés se ajustaron a los datos generados. los tamaños de muestra considerados fueron n = 30. 50. e) para cada uno de los criterios se seleccionó la distribución para la cual se obtuvo . log-normal y log-logística. los parámetros se estimaron por el método de máxima verosimilitud. Gumbel y log-normal como modelos alternativos para la distribución de caudales pico anuales. el segundo fue ligeramente mejor. y evaluaron estas distribuciones usando tres índices: la desviación absoluta media. Mitosek et al. b) con cola tipo Parteo. c) regularmente variantes. (2009) hicieron un análisis del desempeño de tres criterios de selección de modelos: CIA. (2002) consideraron las distribuciones Weibull. CIB o AD para seleccionar la distribución de mejor ajuste. CVM. sin embargo. b) se generaron 80 000 muestras aleatorias de tamaño n de las distribuciones madre. Cramer-Von Mises (CVM). gamma. Tras realizar un estudio de Monte Carlo.

En general. Se encontró que de los criterios empleados. menor será este estadístico. También se observó que es difícil discriminar entre dos distribuciones parecidas. el criterio de AD resulta con mejores estimaciones para T = 100. Para T = 10 no hay grandes diferencias entre los criterios.5. Para un conjunto de datos y distribución en particular. También se observó que tiende a producir estimaciones más pequeñas que los demás criterios considerados. Las hipótesis para la prueba de Anderson-Darling son:  H0: Los datos siguen una distribución especificada  H1: Los datos no siguen una distribución especificada . se recomiendan muestras con tamaño de por lo menos n = 50 para tener un buen desempeño de las pruebas de AD y EEA. 4. seguido por el EEA. A partir de los resultados obtenidos. Prueba G El estadístico de Anderson-Darling ¿Qué es el estadístico de Anderson-Darling? El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica. el valor más pequeño. aun cuando no escoge la distribución correcta.4 Otras Pruebas (Anderson-Darling). si la distribución seleccionada era igual a la distribución madre. Por ejemplo. Estas simulaciones muestran que los criterios de selección ayudan a escoger la mejor distribución para un análisis de frecuencias. y que en la mayoría de los casos subestima el valor xT. se consideró que el criterio tuvo éxito. usted puede utilizar el estadístico de Anderson-Darling para determinar si los datos satisfacen el supuesto de normalidad para una prueba t. el mejor fue AD. mientras mejor se ajuste la distribución a los datos. El empleo de las pruebas de KS y CVM no se recomienda a menos que se tengan muestras grandes. También se encontró que el porcentaje de selección correcta (PSC) de los criterios de selección depende del tamaño de la muestra n y de la distribución que siguen los datos generados.

Esta prueba es una modificación de la prueba de Kolmogorov. La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa F.Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen de la distribución elegida. porque este no existe matemáticamente para ciertos casos. Donde: n es el número de datos f(x): es la función de distribución de probabilidad teórica FS(X): es la función de distribución empírica.Darling.Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov. Minitab no siempre muestra un valor p para la prueba de Anderson-Darling.05 o 0. la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica.10). también. para concluir que una distribución es la mejor. La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. . Si el valor p es menor que un nivel de significancia elegido (por lo general 0. En estadística. También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de varias distribuciones con el fin de determinar cuál es la mejor. obtener el estadístico ajustado para luego compararlo con los valores críticos de la tabla de Anderson. el estadístico de Anderson-Darling debe ser sustancialmente menor que los demás. Para definir la regla de rechazo para esta prueba es necesario. Sin embargo. entonces rechace la hipótesis nula de que los datos provienen de esa distribución.

a partir de una serie de parámetros conocidos. Formula En cierto sentido. la verosimilitud es una versión inversa de la probabilidad condicional. pero si se conoce A. Conocido un parámetro B. realizar predicciones acerca de los valores que toma una variable aleatoria. De hecho. De ahí que en ocasiones se entienda que la función de verosimilitud. lo relevante no es el valor en sí de L( b |A) sino la razón de verosimilitudes. según el cual La función de verosimilitud. Esta permite comparar cuanto más verosímil es el parámetro que el a la hora de explicar el evento A. simplemente. pueden realizarse inferencias sobre el valor de B gracias al teorema de Bayes.Prueba G o prueba del logaritmo de la razón de Verosimilitudes En estadística. verosimilitud) es una función de los parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de un conjunto de observaciones. definida como desempeña el mismo papel bajo un enfoque no bayesiano. la función de verosimilitud (o. la probabilidad condicional de A es P(A|B). L( b |A). sea la clase de funciones . más que una función en sí. No debe confundirse con el término probabilidad: ésta permite.

abre la vía para dos técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la del test de la razón de verosimilitudes. POAr 6. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente se puede aplicar al análisis de variables continuas. 4. 5. esta prueba permite —al igual que la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie de datos. Pero cuando la noción de verosimilitud se extiende a variables aleatorias con una función de densidad f sobre. n. Estadísticas descriptivas 4. . 3. Obtener al menos 30 datos de la variable aleatoria a analizar. 2. Establecer de manera explícita la hipótesis nula. el eje real.5. Muestras definitivas 4.5. Calcular la media y la varianza de los datos. Crear un histograma de m= vn intervalos. los eventos considerados tenían una probabilidad p estrictamente mayor que cero.1. esto es. dividir la frecuencia observada O. entre el número total de datos. Acumular las probabilidades PO. Función de verosimilitud para distribuciones continuas En los casos anteriores. El procedimiento general de la prueba es: 1.5. Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste de una distribución de probabilidades continua hipotética (en hoja de cálculo o con paquete estadístico) Desarrollada en la década de los treinta del siglo XX.para obtener la probabilidad observada hasta el i-ésimo intervalo. por ejemplo.2.Donde: α es una constante de proporcionalidad. la probabilidad de un evento cualquiera es nula. La función de verosimilitud. y obtener la frecuencia observada en cada intervalo 0¡. 4. para esto se propone una distribución de probabilidad que se ajuste a la forma del histograma. Calcular la probabilidad observada en cada intervalo PO¡ =0¡ / n . abundando en los razonamientos anteriores.

k. y determinar el valor crítico de la prueba. Gumbel. Calcular la probabilidad esperada acumulada para cada intervalo.. Calcular el estadístico de prueba. El empleo de las pruebas de Kolmogorov- Smirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable en hidrología..PÚA. discreta o continua (en hoja de cálculo o con paquete estadístico) El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar de ajuste como criterio de selección en el análisis de frecuencias. Los resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error estándar de ajuste.3. Una técnica más . 8..5. 10. Weibull. Da n (consulte la tabla de valores críticos de la prueba de Kolmogorov- Smirnoven la sección de apéndices). c = máx |PEA¡ . PEA¡. 7. que requiere de un analista experimentado y presenta la desventaja de la subjetividad..3. Comparar el estadístico de prueba con el valor crítico. a partir de la función de probabilidad propuesta. El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad de ocurrencia de dichos eventos.. Dicho estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov. Definir el nivel de significancia de la prueba a.. Si el estadístico de prueba es menor que el valor crítico no se puede rechazar la hipótesis nula. el periodo de retorno del evento de diseño de una obra hidráulica excede el periodo de las observaciones y deben hacerse extrapolaciones a partir de los valores registrados. log-normal y log- logística.Pearson para ajuste de una distribución de probabilidades hipotética. m 9.. A menudo. 4. \ i = 1.. Cramer-Von Mises y Anderson-Darling. Una forma de extrapolar los datos históricos consiste en emplear el método gráfico. Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma. Muestras grandes: prueba de Karl.2. ya que para obtener un desempeño aceptable se necesitan muestras más grandes de las que normalmente se tienen en esta disciplina.

constituyen un modelo del sistema. Aparicio-Mijares. Gumbel. log- normal. Un problema importante en el análisis de frecuencias es la selección de una distribución de probabilidad apropiada para los datos observados. Este problema no es exclusivo de la hidrología. Sistemas. Estos supuestos. 2005). Pearson tipo III y log-Pearson tipo III (Aksoy.objetiva es encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos y usar esta función para la extrapolación. será necesario acudir a la simulación del sistema. 2000. Algunas de las distribuciones de probabilidad usadas en hidrología son normal. Este modelo se utiliza para comprender y prever el comportamiento del sistema real. modelos y simulación . que normalmente se expresan mediante relaciones matemáticas o relaciones lógicas. puede ocurrir que no se pueda evaluar analíticamente el problema. también se observa en otras áreas. 4. evaluando numéricamente el modelo y analizando los datos obtenidos para estimar las características de dicho sistema. Quesenberry y Kent (1982) desarrollaron un criterio de selección de distribuciones basado en estadísticos invariantes bajo transformaciones de escala. No obstante. Simular el funcionamiento de distintos tipos de instalaciones o procesos. como la confiabilidad y ciencias actuariales. En este caso. A la instalación o proceso que se pretende estudiar se le denomina sistema y para poderlo analizar se realiza una serie de supuestos sobre su funcionamiento. Si las relaciones matemáticas o lógicas que comprende el modelo son sencillas. gamma. si las relaciones son complejas. Weibull.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. entonces será posible utilizar un procedimiento analítico para obtener una solución o respuesta exacta sobre las características de interés del sistema analizado.

conviene hacer una clasificación de los sistemas de acuerdo con los aspectos que van a condicionar su análisis posterior. si lo que se desea es estudiar la capacidad productiva de la empresa. si se quiere determinar cuál es el número más adecuado de operarios y máquinas en la sección de mecanizado de una empresa que tiene una determinada cartera de pedidos. atributos y actividades en dicho instante. almacenaje. es útil realizar una clasificación de los sistemas atendiendo a tres aspectos fundamentales: . − Actividad: todo proceso que provoque un cambio en el sistema. Se pueden realizar las siguientes definiciones: − Atributo: propiedad de un elemento del sistema. el número de clientes. las características del sistema real que se desea estudiar van a condicionar el tipo de simulación que se va a desarrollar. Los elementos que forman parte del sistema vienen condicionados por el objetivo del estudio que se pretende realizar. etc. Tipos de sistemas Evidentemente. Por lo tanto. mientras que. estos elementos serán los que formen parte del sistema a analizar. los elementos mencionados anteriormente sólo serán una parte del sistema. ya que un sistema definido para un estudio determinado puede ser una parte de un sistema más amplio definido para otro estudio particular.Un sistema se puede definir como un conjunto de elementos unidos por relaciones de interacción o interdependencia. Por ejemplo. Este conjunto constituiría las variables de estado del sistema. Así. El estado del sistema en un instante de tiempo determinado se puede definir como la descripción de todos los elementos. el estado de una oficina bancaria en un instante se podría definir mediante el número de cajeros en él. el instante de llegada de cada cliente y el tipo de operación que desea realizar cada uno. A ellos habrá que añadir montaje. Por ejemplo. embalaje. En el ámbito de los sistemas productivos estos elementos normalmente tienen un objetivo común.

En un sistema continuo las variables de estado cambian de forma continua a lo largo del tiempo. Si un sistema no tiene ningún componente de carácter estocástico (es decir. de forma que no está predeterminado comportamiento en función de las condiciones iniciales y de las relaciones entre sus componentes. en un sistema dinámico los valores que toman todas o algunas de sus variables de acción evolucionan a lo largo del tiempo. En un sistema de una cierta complejidad puede ocurrir que existan simultáneamente variables de estado continuas y discretas. esto puede ser desaconsejable. Sistemas continuos y sistemas discretos. dependiendo de la predominancia de una y otras y del objetivo del estudio que se pretende realizar. mientras que en uno discreto cambian instantáneamente de valor en ciertos instantes de tiempo. en el mejor de los casos. Sistemas deterministas y sistemas estocásticos. Por el contrario. un sistema no determinista o estocástico tiene algún elemento que se comporta de forma aleatoria. por diversos motivos: − Puede ocurrir que el sistema no exista y lo que se pretenda sea su diseño.Sistemas estáticos y sistemas dinámicos. es decir. aleatorio) se considera determinista. En este caso. conocer sus respuestas posibles con sus probabilidades asociadas. . consiguiendo. cuando el tiempo no juega ningún papel en sus propiedades. se considerará el sistema como perteneciente a uno de los dos tipos. Un sistema se considera estático cuando sus variables de estado no cambian a lo largo del tiempo. el sistema sólo se podrá estudiar en términos probabilistas. e incluso imposible. Tipos de modelos Para estudiar un sistema. En este caso. el comportamiento del sistema está determinado una vez que se hayan definido las condiciones iniciales y las relaciones que existen entre sus componentes. Por el contrario. Sin embargo. En este caso. la forma más inmediata sería experimentar sobre él.

la formulación matemática del modelo contiene relaciones en las que aparecen funciones de distribución o de densidad de probabilidad. La fuente de complejidad puede tener básicamente dos causas: − En los sistemas continuos es frecuente que unas variables de estado representen la tasa o velocidad de cambio de otras variables de estado. por ejemplo. bursátil. − En los sistemas discretos pueden aparecer fenómenos aleatorios que sólo se pueden representar en términos probabilistas. que dificultan o impiden su resolución analítica. si se desea estudiar un sistema financiero. − La experimentación sobre el sistema real puede conllevar unos plazos de tiempo muy dilatados. Si se realiza correctamente la construcción del modelo y el diseño de los experimentos. por lo tanto. . de difícil o imposible resolución analítica. − Puede ser económicamente inviable la experimentación sobre el sistema real. puede ocurrir que las ecuaciones diferenciales sean no lineales y. los resultados obtenidos permitirán inferir cuál sería el comportamiento del sistema a analizar en determinadas condiciones. de ciertos sistemas sociales o biológicos.− Puede ser imposible experimentar con el sistema real porque no se dispone de ningún control sobre dicho sistema. En este caso... Es el caso.. En cualquiera de los casos anteriores se hace necesaria la construcción de un modelo del sistema que refleje con la fidelidad adecuada las características destacadas del sistema a analizar y la experimentación sobre dicho modelo. Necesidad de la simulación Ya se ha indicado anteriormente que se recurre a la simulación cuando el modelo matemático que representa el sistema a estudiar es excesivamente complejo o resulta inabordable por no estar desarrollados métodos analíticos para su resolución. Si el sistema tiene una cierta complejidad. por ejemplo. La formulación matemática de estos modelos lleva a la aparición de ecuaciones diferenciales que indican las relaciones anteriormente mencionadas.

lo que. Por otra parte. . la catalogación de un sistema como continuo o discreto depende del objetivo del estudio y de las variables de estado predominantes. Esto quiere decir que un mismo sistema puede tener ciertas variables de estado continuas y otras discretas. evidentemente. Por lo tanto. no es infrecuente encontrar modelos en los que coexisten ecuaciones diferenciales complejas con variables aleatorias. − En la simulación se puede tener un control mucho mejor sobre las condiciones del experimento que si se realizase sobre el propio sistema. Verificación.Como ya se ha indicado. Ventajas de la simulación Ya se ha comentado previamente que la simulación es una técnica cada vez más utilizada en el estudio de sistemas complejos. El modelo anterior se debe validar mediante la ejecución de una serie de experimentos piloto. se puede contrastar el funcionamiento del modelo con el del sistema real. con frecuencia la simulación es el único método posible de estudio de dichos sistemas. en los que los resultados obtenidos coincidan con los previsibles ante determinadas condiciones iniciales. complica aún más la resolución analítica. − La simulación permite estudiar un sistema cuya evolución es muy dilatada en el tiempo (por ejemplo. si el sistema modelado es similar a alguno ya existente. un sistema económico) en un periodo de tiempo reducido. Entre los argumentos a favor de la utilización de la simulación se encuentran los siguientes: − La mayoría de los sistemas complejos reales con elementos estocásticos no se pueden describir con suficiente precisión mediante un modelo matemático que se pueda resolver analíticamente. Alternativamente. − Mediante la simulación se pueden comparar diseños alternativos (o políticas de operación alternativas para un determinado diseño) para especificar cuál es el que cumple de forma más adecuada con los objetivos formulados. Por lo tanto. − La simulación permite estimar el comportamiento de un sistema existente bajo un conjunto previsto de condiciones operativas.

Sirve por lo tanto como una guía en el diseño de experimentos. Para realizar la validación de cualquier modelo de simulación. bastaría con tener ciertos conocimientos estadísticos y estar apoyado por en el sistema. . Por lo que no se puede asegurar estrictamente si el modelo es válido o no. Conclusión El proceso de validación de un modelo de simulación siempre está sujeto al experimento frente al que se vaya a realizar el estudio. habrá que señalar siempre el experimento frente al que es válido o no. también permite estudiar de forma detallada la evolución de un sistema en un corto periodo de tiempo. no es necesario ser un experto del sistema que el modelo represente.

html http://www.-.htm/ http://revistas.upm.upm.etsii.us.redalyc.es/arch/simulacion.shtml http://simulacionunilibre.minitab.com/revista/numero10/6.ingenieriaindustrialonline.etsii.pdf http://www.htm?iframe=true&width=95 %&height=95% http://www.pdf https://www.pdf file:///C:/Users/El%20Kostra/Downloads/693-388-140_10.com.ar/biblioteca/bddoc/bdlibros/monte_carlo/monte_carlo.edu.ar/course/view.ar/attachments/1051_TecnicasIISimulacion.pdf http://www.iol.unicen.simulacion.org.com/herramientas-para-el-ingeniero-industrial/estudio-de- tiempos/c%C3%A1lculo-del-n%C3%BAmero-de-observaciones/ http://www.cyta.co/index.php?pid=S2007-24222014000500012&script=sci_arttext&tlng=en http://dspace.com/es-mx/minitab/17/topic-library/basic-statistics-and- graphs/introductory-concepts/confidence-interval/confidence-interval/ http://campus.econ.mx/p/prueba-anderson-darling.fi.edu.ucbscz.mx/scielo.uba.pdf .scielo.org/pdf/302/30235208.com/trabajos-pdf5/prueba-chi-cuadrada-estadistica/prueba-chi-cuadrada- estadistica.Bibliografía http://ocwus.php/revistaciencia/article/view/3137 http://www.utp.blogspot.bo/dspace/bitstream/123456789/4345/3/1368.es/metodos-de-investigacion-y-diagnostico-en-educacion/analisis-de-datos-en- la-investigacion-educativa/Bloque_II/page_40.es/arch/simulacion.edu.php?id=187 http://www.didacticaambiental.iol.pdf http://www.pdf http://support.