ANÁLISIS EXPLORATORIO DE DATOS (A.E.D.

)

1. DEFINICIÓN:

Es un conjunto de técnicas estadísticas cuya finalidad es conseguir un entendimiento básico de
los datos y de las relaciones existentes entre las variables analizadas. Para conseguir este
objetivo el A.E.D. proporciona métodos sistemáticos sencillos para organizar y preparar los
datos, detectar fallos en el diseño y recogida de los mismos, tratamiento y evaluación de datos
ausentes (missing), identificación de casos atípicos (outliers) y comprobación de los supuestos
subyacentes en la mayor parte de las técnicas multivariantes (normalidad, linealidad,
homocedasticidad).

2. ETAPAS DEL A.E.D.:

Para realizar un A.E.D. conviene seguir las siguientes etapas:

a. Preparar los datos para hacerlos accesibles a cualquier técnica estadística.
b. Realizar un examen gráfico de la naturaleza de las variables individuales a analizar y un
análisis descriptivo numérico que permita cuantificar algunos aspectos gráficos de los
datos.
c. Realizar un examen gráfico de las relaciones entre las variables analizadas y un análisis
descriptivo numérico que cuantifique el grado de interrelación existente entre ellas.
d. Evaluar, si fuera necesario, algunos supuestos básicos subyacentes a muchas técnicas
estadísticas como, por ejemplo, la normalidad, linealidad y homocedasticidad.
e. Identificar los posibles casos atípicos (outliers) y evaluar el impacto potencial que puedan
ejercer en análisis estadísticos posteriores.
f. Evaluar, si fuera necesario, el impacto potencial que pueden tener los datos ausentes
(missing) sobre la representatividad de los datos analizados.

3. PREPARACIÓN DE LOS DATOS
 Hacer accesible los datos a cualquier técnica estadística descriptiva e inferencial.
 Almacenar y procesar los datos en un paquete estadístico adecuado (SPSS 22,
MINITAB, STATA, R, etc…), utilizando herramientas estadísticas.

4. ANÁLISIS ESTADÍSTICO UNIDIMENSIONAL

Consiste en realizar un análisis estadístico gráfico y numérico de las variables del problema con
el fin de tener una idea inicial de la información contenida en el conjunto de datos así como
detectar la existencia de posibles errores en la codificación de los mismos.

4.1 Variables

Se denomina variable a cada una de las características de los elementos de una población y
que varían de una unidad a otra.

4.1.1 Variables cualitativas (o categóricas): aquellas que no tienen medida numérica; se
representan por categorías o atributos (tipo de suelo, de vegetación, textura,…).

4.1.2 Variables cuantitativas: las que pueden expresarse numéricamente (temperatura,
precipitación, profundidad suelo, altitud, pendiente, ….)

a. Variables discretas: son el resultado de contar y sólo toman valores enteros (número
de puntos, de cuadrículas, de píxeles).
b. Variables continuas: son el resultado de medir, y pueden contener decimales
(temperatura, profundidad, altura). Se pueden subdividir a voluntad. Pueden tomar,
entonces, cualquier valor de un determinado intervalo.

DESCRIPCIÓN UNIVARIADA

El primer análisis que se realiza es la construcción del histograma de los datos con el fin de
poder determinar asuntos como: estimar la función de densidad, identificar el tipo de
distribución de los datos (normal, log-normal,..., etc.), si existe una distribución unimodal o
multimodal, si aparecenvalores extremos y outliers e identificar patrones acerca de la
variabilidad del fenómeno.

Figura 1. Histogramas de los datos.

Adicionalmente tomando como base el histograma acumulativo (gráfico de frecuencia relativa
acumulada de los datos), es posible definir el valor mínimo (min), el primer cuartil (Q1), la
mediana (M), el tercer cuartil (Q3), la media (m) y el valor máximo (max), que son medidas
estadísticas fundamentales y representarlas por medio de diagramas de cajas como se muestra
en la figura 2 en su parte derecha.

trasforma la distribución de los datos: de una distribución sesgada hacia la izquierda pasa a una distribución normal Figura 3. si eso no ocurre se puede hacer una transformación de escala en el histograma. Cambio de escala en el histograma. de dispersión y de localización. En la figura 3 se muestra como un cambio de escala en la abscisa del histograma inicial en la cual se pasa a escala logarítmica. los cambios de escala necesarios y los diagramas de cajas. Una vez realizado el histograma.Figura 2. la mediana y la moda definida de la siguiente forma: . Las medidas de tendencia central son la media. se deben caracterizar los datos a partir del cálculo de las medidas de tendencia central. Diagrama de cajas a partir del histograma acumulativo Lo deseable es que los datos de la variable bajo estudio tengan una distribución normal.

Es el dato central cuando los datos se ordenan de menor a mayor. es posible analizar que tan simétrica es la distribución de los datos como se muestra en las figuras 4 y 5. . Es el dato de mayor frecuencia absoluta.  Una vez calculadas las medidas de tendencia central.  Media aritmética (mean): Sensible a valores extremos. El 50% de los demás datos son menores que ella y el 50% de los demás datos son mayores a ella. Se calcula mediante la expresión: n 1 μ=Ε [ Z μ ] m= ∑Z n α −1 μ  Moda (mode): No sensible a valores extremos. Figura 4. teniendo en cuenta que una distribución completamente simétrica es una distribución normal.Distribución simétrica (normal) de los datos.  Mediana (median): No sensible a valores extremos.

σ =√ σ 2  Coeficiente de variación: Es sensible a valores extremos. definidos a continuación:  Varianza: Es sensible a valores extremos. Se calcula mediante la siguiente expresión: S CV = Xm  y en porcentaje como: 100 CV = 100 (S/Xm) %  CV = coeficiente de variación  S = desviación estándar  Xm = media Es un indicador de las dificultades asociadas con la presencia de valores extremos en el conjunto de datos mediante los siguientes criterios: . Una varianza y una desviación estándar altas indican un alto nivel de dispersión de los datos en torno a la media y viceversa. Se define como el nivel de dispersión de los datos en torno a una medida de tendencia central. Se calcula de la siguiente manera. coeficiente de sesgo skewness y coeficiente de curtosis. el coeficiente de variación.Distribución asimétrica de los datos Las medidas de dispersión. en general se calcula en torno a la media así: n 1 σ2= ∑ ( X −X m )2 n−1 i=1 i  Desviación estándar: Es sensible a valores extremos. las más comunes son la varianza. permiten determinar que tan alejados están los datos con relación a las medidas de tendencia central. Es una normalización de la varianza mediante la trasformación raíz cuadrada. la desviación estándar. Figura 5. Expresa la dispersión porcentual en términos relativos.

5.5 < | CS | < = 1.  Coeficiente de curtosis (kurtosis): Es sensible a valores extremos. Se calcula mediante las siguientes expresiones: n 1 m 4= ∑ ( Z ( uα )−μ)4 n−1 α −1 .0. corresponde con una distribución simétrica. Es el cuarto momento en torno a la media. Webster y Oliver [WEB 01] han determinado los siguientes criterios de trasformación para mejoras la simetría de una distribución de datos: 0 < | CS | < = 0. corresponde con un sesgo negativo (la función de densidad muestra una larga cola por la izquierda). Se calcula mediante las siguientes expresiones: n 1 m 3= ∑ (Z ( uα ) −μ)3 n−1 α−1 m3 CS= σ3 Los criterios de análisis para el valor del coeficiente de sesgo son: CS = 0. es el tercer momento en torno a la media. CS < 0. CS > 0. corresponde con un sesgo positivo (la función de densidad muestra una larga cola por la derecha). Mide la asimetría vertical de una distribución de datos. | CS | > 1. se trasforman los datos mediante el logaritmo base 10 o natural. Mide la asimetría horizontal de una distribución de datos. 0.0.  Coeficiente de sesgo (skewness): Es sensible a valores extremos. se trasforman los datos mediante la raíz cuadrada. corresponde con una distribución simétrica y se transforman los datos.

. las principales son los cuantiles y los cuartiles definidos de la siguiente manera:  Los cuartiles toman un porcentaje de la función acumulada de 25%. En el cálculo de las medidas de caracterización de los datos se debe tener en cuenta que unos pocos valores muy pequeños o muy grandes pueden afectar fuertemente las estadísticas resumen como la media. Las medidas de localización permiten determinar la concentración de los datos a partir del histograma acumulativo. el coeficiente de correlación lineal o las medidas de continuidad espacial (la covarianza o el semivariograma). corresponde con el valor de la mediana. CC < 0. CC > 0.  Se pueden usar estadísticas robustas que son menos sensitivas a valores extremos  Se pueden transformar los datos para reducir la influencia de valores extremos (ej: transformación logarítmica). y cuando es del 1% se denominan percentiles. m4 CC= −3 σ4 El CC mide la forma del pico de la distribución de densidad y su evaluación se hace con base en los siguientes criterios: CC = 0. a estos valores se les denomina: valores extremos y outliers. Q3 es aquel dato que puede o no pertenecer al conjunto de datos a partir del cual el 75% de los datos son menores que él y el 25% de los datos son mayores que él.  Se pueden clasificaren poblaciones estadísticas separadas. indica que la distribución es Normal. Q0 es el valor mínimo y Q4 es el valor máximo. la varianza.  Un valor extremo es aquel valor errático que es relevante en el estudio y que tiene un impacto significativo en la estimación. se denominan deciles. En la herramienta Geoestatistical Analyst al resultado del cálculo del CC se le debe restar 3 ya que usa otra fórmula.  Un outliers es aquel valor posiblemente moderado que no es relevante en el estudio Los valores extremos pueden ser manejados de la siguiente forma:  Se pueden declarar como erróneos y removerlos. de tal manera que Q1 es aquel dato que puede o no pertenecer al conjunto de datos a partir del cual el 25% de los datos son menores que él y el 75% de los datos son mayores que él. indica que la distribución es más puntiaguda que una Normal.  Cuando el porcentaje tomado de la función acumulada es del 10%. indica que la distribución es menos puntiaguda que una Normal. Q2 es aquel dato que puede o no pertenecer al conjunto de datos a partir del cual el 50% de los datos son menores que él y el 50% de los datos son mayores que él.

distribuciones condicionales. cuando los datos están muy dispersos es posible que se requieran dos diagramas de dispersión: una para mostrar detalles y otro para mostrar relaciones globales. Cuando se tiene más de una variable de estudio. adicionalmente una transformación. de covarianza y de coeficientes de correlación. de tipo logaritmo podría mejorar la visualización de la relación global. DESCRIPCIÓN BIVARIADA.Diagrama de dispersión de porosidad versus permeabilidad. histogramas bivariados. gráficos interquantiles. distribuciones marginales.De todas formas para remover un valor extremo se deben tener en cuenta dos aspectos: los estadísticos que afectan y el contexto de los datos. . es importante tratar de describir qué posible relación puede haber entre ellas. veamos cada uno de ellos: Diagramas de dispersión es un gráfico en el cual se muestra para cada ubicación espacial. el valor de una de las variables bajo estudio versus otra con la cual se quiera determinar algún tipo de relación como se muestra en la figura 17 en la cual se está interesado en saber que tipo de relación existen entre la porosidad y la permeabilidad. Como se muestra en la figura 18. por ejemplo. esto se hace por medio de diagramas de dispersión (scatterplots). análisis de regresión. Figura 17.

La distribución marginal de la variable indicada en la abscisa. Figura 18. . la distribución marginal de la variable indicada en la ordenada sumando las filas del histograma bivariado. se calcula sumando las columnas del histograma divariado.Histograma bivariado a partir del diagrama de dispersión. Histogramas Bivariados se calculan a partir de contar el número de datos que caen dentro de cada celda de una malla que se pinta sobre el diagrama de dispersión. Esto se muestra en la figura 20. como se muestra en a figura 19 Figura 19. Distribuciones Marginales: es la distribución univariada de los datos de una de las variables bajo estudio calculada a partir de un histograma divariado.Diagramas de dispersión para datos dispersos.

si este gráfico se parece a una línea recta entonces ambas distribuciones se modelar con la misma función de densidad. de esta forma se obtiene un gráfico intercuantil. Figura 20. Gráfico intercuantiles (QQplot): dos distribuciones marginales pueden comparase graficando los cuantiles de una variable contra la otra. Esto se muestra en la figura 21. Calculo de las distribuciones marginales de la porosidad (a la izquierda) y la permeabilidad (a la derecha). .

si no más bien las peculiaridades del conjunto de datos de la muestra. Análisis de Regresión: Tomando como base el diagrama de dispersión. Aunque un orden polinomial de mayor grado puede ajustar mejor los datos. . Ello se muestra en la figura 23. estadísticamente hablando. es posible hacer una regresión polinomial con el propósito de establecer relaciones entre los datos de las variables bajo estudio. Distribuciones condicionales. Figura 22. puede no estar describiendo la relación en detalle.

para la cual una covarianza positiva alta indica una relación directamente proporcional entre los datos. Figura 23. Análisis de Covarianza: Tomando como base el diagrama de dispersión también es posible hacer una análisis de covarianza definida como se muestra en la figura 24. La covarianza para las variables xi con media ȝx y yi con media ȝy. Análisis de Regresión. se calcula mediante la siguiente expresión: n covarianza= ( 1 ) ∑ x y −μ x μ y n l −1 i i . negativa alta una relación inversamente proporcional y cercana a cero ningún tipo de relación.

y σ y es la desviación estándar de los valores de la variable yi con media μ y . Calculadas mediante: x y ¿ ¿ i−¿ μ x i−¿ μ x ¿¿ ¿¿ ¿ ¿ ¿ ¿ ¿ ¿ ¿ ¿ n n 1 1 ∑ n l−1 ¿ ∑ n l−1 ¿ σ x =√ ¿ σ x =√ ¿ . para evitar esto se normaliza la covarianza para definir el coeficiente de correlación cuyo valor esta entre -1 y 1 (ver figura 25). El coeficiente de correlación mide dependencia lineal entre dos variables pero es sensible a valores extremos. Análisis de Coeficiente de Correlación ( ρ ) En el análisis de covarianza no deja de ser ambiguo el término covarianza positiva alta y negativa alta. Figura 24. Análisis de Covarianza. Se calcula con base en las siguientes expresiones: Co varianza ρ= σxσ y En donde σ x es la desviación estándar de los valores de la variable xi con media μx .

Figura: Análisis de Coeficiente de Correlación Análisis de Coeficiente de Correlación de Spearman (Rank correlation coefficient. entonces unos pocos valores están mejorando lo que en realidad es una correlación pobre. Se define como el coeficiente de correlación de la posición de los datos calculado con la misma fórmula del coeficiente de correlación pero en lugar de los datos correspondientes a la variable xi. Una vez hechos los cálculos se establecen los siguientes criterios de análisis:  Si ρrank > ρ . y la variable yi. . entonces unos pocos valores están arruinando lo que podría ser una buena correlación lineal entre xi y yi. y la posición de yi. se trabaja con la posición de xi. se utiliza el coeficiente Rank. ρrank ): Como medida complementaria al coeficiente de correlación.  Si ρrank < ρ . En la figura 26 se pueden ver ambas situaciones.

Procedimiento para el diseño de la tabla de frecuencias: Después de haberse recopilado la información de campo y organizado en una base de datos. Li−1 L¿ (¿¿ i) (¿¿ i) F (H i) ¿ ¿ ¿ (¿¿ i) ¿ Procedimiento de cálculo 1. (hi ) acumulada. relativa i x f acumulada. absoluta relativa.). para facilitar el análisis y la interpretación correspondiente. Figura: coeficiente de correlacion Rank CASO DE ESTUDIO CON DATOS DE UNA MINA DE CARBÓN Conjunto de datos simulados sobre un estrato real de carbón en el Africa el Sur. clases. se elige la variable a ser analizada y se procede a construir una Distribución de Frecuencias. La estructura de la tabla es la siguiente: Intervalo de Marca de Frecuencia Frecuencia Frecuencia Frecuencia frecuencia. seleccionando un número entre 5 y 30 intervalos. La variable a ser estudiada será el valor calorífico. Las tres coordenadas expresadas en metros son medidas desde arriba (collar) del estrato del carbón donde es intersectado por el taladro. o calcularlo mediante la fórmula de Sturges. Determinar el número de intervalos (K ) en forma directa. que serán confirmados por análisis estadísticos cuantitativos. expresado en (MJ). contenido de ceniza (%) y contenido de sulfuros (%). Daremos un procedimiento para diseñar la tabla de frecuencias que nos conducirá a construir gráficos y mediante un análisis cualitativo ver si estos datos siguen un modelo normal o log normal. 2. cuyo resultado debe ser redondeado al entero inmediato superior. contenido de energía o valor calorífico del carbón (expresado en Megajoules por Ton. R=x max −x min (diferencia entre el dato máximo y mínimo). Determinar la amplitud o ancho del intervalo (W ) . Los taladros perforados sobre el estrato de carbón son medidos para encontrar la siguiente información: espesor (mts). absoluta. Determinar el rango (R) de variación de los datos.3 log ( n ) n ≥10 3. K=1+3.

880 25. Grafico de probabilidad. VARIABLE VALOR N 96 Min 19.32 INTERVALO hi*10 Hi*10 Xi Fi Hi Fi Hi Li Ls 0 0 0.04 25. Determinar los límites de los intervalos.0 19.5 22.200 24. x min + W ) L2=[ x min +W . x min + K W ) Presentación de datos Los datos pueden ser presentados mediante los siguientes gráficos: • Histograma de frecuencias.920 21.156 73.46 Rango 10.219 58.91 21.375 9. L1=[ x min .54 K 8 W 1.8 60.580 9 0.240 20.094 9. Cálculos previos para la construcción de la tabla de frecuencias.92 Max 30.520 27.840 27.6 21.6 38.4 87. R W= K 4. x min + 3 W ) ⋮ LK =[ x min + ( K−1 ) W .8 11.000 29 42 7 0.560 23.860 15 0.50 26.156 37.200 26. • Gráficos de variabilidad.180 11 0.375 94 0.000 04 75 7 0.000 75 58 0 .220 15 0.41 23.520 25.900 13 0. • Histograma acumulado. • Polígono de frecuencias.3 15.115 84.135 22.560 21. usando los datos de la mina carbón.000 9.240 22.000 60 25 2 0.2 13.540 21 0.6 76.000 85 25 2 0.880 23. xmin +2 W ) L3=[ x min +2 W .7 15.54 22.

que aproximadamente equidistan de los extremos. con crecimiento ascendente. 29.0 100.000 4.9 95.840 29.042 96.820 4 0.500 8 0. con una tendencia hacia la zona central. .333 58 3 1.000 8. Gráfico acumulado Xi VS Fi .160 30.083 92.167 00 000 Cualitativamente observamos que los datos siguen un modelo Normal.480 29.83 27. 0.160 28.

Estructura de datos para un cálculo manual Hi*10 ID Xi (Xi .1 0.2 5.5 0.877 -2.000024 70 8 3 0.080 0.075732 40 5 1.5 1.Media)^2 (Xi .2 1.220981 10 2 0.034188 80 .005 0.571 3.048797 60 7 2.465 -3.0 1.360368 30 4 1 2.2 0.617 -13.1 2.1 6.Media)^3 (Xi .CASO DE ESTUDIO CON DATOS DE UNA MINA DE ORO Las muestras tomadas en un yacimiento de oro.1 0.870 18..Media)^4 0 1 0.1 10 Calcular las medidas estadísticas. configuran los siguientes datos expresados en gr/ton.522754 50 6 2.2 2. analizar la variabilidad de los datos y la tendencia hacia un modelo Normal o Log Normal.2.069 37.285 -8.549566 20 3 0. 0.312 31.5 3.185 0.870 6.221 -0.101 -15.104 0.000 0.0 5.5 4.

971521 90 10 10 55. observando el histograma y las medidas estadísticas. tenemos los siguientes resultados: Medida Valor media 2.750 IQR 2.668 Q1 0.92 gr/ton).236 desv std 2.350 Q3 2.650 Var 8.400 moment3 38.265 moment4 318. lo que hace que la distribución tenga un sesgo pronunciado con tendencia al modelo Log Normal y el valor de la media no es representativo ya que tiene una tendencia hacia los valores altos. 9 5.580984 100 Aplicando las formulas estadísticas.536 sk 1. los mismos que devendrían en no confiables. notamos que hay valores OUTLIERS. que podrían repercutir más adelante cuando uno haga estimaciones y modelamientos.194 40.870 CV (%) 111. fuera de la vecindad del conjunto y uno de esos valores es el dato cuyo valor tiene 10 gr/ton. .1 6.570 mediana 1. ya que primero tenemos que homogenizar nuestra data para no arrastrar errores. mostrándose una gran diferencia entre el valor de la media y la mediana (0.205 410.619 E 1.696 Asociado al conjunto de datos de la mina de oro.401 16.172 3047. Esto implica que no podemos seguir con nuestro análisis.

Los alumnos ahora comprenderán porque es necesario hacer el análisis estadístico.336 desv std 1.039 El modelo Log Normal está más definido y ahora la diferencia entre la media y la mediana es menor (0.8 23 1.400 IQR 2.921 E -0.290 Moment4 16.4 22 0.3 .54 grs/ton). previo a un análisis espacial o geoestadistico. 3.4 2 5.0 14 5.5 13 6.1 11 0.5 12 1.611 Q1 0. el objetivo es no incurrir en mayores errores. Medida Valor Media 1.125 Moment3 3. Leyes en grs/ton.6 21 0.275 Q3 2.5 4 1.Vamos a eliminar el valor alto de 10 gr/ton de la data y veamos ahora cual es el comportamiento el modelo y sus medidas estadísticas.528 CV (%) 87. ID Xi ID Xi ID Xi 1 0..CASO DE UN YACIMIENTO DE ORO CON 30 DATOS.156 Sk 0.744 Mediana 1.1 24 2.5 3 0.200 Var 2.

9 7 2.9 Histograma deducido en base a una tabla de frecuencias.5 28 3.0 18 1. Analizar las incidencias de las dos distribuciones en el cálculo de la Ley/Tonelaje. Asimismo el modelo de bloques del yacimiento nos da una desviación estándar del 4. .2 6 2. para reproducir las funciones de densidad de probabilidad.3 8 3.45%.1 19 1. 1.3 27 4.8 29 7.1 16 4. 5 1. Representaremos los modelos en función a sus parámetros y utilizando las formulas del modelo normal y cálculos efectuados en el programa Excel.8 9 5. conjunto de datos.4 25 3.2 15 8. el cual se conoce que las muestras siguen una distribución normal con un ley promedio del 48% y una desviación estándar del 5%. Observamos claramente que los datos tienden a un modelo Log Normal.0 20 2. Caso de estudio de un depósito de hierro: Tenemos un depósito de hierro.2 26 2.2 10 10.2 30 4. demostrando la aproximación a un modelo Log Normal.5 17 0. Aplicaciones de las Curvas Ley Tonelaje.

38 48 50 51. usando el programa Excel y las formulas expuestas anteriormente. Generalmente un yacimiento se explota en base al modelo de bloques. en este caso.79 44 78.52 48. MUESTRAS BLOQUES L.66 52.37 42 88.05 f(x ) 0 . DistribuciónNormal 0.81 49.49 49.45 %.77 Cada Ley de Corte. representamos las curvas Ley Tonelaje. representa una alternativa de explotación con una proporción de tonelaje económicamente explotable con su respectiva Ley.46 53.34 32.84 18.44 54.54 50. por ejemplo si las condiciones de la tecnología y el mercado determinan utilizar una Ley de Corte de 44 %.01 0 10 20 30 40 50 60 70 80 90 x Modelo normal para muestras y bloques.88 56.34 50. para el Modelo Normal.55 50 34.09 0 .91 52 21. P(%) L.01 0 -30 -20 -0-10 .19 54.56 % de mineral económicamente explotable con una ley promedio de 49.84 81.45 46 65.56 49. Con estos datos.02 0 .04 Muestras Bloques 0 .10 91.61 57.07 0 . para cada modelo de muestras y bloques.MEDIA 40 94.43 54 11.39 48.99 50 51.48 58. .44 8.08 0 . entonces tendríamos el 81.59 96.03 0 .51 56.12 48.81 67.06 0 . Calculo del Tonelaje y Ley para varias leyes de corte.12 3.MEDIA P(%) L.06 56 5.C.

Tomemos el caso de un yacimiento de Pb. 2. Zn. 4 0. para el modelo de muestras y bloques del depósito de hierro. La unidad de minado seleccionada es un bloque de 10x10x5 mts.56% de metal combinado. cuya desviación estándar es igual a 5.. 2 1 0. 8 Muestras 0. 2 0 35 40 45 L.C 50 55 60 Curvas Ley de Corte/Tonelaje. Representaremos los modelos en función a sus parámetros y utilizando las formulas del modelo lognormal y cálculos efectuados en el programa Excel. Se conoce que las muestras están distribuidas lognormalmente con un valor promedio del 12% y una desviación estándar del 8%. . donde el porcentaje de metal combinado es la variable económica. LeydeCorte/Tonelaje 1. para el modelo de muestras y bloques del depósito de hierro. Analizar las incidencias del cálculo de la Ley/tonelaje. para reproducir las funciones de densidad de probabilidad.Caso de estudio de un yacimiento de Pb y Zn.6 P Bloques 0. Ley de Corte/Ley Media 60 L ey Media 55 Muestras Bloques 50 45 35 40 45 LC 50 55 60 Curvas Ley de Corte/Ley media.

213 94.95 13.MEDIA 4 93. representa una alternativa de explotación con una proporción de tonelaje económicamente explotable con su respectiva Ley.MEDIA P(%) L.19 14.11 12. en este caso.159 5 87. entonces tendríamos el 78.Función de probabilidad para el Modelo Log Normal para muestras y bloques.105 11 43.637 98.338 9 56. por ejemplo si las condiciones de la tecnología y el mercado determinan utilizar una Ley de Corte del 7 %. MUESTRAS BLOQUES L. P(%) L.29 12.83 17.616 69.C.941 7 71.459 6 79.12 15.188 10 49.072 Cada Ley de Corte.523 49. para cada modelo de muestras y bloques.95 % de mineral económicamente explotable con una ley promedio de 13.17 12.525 41.12 13.62 18. Generalmente un yacimiento se explota en base al modelo de bloques.92 14.60 12.579 %. usando el programa Excel y las formulas expuestas anteriormente. para el modelo Log Normal.77 16.550 59.924 87.23 15. .579 8 64.734 78. Calculo del Tonelaje y Ley para varias leyes de corte.76 13.20 17.69 16.