Parte I II IIIgeoestadistica Curso Unsa

23
PARTE I I. INTRODUCCIÓN En el desarrollo de un proyecto minero o en la explotación misma de yacimientos, se va precisando las necesidades de solución que requieren algunos problemas cuantitativos geológico mineros. A estos problemas se les plantea su solución mediante técnicas estadísticas y/o geoestadísticas. Básicamente seguimos 2 líneas de acción durante el desarrollo del curso: Aplicaciones para yacimientos por explotar y explotados subterráneamente y a tajo abierto, dando énfasis a lo segundo. Estos estudios se circunscriben en todas las etapas de puesta en marcha de proyectos mineros: prospección, exploración y explotación; los que se ubican en los llamados estudios de pre-factibilidad y operación de explotación misma. Dentro del desarrollo del curso confrontaremos los resultados teóricos, con los resultados reales, de manera de tener una apreciación cabal de la bondad de estas y otras técnicas que se aplican para la solución de estos problemas. Con ello estaríamos validando la teoría de la geoestadistica y otras que se aplican. Clásicamente se piensa que en yacimientos excepcionales de alta ley o polimetálicos cuyo equivalente en un metal es alto, no se tiene necesidad de retinar el cálculo de la ley media de cada panel estimado; inclusive quienes usan los métodos tradicionales de cálculo de reservas se permiten castigar todas las leyes, aduciendo justificaciones empíricas. Sin embargo con el objeto de optimizar la utilización del recurso natural y la programación de la explotación a corto, mediano y largo plazo, es necesaria una evaluación más confiable. Naturalmente que los procedimientos clásicos, desde un punto de vista pragmático, han demostrado y demuestran su validez, pero esto no significa que sea lo más conveniente para el correcto uso del recurso no renovable, lo que sin duda es nuestro deber defender, desde una posición que tecnológicamente consideramos correcta. Ampliando este criterio, a continuación precisaremos muy brevemente la incidencia de la interrelación entre la evaluación de las reservas y el diseño de la explotación, en el beneficio óptimo. Consideramos las alternativas siguientes: 1. Podemos tener una excelente evaluación de los recursos geológicos y un pésimo diseño y método de explotación, lo que dará como resultado la obtención de un "Beneficio Efectivamente Recuperado" equivalente al "Beneficio Previsto" y naturalmente un alejamiento del "Beneficio Optimo"

description

Geoestadistica aplicada

Transcript of Parte I II IIIgeoestadistica Curso Unsa

Page 1: Parte I II IIIgeoestadistica Curso Unsa

PARTE I

I. INTRODUCCIÓN

En el desarrollo de un proyecto minero o en la explotación misma de yacimientos, se

va precisando las necesidades de solución que requieren algunos problemas

cuantitativos geológico — mineros. A estos problemas se les plantea su solución

mediante técnicas estadísticas y/o geoestadísticas.

Básicamente seguimos 2 líneas de acción durante el desarrollo del curso: Aplicaciones

para yacimientos por explotar y explotados subterráneamente y a tajo abierto, dando

énfasis a lo segundo.

Estos estudios se circunscriben en todas las etapas de puesta en marcha de

proyectos mineros: prospección, exploración y explotación; los que se ubican en los

llamados estudios de pre-factibilidad y operación de explotación misma.

Dentro del desarrollo del curso confrontaremos los resultados teóricos, con los

resultados reales, de manera de tener una apreciación cabal de la bondad de estas y

otras técnicas que se aplican para la solución de estos problemas. Con ello estaríamos

validando la teoría de la geoestadistica y otras que se aplican.

Clásicamente se piensa que en yacimientos excepcionales de alta ley o polimetálicos

cuyo equivalente en un metal es alto, no se tiene necesidad de retinar el cálculo de la

ley media de cada panel estimado; inclusive quienes usan los métodos tradicionales

de cálculo de reservas se permiten castigar todas las leyes, aduciendo justificaciones

empíricas. Sin embargo con el objeto de optimizar la utilización del recurso natural y la

programación de la explotación a corto, mediano y largo plazo, es necesaria una

evaluación más confiable.

Naturalmente que los procedimientos clásicos, desde un punto de vista pragmático,

han demostrado y demuestran su validez, pero esto no significa que sea lo más

conveniente para el correcto uso del recurso no renovable, lo que sin duda es nuestro

deber defender, desde una posición que tecnológicamente consideramos correcta.

Ampliando este criterio, a continuación precisaremos muy brevemente la incidencia de

la interrelación entre la evaluación de las reservas y el diseño de la explotación, en el

beneficio óptimo.

Consideramos las alternativas siguientes:

1. Podemos tener una excelente evaluación de los recursos geológicos y un

pésimo diseño y método de explotación, lo que dará como resultado la

obtención de un "Beneficio Efectivamente Recuperado" equivalente al

"Beneficio Previsto" y naturalmente un alejamiento del "Beneficio Optimo"

Page 2: Parte I II IIIgeoestadistica Curso Unsa

Los riesgos de error sistemático de este método son bien conocidos; los

estudiaremos en el capítulo del krigeage.

A veces estas técnicas son las únicas utilizables (información escasa,

yacimiento demasiado irregular etc.). Sin embargo no las consideraremos más,

por no ser el objeto del curso. Nos interesa solamente en la medida que

puedan orientar a estudios cuantitativos ulteriores.

b) Las técnicas "científicas”: Con este nombre, un poco pomposo, designamos a

las técnicas que usan modelos matemáticos. Distinguiremos tres escuelas, por

orden cronológico.

1. Escuela Norteamericana: Conformada entre otros, por S. W. Hazen, R. D.

Berkenkotter, R. F. Hewlett, G. S. Koch, R. F. Links, ella se apoya

esencialmente sobre la estadística clásica de variables independientes. Esta

estadística clásica ha sido elaborada hace mucho tiempo y utilizada con éxito

en diferentes dominios extra mineros ( biología, economía, control de calidad,

etc.) Su principal defecto, reconocido por los autores, es que se fundamenta en

hipótesis demasiado restrictivas para rendir cuenta de la complejidad de los

fenómenos mineros (caracterizados por dimensiones múltiples, anisotropía, no

estacionariedad, tendencias y correlaciones espaciales). La realidad no debe

ser forzada por hipótesis inadecuadas y aún peor, alterada por una

observación sesgada ( muestreo tal que los datos verifiquen las condiciones de

independencia o ¡ reconocimiento preferencial de las zonas ricas!. Con tales

procedimientos, el fenómeno estudiado se simplifica notablemente pero ¿de

qué vale el resultado?

En presencia de no estacionariedad y de tendencias, los autores

norteamericanos proponen varios ajustes bastante arbitrarios de polinomios ("

Trend Surface Analysis") cuyo significado no es siempre claro.

Algunos autores, en particular F. P. Agterberg, han aproximado el formalismo

riguroso de las correlaciones espaciales mediante el concepto de

correlograma, que les permite en particular definir la noción esencial de área de

influencia.

Sin embargo, el correlograma es una herramienta menos general que el

variograma (no siempre existe).

En resumen, la hipótesis de independencia espacial, básica para la escuela

norteamericana es muy restrictiva. La geestadística encuentra todos los

resultados clásicos de la estadística de variables independientes, como casos

particulares.

Además el ajuste polinomial por mínimos cuadrados o por el método de

máxima verosimilitud son casos particulares muy simples de la teoría del

krigeage universal.

Page 3: Parte I II IIIgeoestadistica Curso Unsa

2. Podemos tener una mala evaluación de los recursos geológicos y un excelente

diseño y método de explotación, lo que dará como resultado un "Beneficio

Efectivamente Recuperado" muy diferente del "Beneficio Previsto" y

naturalmente un mayor alejamiento del "Beneficio Óptimo".

De lo expuesto, se deduce que lo más conveniente es que exista una adecuada

coherencia en el grado de confiabilidad de ambos factores ( evaluación de recursos y

diseño de la explotación ). En el peor de los casos, para los intereses particulares de

una Empresa, es más adecuada que se cumpla la primera alternativa. Pero para

poder armonizar los intereses de una empresa con los de la Nación y, a su vez de la

humanidad entera, es necesario proceder con una evaluación de recursos y un diseño

de la explotación correctos, del depósito mineral.

En otras palabras, hacer un uso más racional de los recursos renovables que nos

ofrece la naturaleza. Prácticamente esto se traduce como: no echar al estéril o dejar

de explotar el material aprovechable que podría estar dentro del volumen de la

explotación.

Al respecto justamente la teoría y técnica de la geoestadística, nos permite cuantificar

con mayor precisión las variables que intervienen para efectuar la explotación mas

racional de los recursos naturales no renovables.

- Actualmente la aplicación de los modelos matemáticos a la minería en general,

constituye una actividad de importancia para la puesta en marcha y explotación

de nuestros grandes y medianos yacimientos, mas aun considerando que

estos son de relativamente baja ley, es necesario el empleo de modelos más

ajustados al fenómeno geológico, de tal forma que aseguren la rentabilidad del

proyecto y a su vez custodie la racional explotación de nuestros recursos

mineros.

- La utilización de resultados obtenidos mediante bases teóricas sólidas y

procesadas con ayuda de la computadora, se debe entender como una

contribución hacia la correcta explotación de nuestros yacimientos, en lo que

tácitamente está involucrado la custodia de nuestros recursos naturales no

renovables.

II. LAS PRINCIPALES TÉCNICAS DE ESTIMACIÓN

Podemos clasificar, en dos grupos:

a) Las técnicas empíricas: Son todas las técnicas que no tienen fundamento

matemático y que suponen una larga experiencia del fenómeno mineralizado. Estas

técnicas incluyen el "olfato" del geólogo o del minero y todos los procedimientos

clásicos de la geología minera (petrografía, tectónica, etc...). Hacen a menudo uso de

informaciones cualitativas y se caracterizan por el hecho de que son incapaces de dar

Page 4: Parte I II IIIgeoestadistica Curso Unsa

el intervalo de confianza de sus estimaciones. Entre ellas podemos citar la famosa

técnica de los polígonos, donde se asigna a cada muestra un radio de influencia

empírico generalmente igual a la mitad de la distancia a la muestra más cercana; la

muestra es "representativa" dentro de su área de influencia.

2. Escuela Sudafricana: Esta escuela (Krige, Sichel, M.I. Watson ) nació del

estudio muy pragmático del inmenso archivo de datos que representan las

minas de oro sudafricanas.

De 1947 a 1960, Sichel y Krige hicieron las observaciones siguientes:

- Las leyes en oro de las muestras tienen una distribución log normal.

- Las distribuciones de las leyes son función de las dimensiones del soporte de

las muestras. Encontraron experimentalmente la relación de Krige :

(v/G) = (v/V) + (V/G)

Que la geoestadistica demostrará formalmente.

A partir de estas consideraciones, Krige y Sichel definieron estimadores t

insesgados de la ley media de un panel utilizando las características media y

varianza de los logaritmos de las leyes de las muestras.

Después, estudiando las regresiones entre las leyes verdaderas de bloques ya

explotados y medias móviles de las leyes de muestras disponibles a priori,

Krige y Ueckermann (1963) definieron nuevos estimadores óptimos no ligados

a la hipótesis restrictiva de la lognormalidad.

Estos estimadores de Krige que dieron nombre a la técnica del Krigeage

formalizada más tarde por Materno, permiten resolver sin sesgos el problema

difícil de la estimación de reservas después de una selección.

En resumen la escuela sudafricana, al establecer y aclarar las nociones claves

de:

- Correlaciones espaciales

- Influencia de las dimensiones de las muestras o del panel sobre las

distribuciones.

- Sesgos de estimación cuando se efectúan selecciones sobre el mineral.

3. Escuela Francesa: la escuela francesa aprovecho los trabajos de las dos

escuelas precedentes. Su iniciador G. Matheron, un minero matemático y

probabilista utilizó.

Utilizo el enorme conocimiento experimental de la escuela sudafricana. Su

formación teórica le permitió formalizar en un lenguaje riguroso las

observaciones experimentales de sus predecesores, en el Centro de

Morfologia Matemática de la Escuela de Minas de Paris, existe un Materno un

equipo de ingenieros de minas y geólogos que adaptan continuamente el

lenguaje probabilístico a la realidad concreta, habiéndose realizado muchos

estudios prácticos que figuran en la bibliografía.

Page 5: Parte I II IIIgeoestadistica Curso Unsa

La geoestadística está basada en la observación que cualquier variable ( ley,

potencia, acumulación, etc...) de un fenómeno mineralizado posee una función

de autocorrelación espacial, por compleja que sea. La independencia solo es

un caso particular (autocorrelación nula ). La autocorrelación nula se mide por

una función nula llamada variograma que es la herramienta fundamental de la

geoestadística. Para poder estimar el variograma a partir de la información

disponible se necesita una hipótesis de homogeneidad (estacionariedad) o

casi-homogeneidad, hipótesis casi siempre verificada en la práctica. A la

función variograma experimental obtenida, se le ajusta un modelo teórico

particular, característico de la mineralización y que será la base para la

resolución de todos los problemas de estimación ulteriores.

Insistamos sobre la extrema Homogeneidad de toda la teoría con el mismo

lenguaje probabilístico y la misma herramienta variograma, se resuelven

problemas tan diferentes como la estimación local, la homogeneización de

minerales, la selección.

La geoestadística ha encontrado y formalizado las principales nociones claves

de las dos escuelas que la han precedido; solo ha desechado las nociones

falsas y probadas como falsas.

Una condición esencial para una buena aplicación de la geoestadística es la

confrontación permanente de los resultados a la realidad minera: La

interpretación y las aproximaciones dependen de eso.

Por fin, queremos hacer una advertencia: la geoestadística trabaja en base a

datos, no crea información. De ninguna manera puede reemplazar una buena

exploración, pero si utilizará los datos disponibles en la mejor forma posible.

III. GEOESTADÍSTICA Y PROBLEMAS MINEROS

La geoestadística en los últimos años, ha devenido en una herramienta de decisión

dentro de la industria minera, básicamente en los estudios de reconocimiento,

estimación y explotación de yacimientos minerales. Esta situación no es fortuita, pues

es precisamente en contacto con los problemas mineros que el Dr. George Matheron

y su equipo del Centro de Geoestadística de la Escuela de Minas de París, han

desarrollado el formalismo teórico y los métodos prácticos que forman actualmente la

teoría y práctica de la geoestadística: estos métodos son suficientemente generales

para aplicarse dentro de los numerosos dominios donde se debe tratar

numéricamente las variables que miden los fenómenos naturales: geología petrolera,

geofísica, industria forestal, geología minera, cartografía, etc.

Page 6: Parte I II IIIgeoestadistica Curso Unsa

En una primera parte de este texto se describe rápidamente las etapas por las que

pasa el estudio de un gran proyecto minero, desde el reconocimiento geológico, hasta

la optimización del plan de explotación, insistiendo en la aplicación de estas

metodologías para la solución de los problemas encontrados. En una segunda parte

se familiariza el lector con el lenguaje de la geoestadística. Los problemas descritos en

la etapa siguiente de reserramiento de la malla permiten fijar los objetivos de clasificar

las reservas dentro de una categoría superior.

EL RECONOCIMIENTO A MALLA FINA

El yacimiento estando ya considerado como explotable, se tiene que definir en él

modalidades técnicas de explotación: tamaño de los equipos ( caracterizado por la

búsqueda de una cadencia de producción ) duración de la vida de la mina, método de

explotación, nivel de selección, ley de corte, etc.

Estas búsquedas son solamente posibles a partir de un conocimiento en detalle de la

repartición de las leyes dentro del yacimiento, el objetivo de esta etapa es de realizar

una estimación local de los tonelajes, leyes y de constituir un parametraje de reservas.

Por ello se define unidades de volumen al nivel de los cuales el método de explotación

tomado permite efectuar una selección: Estas unidades pueden ir de bloques de

10 x 10 x 10 m. en tajos abierto a bloques de 100 x 100 x 100 m. en una explotación

subterránea por " Block Caving”.

La malla fina de reconocimiento permite estimar cada una de estas unidades, que son

enseguida reagrupadas para suministrar una serie de planos de explotación

correspondiente a condiciones económicas diferentes: el contenido estimado en

tonelaje total y ley media de estos perfiles son llevados a una curva: tonelaje-ley media

estimada que constituye el parametraje de reservas explotables dentro de las

condiciones económicas dadas. Esta curva sintetiza las posibilidades económicas del

proyecto y permite apreciar el interés dentro de un ambiente dado pero sobretodo

pone en evidencia el riesgo tomado por la explotación, mostrando la evolución de las

reservas explotables en caso de variación de las condiciones económicas.

Se constata por consecuencia que las decisiones importantes son tomadas sobre la

base de la estimación local, debido a ello siempre los mineros han buscado métodos

para una estimación local no sesgada ( es decir no conducen a una sobre estimación

o sub estimación sistemática ): habiendo constatado que los métodos tradicionales

suministran una sobre estimación de la calidad y subestimación de la cantidad, los

mineros tienen el habito de corregir los resultados con un "coeficiente de corrección "

empírico que permite aproximarse a resultados reales de la explotación.

Esta forma de trabajo es poco satisfactoria en el caso de un yacimiento enteramente

nuevo y conduce generalmente a un pesimismo exagerado, que conlleva a un

pesimismo excesivo o igualmente puede dar lugar a dejar un proyecto perfectamente

viable.

Page 7: Parte I II IIIgeoestadistica Curso Unsa

Teniendo en cuenta que actualmente los yacimientos puestos en explotación

corresponden a inversiones cada vez más voluminosas y donde los recursos naturales

de ley "elevada" se hacen difíciles de encontrar; no es posible hacer reposar

decisiones de tal importancia sobre la "suerte" de un método empírico: entonces el

momento ha llegado para plantear y resolver de una manera rigurosa estos problemas

primera parte serán examinados sucesivamente en la tercera parte y se encuentra

como la geoestadística permite de resolverlos de manera satisfactoria.

LAS ETAPAS DE UN PROYECTO MINERO

No existe una secuencia estándar, los problemas se presentan de manera muy

diferente

Para un gran "pórfido cuprífero" y para una pequeña veta de oro, por ejemplo. La

secuencia aquí descrita corresponde sin embargo, bastante bien a la historia de un

proyecto minero de elevado tonelaje y ley baja, tales como Toquepala, Cuajone,

Michiquillay, Cerro Verde, etc.

EL RECONOCIMIENTO GEOLÓGICO

A partir de indicios geológicos ( afloramientos, anomalías geoquímicas o magnéticas,

prolongamiento del yacimiento conocido) se selecciona una zona supuesta favorable.

Después por un número limitado de trabajos de reconocimiento ( sondajes, galerías,

trincheras) se busca de probar la existencia de la mineralización y de fijar sus límites.

Dentro de esta etapa la preocupación es sobre todo de reunir los elementos de juicio

de orden cualitativo: Hay o no mineral dentro de la concesión? Bajo qué forma

mineralógica se presenta?, cuál es su grado de alteración? Que elementos de orden

cuantitativo (superficie cubierta por los sondajes positivos, profundidad de la zona

mineralizada) permiten decidir pasar a la fase siguiente?

EL RECONOCIMIENTO SISTEMÁTICO A MALLA GRANDE

Una vez reconocido el conjunto muy general de la zona positiva con una red de

sondajes a gran malla, más o menos regular; se espera localizar más precisamente la

masa mineralizada y estimar el tonelaje total y la ley media. Si los resultados son

juzgados prometedores teniendo en cuenta la coyuntura económica, se decide

continuar el reconocimiento efectuado una campaña de malla más cerrada, sino el

proyecto es puesto en "salmuera" esperando un mejoramiento de las condiciones

económicas. Desde esta etapa se confronta los problemas que son bien conocidos a

saber: ¿cómo estimar el volumen mineralizado con la ayuda de sondajes positivos y

negativos?

¿Cómo calcular la ley media, con la ayuda de datos de naturaleza diferentes

(sondajes, pozos, trincheras) de localización irregular?

Page 8: Parte I II IIIgeoestadistica Curso Unsa

¿ Que confianza dar a los resultados ? los mineros y geólogos saben por experiencia

que la precisión de la estimación de la ley media, no es solamente función del número

de sondajes; depende a la vez de la disposición regular o irregular de los sondajes y

de la variabilidad propia de la ley. Clásicamente el geólogo caracteriza la calidad de la

estimación por una clasificación de las reservas estudiadas, clasificación establecida

en función de un cierto número de criterios cualitativos. Una inversión importante no es

considerada, cuando las reservas no son suficientemente conocidas, entonces una

Tales como:

- Definición del estimador local más preciso y calculo de su precisión.

- Diferenciación entre recursos in situ y reservas explotables.

- Revisión de la selectividad de tal o cual método de explotación. Disposición

oprima de sondajes para la estimación de volúmenes.

LA PROGRAMACIÓN DE LA EXPLOTACIÓN

Estando definidos el método de explotación y criterio de selección queda por resolver

la programación de la explotación de manera óptima, respetando ciertas condiciones,

tonelaje mínimo o máximo o suministrar a la planta por unidad de tiempo,

regularización de la calidad del mineral a la entrada de la planta constitución eventual

de stocks. Esta programación reposa evidentemente sobre el conocimiento local de la

cantidad y calidad del mineral a explotar, pero las condiciones de funcionamiento de la

planta son tales que es necesario poder realizar la regularidad de la producción sobre

volúmenes pequeños y distribuidos en cada punto de arranque de la explotación: el

método actualmente empleado es aquel de la simulación de la marcha de la

explotación, por un calculador numérico. Es evidente que el método tiene interés solo

si se reproduce fielmente la variabilidad real de las leyes a través del yacimiento

fabricando una simulación de leyes que posee las cualidades siguientes:

- Misma variabilidad en el espacio de las leyes reales, provenientes de los

sondajes de exploración.

- Misma distribución estadística a través del yacimiento.

- Mismos valores numéricos de las leyes reales en los puntos donde ellos son

conocidos (sondajes).

Entonces se sabe que la fabricación de tal simulación es posible si se tiene de

antemano y cuantificadas las nociones de variación espacial, estructura, tendencias,

etc. De la mineralización. Veremos más adelante que el formalismo de la

geoestadística permite definir un método simple y elegante de simulación satisfaciendo

las condiciones precedentes nominadas.

Page 9: Parte I II IIIgeoestadistica Curso Unsa

Capítulo II

ESTADÍSTICA DESCRIPTIVA DE DATOS

1. ANÁLISIS UNI VARIABLE

Los datos se presentan con mayor claridad cuando están organizados. Gran parte de

la estadística aplicada tiene que ver con la organización, presentación y resumen de la

data.

TABLAS DE FRECUENCIA E HISTOGRAMAS:

Una de las presentaciones más comunes de los datos es mediante el histograma. La

figura 2 representa el histograma para los datos que se muestran en la Fig. 1:

previamente se ha elaborado la tabla de frecuencias (tabla 1) que registra el número.

Figura 1: Ubicación de 100 muestras V (ppm)

No existe una regla general en cuanto al número óptimo de clases (L); sin embargo

existen técnicas que permiten determinar lo para n observaciones:

Sturges: L=1+3.32log (n)

Dixon and kronwell: L=10log (n)

Veltenan: L=2

Para el ejemplo, n=100, se obtiene 7.64, 20 y 20 respectivamente, se ha optado por

L=15 para trazar el histograma de la figura 2.

Page 10: Parte I II IIIgeoestadistica Curso Unsa

Class Number Percentage

0 ≤ V < 10 1 1

10 ≤ V < 20 1 1

20 ≤ V < 30 0 0

30 ≤ V < 40 0 0

40 ≤ V < 50 3 3

50 ≤ V < 60 2 2

60 ≤ V < 70 2 2

70 ≤ V < 80 13 13

80 ≤ V < 90 16 16

90 ≤ V < 100 11 11

100 ≤ V < 110 13 13

110 ≤ V < 120 17 17

120 ≤ V < 130 13 13

130 ≤ V < 140 4 4

140 ≤ V < 150 4 4

Tabla 1: frecuencia de V con anchos Figura 2: Histograma de V

de clase de 10ppm

FRECUENCIA ACUMULADA:

En estimación de reservas mineras es interesante observar la frecuencia acumulada

sobre un límite inferior (cut oft). La tabla 2 muestra la frecuencia acumulada para la

variable V; observamos que en lugar de registrar las muestras inferiores a cienos

cutoffs. El histograma de acumulado (figura 3) es una función creciente entre 0 y

100%.

Class Number Percentage

V < 10 1 1

V < 20 2 2

V < 30 2 2

V < 40 2 2

V < 50 5 5

V < 60 7 7

V < 70 9 9

V < 80 22 22

V < 90 33 33

V < 100 49 49

V < 110 62 62

V < 120 79 79

V < 130 92 92

V < 140 96 96

V < ∞ 100 100

Figura 2: histograma del acumulado de V

0

5

10

15

20

0 20 40 60 80 100 120 140

Fre

qu

en

cy (

%)

V (ppm)

0

20

40

60

80

100

120

10 30 50 70 90 110 130 ∞

Cu

mu

lati

ve

Freq

uen

cy (

%)

V (ppm)

Page 11: Parte I II IIIgeoestadistica Curso Unsa

DISTRIBUCIÓN NORMAL Y LOGNORMAL:

Las técnicas de inferencia estadística son más eficientes si la distribución de los datos

disponibles sigue una ley normal o gaussiana. Gran parte de los fenómenos naturales

suelen seguir la distribución de gauss que tiene la ventaja de ser ampliamente

conocida y de una descripción matemática concisa; de allí el interés en verificar si los

datos en estudio siguen una distribución normal.

Para datos "normalmente" distribuidos, la taza del histograma del acumulado, ploteado

en papel semilogarítmico, seguirá una linea recta. La figura 4 muestra el ploteo

correspondiente a la variable V:

Figura 4: test de normalidad de la variable V.

Obviamente, no siempre los datos brutos siguen una distribución normal. Para

este tipo de distribuciones asimétricas la distribución lognormal es una buena

alternativa. La lognormalidad de los valores brutos puede verificarse al trazarse el

histograma acumulado en papel logarítmico: La distribución lognormal sigue una linea

recta:

Figura 5: test lognormal de la variable V

La presencia de valores extremos alteran la tendencia general de los datos en estudio,

de allí la importancia de analizarlos y de verificar si no se trata de valores erróneos. El

análisis de distribución de datos .es también usado para determinar la presencia de

Page 12: Parte I II IIIgeoestadistica Curso Unsa

poblaciones múltiples (ejemplo, zonas geológicas diferenciadas por alteraciones o

tectonismo). De notarse una variación abrupta en la tendencia general, deberá

investigarse las causas de este cambio.

La normalidad o lognormalidad de una distribución no es garantía de una buena

estimación, tampoco son pasos indispensables en una inferencia estadística, no

obstante, son herramientas que pueden aportar elementos de juicio al análisis de un

conjunto de muestras.

MEDIA:

La media, m, es el promedio aritmético de los valores de las muestras:

En el ejemplo, la media de la variable V para n=100 es:

MEDIANA:

La mediana, M, es el valor de muestra central cuando éstos se encuentran dispuestos

en orden creciente: < <… La mediana es calculada por la expresión:

Si n es impar

M =

Si n es par

Tanto la media como la mediana son mediciones de posición del centro de la

distribución. La media es bastante sensible a los valores altos erráticos. Si, “por

ejemplo, la muestra del valor 145 ppm. de la variable V fuera cambiada a 1450 ppm, la

media se elevaría a 110.60 ppm. La mediana permanece insensible a los valores altos

erráticos, sólo depende de cuantos valores son superiores o inferiores a ella. La

mediana de la variable V es 100.50 ppm, ver figura 6.

MODA

Es el valor que ocurre con mayor frecuencia; la barra de mayor altura en un

histograma nos dará una idea de la posición de la moda. En el histograma de la

variable V observamos que la clase 110-120 ppm es la de mayor frecuencia; dentro de

esta clase, el valor 111 ppm. es la de mayor ocurrencia.

Page 13: Parte I II IIIgeoestadistica Curso Unsa

La moda es imprecisa cuando se trabaja con mediciones a varios decimales puesto

que el hecho de redondear hace que dos muestras cercanas en valor tiendan a

duplicarse (ej. 108.75 ppm y 108.81 ppm tomarán el valor de 109 si se decide por

omitir los decimales).

MÍNIMO:

Es el valor más pequeño entre los datos disponibles. En situaciones prácticas, el valor

mínimo es el límite inferior de detección del equipo utilizado, en estos casos el valor es

cero o una cantidad arbitraria pequeña. Para algunos procesos o subrutinas de

cálculo, el cero no es una cantidad manejable por lo que se reemplaza por una

cantidad cercana de cero. En el ejemplo, el valor mínimo de V es 0 ppm.

MÁXIMO:

Es el mayor valor que puede tomar una variable. El valor máximo de V es 145 ppm. CUARTIL SUPERIOR E INFERIOR:

De la misma manera en que la mediana divide los datos en dos mitades, los cuartiles los dividen en cuartas partes. En el ejemplo, el cuartil inferior Q1= 81.25 ppm y el cuartil superior Q3= 116.25 ppm.

Figura 6: lectura de la mediana y de los cuartiles de la variable V. VARIANZA:

Es uno de los principales estadígrafos que cuantifica el grado de variabilidad de las muestras. Está determinada por la relación:

Page 14: Parte I II IIIgeoestadistica Curso Unsa

Puesto que la varianza es el promedio de las diferencias cuadráticas entre los valores y su media, siempre será positiva y altamente sensible a los valores erráticos. La variable V tiene 688 ppm2 de varianza. DESVIACIÓN ESTANDARD: Es la raíz cuadrada de la varianza.

A diferencia de la varianza, la desviación estandard ( ) conserva el mismo orden de magnitud. La desviación estandard de la variable V es 26.23 ppm. COEFICIENTE DE VARIACIÓN: Está definido por la relación

El coeficiente de variación de Ja variable V es 0.269. El coeficiente de variación de un indicio del grado de dificultad en las inferencias estadísticas: un coeficiente de variación mayor de 1 indica la presencia de valores erráticos disminuyendo la calidad de! estimador. Otro uso no menos importante, del coeficiente de variación es la de permitir la comparación del grado de variabilidad entre variables cuyas magnitudes son sensiblemente diferentes (ejemplo, Cu y Fe). RANGO INTERCUARTIL: El rango intercuartil (IOR) es la diferencia entre cuartiles superior e inferior:

A diferencia de la varianza o de la desviación estandard, el rango intercuartil no toma a la media como centro de distribución no siendo por consiguiente afectado por los valores erráticos. El rango intercuartil de la variable V es 35.50 ppm.

Page 15: Parte I II IIIgeoestadistica Curso Unsa

DETECCION DE VALORES EXTREMOS (OUTLIERS): Se define como valores extremos aquellas observaciones que se muestran inconsistentes con el resto de los valores de las muestras. Un valor extremo puede ser el resultado de un error de medición, de un error de metodología de muestreo o puede ser propio de la variabilidad inherente al fenómeno. El error de medición es causado por inadecuada medición o mal registro de valores mientras que los errores de metodología son causadas por un muestreo sesgado o una definición inadecuada de la población. Los outliers producto de la variabilidad de un fenómeno son raros pero no imposibles de presentarse. Los outliers tienen un gran impacto en las inferencias estadísticas y antes de eliminarlas es preciso evaluarlas porque pueden ser fuente de importante información (caso típico de prospección geoquímica). Los criterios de detección de outliers que a continuación se detallan deben ser tomados con bastante prudencia; siempre es mejor remuestrear o volver a analizar una muestra antes de eliminarla: Para n muestras normalmente distribuidas (x1,x2,………xn-V,x.Vn) de media rnx y de

varianza 2, el 99.3% de los valores estandarizados estarán comprendidos

entre el valor crítico + 2.7. Las muestras alejadas de este rango pueden considerarse potencialmente outliers. Si el número de muestras es pequeño (n<20), una muestra xi es potencialmente outlier si x,<(0, - 1.5 IOR ) o x,>(03 + 1.5 IOR).

Page 16: Parte I II IIIgeoestadistica Curso Unsa

COEFICIENTE SKEWNESS: El coeficiente skewness (y) tiene por finalidad describir la forma de distribución de los datos en estudio y está definido por la ecuación:

La potencia al cubo indica que y es mucho mas sensible que la media o la varianza a los valores erráticos. A menudo no se utiliza la magnitud de y sino solamente su signo para describir la simetría. Si y es positivo, indica que el histograma tendrá una cola extendida hacia la derecha implicando que la mediana es inferior a la media, en datos geoquímicos es usual obtener un o positivo cuando se trata del elemento menor. Si la cola del histograma es hacia la izquierda, y será negativa implicando que la mediana. sea mayor que la media, es el caso típico de concentraciones de elementos mayores, para y cercana de cero, el histograma será aproximadamente simétrica y la mediana estará cercana a la media. La figura 6 muestra algunos ejemplos típicos del coeficiente de skewness. El histograma de la V tiene un coeficiente de skewness igual a -.779. Su cercanía de cero nos indica una ligera simetría.

Figura 7: Ejemplos de distribuciones asimétricas comparadas con la distribución normal, y: índice de skewness, &: Índice de kurtosis.

Page 17: Parte I II IIIgeoestadistica Curso Unsa

PARTE III

LA VARIABLE REGIONALIZADA Y SU REPRESENTACIÓN 1.-PRESENTACIÓN DE LAS VARIABLES REGIÓNALIZADAS a) Un problema fundamental que se encuentra en todas las ciencias es el de la incertidumbre que rodea los fenómenos estudiados. Esta incertidumbre tiene dos causas principales: la complejidad de los fenómenos, que a menudo dependen de un número muy

grande de factores imposibles de evaluar con precisión, no puede ser descrita por las interpretaciones y los modelos simplificados que la ciencia utiliza.

de un punto de vista cuantitativo, el costo de la información y la imposibilidad

práctica de un conocimiento exhaustivo obliga a realizar estimaciones, lo que implica un cierto margen de error; por ejemplo, para hacer la cartografía de fondos submarinos se miden las profundidades para determinados perfiles y se realiza interpolaciones.

El primer problema mencionado es específico de cada ciencia no lo tomaremos aquí, sino muy parcialmente. En cambio el segundo es general: la estimación es una operación que se realiza en todos los campos de la actividad humana. En si mismo, una estimación no tiene mucho valor si no se puede determinar su precisión, o sea el orden de magnitud del error posible, no es indiferente económicamente saber si un yacimiento tiene reservas de cincuenta millones de toneladas de mineral con una precisión de 10 % o de 100 %. b) Para resolver este tipo de problemas estadísticos existen varias técnicas: -La estadística clásica, de uso muy antiguo y bien desarrollado necesita para

una aplicación correcta la hipótesis muy fuerte de independencia entre las variables, lo que sucede muy pocas veces en los fenómenos naturales. En consecuencia, no toma en cuenta la disposición espacial de los datos disponibles: es un limite bastante serio a su empleo ( en cartografía por ejemplo).

-Para describir las relaciones espaciales que existen entre las variables se ha desarrollado la técnica del " Trend Surface Análisis " que consiste en ajustar polinomios a los fenómenos estudiados, mediante el método de mínimos cuadrados o por series de Fourier; esta técnica tiene una utilidad incontestable, pero también limitaciones serias ( arbitrariedad del polinomio escogido, imposibilidad de calcular el error de estimación cometido ).

-Después de la segunda guerra mundial y simultáneamente en los campos de

Page 18: Parte I II IIIgeoestadistica Curso Unsa

la Minería ( Krige, Matheron ) y de la estimación forestal ( Matern ) se ha formado una teoría global que busca dar una representación unitaria de toda clase de problemas; ella ha alcanzado su máximo grado de desarrollo con Matheron y el Centro de Morfología Matemática de la Escuela de minas de París don de ha recibido el nombre de Teoría de las variables regionalizadas.

2.- NOCIÓN DE LA VARIABLE REGIONALIZADA a) Cualquier fenómeno cuantificable puede ser caracterizado por ciertas magnitudes o variables, que fluctúan en el espacio (o el tiempo). A estas variables se da el nombre de variables regionalizadas, nombre que no implica ningún modelo ni ninguna hipótesis. Citemos como ejemplos de variables regionalizadas (V.R.) la ley ( V.R. en el espacio a 3 dimensiones), la potencia de una capa mineralizada (V.R. a 2 dimensiones), el precio de un metal con especto al tiempo ( V.R. a 1 dimensión ) b) Del punto de vista matemático, una variable regionalizada se representa por una función f(x) del espacio o del tiempo. Esta función es muy compleja, generalmente desconocida, salvo en algunos puntos particulares ( Sondajes ). Sin embargo presentan 2 características esenciales: 1.- Una gran irregularidad local: una curva de leyes presenta, por ejemplo, numerosas fluctuaciones (" dientes de sierra "). 2.- Una cierta estructuración a escala mas grande: en casi todos los yacimientos se puede distinguir zonas ricas y zonas pobres, el valor de f(x) dependiendo de la implantación x. Citemos también los fenómenos de enriquecimiento o empobrecimiento progresivo. c) Para el estudio de las Variables Regionalizadas se utilizan:

- Los métodos transitivos que mediante la representación de valores numéricos permiten obtener una realidad física. Estos métodos no utilizan interpretaciones probabilísticas. - Los métodos intrínsecos que postulan la homogeneidad del fenómeno en el espacio y que se formulan en términos probabilísticos. Estudiaremos primero los métodos intrínsecos mas importantes, dejando para un curso ulterior los métodos transitivos.

Page 19: Parte I II IIIgeoestadistica Curso Unsa

.3.- REVISIONES ELEMENTALES DE PROBABILIDADES Variable Aleatoria: La noción fundamental de la teoría de las probabilidades es aquella de Variable Aleatoria (V.A.).- Intuitivamente una variable aleatoria es una variable que puede tomar un cierto número de valores según una cierta ley de probabilidad. Se distingue generalmente 2 tipos de variables aleatorias: - V.A. discreta: Puede tomar solamente un numero finito de valores. Ej: el lanzamiento de un dado; el resultado obtenido se anota N. N es una V.A. que no puede tomar mas que los valores de 1 hasta 6. Además P( N = n ) = Pn = 1/6 , si el dado no esta cargado. - V.A. continua: puede tomar un numero infinito de valores, la ley de probabilidad f(x)= P ( X = x ) siendo una función continua. Por ejemplo, en un punto dado, la ley de oro puede ser considerada como una V.A. continua que puede tomar cualquier valor entre 0 y 100 %. Se llama realización de la variable aleatoria cualquier valor tomado por aquella. (Por ejemplo: N = 5 en el caso del lanzamiento de un dado. T = 63,6 % en el caso de una ley de oro).

a) Algunas definiciones esenciales:

1.- Función de repartición de una V. A.. x.. Es lo que corresponde a la noción de histograma acumulado, es decir, la probabilidad de que una V.A.X. tome un valor inferior o igual a x. Esta función se representa por F(x). Por una V.A. discreta se tiene: F(x) = P( N < x) = Por una V.A. continua: 2) Esperanza matemática de una V.A..x. Es sencillamente la generalización de la noción de media ponderada por la frecuencia de ocurrencia.

Por una VA. Discreta: E {N}= m =

Por una VA. Continua: E {N}= m =

Page 20: Parte I II IIIgeoestadistica Curso Unsa

3) Varianza

Es una medida de las desviaciones de la variable aleatoria x con respecto a su media.

En realidad, se toma la media del cuadrado de las desviaciones respecto a la media.

V.A discreta: J2 = D2 (N) =E {(N-m)2} = -( )2

V.A. continua: J2 = D2 (X) =E {(X-m)2} = -

Se tiene la relación importante:

D2(X) = E(X)2-(E{X})2

La desviación estándar es igual a la raíz cuadrada de la varianza.

b) Variables aleatorias vectoriales – independencia

1) Se llama variable aleatoria vectorial con n componentes a una familia de n

variables aleatorias (X1, X2,.... Xn)

Se puede definir entonces la función de distribución de una variable aleatoria vectorial

(VAV) por la expresión:

F (X, X2……..X) = P {X, < X2 < X2...., Xn < X„}

Si todos los componentes son V.A. discretas, se tiene:

F (Xi, X2……..Xn) = n, < x1 m2 < x2 …………m,, < x„ Pmm

Con Pm1 m2……..mn = P {x1 = m1, x2 = m2.... x„ = m„}

Así mismo, si todas son V.A. continúas:

F(X1,....Xn)= (u1,u2,...un)du1du2dun

Citemos como ejemplo de V A V las leyes de plomo y zinc en un punto.

2) Dos variables aleatorias x1, x2 se dicen independientes si la función de

distribución del par es igual al producto de las funciones de distribución de ambas

variables:

F(x1,x2) = F(x1)F(x2)

Page 21: Parte I II IIIgeoestadistica Curso Unsa

Esta definición es la traducción precisa del hecho que el conocimiento de una V.A. no

nos proporciona ninguna información sobre la segunda.

Es lógico entonces buscar una herramienta que permita medir la relación entre 2 V.A.

no independientes; esta será la covarianza.

.4. LA REPRESENTACIÓN DE UNA V.R. POR UNA F.A.

a) Si se toma una función aleatoria por modelo de una variable regionalizada, se describe bien, las dos características esenciales de la variable regionalizada.

1) En un punto dado, la F.A. se reduce a una V.A. es decir una magnitud muy fluctuante que traduce el aspecto local desordenado de la V.R.

2) Entre dos puntos x y x + h, las V.A. Y (x) e Y(x + h), elementos de la F.A. están relacionados entre si, lo que traduce la existencia de una cierta estructura de la V.R.

El modelo estadístico clásico de las V.A. independientes no conviene, porque no considera el aspecto estructural de la V.R. Vemos un ejemplo muy sencillo: Supongamos que medidas hechas a intervalos regulares a lo largo de una galería hayan dado los dos resultados siguientes: • 1-2-3-4-5-6-5-4-3-2-1 (a) • 1-4-3-6-1-5-4-3-2-5-2 (b) En el caso (a) existe claramente una estructuración muy fuerte, mientras que el caso (b) parece mucho más caótico. Sin embargo, un análisis estadístico nos proporcionaría el mismo histograma, las mismas medias y varianzas. No tomaría en cuenta la estructura, es decir la repartición espacial de las leyes. b) Hay sin embargo un problema difícil: estimar la F.A. que sirve de modelo para nuestra V.R., para eso no disponemos de más que una realización de la F.A. (los valores conocidos de las leyes). Esta estimación es imposible sin hipótesis: en efecto, ¿cómo reconocer si un dado está defectuoso o no a partir de una sola tirada, 5 por ejemplo? No pudiendo, como en el caso de un dado, efectuar varias tiradas (¡Existe un único yacimiento!) tendremos que hacer una hipótesis de estacionaridad local de la F.A. que viene a corresponder en el hecho a una hipótesis de homogeneidad local del yacimiento.

Page 22: Parte I II IIIgeoestadistica Curso Unsa

5. LA HIPÓTESIS ESTACIONARIA a) La estacionaridad es una propiedad de algunas funciones aleatorias cuya ley de distribución no varía con una traslación en el espacio. Esto quiere decir que si X1……xn son puntos arbitrarios del yacimiento que permiten definir una F.A. mediante una ley de distribución F (x1…….x,,), al trasladarlos en el espacio en una distancia h, los nuevos puntos encontrados x1 + h, x2 + h,….Xn + h permiten definir otra F.A. Y (x + h) cuya ley de distribución F (x1 + h,……Xn + h) es igual a la anterior el fenómeno presenta cierto carácter permanente o estacionario. Esta propiedad permite establecer. E {Y(x)} = E {Y (x + h)} = Cte = m E {Y(x) - m2} = O2(x) = E {(Y (x+h) - m)2}= O2 (x + h) = Cte = O2

b) La función covarianza definida anteriormente permite correlacionarlos infinitos valores de una F.A. Y(x), tomando de dos en dos aquellos que se encuentran separados por una distancia h, de tal modo que, bajo la hipótesis estacionaria.

K (x, x+h) = K (h) = E({(Y(x) - m(x)} {Y (x+h)- m(x+h)}] = E {(x) Y((x+h)}- m (x) m (x +h)) Para el caso en que las variables son independientes, tenemos que: E {Y (x) Y (x+h) = m(x) m (x+h) Por lo tanto, en este caso, K (h) = 0

c) Por otra parte, la función varianza como lo hemos señalado permite medir la dispersión que existe entre cada valor de Y (x) y el valor medio de esta función. Para su cálculo, bajo la hipótesis estacionaria se hace h = 0 en la función covarianza:

K (x, x) = K (0) = E {(Y (x) - m (x) (Y (x+h) - m (x+h)}

d) En general, se podrán siempre considerar variables centradas, es decir que m (x) y m (x+h) pueden suponerse nulas, de manera que:

Covarianza - K(h) = E {Y (x) Y (x+h)} Varianza = K(0) = E {(Y (x))2}

Page 23: Parte I II IIIgeoestadistica Curso Unsa

Por lo visto en estos últimos párrafos se desprende que para una F.A. estacionaria Y(x)admita una función de covarianza K (h) es preciso y necesario que ella admita una varianza finita K(0).