You are on page 1of 91

AGRADECIMIENTOS

COLEGIO DE POSTGRADUADOS
INSTITUCION DE ENSEÑANZA E INVESTIGACION
EN CIENCIAS AGRICOLAS
INSTITUTO DE SOCIOECONOMIA, ESTADISTICA E INFORMATICA
PROGRAMA EN ESTADISTICA



OMAR MURO OROZCO

T E S I S
PRESENTADA COMO REQUISITO PARCIAL PARA
OBTENER EL GRADO DE:

MAESTRO EN CIENCIAS

MONTECILLO, TEXCOCO, EDO. DE MEXICO


2003

USO DE LA SIMULACIÓN PARA LA
COMPARACIÓN Y SELECCIÓN DE
ÍNDICES DE DIVERSIDAD

CASO: ÍNDICE DE SHANNON H´ vs ÍNDICE α DE FISHER


ii
AGRADECIMIENTO


Agradezco al Consejo Nacional de Ciencia y Tecnología (CONACYT) por el apoyo
brindado para la realización de mis estudios de Maestría en Estadística, gracias a ello logré
esta meta tan importante en mi vida.

Al Colegio de Postgraduados y en particular al Programa en Estadística del Instituto de
Socioeconomía, Estadística e Informática por brindarme la oportunidad de obtener la
formación como Maestro en Estadística.

Al Dr. Humberto Vaquera Huerta por darme la oportunidad de trabajar a su lado la presente
investigación, por su valiosa amistad y por enseñarme que alcanzar una meta valiosa cuesta
trabajo pero nunca hay que darse por vencido.

Al Dr. José A. Villaseñor Álva por sus valiosos comentarios y sugerencias al presente
trabajo de investigación así como por sus importantes sesiones de clases durante mi
estancia en el Programa de Estadística.

Al Dr. Lauro López Mata por sus valiosas aportaciones e interés en el presente trabajo, y
por apoyo en todo el proceso de esta investigación.

Al Dr. Eduardo Gutiérrez González por su apoyo y comentarios al presente trabajo de
investigación y por su valiosa amistad.

Al M.C Javier Suárez Espinoza por sus comentarios durante el de desarrollo de este trabajo
y por su gran amistad.

Al M.C Gustavo Cháirez por su valiosa amistad e importantes comentarios que colaboraron
en mi formación como estadístico.

A todos mis compañeros de la generación 2002-2003 y 2003-2004 del Programa en
Estadística así como al M.C Francisco Cobos por brindarme su apoyo, amistad y a quienes
les deseo el mayor de los éxitos en sus vidas profesionales.

A todos los paisanos de la Comarca Lagunera por su cálida amistad y por su apoyo en todo
momento.

A todo el cuerpo de secretarias y personal del laboratorio de cómputo del ISEI,
especialmente a Sonia, Emma y Gris por su sincera amistad y por su excelente
disponibilidad en siempre.





iii

DEDICATORIA

A Dios por permitirme formar parte de este maravilloso mundo y tener la
oportunidad de alcanzar las metas deseadas.


A mis padres José Muro López y Angélica Orozco Montoya por sus
incansables sacrificios y esfuerzos para hacer de mí un hombre de bien,
por sus valiosas enseñanzas y por su incansable paciencia en todo
momento.


A mis hermanos Chuy, José, Cesar y Anabel así como a mi abuela por su
cariño, por su confianza y los grandes momentos que hemos pasado
juntos.


A mis tías Angelina, Silvia, Lolis, Licha, Chela, Irma, Mono así como a todos
mis primos y primas por su gran amistad y apoyo en toda ocasión.





Saber lo que uno sabe y saber lo que uno sabe que no sabe es la característica de uno que sabe.
Confucio (Kíun Fu-Tsé).




I
ÍNDICE
ÍNDICE DE FIGURAS.................................................................................................................................III
ÍNDICE DE CUADROS ..................................................................................................................................V
RESUMEN...................................................................................................................................................... VI
ABSTRACT.................................................................................................................................................. VII
I. INTRODUCCIÓN........................................................................................................................................ 1
OBJETIVOS..................................................................................................................................................... 2
GENERAL .................................................................................................................................................... 2
PARTICULARES ......................................................................................................................................... 2
II. MARCO TEÓRICO.................................................................................................................................... 2
2.1 CONCEPTOS FUNDAMENTALES DE DIVERSIDAD DE ESPECIES.............................................. 2
2.2 MEDIDAS DE DIVERSIDAD DE ESPECIES ....................................................................................... 3
2.3 LOS MÉTODOS BOOTSTRAP Y MONTE CARLO............................................................................. 6
2.4 COMPARACIÓN DE COMUNIDADES ECOLÓGICAS CON BASE EN ÍNDICES DE
DIVERSIDAD............................................................................................................................................... 7
2.4.1 PRUEBA DE KRUSKAL Y WALLIS PARA MAS DE DOS MUESTRAS INDEPENDIENTES
UTILIZANDO ÍNDICES DE DIVERSIDAD............................................................................................. 10
2.4.2 IMPLEMENTACIÓN DE LA PRUEBA DE KRUSKAL Y WALLIS PARA INDICES DE
DIVERSIDAD UTILIZANDO BOOTSTRAP............................................................................................ 12
2.5 INTERVALOS DE CONFIANZA PARA H’ Y α................................................................................. 13
2.6 ESTIMACIÓN DE LA VARIABILIDAD DE ÍNDICES DE DIVERSIDAD UTILIZANDO
SIMULACIÓN (MONTE CARLO) ............................................................................................................ 15
III. METODOLOGÍA.................................................................................................................................... 16
IV. RESULTADOS Y DISCUSIÓN.............................................................................................................. 18
4.1 DISTRIBUCIÓN DEL ÍNDICE DE SHANNON (H’) UTILIZANDO BOOTSTRAP.......................... 18
4.2 DISTRIBUCIÓN DEL ÍNDICE DE SHANNON (H’) UTILIZANDO MONTE CARLO .................... 21
4.3 OBSERVACIONES GENERALES SOBRE LA DISTRIBUCIÓN DEL ÍNDICE DE SHANNON H’ 25
4.4 DISTRIBUCIÓN DEL ÍNDICE α DE FISHER MEDIANTE BOOTSTRAP ....................................... 26
4.5 DISTRIBUCIÓN DEL ÍNDICE α DE FISHER UTILIZANDO MONTE CARLO .............................. 29
4.6 COEFICIENTE DE VARIACIÓN......................................................................................................... 33


II
V. IMPLEMETACIÓN DE LOS RESULTADOS OBTENIDOS PARA MUESTRAS ALEATORIAS
EN MUESTRAS DE DATOS REALES PROVENIENTES DE COMUNIDADES SELVÁTICAS....... 37
5.1 DISTRIBUCIÓN DE ÍNDICES DE DIVERSIDAD.............................................................................. 37
5.2 COMPARACIÓN DE COMUNIDADES ECOLÓGICAS CON BASE EN LOS ÍNDICES DE
DIVERSIDAD DE SHANNON Y FISHER CON DATOS REALES ......................................................... 41
5.3 ESTIMACIÓN DE LA VARIABILIDAD DE ÍNDICES DE DIVERSIDAD PARA DATOS REALES
..................................................................................................................................................................... 43
5.4 INTERVALOS DE CONFIANZA......................................................................................................... 43
VI. CONCLUSIONES Y RECOMENDACIONES..................................................................................... 44
VII. BIBLIOGRAFÍA.................................................................................................................................... 47
VIII. APÉNDICES ......................................................................................................................................... 51
A: PROGRAMAS EN S-PLUS 2000........................................................................................................... 51
B: TABLA................................................................................................................................................... 74
C: DATOS REALES PARA LAS TRES PARCELAS TRABAJADAS...................................................... 76
D: MÉTODO DE NEWTON-RAPHSON................................................................................................... 80




III
ÍNDICE DE FIGURAS

Figura 1. Muestra Poisson con S=10 y N=211..................................................................... 18
Figura 2. Muestra Poisson con S=22 y N=436..................................................................... 19
Figura 3. Muestras lognormal con S=10 y N=32 ................................................................. 19
Figura 4. Muestra lognormal con S= 22 y N=101................................................................ 20
Figura 5. Muestra Binomial negativa con S=10 y N=78...................................................... 20
Figura 7. Muestra Poisson con S=5 y N=105....................................................................... 22
Figura 8. Muestra Poisson con S=22 y N=445..................................................................... 22
Figura 9. Muestra lognormal con S=10 y N=23.................................................................. 23
Figura 10. Muestra lognormal con S=25 y N=85................................................................. 23
Figura 12. Muestra binomial negativa con S=30 y N=1240 ................................................ 24
Figura 13. Muestra Poisson con S=10 y N=85..................................................................... 26
Figura 14. Muestra Poisson con S=10 y N=581................................................................... 27
Figura 15. Muestra lognormal con S=10 y N=170............................................................... 27
Figura 16. Muestra lognormal con S=10 y N=1580............................................................. 28
Figura 17. Muestra binomial negativa con S=80 y N=406 .................................................. 28
Figura 18. Muestra binomial negativa con S=18 y N=1875 ................................................ 29
Figura 19. Muestra Poisson con S=6 y N=65....................................................................... 30
Figura 20. Muestra Poisson con S=6 y N=1192................................................................... 30
Figura 21. Muestra lognormal con S=60 y N=532............................................................... 31
Figura 22. Muestra lognormal con S=15 y N=2365............................................................. 31
Figura 23. Muestra binomial negativa con S=80 y N=411 .................................................. 32
Figura 24. Muestra binomial negativa con S=10 y N=507 .................................................. 32
Figura 25. Muestra Poisson con S = 20 y N = 131............................................................... 33
Figura 26. Muestra Poisson con S = 40 y N = 3544............................................................. 34
Figura 27. Muestra lognormal con S= 10 y N=240.............................................................. 34
Figura 28. Muestra lognormal con S= 40 y N=1030............................................................ 35
Figura 29. Muestra Binomial negativa con S= 10 y N=151................................................. 35
Figura 30. Muestra Binomial negativa con S= 30 y N=1140............................................... 36
Figura 31. Datos reales de la parcela 1................................................................................. 37


IV
Figura 32. Datos reales de la parcela 2................................................................................. 38
Figura 33. Datos reales de la parcela 3................................................................................. 38
Figura 34. Datos reales de la parcela 1................................................................................. 39
Figura 35. Datos reales de la parcela 2................................................................................. 40
Figura 36. Datos reales de la parcela 3................................................................................. 40



V
ÍNDICE DE CUADROS

Cuadro 1. Coeficientes de variación en porcentaje para las tres parcelas ............................ 43
Cuadro 2. Intervalos de confianza con los datos reales de las tres parcelas......................... 44



VI
RESUMEN

En este trabajo de se comparan estadísticamente dos de los índices de diversidad más
utilizados; el índice de Shannon H’ y el índice α de Fisher. Se investiga en una primera
etapa el comportamiento distribucional de cada índice haciendo uso de herramientas de
simulación como Monte Carlo y remuestreo. Posteriormente se propone el uso de la prueba
Kruskal y Wallis en combinación con la técnica de remuestreo para la comparación de dos
o más poblaciones basados en los índices de diversidad mencionados. Además se utiliza el
coeficiente variación como medida de comparación de los índices de diversidad y
finalmente se proponen intervalos de confianza para cada índice de diversidad. Los
resultados muestran que la distribución del índice de Shannon alcanza la normalidad
cuando se tiene un mínimo de 22 especies en la muestra, sin importar su tamaño. Así
mismo se detectó que el índice α de Fisher alcanza la normalidad con base en el número de
individuos que se encuentran en la muestra, influyendo en menor grado el número de
especies. También se concluye que la prueba de Kruskal y Wallis es una buena alternativa
para comparar comunidades vegetales con base en muestras aleatorias independientes y no
se conoce la distribución de probabilidades de los índices de diversidad utilizado.
Finalmente se observó que el coeficiente de variación es mayor para el índice de Shannon
que para el índice Fisher. Resultados similares se obtuvieron cuando se hizo la aplicación
de los índices bajo estudio a datos reales provenientes de comunidades selváticas de
Veracruz, México.

Palabras clave: Índice de Shannon, Índice de Fisher, coeficiente de variación, remuestreo,
Monte Carlo, índices de diversidad









VII
ABSTRACT

In this work two of the most used indices of diversity are compared statistically, they are
the Shannon index H’ and the Fisher α index. The distribucional behavior of them is
investigated in the first stage by the use of simulation tools (Bootstrap and Monte Carlo).
The nonparametric Kruskal and Wallis test in combination with the bootstrap technique are
proposed for the comparison of two or more populations based on diversity indices of
different nature. In addition the variation coefficient is used as a measure for the selection
of a diversity index and finally confidence intervals were constructed by using S-Plus 2000
program. The results show that the distribution of the Shannon’s index reaches normality
when a minimum of 22 species appear in the sample, without concerning its size. Also it
was detected that the Fisher’s α index reaches the normality as a function of the sample
size. It is concluded that the test of Kruskal and Wallis is a good tool for comparing
ecological populations on the basis of random samples when the probability distribution of
the used indices is unknown. Finally it was observed that the variation coefficient for the
Shannon’s index is greater than Fisher’s index in the analyzed random samples. The same
results were obtained when this methodology was applied to real data coming from forestry
communities.

Key words: Shannon index, Fisher index, variation coefficient, bootstrap, Monte Carlo,
diversity indices


1
I. INTRODUCCIÓN

El estudio de la diversidad de las especies es un tema central en ecología de comunidades,
así como su estimación, variación y conceptualización. Los estimadores de la diversidad de
especies constituyen un reto permanente para los ecólogos ya que la selección de un índice
de diversidad apropiado para medirla dependerá del tipo de comunidad que se está
analizando.
El primer índice de diversidad de especies fue propuesto por Fisher (1943), este índice fue
en un principio utilizado en el área de ecología de insectos. En el año de 1949 surge el
índice de Shannon, desarrollado este en un inicio en el área de la teoría de la información,
posteriormente Margalef (1957) introduce este índice en el campo de la ecología.
Considerando estas condiciones, resulta de interés estudiar mediante algunos elementos de
la inferencia estadística así como de algunos procedimientos de la simulación, el
desempeño de estos dos índices de diversidad ampliamente usados en ecología.
A menudo cuando se encuentra el valor de uno o más índices de diversidad para ciertas
muestras de comunidades, se tiene interés en decidir si éstas son o no estadísticamente
diferentes. Para ello se hace uso de la inferencia estadística paramétrica dado que en
algunos casos se conoce la distribución probabilística de los índices, sin embargo, no
siempre las distribuciones son conocidas por lo que la estadística paramétrica no aplica.
Cuando esto ocurre, una propuesta alternativa que resuelve este problema es el uso de la
estadística no paramétrica, específicamente la prueba de Kruskal y Wallis en combinación
con técnicas de simulación como el método Monte Carlo y el método de remuestreo (sin
remplazo) “Bootstrap”.







2
OBJETIVOS
GENERAL
Realizar un estudio comparativo usando simulación (Bootstrap y Monte Carlo) para
determinar las propiedades estadísticas que tienen los índices de diversidad de especies H’
de Shannon y α de Fisher, así como investigar la distribución de probabilidades de estos.

PARTICULARES
• Utilizando la distribución de H’ y de α estimada mediante simulación, proponer
intervalos de confianza para los valores esperados de estos.
• Proponer un criterio no paramétrico de comparación estadística entre dos o más
muestras de comunidades ecológicas, con base en estos dos índices de diversidad.
• Utilizar el coeficiente de variación como criterio para seleccionar índices de diversidad
• Evaluar los resultados utilizando una base de datos real

II. MARCO TEÓRICO

2.1 CONCEPTOS FUNDAMENTALES DE DIVERSIDAD DE ESPECIES

RIQUEZA DE ESPECIES

Es el concepto más antiguo y más simple, no es más que el número de especies en la
comunidad, el problema es que a menudo resulta imposible obtener el total de las especies
en una comunidad natural. Este concepto fue propuesto por McIntosh (1967).

UNIFORMIDAD O EQUIDAD DE ESPECIES

Este concepto fue propuesto por Lloyd y Ghlardi (1964), y es simplemente que tan
abundantes son las especies en la comunidad. Una uniformidad alta, la cual ocurre cuando
las especies son iguales o teóricamente igual en abundancia, corresponde a una diversidad
alta, Krebs (1999).


3
ABUNDANCIA

Se refiere al número de individuos presentes por unidad de superficie. Generalmente la
abundancia se refiere a una estimación del número de individuos de cada especie presente,
expresada en términos relativos, así se habla de especies raras, escasas, frecuentes
abundantes, etc. Graciano (2001).

DIVERSIDAD DE ESPECIES

La diversidad de especies es un atributo de las comunidades medido por la heterogeneidad
y la uniformidad de estas, Peet (1974). La diversidad se compone de dos elementos; el
primero es la variación de especies y el segundo es la abundancia relativa de estas,
Magurran (1988).

La diversidad puede medirse registrando el número de especies, describiendo su
abundancia relativa o usando una medida que combine las dos componentes.

2.2 MEDIDAS DE DIVERSIDAD DE ESPECIES

Las medidas de diversidad de especies pueden dividirse en tres categorías principales.
Primeramente los índices de riqueza de especies; estos índices son esencialmente una
medida del número de especies en una unidad de muestreo definida. Otra categoría la
constituyen los modelos de abundancia de especies, los cuales describen la distribución de
su abundancia (barra rota, serie geométrica, serie logarítmica y normal logarítmica).
Finalmente la abundancia proporcional de especies, como los índices de Shannon y
Simpson, que pretenden tomar en cuenta la riqueza y la uniformidad en una expresión
sencilla, Magurran (1988).






4
2.2.1 ÍNDICE DE SHANNON (H’)

Una de las medidas de diversidad utilizadas con mayor frecuencia es el índice de Shannon
basado en la teoría de la información. Su ecuación fue derivada por Claude E. Shannon en
1949 y por Norber Wiener paralelamente. Este índice está basado en la racionalidad de la
diversidad, o en la información, que en un sistema natural puede ser medida en una manera
similar a la información contenida en un mensaje o código.

El índice de Shannon asume que los individuos son muestreados aleatoriamente de una
población “infinitamente grande” (Pielou, 1975). El índice también asume que todas las
especies están representadas en la muestra, lo cual no necesariamente es cierto.
La ecuación para su cálculo es:


Donde:
p
i
= La proporción de individuos encontrados en la i-ésima especie
S = Número total de especies en la muestra o comunidad

El valor de H’ de la base logarítmica utilizada para su cálculo. Inicialmente se utilizó el
log
2
ya que en la teoría de la información se manejan dígitos binarios y bits.

En una muestra el valor verdadero de p
i
es desconocido pero es estimado como n
i
/ N,
siendo n
i
en número de individuos de la especie i y N el número total de individuos en la
muestra, este es el estimador de máxima verosimilitud de p
i
(Pielou, 1969). Estrictamente
hablando, el estimar a p
i
en una muestra como n
i
/ N produce un estimador sesgado de H’.

El valor de H’ usualmente se encuentra entre 1.5 y 3.5 y rara vez sobrepasa 4.5 (Margalef
1972) citado por Magurran (1988). May (1975) citado por Magurran (1988) demostró que
) 1 . 2 . 2 ( log '
1

=
− =
S
i
i i
p p H


5
si los datos provienen de una distribución lognormal, se requieren 10
5
especies para
producir un valor de H’>5.

2.2.2 ÍNDICE α DE FISHER

El índice de diversidad α de Fisher fue propuesto por primera vez por Fisher (1943), se
encuentra algunas veces de la siguiente forma:
Donde:
S es el número de especies en la muestra
N es el número de individuos en la muestra
α es el índice de diversidad de Fisher

La ecuación (2.2.2) se resuelve de manera iterativa para α, aunque muy frecuentemente se
utiliza la expresión:

Para llegar a la ecuación (2.2.3) basta con despejar N de la ecuación (2.2.2), a saber:

Tomando log
e
en ambos lados de (2.2.4) se tiene:

La ecuación (2.2.5 ) se resuelve de manera iterativa para los valores supuestos de α, por lo
que es necesario implementar un método numérico para ello. Se eligió el método de
Newton-Raphson en vista de su sencillez y poderío (ver apéndice D).
) 2 . 2 . 2 ( ) 1 (
α
α
S
e
S
N
S
÷ − =
) 3 . 2 . 2 ( ) 1 log(
α
α
N
S + =
) 4 . 2 . 2 ( ) 1 ( α
α
− =
S
e N
) 5 . 2 . 2 ( ) 1 log( log
) log(
α
α
α
α
α α
N N
S
S N
+ = =
⇔ =


6
2.3 LOS MÉTODOS BOOTSTRAP Y MONTE CARLO

El avance en la tecnología de las computadoras ha permitido el desarrollo de una serie de
nuevas técnicas estadísticas que son de gran importancia en la ecología ya que estas
permiten relajar dos supuestos básicos de la inferencia estadística paramétrica, en primer
lugar nos permiten relajar el supuesto de que el conjunto de datos en cuestión se siguen una
distribución de frecuencias normal y en segundo término, que las medidas estadísticas
deben tener buenas propiedades teóricas, de esta manera, pueden ser derivados intervalos
de confianza matemáticamente. El precio que se debe de pagar por realizar estos supuestos
es un gran incremento en los cálculos que hacen, es aquí donde cobra su mayor importancia
los métodos computaciones empleados (Diaconis y Efron, 1983) citados por Manly (1998).

Un método computacional que ha sido intensivamente utilizado en ecología estadística es
el conocido como Bootstrap.

2.3.1 EL MÉTODO BOOTSTRAP

La técnica Bootstrap fue desarrollada por Efron (1977) y responde a la pregunta de cómo
sería una muestra del mismo tamaño que la actual, si se tuviera. Como no se tiene dicha
muestra, nosotros pretendemos que la que se tiene es una universal, y muestrearemos de
ella con remplazo con el objeto de estimar la variabilidad del proceso de muestreo. El
procedimiento general de Bootstrap es el siguiente:

1. Recombinar el conjunto original de datos: El conjunto original de datos de n mediciones
es situado en n mismo arreglo vectorial o matricial, entonces n valores son muestreados con
remplazo. De esta manera cualquier medida en el conjunto original de datos podría ser
usada una vez, dos veces, varias veces. Típicamente, este proceso de muestreo bootstrap es
repetido como mínimo 500 veces y pero lo usual son 10000 veces.

2. Estimar el parámetro de interés de cada muestra bootstrap.



7
3.- Estimar la media y el error estándar del parámetro de interés con base en las
estimaciones de las replicas bootstrap.

Las estimaciones bootstrap de los parámetros son sesgadas y la precisión de las
estimaciones bootstrap dependerá del número de veces que el conjunto original de datos sea
aleatoriamente recombinado.

2.3.2 EL MÉTODO MONTE CARLO

El método Monte Carlo en un sentido amplio como una técnica para la solución de modelos
utilizando números aleatorios o pseudoaleatorios (Hammersley y Handscomb, 1964)
citados por Manly (1998).
Mediante una prueba Monte Carlo la significancia de una prueba estadística observada es
evaluada comparándola con una prueba estadística obtenida mediante la generación de
números aleatorios utilizando algún modelo probabilístico asumido ( Manly 1998).

2.4 COMPARACIÓN DE COMUNIDADES ECOLÓGICAS CON BASE EN
ÍNDICES DE DIVERSIDAD

Cuando se utiliza el índice de Shannon H’ para estimar diversidad de especies,
frecuentemente se tiene interés en el contraste de hipótesis, es decir se pretende investigar
si la diversidad de dos o más comunidades ecológicas son estadísticamente diferentes.

Hutcheson (1970) citado por Magurran (1988) propuso un método para comparar la
diversidad entre dos comunidades con base en el índice de Shannon mediante el uso de una
estadística t que tiene distribución t de Student, después de obtener la varianza de H’.

Recuérdese que la ecuación para obtener el índice de Shannon está dada por la ecuación
2.2.1 es decir:


8

Así la varianza de H’ se obtiene como:

Y utilizando el método propuesto por Hutcheson (1970), se obtiene la estadística t como:


los grados de libertad se obtienen como:

Donde:
p
i
= La proporción de individuos pertenecientes a la i-ésima especie
S = Número total de especies en la muestra o comunidad
N = Número total de individuos en la muestra
H’
1
= El índice de diversidad de la muestra 1
H’
2
= El índice de diversidad de la muestra 2
N
1
= Número total de individuos en la muestra 1
N
2
= Número total de individuos en la muestra 2

Para obtener el valor del índice H’ puede utilizarse cualquier base logarítmica, aunque a
veces se emplea log
2
como fue propuesto por Shannon inicialmente.

) 3 . 6 . 2 (
/ ) ' ( / ) ' (
) ' ' (
2
2
2 1
2
1
2
2 1
N VarH N VarH
VarH VarH
gl
+
+
=

=
− =
S
i
i i
p p H
1
log '
) 1 . 6 . 2 (
/ ) ' ( / ) ' (
) ' ' (
2
2
2 1
2
1
2
2 1
N VarH N VarH
VarH VarH
gl
+
+
=
) 2 . 6 . 2 (
) ' ' (
' '
2 1
2 1
VarH VarH
H H
t
+

=


9
Una vez obtenida la estadística t, se compara contra una t de student basada en el número
de grados de libertad obtenidos y un nivel de significancia (α) definido por el investigador.

Actualmente empleando un paquete para realizar dicho análisis, este proporcionan
generalmente un valor de probabilidad (nivel de significancia estimado) y con este se puede
decidir si se rechaza o no Ho (Ho: Las comunidades tienen igual diversidad), es decir si
nivel de significancia estimado es mayor que el nivel de significancia (α) establecido, no se
rechaza Ho, ahorrándonos así el tener que consultar las tablas de la distribución t de
Student u otra.

El análisis anterior propuesto por Hutcheson (1970), es únicamente para la comparación de
pares muestras, sin embargo, algunas veces se tiene interés en la comparación de más de
dos comunidades y si se quiere hacer el mismo análisis se tendrá que utilizar el análisis de
la varianza.

Dado que el índice de Shannon H’ se distribuye normalmente, es posible el uso de la
estadística paramétrica para hacer inferencia sobre las comunidades con base en las
muestras, por lo tanto si no se presenta la normalidad, la teoría estadística paramétrica no
funciona, con lo cual no es posible hacer los contrastes de hipótesis descritos.

Una alternativa para decidir si se rechaza o no la hipótesis nula (Ho) basados en el nivel de
probabilidad es utilizar el criterio de Bonferroni, con la finalidad de mantener el nivel de
significancia establecido por el investigador.

Si se está comparando un conjunto de más de dos comunidades con base en sus respectivas
muestras, y en caso de haber utilizado el análisis de la varianza (cuando hay normalidad) y
haber rechazado Ho, puede hacerse una prueba de comparación de medias utilizando el
método de Tukey, cuando se tienen réplicas para cada índice (puede usarse para esto
bootstrap).



10
2.4.1 PRUEBA DE KRUSKAL Y WALLIS PARA MAS DE DOS MUESTRAS
INDEPENDIENTES UTILIZANDO ÍNDICES DE DIVERSIDAD

En muchas ocasiones se tienen valores de índices de diversidad muy cercanos entre sí y se
desea saber si las comunidades de las cuales se obtuvieron las muestras son
estadísticamente diferentes con base en los valores de los índices obtenidos, el problema
surge cuando no se conoce la distribución de probabilidades de estos índices, como sucede
cuando se tiene muestras con un número de especies pequeño y tamaños de muestra
pequeños (número de individuos en la muestra), considerando este hecho, se propone la
prueba no paramétrica de Kruskal y Wallis.

Es conveniente mencionar que existe la prueba de Mann y Whitney para dos muestras
independientes, esta prueba compara dos poblaciones independientes utilizando los rangos
de estas. El estadístico de prueba es la suma de los rangos de una de las muestras, después
de que los rangos han sido asignados a las dos muestras combinadas, en esta forma fue
propuesta por Wilcoxon para el caso en que las muestras son de igual tamaño,
posteriormente Mann y Whitney consideraron el caso en que las muestras son de tamaños
distintos y construyeron las primeras tablas de la distribución del estadístico bajo la
hipótesis nula.

Entonces, la prueba de Kruskal y Wallis es una extensión de la de Mann y Whitney para
aplicarse a más de dos muestras independientes, para probar la hipótesis de que las k
poblaciones de las que proceden las muestras son iguales. Es decir, esta prueba es la
equivalente al el diseño completamente al azar o diseño con un criterio de clasificación que
se utiliza en la estadística paramétrica.

El procedimiento metódico para el uso de esta prueba es el siguiente:
Se tienen k muestras de tamaños n
1
,n
2
,…,n
k
.


11

MUESTRAS
1 2 . . . . . . . . . k
x
11
x
12
x
1k
x
21
x
22
x
2k
. . .
. . .
. . .
x
n1
,1 x
n2
,2

x
nk
,k


Se asignan rangos a las N observaciones. Rango 1 a la más pequeña de las N, rango 2 a la
segunda más pequeña, etc.

SUPUESTOS:
Todas las muestras son aleatorias de sus respectivas poblaciones. Además las k muestras
son mutuamente independientes.
Todas las variables aleatorias x
ij
son continuas.
La escala de medición es al menos ordinal.

HIPÓTESIS:
Ho: Las k comunidades son iguales
Ha: Al menos una de las comunidades tiene valores mayores que las otras.

ESTADÍSTICO DE PRUEBA
Sea

=
=
k
j
j
N n
1
k j X R R
i
n
i
ij j
,..., 2 , 1 : ) (
1
= =

=


12

Donde R(X
ij
) es el rango asignado a la observación i-ésima de la muestra
j-ésima. Es decir que Rj es la suma de los rangos asignados a la muestra
j-ésima. El estadístico es:

REGLA DE DECISIÓN:
La distribución de T bajo Ho aparece tabulada para k=3 y n
j
≤ 5. Si k>3 se rechaza Ho si T>
χ
2
α
(k-1).

Para k=3 la tabla del apéndice B da el nivel de significancia para todos los valores posibles
de T.
Una vez que se ha decidido si se rechaza o no Ho, se puede implementar la técnica de
comparaciones múltiples en caso de haberse decidido rechazar Ho, esto se hace aplicando
la prueba de Kruskal y Wallis por pares, con lo que se decide que parejas de comunidades
son estadísticamente diferentes.

Esta prueba no paramétrica se encuentra ya programada en muchos de los paquetes que
existen en el campo de la estadística y dan ya directamente el valor de probabilidad (nivel
de significancia estimado) por lo que ya no es necesario utilizar las tablas del estadístico de
prueba.

2.4.2 IMPLEMENTACIÓN DE LA PRUEBA DE KRUSKAL Y WALLIS
PARA INDICES DE DIVERSIDAD UTILIZANDO BOOTSTRAP

La manera en como se implementó la prueba no paramétrica de Kruskal y Wallis se
describe a continuación.


=
+ −
+
=
k
j
j
j
N
n
R
N N
T
1
2
). 1 ( 3
) 1 (
12


13
Dadas k muestras tomadas independientes, se obtienen los valores del índice de Shannon y
del índice de Fisher para cada muestra, así se tendrán k valores del cada índice de
diversidad para las k muestras. Note que se tendrá sólo un valor particular de cada índice
por muestra, entonces no se puede hacer inferencia sobre un solo valor, aquí es donde nace
la necesidad de utilizar una técnica de remuestreo, “Bootstrap”. Con esto se tendrán n
valores de cada índice para cada muestra y con estos ya es posible aplicar la prueba de
Kruskal y Wallis considerando también el criterio de Bonferroni.

Note que esta prueba no paramétrica en combinación con la técnica bootstrap puede ser
aplicada a cualquier índice de diversidad, es decir no únicamente al índice de Shannon y
Fisher como se hace en el presente trabajo.

En el capítulo V de aplicación a datos reales se muestran varios ejemplos de este método.

2.5 INTERVALOS DE CONFIANZA PARA H’ Y α

En muchas ocasiones se tiene interés no únicamente en obtener el valor puntual de algún
índice de diversidad, sino en obtener un intervalo de confianza para el valor esperado de
dicho índice.

Una ecuación para la obtención asintótica de varianza para el índice de Shannon fue
obtenida por Samuel-Cahn (1975) citado por Hayek y Buzas (1997) y está dada por:

p
i
= La proporción de individuos encontrados en la i-ésima especie
S = Número de especies en la muestra
N = Número de individuos en la muestra

) 1 . 7 . 2 (
1
) log ( )) (log(
) ' (
1 1
2
2







− −
= =
∑ ∑
= =
N
p p p p
H Var
S
i
i i
S
i
i i
H
σ


14
Con esta varianza, se puede construir un intervalo de confianza del (1-δ)100% para el valor
esperado de H’ utilizando como base el hecho de que el índice de Shannon se distribuye
normal. Así un intervalo de confianza del (1-δ)100% para el valor esperado de H’ será:

Donde:
H’ es el índice de Shannon
Z
δ/2
es el percentil δ/2 de la distribución normal estándar (cuando δ =0.05 este valor es 1.96
obteniéndose de las tablas de la distribución normal (0,1))
σ
H
es el error estándar

Para el índice α la varianza de manera asintótica fue obtenida por Fisher (1943) y está dada
por:

Donde:
S = Número de especies en la muestra
N = Número de individuos en la muestra
α = El índice de diversidad de Fisher
Una vez conocida la varianza del índice α de Fisher y considerando el hecho de que la
distribución para este índice es normal, proponemos también un intervalo de confianza del
(1-δ)100% para el valor esperado de α, a ser:
Donde:
α es índice de Fisher
Z
δ/2
es el percentil δ/2 de la distribución normal estándar (cuando δ =0.05 este valor es 1.96
obteniéndose de las tablas de la distribución normal (0,1))
σ
α
es el error estándar
) 4 . 7 . 2 ( *
2 / α δ
σ α Z ±
) 2 . 7 . 2 ( * '
2 / H
Z H σ
δ
±
) 3 . 7 . 2 (
) (
2
log ) (
) (
2
2 3
2
α α
α
α
α
α α
σ α
α
N S SN
N
N
N
N
Var
− +







+
+
+
= =


15
Un ejemplo de intervalos de confianza para los índices de Shannon y de Fisher puede
observarse en el capítulo V en la aplicación a datos reales.

Se utiliza la distribución normal estándar en los intervalos de confianza ya que se conoce la
varianza para cada índice y además generalmente se tienen tamaños de muestra
relativamente grandes (cientos y miles).

2.6 ESTIMACIÓN DE LA VARIABILIDAD DE ÍNDICES DE DIVERSIDAD
UTILIZANDO SIMULACIÓN (MONTE CARLO)

Una forma de decidir que índice posee mejores características de desempeño en la ecología
es utilizando algunos elementos de inferencia estadística como lo es el coeficiente de
variación que es un buen criterio en la selección de modelos en general ya que considera la
varianza del conjunto de datos y su media aritmética.

La idea del presente capítulo es comparar el desempeño del índice de Shannon H’ contra el
índice α de Fisher empleando como criterio el coeficiente de variación, esto se hará para
diferentes tipos de muestras aleatorias de interés en ecología de comunidades.

2.6.1 EL COEFICIENTE DE VARIACIÓN

El coeficiente de variación (C.V.) es una medida de dispersión relativa de un conjunto de
datos, que se obtiene dividiendo la desviación estándar del conjunto entre su media
aritmética.

Simbólicamente para la característica X se tiene:



) 1 . 8 . 2 ( ) .( .
X
s
X V C
X
=


16
Puesto que tanto la desviación estándar como la media se miden en las mismas unidades
originales, el C. V. es una medida independiente de las unidades de medición.

Para realizar la comparación del índice de Shannon y el índice de Fisher con base en el
coeficiente de variación, es necesario obtener las varianzas para cada índice. Estas
varianzas corresponden a las ecuaciones (2.7.1) y (2.7.3) para el índice de Shannon y
Fisher, respectivamente.

Una vez que se tienen las varianzas es posible obtener el coeficiente de variación para cada
índice de diversidad, utilizando muestras aleatorias de diferente naturaleza. Así un índice de
diversidad será preferible con respecto a otro si su coeficiente de variación es menor.

III. METODOLOGÍA

• En una primera etapa se realizó la programación de la ecuación para la obtención del
índice de Shannon en el paquete S-Plus 2000, posteriormente la programación de la
ecuación para la obtención del índice α de Fisher. Como la ecuación para el cálculo del
índice α de Fisher se resuelve de manera iterativa, se empleó el método numérico de
Newton-Raphson, cuya programación fue realizada también.

• Se alimentó a los programas con datos de muestras aleatorias provenientes de
diferentes distribuciones, Poisson, lognormales y binomial negativa.

• Posteriormente se realizó la programación de la técnica bootstrap para el índice de
Shannon y α de Fisher, alimentándose también estos programas con el tipo de muestras
aleatorias ya mencionadas. En estos mismos programas para cada índice se realizó la
prueba de normalidad de Kolmogorov-Smirnov para 10,000 réplicas bootstrap.



17
• Luego de programar la técnica bootstrap, se programó la el método Monte Carlo y se
usaron 10,000 repeticiones para la obtención de la prueba de normalidad de
Kolmogorov-Smirnov, para cada índice de diversidad.

• Se analizó el comportamiento distribucional de cada índice de diversidad, considerando
primeramente muestras Poisson, luego lognormales y finalmente con binomiales
negativas, utilizando tanto bootstrap como Monte Carlo.

• Para cada índice de diversidad se realizó la programación del cálculo de la varianza
asintótica y posteriormente la programación del coeficiente de variación para comparar
la variación de cada índice de diversidad utilizando muestras aleatorias de origen
Poisson, lognormales y binomiales negativas.

• Con las varianzas asintóticas de cada índice, se realizo la programación de los
intervalos de confianza para cada índice, cuando se alcanza la normalidad.

• Como alternativa para la comparación de diversidad de especies en comunidades, se
programó la prueba no paramétrica de Kruskal y Wallis. El procedimiento para utilizar
esta prueba fue el siguiente: primeramente se obtuvo el índice de diversidad
correspondiente a cada conjunto de datos, luego se aplicó remuestreo (bootstrap) para
obtener así varios valores (50) de cada índice de diversidad para cada conjunto de datos
y finalmente a estos conjuntos de índices se les aplico la prueba no paramétrica ya
mencionada. Para realizar este ejercicio se utilizó la rutina “kruskal.test” que se
encuentra en el paquete S-Plus 2000.

• Finalmente se implementaron todos estos resultados obtenidos para muestras de origen
aleatorio en datos de origen real, que se colectaron de comunidades selváticas.





18
IV. RESULTADOS Y DISCUSIÓN

4.1 DISTRIBUCIÓN DEL ÍNDICE DE SHANNON (H’) UTILIZANDO
BOOTSTRAP
Para determinar la distribución probabilística del índice de Shannon H’, primeramente se
programó la ecuación para su cálculo y posteriormente se introdujo esta ecuación a una
rutina bootstrap programada en el paquete S-Plus 2000. En una primera etapa, se
consideraron muestras aleatorias de diferente naturaleza, Poisson, lognormal y Binomial
negativa que son los tipos de muestras que se presentan a menudo en la práctica.
Posteriormente se corrió el programa bootstrap, utilizando la prueba de bondad de ajuste
para normalidad de Kolmogorov-Smirnov establecida en el paquete ya mencionado (ver
programa en el apéndice A).
En las figuras que se mostrarán en esta sección de distribuciones de índices de diversidad, S
es el número de especies en la muestra aleatoria y N es el número de individuos en la
muestra.

4.1.1 MUESTRAS POISSON
En este caso se analizan diferentes muestras de origen Poisson. En al Figura 1, se tiene una
muestra aleatoria con 10 especies y un total de 211 individuos en la muestra, puede
apreciarse que no se alcanza la normalidad (nivel de significancia estimado de 0).
Figura 1. Muestra Poisson con S=10 y N=211
2.22 2.24 2.26 2.28 2.30
0
5
0
0
1
0
0
0
1
5
0
0
Z


19

En la figura 2 se presenta una muestra aleatoria con 22 especies y 436 individuos en la
muestra, puede notarse que sí se alcanza la normalidad (con nivel de significancia estimado
de 0.051) para el índice de Shannon.
Figura 2. Muestra Poisson con S=22 y N=436

4.1.2 MUESTAS LOGNORMALES
Ahora se analizará el caso de muestras aleatorias de origen lognormal. En la Figura 3, se
tiene una muestra aleatoria con 10 especies y con 32 individuos, en la cual, no se alcanza la
normalidad bajo estas condiciones (valor de probabilidad estimado de 0).
Figura 3. Muestras lognormal con S=10 y N=32

2.80 2.85 2.90 2.95
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
Z
2.970 2.975 2.980 2.985 2.990 2.995
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
Z


20
En la figura 4, se analiza una muestra aleatoria lognormal con 22 especies y con 101
individuos la distribución bajo estas condiciones para el índice de Shannon es normal (con
nivel de significancia estimado de 0.051).
Figura 4. Muestra lognormal con S= 22 y N=101

4.3.3 MUESTRAS BINOMIALES NEGATIVAS
Ahora se analizará el la variación distribucional de índice de Shannon cuando se tienen
muestras aleatorias de origen binomial negativo. En la figura 5, se tiene una muestra
aleatoria con 10 especies y con 78 individuos, en la cual no se alcanza la normalidad (nivel
de significancia estimado de 0.003).
Figura 5. Muestra Binomial negativa con S=10 y N=78
2.98 3.00 3.02 3.04 3.06 3.08
0
2
0
0
4
0
0
6
0
0
Z
2.80 2.85 2.90 2.95 3.00 3.05 3.10
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
Z


21

En la figura 6, se tiene una muestra aleatoria con 22 especies y 124 individuos, puede
notarse que en estas circunstancias el índice de Shannon se distribuye normal (nivel de
significancia estimado de 0.061)
Figura 6. Muestra Binomial negativa con S=22 y N=124

4.2 DISTRIBUCIÓN DEL ÍNDICE DE SHANNON (H’) UTILIZANDO
MONTE CARLO

Ahora investigaremos la distribución de probabilidades del índice de Shannon H’ haciendo
uso de la técnica conocida como Método Monte Carlo.

Primeramente se programó la ecuación para el cálculo del índice de Shannon y después se
introdujo este a una rutina para el método Monte Carlo, repitiéndose este método para
diferentes muestras aleatorias de diferente naturaleza.

4.2.1 MUESTRAS POISSON
Para este caso se analizan diferentes muestras aleatorias de origen Poisson pero ahora se
utiliza el método Monte Carlo. En la figura 7 se tiene una muestra con 5 especies y 105
individuos, en la que el índice de Shannon no alcanza la normalidad (nivel de significancia
estimado de 0).
2.6 2.7 2.8 2.9
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
Z


22


Figura 7. Muestra Poisson con S=5 y N=105

En la figura 8, se tiene una muestra con 22 especies y con 445 individuos, se tiene un nivel
de significancia estimado de 0.062 por lo que bajo estas condiciones se alcanza la
normalidad con ese nivel de significancia estimado.
Figura 8. Muestra Poisson con S=22 y N=445

4.2.2 MUESTRAS LOGNORMALES
Ahora se investiga la distribución de probabilidades del índice de Shannon utilizando el
método Monte Carlo con muestras aleatorias lognormales. En la figura 9, se tiene una
1.580 1.585 1.590 1.595 1.600 1.605 1.610
0
5
0
1
0
0
1
5
0
Z
3.05 3.06 3.07 3.08 3.09
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
1
2
0
0
Z


23
muestra con 10 especies y con 23 individuos, puede apreciase que no se alcanza la
normalidad para este caso (nivel de significancia estimado de 0.021).
2.0 2.1 2.2 2.3
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
2
5
0
0
M

Figura 9. Muestra lognormal con S=10 y N=23

En la figura 10, se presenta una muestra aleatoria lognormal con 25 especies y 85
individuos, puede apreciarse que si se alcanza la normalidad para el índice Shannon bajo
estas condiciones (nivel de significancia estimado de 0.05).
3.76 3.78 3.80 3.82 3.84 3.86 3.88
0
1
0
0
2
0
0
3
0
0
4
0
0
M

Figura 10. Muestra lognormal con S=25 y N=85

Note que para este caso de muestras lognormales y haciendo uso de Monte Carlo, la
normalidad no se alcanza a las 22 especies (nivel de significancia estimado de 0.034), sino
hasta cuando se tienen 25 especies en la muestra.


24

4.2.3 MUESTRAS BINOMIALES NEGATIVAS

Ahora se analiza el caso de muestras binomiales negativas, puede apreciarse en la figura 11
que no se tiene la distribución normal (nivel de significancia estimado de 0)
1.80 1.85 1.90 1.95 2.00 2.05
0
2
0
4
0
6
0
8
0
M

Figura 11. Muestra binomial negativa con S=10 y N=75

En la figura 11 se tiene una muestra con 30 especies y 1240 individuos, bajo estas
condiciones sí se alcanza la normalidad (nivel de significancia estimado de 0.056) para
índice de Shannon.
3.15 3.20 3.25 3.30
0
5
0
0
1
0
0
0
1
5
0
0
M

Figura 12. Muestra binomial negativa con S=30 y N=1240



25
Note que en este caso de muestras aleatorias binomiales negativas y utilizando Monte
Carlo, la normalidad se alcanza hasta cuando se tienen 30 especies y no cuando se tienen 22
especies (nivel de significancia estimado de 0.036).

4.3 OBSERVACIONES GENERALES SOBRE LA DISTRIBUCIÓN DEL
ÍNDICE DE SHANNON H’

4.3.1 TÉCNICA BOOTSTRAP

A continuación se hacen algunas observaciones de interés relacionadas con la distribución
del índice de Shannon para cuando se hace uso de la técnica bootstrap.

i) El valor del nivel de significancia estimado es variable para cada corrida bootstrap,
aunque se tengan las mismas abundancias. Así mismo, varía este nivel de
significancia estimado en función del número de repeticiones (con 20000
repeticiones es un poco diferente, aunque no se afecta la decisión final).

ii) Se realizó este mismo procedimiento de ver a partir de qué número de especies
(abundancias) se presenta la normalidad con vectores de la forma: C1<-
(1,2,1,1,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1) es decir donde fueran de al menos 22
especies y se presento también la normalidad, al igual que con otros datos. Así
mismo se analizaron vectores con abundancias grandes por especie pero con pocas
especies, es decir con menos de 10 especies, y se observó que aunque el tamaño de
muestra es grande, no se alcanzó la normalidad.

4.3.2 USO DEL MÉTODO MONTE CARLO

Algunas observaciones relacionadas con el comportamiento distribucional del índice de
Shannon cuando se hace uso del método Monte Carlo son:



26
i) De manera general, se alcanzó la normalidad para cuando se tienen 22 especies en
la muestra, salvo que para el caso de la distribución lognormal, la normalidad se
presentó hasta cuando se tienen 25 especies y para el caso de muestras de origen
binomial negativo, se presentó hasta cuando se tienen 30 especies.

4.4 DISTRIBUCIÓN DEL ÍNDICE α DE FISHER MEDIANTE BOOTSTRAP

En esta sección se investiga la distribución de probabilidades del índice α de Fisher
haciendo uso de la técnica bootstrap y se trabajará con diferentes muestras aleatorias.

4.4.1 MUESTRAS POISSON
En este caso de muestras Poisson, puede notarse, según la figura 13, que cuando se tienen
10 especies en la muestra y 85 individuos, no se alcanza la normalidad para el índice de
Fisher (nivel de significancia estimado de 0.02).
2.5 3.0 3.5
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
A

Figura 13. Muestra Poisson con S=10 y N=85

En la Figura 14, se tiene una muestra aleatoria de origen Poisson con 10 especies, pero
ahora con 581 individuos, es decir se tienen pocas especies pero abundancias mayores que
en el caso de la figura 13, puede apreciarse que bajo estas condiciones de tamaño de
muestra grande el índice α de Fisher se distribuye normal (nivel de significancia estimado
de 0.061).


27
0.90 0.91 0.92 0.93 0.94 0.95
0
5
0
1
0
0
1
5
0
2
0
0
2
5
0
3
0
0
ALFAFISH

Figura 14. Muestra Poisson con S=10 y N=581

4.4.2 MUESTRAS LOGNORMALES
Ahora se analizará el caso de muestras lognormales, puede apreciarse según la figura 15,
que en el caso de que se tienen 10 especies y 170 individuos, es decir abundancias
relativamente bajas, no se alcanza la normalidad (nivel de significancia estimado de 0.038).
1.90 1.95 2.00 2.05 2.10 2.15 2.20
0
1
0
0
2
0
0
3
0
0
A

Figura 15. Muestra lognormal con S=10 y N=170

Note que en la figura 16, se tiene una muestra con 10 especies y 1580 individuos (un
tamaño de muestra mayor que en el caso de la figura 15) el índice de Fisher alcanza la
normalidad (nivel de significancia estimado de 0.0612).


28
1.35 1.40 1.45 1.50
0
2
0
0
4
0
0
6
0
0
A

Figura 16. Muestra lognormal con S=10 y N=1580

4.4.3 MUESTRAS BINOMIALES NEGATIVAS
Ahora se analizará el comportamiento distribucional del índice de Fisher utilizando
bootstrap pero con muestras aleatorias de origen binomial negativo, como se aprecia en la
figura 17, se tiene una muestra con 80 especies y con 406 individuos, es decir, abundancias
bajas y relativamente muchas especies, en estas condiciones, el índice de Fisher no se
distribuye normal (0.035)

28 30 32 34
0
2
0
0
4
0
0
6
0
0
8
0
0
A

Figura 17. Muestra binomial negativa con S=80 y N=406



29
En la figura 18, se tiene una muestra con 18 especies y 1875 individuos, es decir,
abundancias relativamente grandes para el número de especies que se tienen, puede
apreciarse que si se alcanza la normalidad para este caso (nivel de significancia estimado de
0.0591).

2.72 2.74 2.76 2.78 2.80
0
2
0
0
4
0
0
6
0
0
A

Figura 18. Muestra binomial negativa con S=18 y N=1875

4.5 DISTRIBUCIÓN DEL ÍNDICE α DE FISHER UTILIZANDO MONTE
CARLO

En esta sección se analiza el comportamiento de la distribución de probabilidades del índice
de Fisher haciendo uso del método Monte Carlo para diferentes tipo de muestras aleatorias.

3.5.1 MUESTRAS POISSON
Analizaremos primeramente el caso de muestras de origen Poisson. En la figura 19 se tiene
una muestra con 6 especies y 65 individuos, es decir, pocas especies y abundancias
pequeñas, puede notarse que no se alcanza la normalidad (nivel de significancia estimado
de 0) para el índice α de Fisher.


30
3.0 3.5 4.0 4.5
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
ALFAFISH

Figura 19. Muestra Poisson con S=6 y N=65

En la figura 20 se tiene una muestra aleatoria Poisson con 6 especies y 1192 individuos, es
decir, pocas especies y abundancias grandes, puede observarse que sí se alcanza la
normalidad (0.0723) para este índice de Fisher.
0.810 0.815 0.820 0.825 0.830 0.835 0.840
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
ALFAFISH

Figura 20. Muestra Poisson con S=6 y N=1192

4.5.2 MUESTRAS LOGNORMALES
Ahora se analiza el caso de muestras de origen lognormal, en la figura 21 se tiene una
muestra con 60 especies y 532 individuos, es decir, abundancias bajas, bajo estas
condiciones no se alcanza la normalidad para el índice de Fisher (nivel de significancia
estimado de 0.038).


31
7.5 8.0 8.5 9.0 9.5 10.0
0
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
ALFAFISH

Figura 21. Muestra lognormal con S=60 y N=532

En la figura 22 se tiene una muestra lognormal con 15 especies y 2365 individuos, es decir,
abundancias grandes, en estas circunstancias sí se alcanza la normalidad (nivel de
significancia estimado de 0.057) para el índice de Fisher.
2.0 2.1 2.2 2.3
0
2
0
0
4
0
0
6
0
0
8
0
0
ALFAFISH

Figura 22. Muestra lognormal con S=15 y N=2365

4.5.3 MUESTRAS BINOMIALES NEGATIVAS
Para este caso de muestras de poblaciones con distribución binomial negativa, puede
apreciar que en la figura 23 se tiene una muestra con 80 especies y 411 individuos,
relativamente muchas especies pero abundancias pequeñas, en este caso no se alcanza la
normalidad para el índice de Fisher (nivel de significancia estimado de 0.031).


32
28 30 32 34
0
2
0
0
4
0
0
6
0
0
8
0
0
ALFAFISH

Figura 23. Muestra binomial negativa con S=80 y N=411

En la figura 24 se tiene una muestra con 10 especies y 507 individuos, y bajo éste marco, el
índice de Fisher alcanza la normalidad (nivel de significancia estimado de 0.0507).
1.70 1.75 1.80 1.85
0
2
0
0
4
0
0
6
0
0
8
0
0
ALFAFISH

Figura 24. Muestra binomial negativa con S=10 y N=507

De manera general, para el índice de Fisher, se puede afirmar que el hecho de alcanzar o no
la normalidad, depende en mayor grado del número de individuos en la muestra y en menor
grado del número de especies en ella.



33
4.6 COEFICIENTE DE VARIACIÓN

Para este caso, se programó primeramente cada índice en el paquete S-Plus 2000 y
posteriormente se programó también el coeficiente de variación y se alimentó a estos
programas con muestras aleatorias de origen Poisson, Lognormal y Binomial negativo, este
procedimiento se repitió 100 veces obteniéndose así 100 valores de cada coeficiente de
variación (%) para las diferentes muestras generadas.

Los resultados obtenidos de manera gráfica se muestran a continuación donde S es el
número de especies consideradas en la muestra aleatoria y N es el número de individuos en
ella.

4.6.1 MUESTRAS POISSON
En una primera etapa analizaremos los resultados de las fluctuaciones del coeficiente de
variación de cada índice alimentando los programas con datos de origen Poisson.
Figura 25. Muestra Poisson con S = 20 y N = 131

Analizando las gráficas correspondientes a las Figuras 25 y 26 en muestras de origen
Poisson, note que en un principio el coeficiente de variación correspondiente al índice de
Fisher es mayor que el coeficiente de variación del índice de Shannon, sin embargo,
después se invierte esta situación, estando finalmente siempre por debajo el índice de
0
1
2
3
4
5
6
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

(
%
)
CV (H')
CV (alfa)


34
Fisher. Además como puede notarse, el rango de variación de valores del coeficiente de
variación es siempre mayor en el caso del índice de Shannon.

Figura 26. Muestra Poisson con S = 40 y N = 3544

4.6.2 MUESTRAS LOGNORMALES
Ahora analizaremos el comportamiento del coeficiente de variación para cada índice de
diversidad pero empleando muestras de origen lognormal.
Figura 27. Muestra lognormal con S= 10 y N=240

0
0.5
1
1.5
2
2.5
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

(
%
)
CV (H')
CV (alfa)
0
1
2
3
4
5
6
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

(
%
)
CV (H')
CV (alfa)


35
Para este caso de muestras lognormales, figuras 27 y 28, siempre el índice de Shannon
tiene un coeficiente de variación mayor que el coeficiente de variación correspondiente al
índice de Fisher.

Figura 28. Muestra lognormal con S= 40 y N=1030

4.6.3 MUESTRAS BINOMIALES NEGATIVAS
Ahora se analizará el comportamiento del coeficiente de variación para cuando se tienen
muestras aleatorias de origen binomial negativo.
Figura 29. Muestra Binomial negativa con S= 10 y N=151

0
0.5
1
1.5
2
2.5
3
3.5
4
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

CV (H')
CV (alfa)
0
1
2
3
4
5
6
7
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

(
%
)
CV (H')
CV (alfa)


36
Analizando el caso de estas muestras aleatorias binomiales negativas (figuras 29 y 30) se
aprecia que el coeficiente de variación del índice de Fisher es siempre menor que el
correspondiente al índice de Shannon, así mismo podemos notar que en un principio los
valores están muy cercanos entre sí pero conforme se incrementa el número de repeticiones
y el tamaño de muestra N, la diferencia es más marcada.

Figura 30. Muestra Binomial negativa con S= 30 y N=1140

Finalmente, para los tres casos de muestras aleatorias, puede apreciarse que el índice de
Fisher tiende a estabilizarse con incrementos de N y su rango de variación de valores de
coeficiente de variación tiende a disminuir comparado con el coeficiente de variación del
índice de Shannon.

Nota: Se alimentó a los programas para la obtención del coeficiente de variación con
muestras relativamente grandes (cientos y miles) ya que las varianzas que se exponen para
cada índice son asistóticas (obtenidas para muestras de tamaño grande).



0
1
2
3
4
5
6
7
16
1
1
1
6
2
1
2
6
3
1
3
6
4
1
4
6
5
1
5
6
6
1
6
6
7
1
7
6
8
1
8
6
9
1
9
6
NÚMERO DE REPETICIONES
C
O
E
F
I
C
I
E
N
T
E

D
E

V
A
R
I
A
C
I
Ó
N

CV (H')
CV (alfa)


37
V. IMPLEMETACIÓN DE LOS RESULTADOS OBTENIDOS
PARA MUESTRAS ALEATORIAS EN MUESTRAS DE DATOS
REALES PROVENIENTES DE COMUNIDADES SELVÁTICAS
En los capítulos anteriores se obtuvieron varios resultados utilizando muestras aleatorias de
diferente naturaleza, esos resultados corresponden a características que poseen los índice de
diversidad H’ de Shannon y α de Fisher. En el presente capítulo se pretende aplicar dichos
resultados a muestras reales (ver apéndice C para los datos) obtenidas de comunidades
diversas estudiadas por Godínez y López (2002) en el Estado de Veracruz, México.

5.1 DISTRIBUCIÓN DE ÍNDICES DE DIVERSIDAD
Primeramente se investigará la distribución de probabilidades de los índices de diversidad
obtenidos para los datos correspondientes a cada una de las tres parcelas correspondientes a
comunidades selváticas.

5.1.1 ÍNDICE DE SHANNON (H’)
En esta sección, analizamos el comportamiento distribucional del índice de Shannon para la
parcela 1 que cuenta con 75 especies, 4919 individuos y tiene un valor real del índice de
Shannon de 3.14.
Figura 31. Datos reales de la parcela 1

2.6 2.8 3.0 3.2 3.4 3.6 3.8
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
Z


38
En esta figura 31, se muestra como el índice de Shannon para la parcela 1 (S=75 y N=4919)
alcanza la normalidad (con un nivel de significancia estimado de 0.062).
Figura 32. Datos reales de la parcela 2

En la figura 32, tenemos el comportamiento distribucional del índice de Shannon
correspondiente a la parcela 2 que cuenta con 109 especies, 4617 individuos y un valor real
del índice de diversidad de 3.516, como puede apreciarse, si se alcanza la normalidad (nivel
de significancia estimado de 0.061).

2.98 3.00 3.02 3.04 3.06 3.08
0
5
0
0
1
0
0
0
1
5
0
0
Z

Figura 33. Datos reales de la parcela 3

3.0 3.2 3.4 3.6 3.8 4.0
0
5
0
0
1
0
0
0
1
5
0
0
2
0
0
0
2
5
0
0
Z


39
En la figura 33 se tiene la distribución de probabilidades del índice de Shannon para la
parcela 3 que cuanta con 78 especies, 3570 individuos y un valor de índice de Shannon de
3.228, se puede apreciar que se alcanza la normalidad sin ningún problema (nivel de
significancia estimado de 0.067).

5.1.2 ÍNDICE DE FISHER

Ahora se observará el comportamiento distribucional del índice de Fisher para el caso de
los datos correspondientes a las parcelas que se han venido trabajando.

Recuérdese que para el caso del índice de Fisher, se concluyó que su distribución normal es
función del número de individuos en la muestra y no del número de especies, por lo que no
deberá haber problema para que se de la normalidad ya que en las tres parcelas se tienen
abundancias relativamente grandes (más de 3500 individuos).

11 12 13 14
0
1
0
0
2
0
0
3
0
0
IF3

Figura 34. Datos reales de la parcela 1

En la figura 34 se presenta el comportamiento distribucional del índice α de Fisher para el
caso de la parcela 1 (S=75 y N=4919). El valor del índice α de Fisher real para la parcela 1
es de 12.56 y puede apreciarse que si se logra la normalidad (nivel de significancia
estimado de 0.051).



40
18 20 22
0
5
0
1
0
0
1
5
0
2
0
0
IF3

Figura 35. Datos reales de la parcela 2

En la figura 35 se tiene a la parcela 2 que cuenta con 109 especies, 4617 individuos y cuyo
índice α de Fisher real es de 20.02 y puede apreciarse que sí se alcanza la normalidad (nivel
de significancia estimado de 0.058).


12 13 14 15 16
0
1
0
0
2
0
0
3
0
0
4
0
0
IF3

Figura 36. Datos reales de la parcela 3

Para este caso de la parcela 3 que tiene 78 especies, 3570 individuos y cuyo valor del índice
α de Fisher es de 14.08, se alcanza la normalidad sin ningún problema (nivel de
significancia estimado de 0.055).


41

5.2 COMPARACIÓN DE COMUNIDADES ECOLÓGICAS CON BASE EN
LOS ÍNDICES DE DIVERSIDAD DE SHANNON Y FISHER CON DATOS
REALES

En esta sección se hará una aplicación de la prueba de Kruskal y Wallis descrita en el
capítulo II, utilizaremos los datos de las tres parcelas que hemos venido manejando en este
capítulo.

Es conveniente mencionar que se tomó una fracción de los datos de cada parcela (menos de
22 especies y abundancias pequeñas) con la finalidad de asumir que no se conoce la
distribución de los índices de diversidad y poder así aplicar la prueba no paramétrica de
Kruskal y Wallis en conjunto con la técnica de remuestreo bootstrap y el criterio de
Bonferroni.

La hipótesis nula y alternativa son:
Ho: La diversidad (índice) en las comunidades correspondientes a las tres parcelas es igual
Ha: La diversidad (índice) es diferente en al menos un par de comunidades
correspondientes a las tres parcelas

5.2.1 PARA EL ÍNDICE DE SHANNON (H’)

Aplicando la prueba de Kruskal y Wallis a los datos de las tres parcelas, se decide rechazar
la hipótesis nula con un nivel de significancia estimado de 0, es decir existen diferencias en
cuanto a diversidad en al menos una de las tres comunidades.

En este punto puede decidirse si se utiliza el Criterio de Bonferroni para mantener el nivel
de significancia, es decir, si se tiene como nivel de significancia definido 0.05, entonces
utilizando dicho criterio, el nivel de significancia sería 0.05/3, ya que son 3 comparaciones
las que se harán (las de interés), así el nuevo nivel de significancia será de 0.0166 y con el
se decidirá si se rechaza o no Ho, para este caso como el nivel de significancia estimado


42
obtenido es 0, y es menor que el 0.0166, entonces sí se rechaza la hipótesis nula
establecida.
Una vez que se decide rechazar Ho, se procede a aplicar la prueba de Kruskal y Wallis por
pares con la intención de detectar cuales comunidades son diferentes estadísticamente.
Aplicando la prueba de Kruskal y Wallis por pares se decide rechazar la hipótesis nula (con
un nivel de significancia estimado de 0.0223) para la comparación de la parcela 1 con la 2,
esta misma decisión se tiene cuando se compara la parcela 1 con la parcela 3 (con un nivel
de significancia estimado de 0) y también para cuando se compara la parcela 2 con 3 (con
un nivel de significancia de 0)

5.2.2 PARA EL ÍNDICE DE FISHER

Es exactamente el mismo procediendo descrito para el índice de Shannon, únicamente que
aquí se obtuvo el índice de Fisher para cada parcela y se hizo remuestreo mediante
bootstrap, generándose también 50 valores de este índice para cada parcela.

El juego de hipótesis es el mismo que se describió para el caso del índice de Shannon.
Aplicando la prueba de Kruskal y Wallis se decide rechazar la hipótesis nula (Ho) con un
nivel de significancia estimado de 0.

Para este caso, si se quisiera utilizar el Criterio de Bonferroni se tendría la misma decisión
de rechazar Ho.

Después de haber rechazado Ho, se procede a utilizar al prueba de Kruskal y Wallis por
pares, decidiendo rechazar Ho (con un nivel de significancia 0) para cuando se comparan
las parcelas 1 con la 2, 1 con la 3 y 2 con la 3.

Una observación de relevancia en esta sección es el hecho de que este procedimiento de
combinar la técnica de remuestreo bootstrap con la prueba no paramétrica de Kruskal y
Wallis y con el Criterio de Bonferroni es aplicable a cualquier índice de diversidad que


43
requiera de la estadística no paramétrica, no únicamente a los estudiados en este trabajo de
investigación.

5.3 ESTIMACIÓN DE LA VARIABILIDAD DE ÍNDICES DE DIVERSIDAD
PARA DATOS REALES

En esta sección se obtendrá el coeficiente de variación tanto para el índice de Shannon
como para el índice de Fisher y con ello se selecciona aquel que tenga menor valor de dicho
coeficiente.

Cuadro 1. Coeficientes de variación en porcentaje para las tres parcelas
Número de Parcela C.V. (H’) C.V. (α)
1 2 1
2 3 2
3 3 1.5

Como puede verse en el cuadro 1, el coeficiente de variación del índice de Shannon
siempre es mayor que el coeficiente de variación del índice de Fisher par las 3 parcelas, tal
y como se había discutido en el caso de muestras aleatorias en el capítulo IV, por lo que el
índice α de Fisher es preferible al de Shannon.

5.4 INTERVALOS DE CONFIANZA

A continuación se presentan los valores correspondientes a los intervalos de confianza
obtenidos para cada una de las tres parcelas analizadas.








44
Cuadro 2. Intervalos de confianza con los datos reales de las tres parcelas.
ÍNDICE (PARCELA 1) LÍMITE INFERIOR LÍMITE SUPERIOR
Shannon = 3.14 3.06 3.23
Fisher = 12.56 11.80 13.30
PARCELA 2
Shannon = 3.51 3.40 3.62
Fisher = 20.02 17.37 22.66
PARCELA 3
Shannon = 3.22 3.12 3.33
Fisher = 14.08 13.16 14.98

En el cuadro 2 se tienen los intervalos de confianza para los datos reales de las tres
parcelas, las cuales cuentan con 4919, 4617 y 3570 individuos para las P1, P2 y P3
respectivamente, se aprecia que los intervalos para el índice de Shannon son más angostos.

VI. CONCLUSIONES Y RECOMENDACIONES

• Dadas las anteriores condiciones de desempeño del índice de Shannon H’ puede
concluirse que su distribución depende más del número de especies S, que del número
de individuos en la muestra.

• La distribución del índice de Shannon es normal a partir de 22 especies en la muestra
aleatoria, esto mediante bootstrap en general, sin embargo para el caso de Monte Carlo
se requieren 25 especies y 30 especies para muestras aleatorias de las distribuciones
lognormal y binomial negativa respectivamente.

• La distribución del índice α de Fisher es aproximadamente normal y es función del
número de individuos en la muestra aleatoria que se tenga (número total de individuos
que se tienen), influyendo en menor grado el número de especies en ella.



45
• Una vez que se ha obtenido la normalidad, se puede explotar todo el potencial de la
estadística paramétrica de la distribución normal para realizar inferencia sobre los
índices de Shannon y Fisher, es decir realizar pruebas de hipótesis, intervalos de
confianza, etc.

• La prueba de no paramétrica Kruskal y Wallis en combinación con la técnica bootstrap
es una buena alternativa para comparar diversidad entre dos o más comunidades cuando
no se conoce la distribución de los índices de diversidad utilizados.

• El coeficiente de variación (C.V.) correspondiente al índice de Shannon es mayor
siempre que el correspondiente al índice α de Fisher en muestras de origen lognormal y
binomial negativo, mientras que en muestras de origen Poisson el índice de Fisher es
mayor en un principio y después de cierto punto, el coeficiente de variación del índice
Shannon supera al índice de Fisher, con esto se concluye que el índice de Fisher es
preferible al índice de Shannon.

• Conforme aumenta el tamaño de muestra, los valores del coeficiente de variación del
índice α de Fisher tienden a estabilizarse, hecho que no sucede con el índice de
Shannon.

• Para el caso de los datos reales correspondientes a las tres parcelas trabajadas, se
concluye que si se alcanza la normalidad tanto para el índice de Shannon como para el
índice de Fisher, ya que en las tres parcelas se tienen más de 22 especies y tamaños de
muestra relativamente grandes (miles).

• Aplicando la prueba no paramétrica de Kruskal y Wallis en combinación con la técnica
de remuestreo bootstrap y el criterio de Bonferroni a los datos correspondientes a las
tres parcelas que se trabajaron, se concluye que la diversidad es estadísticamente
diferente tanto cuando se hace uso del índice de Shannon como cuando se utiliza el
índice de Fisher.



46
• El coeficiente de variación para índice de Shannon fue mayor que el correspondiente al
índice de Fisher para las tres parcelas de datos reales.

• Se recomienda que si se pretende hacer inferencia estadística paramétrica con el índice
de Shannon, se debe tener al menos 22 especies en al muestra de lo contrario no habrá
normalidad y se tendrá que hacer uso alguna técnica no paramétrica, como lo es la
prueba de Kruskal y Wallis para comparar comunidades ecológicas.

• Es recomendable utilizar el índice de Fisher en lugar del de Shannon para realizar
inferencia estadística paramétrica, ya que su distribución (normal) depende en mayor
grado del número de individuos en la muestra y en menor grado del número de especies
en ella.



47
VII. BIBLIOGRAFÍA

Cadena, M. J.1983. Predicción de Precios Usando la Metodología Box y Jenkins. Colegio
de Postgraduados, Chapingo, México.

Daniel, W. W. 1990. Applied Nonparametric Statistics. Segunda edición. PWS-KENT
publishing company. Boston, USA.

Dickman, M. 1968. Some Indices of Diversity. Ecology 49, 1191-1193.

Fisher, R. A., Corbet, A. S. y Williams, C. B. 1943. The Relation Between the Number of
Species and the Number of Individuals in a Random Sample of an Animal Population. J.
Anim. Ecol., 12, 42-58.

Godínez, I. O. y López, M. L. 2002. Estructura, Composición, Riqueza y Diversidad de
Árboles en Tres Muestras de Selva Mediana Subperennifolia. Anales del Instituto de
Biología, Universidad Nacional Autónoma de México, Serie Botánica 73(2), 282-314.

Graciano, L. J. 2001. Técnicas de Evaluación Dasométrica y Ecología de los Bosques de
Coníferas Bajo Manejo de la Sierra Madre Occidental del Centro Sur de Durango, México.
Universidad Autónoma de Nuevo León. Nuevo León, México.

Hayek, C. L. A. y Buzas A. M. 1997. Surveying Natural Populations. Columbia University
Press.

Hurlbert, S. H. 1971. The non-concept of species diversity: A critique and alternative
parameters. Ecology 52: 577-86

Infante, G. S. 1980. Métodos Estadísticos No Paramétricos. Colegio de Postgraduados,
Chapingo, Estado de México.



48
Kempton, R. A. 2002. Species diversity. Encyclopedia of Environmetrics. John Wiley &
Sons.

Kleijen, P. C. Jack. 1974. Statistical Techniques in Simulation. N.Y, USA.

Krebs, J. C. 1985. Ecology. Tercera edición. Harper and Row publishers. USA.

Krebs, J. C. 1999. Ecological Metodology. Segunda edición. Adison-Welsey. CA, USA.

Ludwig, J. A. y Reynolds, J. F. 1988. Statistical ecology: A primer on methods and
computing 337 p. New York: John Wiley & Sons

Lyons, N. I. 1981. Comparing Diversity indices Based on Counts Weighted by Biomass or
Other Importance Values. American Naturalist 118, 438-442.

Magurran, E. A. 1988. Ecological Diversity and Its Measurement. Princeton University
Press.

Margalef, R. 1991. Ecología. Ediciones Omega. Barcelona, España.

Manly, F. J. B. 1998. Randomization, Bootstrap and Monte Carlo Methods in Biology.
Second edition. Chapman & Hall. UK.

Martins, F. R. y Maës, F. A. Técnicas Usuais de Estimativa da Biodiversidade. Revista
Holos, Edicao Especial. SP, Brasil.

McIntosh, R. P. 1967. An index of diversity and the relation of certain concepts to
diversity. Ecology 48, 392-404.

Patil, G. P. y Taillie C. 1982. Diversity as a Concept and its Measurement. J. of American
Statistician Association, 77, 548-561.


49

Peet, R. K. 1974. The measurement of species diversity. Annual Review of Ecology and
Systematics, 5, 285-307.

Peet, R. K. 1975. Relative Diversity Indices. 1975. Ecology 56, 496-498.

Pielou, E. C. 1969. Shannon’s Formula as a Measure of Specific Diversity: Its Use and
Misuse. American Naturalist 100, 463-465.

Pielou, E. C. 1969. An Introduction to Mathematical Ecology, Wiley, New York.

Pielou, E. C. 1974. Population and Community Ecology. Gordon and Breach Science
publishers. NY, USA.

Pielou, E. C. 1975. Ecological Diversity, Wiley, New York.

Rosenzweig, L. M. 1995. Species Diversity in Space and Time. Cambridge University
Press. Great Britain.

Routledge, R. D. 1980. Bias in Estimating the Diversity of Large, Uncensused
Communities. Ecology 61, 276-281.

Shannon, C. E. y Weaver, W. 1949. The mathematical theory of communication 117 p.
Urbana, IL: University of Illinois Press.

Smith, P. E. y Van Belle, G. 1984. Nonparametric Estimation of Species Richness.
Biometrics, 40, 119-129.

Smith, W. y Grassle F. J. 1977. Sampling Properties of a Family of Diversity Measures.
Biometrics 33, 282-292.



50
Tong, Y. L. 1983. Some Distribution Properties of Sample Species-Diversity Indices and
Their Applications. Biometrics 39, 999-1008.

Villavicencio, E. L. 2002. Caracterización agroforestal del sistema rusticiano de café en la
sierra de Atoyac Veracruz. Colegio de Postgraduados, Montecillo, Estado de México.

Zahl, S. 1977. Jackknifing an index of diversity. Ecology, 58, 907-913.

Zar, J.H. 1999. Biostatistical Analysis. Cuarta edición. Prentice Hall. NJ, USA.


51
VIII. APÉNDICES

A: PROGRAMAS EN S-PLUS 2000

a.1) PROGRMAS PARA EL ÍNDICE DE SHANNON

# PROGRAMA PARA EL CÁLCULO DEL ÍNDICE DE SHANNON PARA UNA MUESTRA, BASTA DAR EL VECTOR DE
ABUNDANCIAS (C1).

# LOS VECTORES DE ABUNDANCIAS SIGUIENTES CORRESPONDEN A LAS TRES PARCELAS TRABAJADAS EN LA
TESIS.

# PARA OBTENER EL ÍNDICE DE SHANNON DE ALGUNA PARCELA EN PARTICULAR, SÓLO SE DEBEN BORRAR
LOS SIMBOLOS #
# QUE ESTÁN AL PRINCIPIO DE CADA LÍNEA, EN ESTE CASO SE DEJARÁ ACTIVADO EL PROGRAMA PARA LA
PARCELA 1, ASÍ
# MIMSO, PARA DESACTIVAR ALGÚN VECTOR DE ABUNDANCIAS BASTA CON PONER EL SÍMBOLO # AL INICIO
DE CADA LÍNEA.

# EN LOS DATOS DE ESTAS 3 PARCELAS SE TENÍAN ABUNDANCIAS CON VALOR CERO, SE ELIMINARON YA
QUE SE TIENEN
# RESTRICCIONES DE COCIENTE POR COMO ESTÁ ESTRUCTURADO EL ÍNDCIE DE SHANNON.

# PARA OBTENER EL ÍNDCIE DE SHANNON DE ALGUNA MUESTRA ALEATORIA, SÓLO SE DEBE ESPECIFICAR
ESTA COMO
# POR EJEMPLO UNA MUESTRA POSISSON SERÍA: C1<-rpois(30,10) ES DECIR UNA MUESTRA DE 30
ESPECIES (DATOS)
# DE ORIGEN POISSON CONMEDIA 10. EXISTEN OTROS COMANDOS PARA GENERAR MUESTRAS DE DIFERENTE
NATURALEZA,
# ESTOS ESTÁN EN LA AYUDA DEL S-PLUS.


#C1<-rpois(30,10)
#C1

#PARCELA 1 (NANCY)

#C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10
#,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
#,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)

#PARCELA 2 (NARANJOS)

# C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1


52
#,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
#,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3
#,445,692,6,14,94,22,7,204,7,14,65,2,1,13)

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


N<-sum(C1) # CÁLCULO DEL TOTAL DE INDIVIDUOS EN LA MUESTRA 1 (C1)(TAMAÑO DE LAMUESTRA)
N
S<-length(C1) # S ES EL NÚEMERO DE ESPECIES DE LA MUESTRA 1 (C1)
S
P1<-rep(0,S)
PL1<-rep(0,S)
for(i in 1:S)

{
P1[i]<-(C1[i]/N)
PL1[i]<-((P1[i]*log(P1[i])))
H1<- -(sum(PL1))
}

cat("\n"," El ÍNICE DE SHANNON ES: ",format(H1,digit=4),"\n\n")

#H1

# PROGRAMA PARA OBTENER EL ÍNDCIE DE SHANNON UTILIZANDO BOOTSTRAP Y LA PRUEBA DE
# NORMALIDAD DE KOLMOGOROV-SMIRNOV

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA

# PARCELA 1 (NANCY)

C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10
,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)


# PARCELA 2 (NARANJOS)

# C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1
#,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
#,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3
#,445,692,6,14,94,22,7,204,7,14,65,2,1,13)


53

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


#C1<-rpois(22,10) # VECTOR DE MUESTRAS ALEATORIAS POISSON (20 ESPECIES)

#C1<-rlnorm(50,3,.4) # VECTOR DE MUESTRAS ALEATORIAS LOGNORMALES (50 ESPECIES)

#C1<-rnbinom(40,8,0.3) # VECTOR DE MUESTRAS ALEATORIAS BINOMIALES NEGARIVAS (30 ESPECIES)

# PROGRAMA PARA LA OBTENCIÓN DEL VALOR REAL DEL ÍNDICE DE SHANNON

H<-function(C1)
{
N<-sum(C1)
S<-length(C1)
P1<-rep(0,S)
PL1<-rep(0,S)
for(i in 1:S)

{
P1[i]<-(C1[i]/N)
PL1[i]<-((P1[i]*log(P1[i])))
H1<- -(sum(PL1))
}
P1
PL1
H1 # VALOR REAL DEL ÍNDICE DE SHANNON
}


# RUTINA BOOTSTRAP PARA EL ÍNDICE DE SHANNON

BOOTSHANN <- function(C1,nboot)
{
cboot<-matrix(0,nboot,1)
nn <- length(C1)
#cboot <- numeric(nboot)
for( i in 1:nboot )
{
id <- sample( 1:nn, size=nn, replace=T )
cboot[i,1] <- (H( C1[id] ))
}
return(cboot)


54
}


H1 # ESTIMACIÓN ORIGINAL (LA VERDADERA) DEL ÍNDICE DE SHANNON DE C1
N
S

IS <- BOOTSHANN(C1,500) # VALORES DE LAS RÉPLICAS BOOTSTRAP QUE SE QUIERAN (TIENE 500
RÉPLICAS INICIALMENTE)
IS

Z<-sort(IS) # ORDENAMIENTO ASCENDENTE DE LOS VALORES ORIGINADOS DEL PROCESO BOOTSTRAP
Z
hist(Z) # HISTOGRAMA DE LOS VALORES ORDENADOS
ks.gof (Z) # OBTENCIÓN DE LA PRUEBA DE NORMALIDAD DE KOLMOGOROV-SMIRNOV



#PRUEBA NO PARAMÉTRICA DE KRUSKALL Y WALLIS PARA EL ÍNDCIE DE SHANNON

#ESTE PROCEDIMIENTO ES GENERAL PARA CUALQUIER INDICE DE DIVERSIDAD, YA QUE ES NO
PARAMÉTRICO, PERO
# NOTE QUE SE REQUIEREN LAS ABUNDANCIAS PARA HACER REMUESTREO

#EJEMPLO REAL PARA EL ÍNDICE DE SHANNNON GENERADO CON BOOTSTRAP (50 VALORES ) PARA LAS 3
PARCELAS
#ASUMIENDO QUE NO HAY NORMALIDAD, SE QUIERE VER SI SON DIFERENTES O IGUALES LOS INDICES
#SE USARÁ LA PRUEBA DE KRUSKALL-WALLIS
#Ho:HB1=HB2=HB3


#PARCELA 1 (NANCY) SE BORRARON LOS CEROS
# H' REAL=3.4


IS1<-
c(3.1,3.04,3.28,3.19,3.14,3.14,3.06,3.32,3.01,3.04,2.83,3.11,3.16,3.52,3.05,3.37,3.31,3.
55,2.97,3.06,3.13,3.4,3.28,3.25,3.39,3.22,3,2.9,3.13,3.12,3.32,3.18,3.04,3.3,3.21,3.05,3
.47,3.26,3.46,3.2,3.16,3.52,3.5,3.07,3.35,2.95,3.05,3.49,3.13,3.41)

#PARCELA 2 NARANJOS
# H' REAL=3.516

IS2<-
c(3.3,3.45,3.53,3.7,3.7,3.41,3.52,3.46,3.39,3.32,3.46,3.54,3.69,3.48,3.52,3.97,3.62,3.2,
3.71,3.63,3.28,3.57,3.6,3.41,3.31,3.37,3.18,3.28,3.81,3.55,3.45,3.56,3.38,3.9,3.59,3.46,
3.36,3.68,3.43,3.54,3.64,3.46,3.69,3.49,3.39,3.54,3.56,3.51,3.57,3.47)



55
# PARCELA 3
# H' REAL= 3.228

IS3<-
c(3.25,3.2,3.56,3.03,3.17,3.33,3.12,3.36,3.23,3.36,3.25,3.38,3.12,3.25,3.3,3.18,3.48,3.,
3.21,3.29,3.32,3.56,3.14,3.11,3.37,3.07,3.26,3.45,3.22,3.23,3.29,3.4,3.31,2.98,3.36,3.32
,3.5,3.23,3.04,3.45,3.17,3.41,3.26,3.43,3.46,3.05,3.28,3.34,3.55,3.3)

IS1
IS2
IS3

length (IS1)
length (IS2)
length (IS3)

#k<-3
L1<-length(IS1)
L2<-length(IS2)
L3<-length(IS3)
#L4<-length(IS4)
#L5<-length(IS5)
#L6<-length(IS6)

G1<-rep(1,L1)
G2<-rep(2,L2)
G3<-rep(3,L3)
#G4<-rep(4,L4)
#G5<-rep(5,L5)
#G6<-rep(6,L6)

G1
G2
G3
#G4
#G5
#G6

HBMAT<-cbind(IS1,IS2,IS3)
HBMAT

GRUPOS<-cbind(G1,G2,G3)
HBMAT
GRUPOS
kruskal.test(HBMAT,GRUPOS)

#PROGRAMA PARA OBTENER EL ÍNDICE DE SHANNON UTILIZANDO MONTE CARLO Y LA PRUEBA DE NORMALIDAD
# DE KOLMOGOROV-SMIRNOV


56

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA

# NOTE QUE ESTE MÉTODO TRABAJA ÚNICAMENTE CON MUESTRAS ALEATORIAS, POR LO QUE SI SE LE DA UN
VECTORV DE
# ABUNDANCIAS (C1) CONSTANTE SÓLO PRODUCIRÁ UN VALOR CONSTANTE, YA QUE NO VARIARÁ EL VECTOR
C1.

#PROCESO MONTECARLO DEL ÍNDICE DE SHANNON

HM<-0


for (j in 1:1001)

{


C1<-rlnorm(50,3,.4) # VECTOR DE MUESTRAS ALEATORIAS LOGNORMALES (50 ESPECIES)

#C1<-rpois(22,10) # VECTOR DE MUESTRAS ALEATORIAS POISSON (20 ESPECIES)

#C1<-rnbinom(40,8,0.3) # VECTOR DE MUESTRAS ALEATORIAS BINOMIALES NEGARIVAS (30 ESPECIES)

{

N<-sum(C1)
S<-length(C1)
P1<-rep(0,S)
PL1<-rep(0,S)
for(i in 1:S)

{
P1[i]<-(C1[i]/N)
PL1[i]<-((P1[i]*log(P1[i])))
H1<- -(sum(PL1))
}
P1
PL1
H1

}
HM<-c(HM,H1)
}

H1
N


57
S

M<-HM[2:1001] #NÚMERO DE RÉPLICAS MONTE CARLO (1001 COMO VALOR INICIAL YA QUE EMEPZARÁ EN 2)
M

hist(M) # HISTOGRAMA DE LOS VALORES MONTE CARLO GENERADOS
ks.gof (M) # PRUEBA DE NORMALIDAD


# PROGRAMA PARA OBTENER INTERVALOS DE CONFIANZA PARA EL ÍNDICE DE SHANNON (BASADOS EN LA
NORMALIDAD)
#UTILIZANDO MONTE CARLO

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA

C1<-rpois(22,20) # VECTOR DE MUESTRAS ALEATORIAS POISSON (22 ESPECIES)

#C1<-rlnorm(50,3,.4) # VECTOR DE MUESTRAS ALEATORIAS LOGNORMALES (50 ESPECIES)

#C1<-rnbinom(30,8,0.3) # VECTOR DE MUESTRAS ALEATORIAS BINOMIALES NEGARIVAS (30 ESPECIES)



N<-sum(C1)
N
S<-length(C1)
S
P1<-rep(0,S)
PL1<-rep(0,S)
PL2<-rep(0,S)


for(i in 1:S)

{
P1[i]<-(C1[i]/N) # OBTENCIÓN DE LAS PROPORCIONES (FRECUENCIAS EN EL ÍNDICE DE SHANNON)
PL1[i]<-((P1[i]*(log(P1[i]))^2))
PL2[i]<- (P1[i]*log(P1[i]))
H1<-sum(PL1)
H1
H2<--sum(PL2)
H2
}

VARH<-((H1-H2)/(N-1)) # OBTENCIÓN DE LA VARIANZA DEL ÍNDIECE DE SHANNON
VARH



58
SIGMAH<-sqrt(VARH) # ERROR ESTÁNDAR DEL ÍNDICE DE SHANNON
SIGMAH

H2 # VALOR REAL DEL ÍNDICE DE SHANNON

N
S

alpha<-0.05 # NIVEL DE SIGNIFICANCIA

ztable<-qnorm(1-alpha/2,0,1) # VALOR CRÍTICO (1-alpha/2) DE LA DISTRIBUCIÓN NORMAL ESTÁNDAR

ztable

LS<-H2+(ztable)*SIGMAH/sqrt(1) # LÍMITE SUPERIOR DEL INTERVALO DE CONFIANZA
LS

LI<-H2-(ztable)*SIGMAH/sqrt(1) #LÍMITE INFERIOR DEL INTERVALO DE CONFIANZA
LI


# PROGRAMA PARA LA OBTENCIÓN DE LA VARIANZA ASINTÓTICA Y EL COEFICIENTE DE VARIACIÓN DEL
ÍNDICE DE SHANNON (H')
# UTILIZANDO MONTE CARLO (SE UTILIZARÁN SÓLO MUESTRAS ALEATRIAS)

# LA VARIANZA ASINTÓTICA FUE OBTENIDA POR SAMUEL-CAHN (1975)


# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA


# PROCESO MONTE CARLO

HM<-0

for (j in 1:1001)

{

C1<-rpois(70,10) # VECTOR DE MUESTRAS ALEATORIAS POISSON 70 ESPECIES)

#C1<-rlnorm(50,3,.4) # VECTOR DE MUESTRAS ALEATORIAS LOGNORMALES (50 ESPECIES)

#C1<-rnbinom(60,8,0.3) # VECTOR DE MUESTRAS ALEATORIAS BINOMIALES NEGARIVAS (60 ESPECIES)

{


59

N<-sum(C1)
N
S<-length(C1)
S
P1<-rep(0,S)
PL1<-rep(0,S)
PL2<-rep(0,S)

for(i in 1:S)

{
P1[i]<-(C1[i]/N)#frecuencias
PL1[i]<-((P1[i]*(log(P1[i]))^2))
PL2[i]<- (P1[i]*log(P1[i]))
H1<-sum(PL1)
H1
H2<- -sum(PL2)
H2

VARH[i]<-((H1-H2)/(N-1)) # VARIANZA DEL ÍNDICE DE SHANNON (H') DE LA i-ésima MUESTRA
VARH

m[i]<-mean(C1) # MEDIA MUESTRAL
m

CV<-sqrt(VARH[i])/m # COEFICNTE DE VARIACIÓN DE LA i-ésima MUESTRA
CV
}
}
HM<-c(HM,CV)
}

N
S

M<-HM[2:1001] # VALORES DE H' MEDIANTE MONTE CARLO (INICIALMENTE 1001 YA QUE EMPIEZA EN EL
VALOR 2)


HCV<-sort(M) # ORDENAMIENTO DE LOS VALORES DE H'

ShannonCV<-HCV*100 # COEFICIENTE DE VARIACIÓN DE H' (EN %)
ShannonCV

plot(ShannonCV) #GRÁFICA DE LOS VALORES ORDENADOS DE H'



60




a.2) PROGRMAS PARA EL ÍNDICE DE FISHER

# PROGRAMA PARA EL CÁLCULO DEL ÍNDICE α DE FISHER, CONOCIDO N Y S (LA SEMILLA Y EL ERROR
SON OPCIONALES DE DAR)

# UTILIZÓ EL MÉTODO DE NEWTON-RAPHSON PARA RESOLVER EL ÍNDICE DE FISHER

# SI LA SEMILLA QUE SE DA NO ES CONVENIENTE PARA EL PROGRAMA, DAR OTRA
# EL PROGRAMA INDICARÁ SI LA SEMILLA DADA NO ES LA ADECUADA

# ESPECIFICAR PRIMERO N(NÚMERO DE INDIVIDUOS EN LA MUESTRA) Y DESPUÉS S (NÚMERO DE ESPECIES)
# NOTE QUE EL PROGRAMA CONVERGE RÁPIDO POR ESTE MÉTODO Y QUE SIEMPRE N ES MAYOR O IGUAL A S
# POR LO ANTERIOR LA SEMILLA 1 SERÁ CASI SIEMPRE ADECUADA

N<-170 # VALOR DEL TAMAÑO DE MUESTRA
S<-20 # NÚMERO DE ESPECIES


FisherNS<-function(N,S,e0=0.001,semilla=1)
{

error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 #PRIMERA DERIVADA DE LA FUNACIÓN DEL ÍNDICE DE FISHER
}

while (error > e0) # CRITERIO DE CONVERGENCIA
{


if (error > e0)


61
{

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)

}
if (error > 100)

{ stop(" LA SEMILLA FALLA, DAR OTRA ")}


#print(a1)

}

cat("\n"," El Indice de Diversidad ALFA por el método de Newton-Raphson es:
",format(a1,digit=4),"\n\n")

cat("\n\n")

#print(a1)
#format(a1,digit=4)

}

FisherNS(N,S,e0,semilla)



#PROGRAMA PARA OBTENER EL ÍNDICE DE FISHER ESPECIFICANDO UN VECTOR DE ABUNDANCIAS

# SI LA SEMILLA QUE SE DA NO ES CONVENIENTE PARA LA CONVERGENCIA DEL PROGRAMA, DAR OTRA

#EL PROGRAMA INDICARÁ SI LA SEMILLA DADA NO ES LA ADECUADA

# PARCELA 1 (NANCY)

#C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10
#,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
#,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)


# PARCELA 2 (NARANJOS)

C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1
,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3


62
,445,692,6,14,94,22,7,204,7,14,65,2,1,13)

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


#C1<-rpois(22,10) # VECTOR DE MUESTRAS ALEATORIAS POISSON (20 ESPECIES)

#C1<-rlnorm(50,3,.4) # VECTOR DE MUESTRAS ALEATORIAS LOGNORMALES (50 ESPECIES)

#C1<-rnbinom(40,8,0.3) # VECTOR DE MUESTRAS ALEATORIAS BINOMIALES NEGARIVAS (30 ESPECIES)


Fisher<-function(C1,e0=0.001,semilla=1)
{

S<-length (C1)
S
N<-sum(C1)
N
#e0<-0.001
e0
error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 #PRIMERA DERIVADA DE LA ECUACIÓN PARA OBTENER EL ÍNDICE DE
SHANNON
}

while (error > e0)
{

if (error > e0)
{


63

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)


}
if (error > 100)

{ stop(" LA SEMILLA FALLA, DAR OTRA ")}


#print(a1)

}

cat("\n"," El Indice de Diversidad ALFA por el método de Newton-Raphson es:
",format(a1,digit=4),"\n\n")

cat("\n\n")


#a1

}

#La función Fisher original es en el orden (vector(C1),tamaño del error (e0),semilla)
# Se Puede Variar tamaño del error y/o semilla

Fisher(C1,e0=0.001,semilla=1)

#PRUEBA NO PARAMÉTRICA DE KRUSKALL Y WALLIS PARA EL ÍNDICE DE FISHER

#ESTE PROCEDIMIENTO ES GENERAL PARA CUALQUIER INDICE DE DIVERSIDAD, YA QUE ES NO
PARAMÉTRICO, PERO
# NOTE QUE SE REQUIEREN LAS ABUNDANCIAS PARA HACER REMUESTREO

#EJEMPLO REAL PARA EL ÍNDICE DE FISHER GENERADO CON BOOTSTRAP (50 VALORES ) PARA LAS 3
PARCELAS
#ASUMIENDO QUE NO HAY NORMALIDAD, SE QUIERE VER SI SON DIFERENTES O IGUALES LOS INDICES
#SE USARÁ LA PRUEBA DE KRUSKALL-WALLIS
#Ho:ALFA1=ALFA2=ALFA3

#PARCELA 1 (NANCY)
#ALFA REAL=12.56

ALFA1<-
c(13.03,12.57,12.76,14.17,13.53,11.51,12.99,12.68,13.66,13.17,12.62,12.19,11.85,12.07,12


64
.96,11.95,12.08,13.59,12.39,12.07,12.7,12.71,13,12.26,11.79,12.42,12.17,13.42,13.18,12.5
5,13.58,12.43,13.68,12.78,13.18,12.59,12.2,13.42,12.19,13.12,12.89,13.56,12.91,12.36,12.
46,13.05,12.83,11.64,12.79,12.61)

#PARCELA 2 NARANJOS
#ALFA REAL=20.02

ALFA2<-
c(19.49,20.18,20.18,23.36,19.05,19.53,19.46,20.37,19,21.24,19.68,20.27,20.34,18.81,20.38
,20.84,18.61,20.65,20.47,20.19,21.68,20.45,21.36,19.9,20.49,19.52,20.35,19.62,21.29,21.7
5,23.8,19.94,21.5,20.25,19.5,21.98,19.48,18.33,21.18,19.69,20.6,18.72,21.36,21.32,19.44,
21.11,19.75,20.9,19.38,20.17)

# PARCELA 3 (OLIVA2)
#ALFA REAL=14.08

ALFA3<-
c(14.55,13.93,13.56,14.59,13.68,13.61,13.22,13.84,15.74,14.3,15.33,14.33,15.37,14.54,14.
4,13.97,14.04,13.25,13.91,13.95,13.97,13.26,15,15.28,14.41,13.33,14.19,13.56,14.81,13.19
,15,15.03,12.93,13.85,13.73,15.94,14.28,14.17,13.57,13.52,13.34,13.42,12.96,14.78,13.46,
14.98,12.55,13.23,13.17,13.76)

ALFA1
ALFA2
ALFA3

length (ALFA1)
length (ALFA2)
length (ALFA3)



#k<-3

L1<-length(ALFA1)
L2<-length(ALFA2)
L3<-length(ALFA3)
#L4<-length(ALFA4)
#L5<-length(ALFA5)
#L6<-length(ALFA6)

G1<-rep(1,L1)
G2<-rep(2,L2)
G3<-rep(3,L3)
#G4<-rep(4,L4)
#G5<-rep(5,L5)
#G6<-rep(6,L6)



65
G1
G2
G3
#G4
#G5
#G6

ALFABOOT<-cbind(ALFA1,ALFA2,ALFA3)

GRUPOS<-cbind(G1,G2,G3)
HBMAT
GRUPOS

kruskal.test(ALFABOOT,GRUPOS) # APLICACIÓN DE LA PRUEBA DE KRUSKAL Y WALLIS

# PROGRAMA BOOTSTRAP PARA EL ÍNDICE ALFA DE FISHER Y PRUEBA DE NORMALIDAD DE KOLMOGORV-
SMIRNOV
# UTILIZANDO BOOTSTRAP

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA

# PARCELA 1 (NANCY)

#C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10
#,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
#,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)



# PARCELA 2 (NARANJOS)

# C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1
#,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
#,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3
#,445,692,6,14,94,22,7,204,7,14,65,2,1,13)

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


C1<-rpois(20,80) # VECTOR DE MUESTRAS ALEATORIAS POISSON (20 ESPECIES)


# OBTENCIÓN DEL ÍNDICE DE FISHER


66

Fisher<-function(C1,e0=0.001,semilla=1)
{

S<-length (C1)
S
N<-sum(C1)
N
#e0<-0.001
e0
error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 # OBTENCIÓN DE LA PRIMERA DERIVADA
}

while (error > e0)
{

if (error > e0)
{

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)



}
if (error > 100)

{ stop(" LA SEMILLA FALLA, DAR OTRA ")}

#print(a1)

}



67
a1

}

# RUTINA BOOTSTRAP PARA EL ÍNDICE DE FISHER

BOOTFISH <- function(C1,nboot,semilla=1,e0=0.001)
{
cboot<-matrix(0,nboot,1)
nn <- length(C1)
#cboot <- numeric(nboot)
for( i in 1:nboot )
{

id <- sample( 1:nn, size=nn, replace=T )
cboot[i,1] <- (Fisher( C1[id],e0,semilla))
}
return(cboot)
}

N
S
a1 # VALOR REAL DEL ÍNDICE DE FISHER

IF <- BOOTFISH(C1,500) # RÉPLICAS BOOTSTRAP PARA EL ÍNDICE DE FISHER
#IF
A<-sort(IF) # ORDENAMIENTO DE LOS VALORES GENERADOS CON BOOTSTRAP
A
hist(A)
ks.gof (A) # PRUEBA DE NORMALIDAD DE LOS VALORES BOOTSTRAP
# PROGRAMA MONTE CARLO PARA EL ÍNDICE DE FISHER Y PRUEBA DE NORMALIDAD DE KOLMOGOROV-SMIRNOV
# UTILIZANDO MONTE CARLO

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA


# PROCESO MONTE CARLO

FISHMON<-0

for (j in 1:1O01)

{
C1<-rlnorm(20,1.2,.4) # MUESTRA ALEATORIA LOGNORMAL
C1

semilla<-1


68
S<-length (C1)
S
N<-sum(C1)
N
e0<-0.001
e0
error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 # PRIMERA DERIVADA DE LA FUNCIÓN PARA EL CÁLCULO DEL ÍNDICE DE FISHER
}


while (error > e0)
{


if (error > e0)
{

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)


}

if (error > 100)
{ stop(" LA SEMILLA FALLA, DAR OTRA ")}


#a1

}

FISHMON<-c(FISHMON,a1)
}


69

a1
N
S
ALFAFISH<-FISHMON[2:1001] # RÉPLICAS MONTE CARLO PARA EL ÍNDICE DE FISHER
ALFAFISH

hist(ALFAFISH) # HISTOGRAMA PARA LAS RÉPLICAS GENERADAS

ks.gof(ALFAFISH) # PRUEBA DE NORMALIDAD


# PROGRAMA PARA LA OBTENCIÓN DE INTERVALOS DE CONFIANZA PARA EL ÍNDICE DE FISHER
(CONSIDERANDO NORMALIDAD)

#PROGRAMA PARA OBTENER EL ÍNDICE DE FISHER, ESPECIFICANDO, N, S (LA SEMILLA Y EL ERROR SON
OPCIONALES DE DAR)
# SI LA SEMILLA QUE SE DA NO ES CONVENIENTE PARA LA CONVERGENCIA DEL PROGRAMA, DAR OTRA
#EL PROGRAMA LO INDICARÁ SI LA SEMILLA DADA NO ES LA ADECUADA

# PARCELA 1 (NANCY)

#C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10
#,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
#,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)


# PARCELA 2 (NARANJOS)

C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1
,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3
,445,692,6,14,94,22,7,204,7,14,65,2,1,13)

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


Fisher<-function(C1,e0=0.001,semilla=1)
{

S<-length (C1)
S
N<-sum(C1)
N


70
#e0<-0.001
e0
error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 # PRIMERA DERIVADA DE LA FUNCIÓN PARA LA OBTENCIÓN DEL ÍNDICE DE
FISHER
}

while (error > e0)
{

if (error > e0)
{

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)


}
if (error > 100)

{ stop(" LA SEMILLA FALLA, DAR OTRA ")}

#print(a1)

}

a1

}

Fisher(C1) #,0.1,4)

a1<-Fisher(C1) #,0.1,4) # VALOR DEL ÍNDICE DE FISHER
a1


71

num<-a1^3*((N+a1)^2*log((2*N+a1)/(N+a1))-a1*N) # NUMERADOR DE LA ECUACIÓN PARA LA VARIANZA
num

den<-(S*N+S*a1-N*a1)^2 # DENOMINADOR DE LA ECUACIÓN PARA LA VARIANZA
den

VARa1<-(num/den) # VARIANZA DEL ÍNDICE DE FISHER
VARa1

SIGMAa1<-sqrt(VARa1) # ERROR ESTÁNDAR DEL ÍNDICE DE FISHER
SIGMAa1

N
S

alpha<-0.05 # NIVEL DE SIGNIFICANCIA
ztable<-qnorm(1-alpha/2,0,1) # VALOR CRÍTICO DE LA DTSRIBUCIÓN NORMAL ESTÁNDAR
ztable

LS<-a1+(ztable)*SIGMAa1/sqrt(1) # LÍMITE SUPERIOR DEL INTERVALO DE CONFIANZA
LS

LI<-a1-(ztable)*SIGMAa1/sqrt(1) # LÍMITE INFERIOR DEL INTERVALO DE CONFIANZA
LI




# OBTENCIÓN DE LA VARIANZA Y DEL COEFICIENTE DE VARIACIÓN DEL ÍNDICE DE FISHER UTILIZANDO
MONTE CARLO
# LA VARIANZA FUE OBTENIDA DE MANERA ASINTÓTICA POR FISHER (1943)

# N ES EL NÚMERO DE INDIVIDUOS EN LA MUESTRA
# S ES EL NÚMERO DE ESPECIES EN LA MUESTRA

# PROCESO MONTE CARLO

FISHCV<-0

for (j in 1:101)

{

# PARCELA 1 (NANCY)

#C1<-c(2,3,1,198,24,17,45,3,126,207,2,1,10,79,5,5,3,6,2,27,67,23,1,10,16,129,49,3,10


72
#,46,108,13,13,1,6,4,3,13,83,21,16,5,90,10,8,299,14,38,168,7,239,186,55,743,172,2,1,1
#,907,1,1,28,4,39,1,75,224,4,48,96,16,30,1,3,2)


# PARCELA 2 (NARANJOS)

# C1<-c(1,1,1,1,1,1,1,36,156,5,9,44,2,44,4,51,44,128,70,1,3,74,1,1,48,2,11,34,2,1,1
#,56,5,17,4,3,25,1,5,2,7,127,1,6,14,117,1,4,106,4,1,49,47,13,10,11,1,9,1,27,12,28,415
#,1,9,2,137,1,35,14,2,1,29,11,1,1,2,196,1,42,149,68,84,65,73,3,1,54,7,4,23,1,102,1,3
#,445,692,6,14,94,22,7,204,7,14,65,2,1,13)

# PARCELA 3 (OLIVA2)

#C1<-c(11,114,72,17,2,14,330,73,17,1,1,13,68,1,6,3,22,31,40,2,36,5,1,6,58,8,5,7,6,3,2,10
#,3,62,5,1,4,4,63,5,20,2,22,17,13,44,17,4,1,8,145,13,2,14,5,4,81,64,194,480,98,11,9,65
#,1,1,2,115,1,39,611,33,16,15,41,215,12,3)


C1<-rpois(20,80) # VECTOR DE MUESTRAS ALEATORIAS POISSON (20 ESPECIES)


semilla<-1
S<-length (C1)
S
N<-sum(C1)
N
e0<-0.001
e0
error<-1
error
a1<-semilla
a1

f<-function(N,S,a)

{
a*exp(S/a)-a-N
}

f1<-function(S,a)

{
exp(S/a)*(1-S/a)-1 # OBTENCIÓN DE LA PRIMERA DERIVADA

}

while (error > e0)
{


73

if (error > e0)
{

a0<-a1
a1<- a0-(f(N,S,a0))/f1(S,a0)
error<-abs((a1-a0)/a1)

}

if (error > 100)
{ stop(" LA SEMILLA FALLA, DAR OTRA ")}


#a1

num[j]<-a1^3*((N+a1)^2*log((2*N+a1)/(N+a1))-a1*N)# NUMERADOR DE LA ECUACIÓN PARA LA VARIANZA
DEL ÍNDICE DE FISHER
num

den[j]<-(S*N+S*a1-N*a1)^2 # DENOMINADOR DE LA ECUACIÓN PARA LA VARIANZA DEL ÍNDICE DE FISHER
den
VARa1<-(num/den) # SE TENDRÁN j VALORES DE VARa1
#print(VARa1)

m[j]<-mean(C1) # MEDIA MUESTRAL
m
CV<-sqrt(VARa1[j])/m # VALORES DEL COEFICIENTE DE VARIACIÓN
CV
}

FISHCV<-c(FISHCV,CV)
}

N
S

ALFAFISH<-FISHCV[2:101] # VALORES DEL COEFICIENTE DE VARIACIÓN
B<-ALFAFISH *100 # VALORES DEL COEFICIENTE DE VARIACIÓN (EN %)
B

FisherCV<-sort(B) # VALORES ORDENADOS DE LAS RÉPLICAS MONTE CARLO PARA EL COEFICIENTE DE
VARIACIÓN
FisherCV
plot(FisherCV) # GRÁFICA DE LOS VALORES ORDENADOS




74
B: TABLA
VALORES CRÍTICOS PARA LA ESTADÍSTICA T DE KRUSKAL Y WALLIS
Tamaños de muestra Tamaños de muestra
n
1
n
2
n
3
T alfa n
1
n
2
n
3
T alfa

2 1 1 2.7000 0.500 4 4 1 6.6667 0.010
2 2 2 3.6000 0.200 6.1667 0.022
2 2 2 4.5714 0.067 4.9667 0.048
3.7143 0.200 4.8660 0.054
3 1 1 3.2000 0.300 4.1667 0.082
3 2 1 4.2857 0.100 4.0667 0.102
3.8571 0.133 4 4 2 7.0364 0.006
3 2 2 5.3572 0.029 6.8727 0.011
4.7143 0.048 5.4545 0.046
4.5000 0.067 5.2364 0.052
4.4643 0.105 4.5545 0.098
3 3 1 5.1429 0.043 4.4455 0.103
4.5714 0.100 4 4 3 7.1439 0.010
4.0000 0.129 7.1364 0.011
3 3 2 6.2500 0.011 5.5985 0.049
5.3611 0.032 5.5758 0.051
5.1389 0.061 4.5455 0.099
4.5556 0.100 4.4773 0.102
4.2500 0.121 4 4 4 7.6538 0.008
3 3 3 7.2000 0.004 7.5385 0.011
6.4889 0.011 5.6923 0.049
5.6889 0.029 5.6538 0.054
5.6000 0.050 4.6539 0.097
5.0667 0.086 4.5001 0.104
4.6222 0.100 5 5 1 3.8571 0.143
4 1 1 3.5714 0.200 5 2 1 5.2500 0.036
4 2 1 4.8214 0.057 5.0000 0.048
4.5000 0.076 4.4500 0.071
4.0179 0.114 4.2000 0.095
4 2 2 6.0000 0.014 4.0500 0.119
5.3333 0.033 5 2 2 6.5333 0.008
5.1250 0.052 6.1333 0.013
4.4583 0.100 5.1600 0.034
4.1667 0.105 5.0400 0.056


75
4 3 1 5.8333 0.021 4.3733 0.090
5.2083 0.050 4.2933 0.122
5.0000 0.057 5 3 1 6.4000 0.012
4.0556 0.093 4.9600 0.048
3.8889 0.129 4.8711 0.052
4 3 2 6.4444 0.008 4.0718 0.095
6.3000 0.011 3.8400 0.123
5.4444 0.046 5 3 2 6.9091 0.009
5.4000 0.051 6.8218 0.010
45.1110 0.098 5.2509 0.049
4.4444 0.102 5.1055 0.052
4 3 3 6.7455 0.010 4.6509 0.091
6.7090 0.013 4.4945 0.101
5.7909 0.046 5 3 3 7.0788 0.009
5.7273 0.050 6.9818 0.011
4.7091 0.092
4.7000 0.101









76
C: DATOS REALES PARA LAS TRES PARCELAS TRABAJADAS
DATOS REALES PARA LAS TRES PARCELAS DE UNA HECTÁREA CADA UNA

No. ACRÓNIMOS
DE ESPECIES
PARCELA 1 PARCELA 2 PARCELA 3 TOTAL
1 ACACIACO 2 36 11 49
2 ACALYSCH 0 156 114 270
3 ALBIZZIA 3 5 0 8
4 ANNONAGL 1 9 0 10
5 APHANMON 198 44 72 314
6 ARDIESCA 24 2 0 26
7 ASPIMEGA 17 44 17 78
8 ASTRONIU 45 4 2 51
9 BAHUINIA 3 0 0 3
10 BROSALIC 126 51 14 191
11 BUNCHLAN 0 44 330 374
12 BURSSIMA 207 128 73 408
13 cacorrug 2 0 0 2
14 CALYPTRA 0 70 17 87
15 camedang 0 0 1 1
16 canumono 1 0 0 1
17 capucoro 10 1 1 12
18 capumayo 0 3 13 16
19 CARPOAME 79 74 68 221
20 CASEACOR 0 1 0 1
21 CASIMIRE 0 1 0 1
22 CASTIELA 5 48 0 53
23 CECROPIA 5 2 1 8
24 CEDRELAO 3 11 6 20
25 CEIBAPEN 6 0 0 6
26 CNIDOSMU 2 34 3 39
27 COCCOLOB 0 2 0 2
28 COJOBARB 27 1 22 50
29 CRODRACO 0 1 0 1
30 CSOLIMAN 67 56 31 154
31 cuaretam 0 5 0 5
32 CUPANDEN 23 17 40 80
33 chacuaco 1 4 2 7
34 CHAMEDOR 10 3 0 13
35 CHAMEOBL 0 0 36 36
36 CHAMETEP 16 25 5 46
37 CHIOCOAL 0 1 0 1
38 CHOMEPRO 0 5 1 6
39 CHRYSOME 0 2 6 8


77
40 DAPHNOPM 0 7 0 7
41 DENDROAR 129 127 58 314
42 DESMOPSI 0 1 0 1
43 DIOSDIGY 49 6 8 63
44 EUCAPULI 3 14 5 22
45 EUGECOLI 10 117 7 134
46 EUGENISP 0 1 0 1
47 EXOTHEAC 46 4 6 56
48 FAROCCID 108 106 3 217
49 FICUSGLA 13 0 2 15
50 FICUSSP1 0 4 10 14
51 FICUSSP2 0 1 3 4
52 FICUSSPP 13 0 0 13
53 goomilla 1 49 62 112
54 guajepri 0 0 5 5
55 GUAZULMI 6 47 1 54
56 guuaajee 0 0 4 4
57 HAMEPETE 0 13 4 17
58 HAMPEASP 4 10 63 77
59 HELIOCAR 3 11 5 19
60 hojarasp 0 1 0 1
61 INGAPUNC 13 9 20 42
62 IRESINEH 0 1 0 1
63 IRESINIG 0 0 2 2
64 JACQUINI 83 27 22 132
65 LENNEAME 21 12 17 50
66 LEUCAENA 16 28 13 57
67 LICARCAP 5 0 0 5
68 LITSEAGL 90 415 44 549
69 malhomch 0 1 0 1
70 MALPIGLA 10 9 17 36
71 MALVAVIS 0 2 0 2
72 MANILKAR 8 137 4 149
73 matacaba 0 0 1 1
74 MOLLIVIR 0 0 8 8
75 mooraaal 0 1 0 1
76 NECTAMBI 299 35 145 479
77 NECTSALI 14 14 13 41
78 ooccotee 0 2 0 2
79 OREOPANC 0 1 0 1
80 paloapes 38 29 2 69
81 paloblan 168 11 14 193
82 palquina 7 1 0 8
83 PERSEAAM 0 1 5 6


78
84 PERSESCH 0 2 0 2
85 PICRANDI 239 196 4 439
86 PICRANTI 0 1 0 1
87 PIMDIOIC 186 42 81 309
88 PIPERADU 0 149 64 213
89 PIPERAMA 55 68 194 317
90 PLEUMEXI 743 84 480 1307
91 PROCOPAL 172 65 98 335
92 PRUCAPUL 2 73 0 75
93 PRUNUBRA 0 0 11 11
94 PRUNULUN 0 3 0 3
95 PSEUDOXY 1 0 0 1
96 PSYCHMIC 1 1 9 11
97 PSYCHOCO 907 54 65 1026
98 PSYCHOCH 0 0 1 1
99 PSYCHOLI 0 7 0 7
100 QUERCOLE 1 0 0 1
101 quibrach 1 4 1 6
102 RANDIAAR 28 23 2 53
103 roblanca 4 0 0 4
104 RONDELEH 0 1 0 1
105 SAPINSAP 39 102 115 256
106 SPONDMOM 0 1 0 1
107 STYRAWAC 1 0 1 2
108 sufricma 0 3 0 3
109 SYMPLOCO 75 445 39 559
110 TABEALBA 224 692 611 1527
111 TABEBUIA 4 6 0 10
112 TAPIRMEX 48 14 33 95
113 tepejcha 0 0 16 16
114 TERNSTEP 96 94 15 205
115 TRICHHAV 16 22 41 79
116 trompill 0 7 0 7
117 TROPHISR 30 204 215 449
118 uña de gato 0 7 0 7
119 URERACAR 1 14 12 27
120 WIMMCONC 3 65 3 71
121 YUCCASPP 2 0 0 2
122 zaapotee 0 2 0 2
123 ZANTHOFA 0 1 0 1
124 zarzapri 0 13 0 13
125 descono1 0 1 0 1
126 descono2 0 1 0 1
127 descono3 0 1 0 1


79
128 descono4 0 1 0 1
129 descono5 0 1 0 1
130 descono6 0 1 0 1
131 descono7 0 1 0 1
TOTAL 4919 4604 3570 13093



80
D: MÉTODO DE NEWTON-RAPHSON

El método consiste en lo siguiente: Sea la ecuación f(x) = 0, con raíz simple en el intervalo
(a,b) y f(x) continua en [a,b], con f´(x) continua y diferente de cero en todo (a,b), supóngase
también que f´´(x) es continua y no cambia de signo en (a,b). Primero se escoge el punto a
o b, con el cual f(a) o f(b) tiene el mismo signo que la doble derivada, supóngase (para
simplificar), que resulta ser el punto a. En segundo lugar se traza una recta a la curva f(x),
en el punto (a, f(a)), de geometría analítica sabemos que dicha recta tiene por ecuación:
y-f(a) = f´(a)(x-a), sea x
1
el punto de intersección de esta recta con el eje de las X,
tendremos que 0-f(a) = f´(a)(x
1
-a), de donde despejamos a x
1
y representando x
o
= a, se
obtiene:

de la misma manera, con x
1
obtenemos x
2
, después con x
2
se obtiene x
3
y así
sucesivamente, resulta así la fórmula para el cálculo de la n-ésima iteración por el método
de Newton-Raphson.

Donde el valor ( k+1) es función de valor presente k.

Entonces para resolver (d.1) se tendrá que utilizar:


Así pues, se requiere obtener cada uno de los elementos de (d.2) pero aplicada al índice de
Fisher, recuerde que la ecuación para dicho índice es:
) ( '
) (
0
0
0 1
x f
x f
x x − =
) 1 . (
) ( '
) (
1
d
x f
x f
x x
k
k
k k
− =
+
) 2 . (
) ( '
) (
1
d
x f
x f
x x
k
k
k k
− =
+


81

De (d.3), cancelando S se llega a:

Ahora requerimos la primera derivada es decir:

Una vez obtenidas la ecuaciones (d.4) y (d.5), se procede a programarlas en algún paquete
para su solución, en este caso, se trabajó con el paquete S-Plus 2000. Note que el método de
Newton-Raphson es iterativo lo cual implica establecer una semilla o valor inicial y un
criterio de convergencia (error permitido).

) 5 . ( 1 1 1 ) ( ) ( '
2
d
S
e
S
e e f
S S S







− = − − + =
α α
α α
α α α
) 4 . ( ) ( 0 d N e f e N
S S
− − = ⇒ = − − α α α α α
α α
) 3 . ( ) 1 ( d
S
e
S
N
S
α
α
÷ − =