You are on page 1of 214

FENÓMENOS CRÍTICOS

EN

INGENIERÍA AMBIENTAL

CON APLICACIONES

Óscar José Mesa Sánchez

Figure 1: Árbol Fractal


UN AL
Universidad Nacional de Colombia
Medellı́n, 2020

1
Contenido

1 Introducción 1

2 Fundamentos de Termodinámica y Mecánica Estadı́stica 3


2.1. Cinética de Gases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2. Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3. Principio Máxima Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Termodinámica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5. Magnetismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3 Transiciones de Fase 27
3.1. Caracterización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Modelo Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3. Simulación Montecarlo . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4. Renormalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4 Criticalidad Auto Organizada 57


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2. Análisis Dimensional y Escalamiento . . . . . . . . . . . . . . . . . . 58
4.3. Escalamiento Estadı́stico . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4. Memoria Larga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.5. Incendios Forestales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6. Sismicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.7. Deslizamientos (pila de arena) . . . . . . . . . . . . . . . . . . . . . . 91
4.8. Evolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

5 Fundamentos Sistemas Dinámicos 99


5.1. Análisis Cualitativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

ii
Contenido

5.2. Bifurcaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106


5.3. Formalización de Bifurcaciones . . . . . . . . . . . . . . . . . . . . . . 114
5.4. Flujos en el cı́rculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.5. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.6. Sistemas Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.7. Espacio de Fase, 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

6 Aplicaciones 153
6.1. Modelos de poblaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.2. Control Genético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.3. SobrePesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.4. Inteligencia Colectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
6.5. Dinámica de Lagos Pandos . . . . . . . . . . . . . . . . . . . . . . . . 166
6.6. Corales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
6.7. Epidemias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
6.8. Descomposición Espinodal . . . . . . . . . . . . . . . . . . . . . . . . 179
6.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

7 Resiliencia 187
7.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
7.2. Cambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
7.3. Ciclos Adaptativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

Bibliografı́a 193

Índice alfabético 203

iii
Prefacio

A theory is the more impressive the greater the simplicity of its premises
is, the more different kind of things it relates, and the more extended
is its area of applicability. Therefore the deep impression which classical
thermodynamics made upon me. It is the only physical theory of universal
content concerning which I am convinced that, within the framework of
applicability of its concepts it will never be overthrown.

Einstein (1949, pág. 33)

This book is intended primarily for research students. Readers who come
to it seeking crystallized Truth will go away irritated. I suspect that the
most satisfied readers will be those who come with revisionist intentions,
seeking the frayed ends of new puzzles and seeking outright errors that
might lead to novel perspectives.

Winfree (1980, pág. 1)

the virtue of a mathematical model...is that it forces clarity and precision


upon conjecture, thus enabling meaningful comparison between the conse-
quences of basic assumptions and the empirical facts

May (2004)

Una selva tropical es un ejemplo de un sistema complejo. Tiene enorme variedad de


especies, y cada especie una gran cantidad de individuos, las interacciones entre es-
pecies e individuos van desde generales (un ejército de hormigas consume todo lo que
encuentra a su paso), hasta muy especializadas (la única especie capaz de fertilizar
la orquı́dea cometa es una polilla particular con lengua de 30 cm, de acuerdo a lo
estudiado por Darwin). La adaptación es rápida y permanente. Toda esta diversidad
está soportada por suelos pobres, cuyos nutrientes se lixivian por las abundantes llu-
vias. Pero la temperatura y la lluvia son benignas para la vida, quizás diseñadas y

v
PREFACIO

producidas por la vida (Holland 2014; Lovelock 1995). Entre las caracterı́sticas de
la complejidad está la emergencia de propiedades nuevas, que no están presentes en
las partes. Otros sistemas con complejidades parecidas, además de varios ecosistemas
diferentes a la selva tropical, son el sistema climático, el océano, un lago, el cuerpo
humano, el cancer, la mente humana, los mercados, la opinión pública, las dinámi-
cas sociales (Levy 2005). ¿Cómo tratar los sistemas complejos? ¿Es posible usar las
ideas de otras disciplinas donde el éxito ha sido enorme? ¿Hay que inventar nuevas
herramientas? Serı́a pretencioso decir que en un texto como este se responde a tales
interrogantes. Sin embargo, se hace un esfuerzo por avanzar en esa dirección.
Los cambios de régimen son otros de los grandes temas de este texto: “ los cambios de
régimen ocurren para un amplio espectro de sistemas sociales, ecológicos y ambienta-
les (Scheffer y S. R. Carpenter 2003; Scheffer, S. Carpenter, Foley, Folke y Walker
2001; Biggs, G. D. Peterson y Rocha 2018). Tales transiciones son difı́ciles de prede-
cir o de revertir (Boettiger y Hastings 2013; Hastings y Wysham 2010) y a menudo
producen transiciones permanentes en la disponibilidad de los servicios eco-sistémi-
cos (S. R. Carpenter, Mooney, Agard, Capistrano, DeFries, Dı́az, Dietz, Duraiappah,
Oteng-Yeboah, Pereira y col. 2009). Cuando ocurre un cambio de régimen, el siste-
ma se mueve de un conjunto de estructuras y procesos que lo auto sostienen a otro
(Scheffer, S. Carpenter, Foley, Folke y Walker 2001; May 1977; Holling 1973; Folke,
S. Carpenter, Walker, Scheffer, Elmqvist, L. Gunderson y Holling 2004). Usualmen-
te, cambios en variables claves (por ejemplo, temperatura en los arrecifes coralinos)
hacen un sistema más susceptible a las transiciones de régimen cuando se someten a
choques externos (por ejemplo, un huracán) o a forzantes externos (pesca) (Scheffer,
S. R. Carpenter, Lenton, Bascompte, Brock, Dakos, Koppel, Leemput, S. A. Levin,
Nes, Pascual y Vandermeer 2012). Se han documentado más de 30 transiciones de
régimen en sistemas socio ambientales (Biggs, G. D. Peterson y Rocha 2018), con
dinámica no lineal semejante en asuntos diversos como los sociales, financieros, lin-
guisticos, trastornos neurológicos y clima (Solé 2011; Scheffer 2009). A medida que
los humanos incrementan su acción sobre el planeta, diversas transiciones de régi-
men son probables, con mayor frecuencia y severidad (Rocha, G. D. Peterson y Biggs
2015; Drijfhout, Bathiany, Beaulieu, Brovkin, Claussen, Huntingford, Scheffer, Sgu-
bin y Swingedouw 2015; Steffen, Rockström, Richardson, Lenton, Folke, Liverman,
Summerhayes, Barnosky, Cornell, Crucifix y col. 2018)” (Rocha, G. Peterson, Bodin
y S. Levin 2018).
Aunque se ha avanzado en el conocimiento a escala atómica de los fenómenos naturales
y la comprensión de la vida a escala molecular se expande a pasos agigantados, se
entiende relativamente poco de los cambios abruptos en los sistemas complejos. Esta
relativa dificultad está acompañada por el ritmo acelerado del crecimiento poblacional
y material. Como consecuencia estamos sometiendo todos estos sistemas a pruebas de
carga sin precedentes, en varios casos produciendo fallas y colapsos, todo acompañado
de precariedad en su conocimiento.
Además del número de componentes, las interacciones mutuas son el origen de la
complejidad. En fı́sica el modelo más exitoso para estudiar las interacciones es el
estudio de las transiciones de fase en mecánica estadı́stica. Aunque a primera vista
parece intimidante, la apuesta es que estas transiciones se pueden explicar claramente

vi
PREFACIO

y que sirven como modelo para el estudio de otros sistemas complejos en los cuales las
interacciones dan lugar a transiciones abruptas. Para cumplir con este propósito son
necesarias herramientas no triviales, como por ejemplo los grupos de renormalización,
cuyas ideas centrales se presentan con la esperanza de que arrojen luces sobre otros
sistemas complejos con transiciones abruptas.
Lo más fácil está resuelto. Muchas mentes brillantes que nos antecedieron nos dejaron
ese legado. Pero también de ellas se reciben las preguntas abiertas. Precisamente por
eso, no podemos esperar que los métodos tradicionales van a resolver estas preguntas,
nuestros antecesores ya ensayaron sin éxito tales métodos. Hay que estar abiertos a
métodos innovadores.
Los requisitos para este texto son cálculo, álgebra lineal, teorı́a de probabilidades y
termodinámica, al nivel de los cursos estándares de pregrado de la mayorı́a de las
universidades modernas. Aunque el tratamiento matemático no es formal, hay un
esfuerzo por el rigor.
No hay pretensiones de originalidad. Se usa ideas, material, ejemplos, y ejercicios de
diferentes fuentes. En cada caso se hace el esfuerzo por el crédito debido. De Mesa
(2020) se toma material para algunas secciones con poca o ninguna modificación, con
el ánimo de tener un texto auto contenido.

vii
Capı́tulo 1

Introducción

El interés es estudiar los fenómenos crı́ticos, desde una perspectiva aplicada a los
sistemas socioambientales, conscientes de la necesidad de usar conceptos y métodos
avanzados. Los desafı́os son inmensos.
Una dificultad común es relacionar las propiedades de un sistema observado a una
cierta escala con aquellas a una escala mayor o menor. En general, se tratan las escalas
menores tomando promedios y las mayores con un valor constante. Esto no siempre
es válido, en particular cuando varias escalas juegan un papel. De hecho este es el
tema de este libro, el estudio de sistemas que no tienen una escala caracterı́stica, sino
que muchas escalas juegan simultáneamente un papel no despreciable, la llamada in-
varianza de escala. Estos conceptos son propios de la fı́sica moderna e incluyen temas
como renormalización y universalidad, que han demostrado ser importantes para tra-
tar sistemas complejos. Entendemos por sistemas complejos aquellos en los cuales la
interacción de las componentes es fundamental y no es aplicable el método lineal de
descomponer un problema en componentes más pequeñas que luego se superponen.
Se inicia con termodinámica y mecánica estadı́stica, además de la importancia intrı́nse-
ca de estos temas, son fundamentales para entender las transiciones de fase, que se
toman como paradigma de las transiciones crı́ticas. El enfoque se basa en el con-
cepto de máxima entropı́a, que en pocas palabras significa que se observa lo más
probable (Jaynes 1957; Jaynes 1978; Jaynes 2003; Ellis 2012). La Mecánica Estadı́sti-
ca busca entender y predecir propiedades macroscópicas a partir de distribuciones
probabilı́sticas que tienen en cuenta las complejas interacciones entre las partı́culas
microscópicas que conforman la substancia. Boltzmann re-interpretó la entropı́a en
términos estadı́sticos de tres maneras fundamentales:
a) Aleatoriedad : la entropı́a es una medida de la aleatoriedad de un sistema.
b) Logarı́tmica: si la entropı́a de un determinado macro estado es S, entonces
S ∝ log W , con W la probabilidad termodinámica (número de micro estados)
compatibles con tal macro estado.

1
1. Introducción

c) Estados de equilibrio: Los estados observados en la naturaleza, los estados de


equilibrio, son aquellos con máxima probabilidad termodinámica de ocurrencia
y por tanto, máxima entropı́a. Por lo tanto, son los más aleatorios que cumplen
con las restricciones que el sistema debe satisfacer. La existencia de más de un
estado de equilibro corresponde a la coexistencia de fases y es posible que se
presenten transiciones de fase.
Se discute con algún detalle el modelo de Ising de las transiciones de fase en ferro
magnetos. Es el modelo más simple que nos permite entender la complejidad que
resulta de las interacciones. Con el mayor rigor posible se busca una narrativa cohe-
rente que se pueda aplicar en otras circunstancias. En el punto crı́tico en el que ocurre
la transición de fase se presenta la divergencia de la longitud de correlación, lo que
produce escalamiento y universalidad. Precisamente de esta universalidad y la abun-
dancia de asuntos en los que el escalamiento es una caracterı́stica esencial viene la
motivación para profundizar en el modelo fı́sico. En el fondo de la criticalidad están
las interacciones, el comportamiento colectivo.
Un ejemplo clásico, conocido por más de 100 años es la opalescencia de un fluido
cerca al punto crı́tico producto de las fluctuaciones entre fases bien diferentes, vapor
y lı́quido. Aunque en términos relativos la comprensión de estos fenómenos es reciente,
se sabe que sirve de modelo para otros fenómenos en diversos campos, entre ellos los
sistemas ambientales.
Para que haya cambios drásticos se requieren singularidades. En matemáticas, una
función suave f : R → R se dice que tiene un punto crı́tico x∗ si f 0 (x∗ ) = 0. Los
puntos singulares de un campo vectorial son los puntos donde el campo es cero. Un
sistema dinámico de ecuaciones diferenciales da origen a un campo vectorial, cuyas
tangentes representan las derivadas temporales en cada punto. Los puntos singulares
del campo vectorial corresponden a los puntos crı́ticos de la solución. Se procede
a presentar los fundamentos de los sistemas dinámicos con el propósito de estudiar
los puntos crı́ticos de los sistemas, la posibilidad de multiplicidad, su estabilidad, la
dependencia de los parámetros y eventualmente comportamiento complejo.
Esta herramienta nos permite mirar sistemas ambientales importantes: sistemas de
población, lagos pandos, corales, epidemias, y en Mesa (2020) el sistema climático,
glaciaciones, la circulación termohalina del océano, ENSO, hidrologı́a, Gaia.
Por último se presenta una reflexión sistémica sobre el cambio, como preverlo, mane-
jarlo, controlarlo, eventualmente producirlo (Walker y Salt 2006).
Algunas referencias generales son Jaynes (1978), Haken (1983), Yeomans (1992), Bak
(1996), Jensen (1998), Hergarten (2002), Sornette (2003), Jost (2006), Tsallis (2009),
Scheffer (2009), Fieguth (2017) y Muñoz (2018).

2
Capı́tulo 2

Fundamentos de Termodinámica y
Mecánica Estadı́stica

Se presenta un resumen de los fundamentos de termodinámica y mecánica estadı́stica


para unificar notación, hay muchos libros en los cuales este material se presenta con
la debida justificación y detalle (Dill y Bromberg 2003; Yeomans 1992).

2.1. Cinética de Gases


Con base a principios elementales es posible cubrir mucho material. Lo que sigue, a
modo de telegrama, se basa en Feynman, Leighton y Sands (1963, págs. 39-1).

Presión
El diferencial de trabajo dW que ejerce un pistón sobre un gas por la presión de
compresión p debida a un desplazamiento dx es

dW = F (− dx) = −pA dx = −p dV,

donde el área transversal del pistón es A, y el cambio de volumen es dV = A dx.


La fuerza F = d(mv)/ d t, viene del intercambio de momentum entre el gas y el
pistón debido a las colisiones de muchas partı́culas. Esto se puede expresar como el
intercambio promedio de momentum por el choque de una partı́cula, multiplicado por
el número de colisiones por segundo.
Sea t el tiempo, N el número de moléculas, n = N/V el número de moléculas por
unidad de volumen, vx , vy , vz componentes de la velocidad y m la masa molecular.
Por lo tanto, la fuerza es F = pA ≈ 2mvx × (vx tA)n/t. El primer factor es el in-
tercambio de momentum de una molécula de masa m que se dirige hacia el pistón

3
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

con una velocidad vx y rebota elásticamente con una velocidad de igual magnitud y
sentido contrario. El segundo factor es el número de colisiones por unidad de tiempo,
pues vx tA es el volumen ocupado por las moléculas que se van a chocar con el pistón
en el tiempo t y n es el número de moléculas por unidad de volumen. Esto se puede
expresar como
p ≈ 2nmvx2 = nmhvx2 i.
El 2 no aparece en la segunda igualdad porque el promedio del cuadrado de la velo-
cidad incluye tanto las positivas como las negativas y sólo hay que considerar las que
van hacia el pistón. Ahora por simetrı́a, el promedio de la velocidad al cuadrado es

hvx2 i = hvy2 i = hvz2 i = hv 2 i/3,

donde v es la magnitud de la velocidad, por lo tanto,

p = 23 nhmv 2 /2i.

Multiplicando por el volumen y recordando la definición de la energı́a cinética, que


para un gas monoatómico es la energı́a interna total U , se tiene

pV = 32 N hmv 2 /2i = 32 U = (γ − 1)U, (2.1)

con γ = 5/3 para un gas monoatómico.


En una compresión adiabática: dW = dU = −pdV, pero de la ecuación (2.1) se tiene
dU = (pdV + V dp)/(γ − 1), luego de (pdV + V dp)/(γ − 1) = −pdV y se obtiene que
para el caso adiabático
pV γ = C,
con C una constante.

Temperatura
Un concepto clave es el equilibro. Considere un recipiente, con dos compartimentos
separados por un pistón movible, ocupados por gases diferentes. Debido al equilibrio,
al cabo de un tiempo se tendrá igualdad de presiones, es decir

n1 hm1 v12 /2i = n2 hm2 v22 /2i.

Pero además habrá equilibrio de la energı́a cinética promedio (lo que a continuación
se va a denominar temperatura) debida a las vibraciones.
Debido al gran número de moléculas del gas y a principios de simetrı́a es razonable
esperar que la dirección de las colisiones se distribuya uniformemente en la esfera.
Para el caso de dos partı́culas, con velocidad relativa al centro de masa v1 − v2 = w,
esta simetrı́a se puede expresar como

hw · vcm i = 0,

4
2.1. Cinética de Gases

que significa que el promedio del producto escalar es cero porque no hay una dirección
preferida. Lo anterior se puede desarrollar como

h(v1 − v2 ) · (m1 v1 + m2 v2 )i = hm1 v12 /2 − m2 v22 /2i + (m2 − m1 )hv1 · v2 i


= 0.

Pero por la misma razón el promedio del producto escalar de v1 y v2 también se


anula, es decir hv1 · v2 i = 0, lo que implica que el promedio de la energı́a cinética de
las dos partı́culas debe ser igual, es decir

hm1 v12 /2i = hm2 v22 /2i.

Esta conclusión es válida para moléculas de masa diferente, constituyentes de la mez-


cla en un gas en equilibrio. Por lo tanto, las más pesadas se mueven más lento que
las más livianas.
Se puede avanzar el argumento para aplicarlo a dos gases separados por un pistón
móvil. Después del equilibrio, los centros de masa de ambos tendrán la misma energı́a
cinética media. Una manera de argumentar, es notar que la energı́a cinética media del
pistón en la dirección longitudinal una vez hay equilibrio debe ser igual a hm1 v12 /2i
la energı́a promedio del centro de masa del gas a la derecha. A su vez debe ser igual a
hm1 v12 /2i la energı́a promedio del centro de masa del gas a la izquierda. Luego ambas
deben ser iguales.
Por lo tanto, cuando se tienen dos gases, a la misma temperatura, la energı́a cinética
media de ambos es igual. Es decir, la energı́a cinética media es función de la tem-
peratura T, la manera más fácil es tomar la temperatura proporcional al promedio
de la energı́a cinética. Luego se encontró que la constante de proporcionalidad es
k = 1,38 × 10−23 JK−1 , la constante de Boltzmann. Realmente k convierte unidades
entre energı́a y temperatura, por motivos históricos T se mide en K, cuando deberı́a
de tener las mismas unidades que la energı́a.
Es importante recordar que la energı́a cinética media asociada a una dirección parti-
cular es (1/2)kT , como hay tres direcciones independientes,
3
2 kT = hmv 2 /2i. (2.2)

Ley de Gases Ideales


Si incorporamos el concepto de temperatura, ecuación (2.2), en la expresión para la
presión (2.1), se tiene
pV = N kT = Nm RT, (2.3)
con N el número total de átomos. Como los números son tan grandes se define una
constante universal de gases R = N0 k, con N0 el número de Avogadro, el número de
átomos en una mol, y por tanto, Nm es el número de moles.
Una conclusión no trivial de lo anterior es que las leyes de Newton implican que
volúmenes iguales de gases diferentes, a igual presión p e igual temperatura T , tienen
el mismo número de moléculas.

5
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

Todo lo dicho hasta ahora es válido para moléculas mono atómicas. Esto está implı́cito
cuando se trato el tema del centro de masa. También se ignoró la posibilidad de que
existan otras fuerzas, por ejemplo, un resorte amarrado al pistón. Sobre lo último se
puede mostrar que los argumentos son los mismos y no hay cambios a las conclusiones.
Se invita a demostrar que si la molécula tiene r átomos el promedio de su energı́a
cinética es 3rkT /2, donde 3kT /2 corresponde al centro de masa de la molécula, y el
resto, 3(r − 1)kT /2 corresponde a energı́a interna de rotación y vibración.

2.2. Entropı́a
Entropı́a de Boltzman
La entropı́a de Boltzman SB es una variable macroscópica extensiva, definida en
términos del número de microestados M mediante,

SB = k ln M, (2.4)

donde k es la constante de Boltzmann que ya habı́amos encontrado. La maximización


de la entropı́a corresponde a la idea intuitiva de maximizar el número de microestados
correspondiente a un macroestado determinado. Se observa lo más probable.
Una justificación inicial de la definición de entropı́a es considerar un sistema conforma-
do por dos subsistemas 1 y 2, cada uno con multiplicidades M1 y M2 . La multiplicidad
del sistema total es
M = M1 × M2 .
Por otro lado, la termodinámica requiere que la entropı́a sea una variable extensiva,
lo que implica que
SB = SB1 + SB2 .
La función logaritmo cumple con ambas condiciones y es posible demostrar que es
la única función continua que cumple, por lo tanto, se justifica la ecuación (2.4).
La constante k corresponde a un cambio de unidades, lo que será más claro en la
ecuación (2.20).

Expansión de gases
La tendencia de un gas a ocupar el máximo volumen disponible se puede explicar
considerando un modelo elemental de ocupación de m sitios por n partı́culas. Se
considera que no es posible ocupaciones múltiples, más de una partı́cula en un solo
sitio. El número de arreglos distinguibles es
m!
M (n, m) = ,
n!(m − n)!

que para el número de partı́culas n fijo crece muy rápidamente con m, el número de
sitios. Con un número grande de partı́culas dado, M (n, m) se puede interpretar como
el número de micro estados asociados al macro estado volumen ocupado por el gas
(proporcional a m). Por tanto, la tendencia de los gases a ocupar el máximo volumen

6
2.2. Entropı́a

disponible se explica de acuerdo al principio de máxima entropı́a porque a mayor


volumen hay mayor número de micro estados. Como el número de micro estados M
depende del volumen aparece una fuerza que vamos a asociar a la presión que tiende
a maximizar el número de microestados, a aumentar el volumen.
Un par de ejemplos numéricos para ilustrar el concepto. Suponga que el número de
partı́culas está fijo en n = 5 y hay tres posibles configuraciones de número de sitios,
m1 = 5, m2 = 7 y m3 = 10. Claramente la configuración 3 es más probable pues
M (5, 5) = 1, M (5, 7) = 21 y M (5, 10) = 252. Para números grandes la diferencia es
más dramática. Por ejemplo, si el número de partı́culas está fijo en n = 500 y hay tres
posibles configuraciones de número de sitios, m1 = 500, m2 = 700 y m3 = 1000. La
configuración 3 ocurre casi que con certeza (probabilidad uno) pues M (500, 500) = 1,
M (500, 700) = 2,52 × 10180 y M (500, 1000) = 2,70 × 10299 .

Mezcla
La tendencia a la mezcla también se puede ilustrar con un modelo elemental de
ocupación. Sean dos especies y para simplificar suponga que hay igual número de
partı́culas de cada especie, n1 = n2 = n. Sea el número posibles sitios m = 2n y
divida mentalmente el sistema en dos subsistemas X y Y cada uno con n posibles
sitios. Igualmente, se asume que no es posible la ocupación múltiple de un sitio. Los
posibles macro estados se pueden caracterizar por r el número de partı́culas de la
especie 1 en el subsistema X. Claramente en este caso en el subsistema Y hay n − r
partı́culas de la especie 1. Note que con esta información se puede determinar también
el número de partı́culas de la especie 2 en cada subsistema, [n − r, r]. El número de
micro estados asociado al macro estado r es
n! n!
M (r) = .
r!(n − r)! (n − r)!r!

El primer factor corresponde al número posibles manera de ocupar los n sitios del
subsistema X por las r partı́culas de la especie 1 y las n − r de la especie 2. El
siguiente factor es el correspondiente para el subsistema Y . Es fácil ver que entre
todos los macro estados el que tiene mayor número de micro estados es r = n/2,
es decir la tendencia a la mezcla uniforme, a que ambos subsistemas tengan igual
número de partı́culas de cada especie. La tendencia a la mezcla se puede explicar por
el principio de máxima entropı́a.
Como el número de micro estados M depende de la segregación de las partı́culas
entre las diferentes especies, la tendencia a maximizar el número de micro estados
da origen a una fuerza que veremos viene del potencial quı́mico. A medida que la
segregación decrece, es decir las partı́culas están bien mezcladas, el número de micro
estados aumenta.

Flujo de calor
Un modelo muy simple para flujo de calor es considerar dos subsistemas 1 y 2 con
n1 y n2 partı́culas cada uno. Cada una de las partı́culas puede estar en dos posibles

7
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

niveles de energı́a, el nivel base 0 = 0 y un nivel excitado 1 = 1, usando unidades


arbitrarias de energı́a.
En general el número de niveles es mayor y siguiendo la mecánica cuántica se de-
termina el valor de la energı́a de cada nivel i . El macro estado de cada uno de los
subsistema se define por el número de partı́culas y su energı́a total u. Para el caso
general, si mk denota el número de partı́culas en el nivel de energı́a k y se tienen s
posibles niveles,
P cada uno con energı́a k , con k = 0, 1, . . . , s, la energı́a del subsis-
tema es u = k mk k . En el modelo simplificado con solo dos niveles u = m1 . Es
claro que en este caso dado un número de partı́culas n, la energı́a puede tomar todos
los posibles valores entre 0 y n. Para el primer valor todas las partı́culas están en el
estado base y para el último todas están excitadas.
Aplicando el método combinatorio para el modelo simplificado, el número de micro
estados asociado al macro estado (n, u) es

n!
M (n, u) = ,
(n − u)!u!

que corresponde al número de maneras en que de las n partı́culas, n − u ocupan el


nivel 0 = 0 de energı́a y las restantes u ocupan el nivel 1 = 1.
Si los dos subsistemas no pueden intercambiar calor, siguiendo el principio de multi-
plicidad, el número de micro estados es

n1 ! n2 !
M0 (n1 , u1 , n2 , u2 ) = .
(n1 − u1 )!u1 ! (n2 − u2 )!u2 !

Ahora consideremos el caso en el que sin intercambiar partı́culas los dos subsistemas
pueden intercambiar energı́a entre si, pero no con el entorno. Es decir u1 + u2 = uc
es una constante. Entonces, el número de micro estados es

n1 ! n2 !
M (n1 , u, n2 , uc − u) = .
(n1 − u)!u! (n2 − (uc − u))!(uc − u)!

Donde u es la energı́a en el subsistema 1 y uc − u es la energı́a en el subsistema 2.


¿Cuál de los posibles valores del macro estado u se observa? El principio de máxima
entropı́a predice que aquel con mayor número de micro estados correspondientes.
Vamos a suponer inicialmente que ambos subsistemas tienen el mismo tamaño, es
decir n1 = n2 = n. La consecuencia del principio de máxima entropı́a en este caso es
que la energı́a fluye del subsistema con mayor energı́a al de menor y hay tendencia a
igualar la energı́a. Es decir

M (n, uc /2, n, uc /2) ≥ M (n, u, n, uc − u),

para todo u 6= uc /2. Esto se verifica fácilmente.


Ahora, si los dos subsistemas son diferentes (número de partı́culas diferentes), la
tendencia no es a que la energı́a fluya de mayor a menor, sino al equilibrio de tem-
peratura. Todavı́a no se tiene una definición formal de temperatura (ver sin embargo

8
2.2. Entropı́a

la ecuación (2.2), pero es fácil ver que el macro estado con mayor número de micro
estados corresponde al caso
u uc − u
= .
n1 n2
Más adelante se verá que la temperatura en este caso, para cada subsistema de n
partı́culas y energı́a u, está dada por
 
1 fbase
= k ln ,
T fexc

donde fexc = u/n y fbase = 1 − u/n son las frecuencias asociadas al estado excitado
y al base respectivamente.
Por lo tanto, si dos subsistemas 1 y 2 se ponen en contacto térmico, el macro estado
con mayor número de micro estados corresponde a la igualación de temperaturas
   
1 f1−base f2−base 1
= k ln = k ln = .
T1 f1−exc f2−exc T2

Entropı́a de Gibbs
En el lenguaje de probabilidades la entropı́a de Gibbs se expresa como
t
X
SG = −k Pr[Bi ] ln Pr[Bi ], (2.5)
i=1

donde Pr[Bi ] = ni /n es la probabilidad de un determinado macro estado Bi . Se


pasa de la entropı́a
√ de Boltzman a la de Gibbs usando la aproximación de Stirling,
n! ∼ nn e−n 2πn (Stirling 1730; Feller 1968, p. 52).

Equivalencia entre ambas definiciones de entropı́a


Para justificar esta idea considere el más simple modelo de multiplicidad e indepen-
dencia que corresponde al caso en que el número de posibles micro estados M es igual
al número de posibles resultados de N lanzamientos de un dado de t lados. Es decir
N!
M= ,
n1 !n2 ! . . . nt !
donde ni es el número de veces en las cuales el dado cae en el resultado i. Sea
pi = ni /N la probabilidad de que el dado caiga en el resultado i, calculada con el
principio elemental de número de casos favorables sobre número de casos posibles.
Usando la aproximación de Stirling se tiene

(N/e)N 2πN
M∼ √ √ √
(n1 /e)n1 2πn1 (n2 /e)n2 2πn2 . . . (nt /e)nt 2πnt
√ √
N N 2πN 2πN
= n1 √ √ √ = n1 √ √ √ .
n1 2πn1 nn2 2 2πn2 . . . nnt t 2πnt p1 2πn1 pn2 2 2πn2 . . . pnt t 2πnt

9
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

Al sacar logaritmo y dividir por N se obtiene que para N → ∞

t
1 1 X
SB = k ln M ∼ −k pi ln pi = SG .
N N i=1

Dada la equivalencia se usará la entropı́a de Gibbs y se suprime el subı́ndice.

2.3. Principio Máxima Entropı́a


La maximización de la entropı́a predice el estado de equilibrio. Por ejemplo, en un gas
la entropı́a es función del volumen V , máx S(V ) predice expansión; cuando el número
de partı́culas de cada especie contenidas en el vector N puede cambiar, máx S(N)
predice la mezcla; si la energı́a interna U cambia, máx S(U ) predice el flujo de calor. En
Sistemas mecánicos, el estado de equilibrio corresponde al estado de mı́nima energı́a
potencial. En probabilidad, la maximización de la multiplicidad predice la máxima
probabilidad de ocurrencia. Las fuentes de esta sección son Dill y Bromberg (2003),
Haken (1983), Jaynes (1957), Jaynes (1978), Jaynes (2003) y Kleidon y Lorenz (2004).
Operativamente el principio de máxima entropı́a se aplica usando los principios bási-
cos del cálculo diferencial. Una función suave (tiene derivadas continuas) de varias
variables es máxima cuando sus derivadas parciales son cero. Recuerde que esta con-
dición es necesaria pero no suficiente. Es decir, es posible que la derivada sea cero en
un punto pero la función no sea máxima en ese punto. Puede ser un mı́nimo, o un
punto de inflexión. La presencia de restricciones se resuelve usando la técnica de los
multiplicadores de Lagrange. La función a maximizar es la entropı́a y las variables o
incógnitas son las probabilidades de los macro estados. Se trabaja con el caso de un
número finito de posibles macro estados t.
Una pequeña dificultad de nomenclatura viene del uso de p para denotar presión y
también probabilidad. Se espera que el contexto aclare esta posible confusión. En esta
sección pk denota la probabilidad de un macro estado k.

Ars Conjectandi
Una posible interpretación de la entropı́a es en términos de información. Lo que sigue
es una breve introducción de esta interpretación que para algunos no es diferente de
la entropı́a de la termodinámica o de la mecánica estadı́stica.
Considere un evento E que puede ocurrir como resultado de un experimento aleatorio
con probabilidad p. ¿Qué tan sorprendidos estaremos de enterarnos que E ocurrió?
Es razonable suponer que la sorpresa depende sólo de p y que será mayor mientras
menor sea p. Sea I(p) la información que se obtiene si nos enteramos que E ocurrió.
También podemos interpretar I(p) como la sorpresa contenida en el evento o la in-
certidumbre que existe si el experimento no ha arrojado resultados todavı́a. Las tres
interpretaciones son equivalentes.
Los siguientes cuatro axiomas definen la forma funcional de I:

10
2.3. Principio Máxima Entropı́a

1. I(1) = 0, la ocurrencia de un evento cierto no sorprende, enterarnos de su


ocurrencia no produce información, en otras palabras, no hay incertidumbre
asociada a un evento cierto.
2. I(p) es una función estrictamente decreciente de p. En sı́mbolos, si p < q en-
tonces I(p) > I(q). A menor probabilidad mayor sorpresa, información o incer-
tidumbre.
3. La información derivada de la ocurrencia de dos eventos independientes es la
suma de las informaciones individuales. Si Pr[E1 ] = p1 , Pr[E2 ] = p2 y E1 es
independiente de E2 entonces

I(p1 p2 ) = I(p1 ) + I(p2 ).

Recuerde que si dos eventos son independientes la probabilidad de que ambos


ocurran (la intersección) es el producto de las probabilidades individuales. En
otras palabras la ocurrencia de uno de los eventos no afecta la probabilidad del
otro, es decir la probabilidad condicional es igual a la probabilidad marginal.
Es decir, si Pr[E2 ] 6= 0 se tiene

Pr[E1 E2 ]
Pr[E1 |E2 ] = = Pr[E1 ],
Pr[E2 ]

y de manera simétrica Pr[E2 |E1 ] = Pr[E2 ], lo que se expresa de manera com-


pacta como Pr[E1 E2 ] = Pr[E1 ] Pr[E2 ].
4. El último axioma es algo técnico, pero expresa la expectativa razonable de que a
pequeños cambios en p correspondan pequeños cambios en I(p). Esto se expresa
diciendo que I(p) es una función continua de p.
Con estos cuatro axiomas es posible demostrar
Teorema 2.3.1. I es proporcional al logaritmo de p,

I(p) = −C log p.

La convención en teorı́a de la información es tomar C = 1 y trabajar con el logaritmo


base 2, lo que corresponde a usar el bit (digito binario) como unidad de información.
Dada una variable aleatoria X, con t posibles valores x1 , x2 , . . . xt , con respectivas
probabilidades p1 , p2 , . . . pt , el valor esperado de la información que se recibe si se
observa la ocurrencia de X es
t
X
S(X) = − pi log pi .
i=1

Una manera de interpretar lo anterior es recordar que − log pi es la información que


se obtiene si el evento X = xi ocurre, lo que tiene probabilidad pi , por tanto, su valor
esperado es el promedio ponderado por la probabilidad.
Note que de manera deliberada se usó S, el mismo sı́mbolo que para la entropı́a.
Además la forma matemática de la ecuación también es la misma. El mensaje es que
en esta interpretación la entropı́a es el valor esperado (el promedio) de la información

11
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

que se obtiene de observar la variable aleatoria X. De manera equivalente, la entropı́a


es el valor esperado de la sorpresa al observar la variable aleatoria X. También, es el
valor esperado de la incertidumbre contenida en la variable aleatoria X cuando no la
hemos observado.
No sobra advertir que para algunos está interpretación de la entropı́a no es aceptable.
Sin embargo es consistente con la entropı́a de Gibbs, que se vio es equivalente a la
entropı́a de Boltzman.
Cuando no hay restricciones diferentes a la normalización de las probabilidades, el
principio de máxima entropı́a predice distribución de probabilidades uniforme.
t t
S n X o X
máx (p1 , p2 , . . . , pt ) = máx − pi ln pi , sujeto a pi = 1,
k i=1 i=1

lo que usando α como multiplicador de Lagrange equivale a


 Xt t
X 
máx L(p1 , p2 , . . . , pt , α) = máx − pi ln pi − α pi − 1 ,
i=1 i=1

de donde al igualar a cero las derivadas con respecto a cada pi , i = 1, . . . , t y a α, la


solución p∗1 , p∗2 , . . . , p∗t , α∗ debe cumplir
t
X
− ln p∗i − 1 − α∗ = 0 para i = 1, 2, . . . , t, y pi = 1.
i=1

Es decir, pi = 1/t para todo i.


En conclusión, en ausencia de restricciones la distribución que maximiza la entropı́a es
la uniforme. Lo que Bernoulli llamó el principio de Ars Conjectandi, que hoy podemos
traducir como el Arte de Conjeturar. Es decir, de acuerdo al diccionario, el arte de
formar juicio de algo por indicios u observaciones. En palabras, si no hay razón u
observación que indique lo contrario, entre varios posibles resultados, lo mejor es
asignar igual probabilidad.
En la interpretación de incertidumbre, la maximización de la entropı́a equivale a
estimar probabilidades de manera insesgada, sin recargarse hacia ningún posible re-
sultado, maximizando la incertidumbre.

Exponenciales
Cuando hay restricciones, el principio de máxima entropı́a predice distribución expo-
nencial. Es decir la solución a
 X t 
1
máx S = máx − pi ln pi ,
k i=1
Pt
sujeto a la condición de normalización i=1 pi = 1, y a r restricciones de momentos,
t
X
xk,i pi = hxk,i i = µk , (2.6)
i=1

12
2.3. Principio Máxima Entropı́a

donde las r constantes µk son datos conocidos del problema para k = 1, . . . , r. Es-
tos momentos provienen de un conocimiento importante del sistema, por ejemplo,
conservación de energı́a, momento angular, etc.
Más adelante (ver Sección 2.4) se presenta el caso en el cual cada estado del sistema
corresponde a la velocidad de las partı́culas y la restricción corresponde a imponer
la energı́a cinética. En tal caso k = 1 por lo que sólo se usa el subı́ndice i para
representar el estado del sistema, la velocidad vi de una partı́cula genérica de masa
m, y la energı́a cinética como función de la velocidad es xi = 12 mvi2 y la distribución
de probabilidades que se encuentra del principio de máxima entropı́a es la llamada
distribución de Maxwell.
El problema general se resuelve usando los multiplicadores de Lagrange,
 t
X t
X  Xr t
X 
máx − pi ln pi − (α0 − 1) pi − 1 − αk xk,i pi − µk .
i=1 i=1 k=1 i=1

Por cálculo, la solución p∗1 , p∗2 , . . . , p∗t , α0∗ , . . . , αr∗ cumple,


r
X
− ln p∗i − 1 − (α0∗ − 1) − αk∗ xk,i = 0, para i = 1, 2, . . . , t.
k=1

Lo que se simplifica a
n r o
X P ∗
pi = exp − α0∗ − αk∗ xk,i = Z −1 e− k αk xk,i , (2.7)
k=1

donde se definió la función de partición


X n X o
Z= exp − αk∗ xk,i . (2.8)
i k

Para encontrar los multiplicadores se procede a


t t n r o
X ∗ X X ∗
pi = 1 = e−α0 exp − αk∗ xk,i = Ze−α0 ,
i=1 i=1 k=1

La función de partición Z (2.8) cumple un papel fundamental, por ejemplo,


∂ ln Z
α0∗ = ln Z, y µk = hxk,i i = − , para k = 1, 2, . . . , r. (2.9)
∂αk∗

Las r + 1 ecuaciones (2.9) son un sistema para calcular los multiplicadores pues cada
µk es conocido. La interpretación de los multiplicadores de Lagrange es importante.
Además,
r
1 X
Smax = α0∗ + αk∗ µk . (2.10)
k
k=1

13
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

Otras relaciones que pueden ser útiles de este formulismo son por ejemplo, el cambio
en el multiplicador α0 . De la primera (2.9) se obtiene

1
δα0 = δ ln Z = δZ.
Z

Ahora, de la definición de la función de partición, ecuación (2.8), se tiene


XX n X o
δZ = −(δαk xk,i + αk δxk,i ) exp − αk xk,i ,
i k k

reemplazando y usando la expresión para las probabilidades, ecuación (2.7), se obtiene


X X X 
δα0 = − δαk pi xk,i + αk pi δxk,i
k i i
X 
=− δαk hxk,i i + αk hδxk,i i . (2.11)
k

Con esta expresión se puede calcular el cambio en Smax de la ecuación (2.10) notando
que hay cancelaciones importantes,
r
1 X  
δSmax = αk δhxk,i i − hδxk,i i ,
k
k=1

que se acostumbra escribir como


r
1 X
δSmax = αk∗ δQk . (2.12)
k
k=1

donde Qk es un calor generalizado

δQk = δhxk,i i − hδxk,i i. (2.13)

Otra expresión importante es para la varianza de xk,i ,

∂ 2 ln Z
hx2k,i i − hxk,i i2 = . (2.14)
∂αk2

En algunas aplicaciones xk,i depende de otra cantidad, digamos a y se quiere calcular


el cambio en hxk,i i debido al cambio en a,


∂xk,i X ∂xk,i 1 X ∂xk,i − Pk α∗k xk,i
= pi = e
∂a i
∂a Z i ∂a
1 1 ∂Z
=− .
Z αk ∂a

14
2.4. Termodinámica

2.4. Termodinámica
Clasificación de sistemas termodinámicos
Los sistemas Termodinámicos se clasifican de acuerdo con sus fronteras
a) Sistema Abierto: Puede intercambiar energı́a, volumen y materia con el entorno.
La Tierra, los organismos vivientes son ejemplos tı́picos.
b) Sistema Cerrado: Puede intercambiar energı́a, pero no materia. La frontera
puede ser fija, como por ejemplo, en un bombillo incandescente; o puede ser
móvil como en un pistón o un globo.
c) Sistema Aislado: No puede intercambiar energı́a, ni materia. Para estos sistemas
la frontera es fija. Esto es una idealización que difı́cilmente se presenta en la
realidad.
d ) Membrana Semipermeable: es una frontera que deja pasar un tipo de partı́culas
y otras no. La diálisis se realiza con este tipo de membranas, la mayorı́a de las
membranas en biologı́a son de este tipo. La discriminación se logra por tamaño.
e) Frontera Adiabática: Una frontera que no deja pasar calor.
f ) Fase: Una parte homogénea de un sistema separable mecánicamente del resto.
La homogeneidad se refiere a que las variables temperatura T , presión p y
concentración c deben ser uniformes o depender continuamente de la posición.

Variables Extensivas e Intensivas


En termodinámica es fundamental la diferencia entre variables extensivas e intensivas.
En el primer caso si el sistema se descompone en subsistemas A y B la propiedad
de todo el sistema m = mA + mB es igual a la suma de la propiedad de las partes.
Ejemplos de variables extensivas son el volumen, la energı́a, el número de moléculas
de una determinada especie. Las variables intensivas son independientes del tamaño
del sistema, por ejemplo, la temperatura, o la densidad.

Formalismo
Para varios grados de libertad la forma genérica de la ecuación para la Entropı́a en
termodinámica es
S = S(U, V, N). (2.15)
Donde U es la energı́a interna, V el volumen y N = [N1 , . . . , NM ] un vector cuyas
componentes indican el número de moléculas para cada una de las posibles M especies
que definen la composición del sistema.
Por razones históricas esta ecuación se expresó en términos de la energı́a interna como

U = U (S, V, N). (2.16)

Continuando con el formalismo, los cambios pequeños se expresan como


    M
!
∂S ∂S X ∂S
dS = dU + dV + dNj .
∂U V,N ∂V U,N j=1
∂Nj
U,V,Ni6=j

15
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

O en forma equivalente
    M
!
∂U ∂U X ∂U
dU = dS + dV + dNj .
∂S V,N ∂V S,N j=1
∂Nj
U,V,Ni6=j

Las derivadas parciales corresponden a las definiciones de temperatura T , presión p,


y potencial quı́mico µj
    !
∂U ∂U ∂U
T = , p=− , µj = . (2.17)
∂S V,N ∂V S,N ∂Nj
S,V,Ni6=j

Usando estas definiciones en la forma diferencial de la ecuación de energı́a se tiene


M
X
dU = T dS − p dV + µj dNj . (2.18)
j=1

Alternativamente, se tiene
M
1 p X µj
dS = dU + dV − dNj . (2.19)
T T j=1
T

Y en concordancia con las definiciones anteriores se tiene


    !
1 ∂S p ∂S µj ∂S
= , = , =− .
T ∂U V,N T ∂V U,N T ∂Nj
U,V,Ni6=j

Hay que tener cuidado al usar la regla de la cadena, pues las variables tienen relaciones
entre si no siempre evidentes. Por ejemplo, la regla de la cadena indicarı́a que
∂S ∂S ∂U p
= =− ,
∂V ∂U ∂V T
lo cual no es correcto. Si se substituye dU = T dS − p dV en la expresión dS =
(1/T ) dU + (∂S/∂V ) dV . Se toma temporalmente dNj = 0, que no juega ningún
papel en este asunto. Por tanto,
 
1 ∂S
dS = [T dS − p dV ] + dV
T ∂V U
 
p ∂S
= dS − dV + dV,
T ∂V U
y por tanto,  
∂S p
= ,
∂V U T
que es lo correcto.

16
2.4. Termodinámica

1a y 2a Ley
La termodinámica empezó con un análisis del ingeniero Sadi Carnot (1796-1832) sobre
la eficiencia de los motores. Era la época de los motores de vapor, su pregunta fue
cómo construir el motor más eficiente. La primera ley, la ley de conservación de la
energı́a no se conocı́a. Pero su análisis cuidadoso permitió la formulación de la segunda
ley, mediante la consideración de un motor ideal, un motor reversible. Este es uno de
los pocos casos en los cuales la ingenierı́a ha hecho una contribución fundamental a
la fı́sica.
La conservación de energı́a, la primera ley de la termodinámica es

dU = δq + δW.

Para un sistema cerrado la ecuación diferencial fundamental de la energı́a es

dU = T dS − p dV.

El cambio en el trabajo para un proceso lento es δW = −p dV . Combinando se obtiene


la llamada definición termodinámica de la entropı́a
δq
dS = . (2.20)
T
De la experiencia cotidiana se sabe que si se hace trabajo y hay fricción, parte del
trabajo se “pierde”. Bueno, realmente no se pierde, se transforma en calor. Suponga
que es posible hacer trabajo a temperatura constante, independientemente de si hay
intercambio de calor con el ambiente. La pregunta es si es posible reversar un proceso
como ese. Es decir si es posible convertir calor en trabajo a igual temperatura, porque
si en un sentido se hace trabajo y se transfiere calor al ambiente; reversando el proceso
se convierte calor en trabajo. La segunda ley de la termodinámica dice que no, que
no es posible. Esta es la forma como Carnot formuló la ley. Especı́ficamente, Carnot
asumió que no es posible convertir calor en trabajo a temperatura constante sin otros
cambios en el sistema o en su entorno.
Una consecuencia de una hipotética negación de esta consideración de Carnot, tal que
fuera posible convertir calor en trabajo sin otros cambios, serı́a que el calor puede
fluir de un cuerpo frı́o a uno caliente. Porque si se pudiera obtener trabajo del calor de
algo que no cambia temperatura, por ejemplo, el mar, ese trabajo se puede convertir
en calor por fricción sobre algo que ya tiene una temperatura mayor. Se podrı́a por
lo tanto extraer calor de un cuerpo más frı́o y llevarlo a uno caliente. Esto explica
porque algunas veces la segunda ley también se enuncia diciendo que no es posible
que el calor, por si mismo, pueda fluir de un cuerpo frı́o a uno caliente.
Para comprender esto es útil el bien conocido ciclo de Carnot de un motor ideal
reversible (figura 2.1). Iniciando del punto A, el cilindro del motor está en contacto
con un baño a una temperatura T1 y se procede lentamente a una expansión isotérmica
como se ilustra en la lı́nea continua AB. A medida que el volumen aumenta, la presión
disminuye. También sabemos que a medida que el gas se expande a temperatura
constante debe haber un flujo de calor desde el entorno hacia el cilindro, digamos Q1 .

17
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

3.E+03
A

3.E+03

2.E+03

p
B

2.E+03
D

1.E+03
C

9.E+02
0.9 1.1 1.3 1.5 V 1.7 1.9 2.1 2.3

Figura 2.1: Motor ideal reversible. Lı́neas continuas cambio isotérmico, lı́neas puntea-
das cambio adiabático

De no haber tal flujo la expansión va acompañada de un enfriamiento. Suponga que


el fluido que llena el cilindro es un gas ideal, la relación entre la presión y el volumen
es
pV = Nm RT1 .

En el punto B se retira el cilindro del baño de calor a temperatura T1 y se aı́sla del


entorno para continuar en una expansión adiabática, es decir sin flujo de calor, ası́ se
llega hasta el punto C, donde la temperatura es T2 < T1 (lı́nea punteada BC). Para un
gas ideal sabemos que, en un cambio adiabático de volumen, la presión y el volumen
están relacionadas por pV γ =constante. Ambas expansiones se hacen lentamente, sin
fricción, por lo que ambas son reversibles.
En el punto C se procede a rodear el cilindro de un segundo baño a temperatura T2
y lentamente se comprime hasta el punto D (lı́nea continua CD). Para esto no se usa
ningún proceso irreversible. Como el cilindro está en contacto con el baño frı́o y el
proceso es isotérmico, habrá un flujo de calor Q2 desde el cilindro hacia el baño. Se
procede a retirar el baño y se aı́sla el cilindro para continuar con una compresión
adiabática hasta regresar al punto inicial A (lı́nea punteada DA).
Nuevamente en todo el ciclo no se ha usado ningún proceso irreversible. El cilindro
recibió un flujo de calor Q1 del baño caliente y entrego al baño frı́o una cantidad Q2 .
Pero además en el ciclo el cilindro hizo un trabajo, que se puede cuantificar como el
área entre las curvas,
Z C Z A
W = p dV + p dV,
A C

de la primera ley también sabemos que

W = Q1 − Q2 .

18
2.4. Termodinámica

Suponga que hay otros motores reversibles, eventualmente algunos más eficientes que
el del ejemplo que acabamos de presentar. Sin embargo, se puede demostrar que
no es posible. Sean T1 y T2 las temperaturas de ambos baños, que son fijas. Por
contradicción se asume que el trabajo en uno de los motores es W y el del otro es
W 0 > W . Usando la reversibilidad es posible dejar todo como estaba y quedar con
un trabajo extra W 0 − W , lo que de acuerdo a la segunda ley es imposible. Por lo
tanto, todos los motores reversibles producen el mismo trabajo W , toman calor Q1
del baño caliente T1 y entregan calor Q2 al baño frı́o T2 .
Se puede calcular el calor Q1 que se recibe del entorno en la rama isotérmica AB,
mediante Z B
VB
Q1 = p dV = Nm RT1 ln .
A VA
De manera equivalente,
VC
Q2 = Nm RT2 ln .
VD
De la expansión adiabática en la rama BC se tiene

pV γ = pB VBγ = Nm RT1 VBγ−1 = Nm RT2 VCγ−1 ,

y de la compresión adiabática en la rama DA se tiene

T1 VAγ−1 = T2 VDγ−1 ,

por lo tanto,
Q1 Q2
= .
T1 T2
De esto se obtiene la eficiencia máxima teórica de un motor reversible
W Q1 − Q2 T1 − T2
η= = = .
Q1 Q1 T1

Usando la ecuación (2.20) se tiene la expresión del cambio de entropı́a en el proceso


isotérmico AB Z B
dQ Q1
SB − SA = = .
A T T1
En la fase caliente el cilindro aumenta la entropı́a pues recibe calor. De manera
semejante para el proceso CD
Q2
SD − SC = − ,
T2
el cilindro pierde calor y por tanto, su entropı́a decrece. En consecuencia, en el ciclo
completo no hay cambio en la entropı́a, pues SB = SC y SD = SA en las ramas
adiabáticas y por tanto, isentrópicas. Es decir, esto es otra manera de demostrar que
Q2 Q1
= .
T2 T1

19
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

Este importante modelo de un motor ideal sólo se aplica para ciclos reversibles.
Como consecuencia, otra manera de expresar la segunda ley es que en cualquier pro-
ceso irreversible la entropı́a aumenta. Dicho de otra manera, la entropı́a del universo
es creciente.

Ley de gases ideales


Usando la definición de presión,
 
p ∂S
=
T ∂V U,N

y la expresión de Boltzmann para la entropı́a S(V ) con el modelo de ocupaciones y


sitios en una grilla se tiene
 
S m!
= ln M (m, n) = ln .
k n!(m − n)!
El volumen V está relacionado linealmente con el número de sitios m, por tanto,
(∂m/∂V ) = m/V , luego,
         
∂S ∂S ∂m ∂S m
= =
∂V N ∂m N ∂V ∂m N V

Usando la aproximación de Stirling

mm
 
S
= ln = m ln m − n ln n − (m − n) ln(m − n).
k nn (m − n)m−n

Lo que se puede simplificar usando m = n + (m − n) en el primer término,


   
S n m−n
= −n ln − (m − n) ln .
k m m
Tomando la derivada
     
∂S m−n n
= k 1 + ln m − ln(m − n) − = −k ln 1 −
∂m N m−n m

Como n/m  1 se puede tomar el primer término de la expansión ln(1 − x) ≈


−x − x2 /2 − x3 /3 − . . ., y ası́ obtener
!
m n n2
p = −kT − − − ...
V m 2m2
que es la ley de gases ideales

nkT
p=
V

20
2.4. Termodinámica

SA

SB

UB UA
U

Figura 2.2: 1/T es la pendiente de la función S = S(U ). En equilibrio ambos subsis-


temas tienen la misma temperatura, no necesariamente la misma energı́a o entropı́a.
Adaptada de Dill y Bromberg (2003)

Flujo de Calor
La temperatura permite predecir el flujo de calor. El intercambio de calor busca ma-
ximizar la entropı́a. En el estado de equilibrio las temperaturas son iguales. Considere
dos subsistemas A y B con energı́a UA y UB y temperatura TA y TB respectivamente.
Los dos subsistemas se ponen en contacto térmico entre si, pero aislados del entorno.
La energı́a total, U = UA + UB =, es constante. Con está restricción, el cambio en
entropı́a es
   
∂SA ∂SB
dS = d(SA + SB ) = dUA + dUB = 0.
∂UA V,N ∂UB V,N

Por lo tanto, tomando dUA = − dUB y la definición de temperatura se obtiene

1 1
= .
TA TB

En palabras, si inicialmente no hay equilibrio el calor fluye de tal manera que la


entropı́a crezca, dS = (1/TA − 1/TB ) dUA > 0, es decir del subsistema caliente al frı́o.
En el equilibrio las temperaturas se igualan (figura 2.2).

21
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

Cambio de Volumen
La diferencia de presiones produce cambio de volumen y temperatura. Se pueden pre-
decir los cambios considerando la entropı́a. Considere un cilindro aislado del entorno,
partido en dos por un pistón movible, Sean A y B los sub sistemas con energı́as UA
y UB y temperaturas TA y TB . Se ponen en contacto térmico, pero están aislados del
entorno. Claramente U = UA + UB = constante y V = VA + VB = constante. Usando
la ecuación de la entropı́a la condición de equilibrio es
   
pA pB 1 1
dS = − dVA + − dUA = 0.
TA TB TA TA
Claramente,
1 1
= y pA = pB .
TA TB
En el equilibrio se igualan temperaturas y presiones.

Energı́a Libre de Helmholtz


Hay circunstancias en las cuales las condiciones del entorno imponen una variable
intensiva, T, p o µ. Por ejemplo, el sistema está en contacto con un camisa o baño
térmico muy grande que mantiene la temperatura. La variable extensiva correspon-
diente, la energı́a U se intercambia con el entorno. A tales intercambios se les dice
fluctuaciones. Si la presión se controla el volumen fluctúa. Si el potencial quı́mico se
fija, el número de partı́culas fluctúa. A estos sistemas se les llama tubos de ensayo.
Sean SB , UB la entropı́a y energı́a del baño, y SS , US las correspondientes del tubo
que se mantiene a temperatura T , con volumen y número de partı́culas constantes.
Como el sistema baño más tubo es aislado, se cumple que dUB +dUS = 0 y la entropı́a
debe crecer dSB + dSS ≥ 0. Combinando con la ecuación fundamental para el baño
dSB = dUB /T se tiene dSB = − dUS /T y, por tanto,

dUS
dSS − ≥ 0 ⇒ dUS − T dSS ≤ 0.
T

Por esta razón, para estos casos es conveniente definir la Energı́a Libre de Helmholtz
como
F = U − T S. (2.21)
Para un sistema en el cual T, V, N son constantes el estado de equilibrio corresponde
al mı́nimo de F , pues

dF = dU − T dS − S dT = dU − T dS.

La segunda ecuación se debe a que T es constante.


La definición de la Energı́a libre F expresa un balance entre la energı́a interna U
y la entropı́a S, donde la temperatura T determina la posición del balance. A al-
tas temperaturas la entropı́a domina, y a bajas temperaturas la energı́a domina. La

22
2.4. Termodinámica

energı́a libre es también el máximo trabajo “útil” que se puede obtener bajo T, V, N
constantes.
Si se substituye la ecuación fundamental para dU se obtiene
M
X
dF = −S dT − p dV + µj dNj , (2.22)
j=1

válida en condiciones generales, es decir, no sólo para un sistema rodeado por un baño
con T, V, N constantes. Note que en este último caso produce dF = 0 como debe ser.

Entalpı́a
Para sistemas con V y N fijos se han definido tres funciones fundamentales, con un
principio extremal asociado. La función de entropı́a S = S(U, V, N) es máxima cuando
U se controla en la frontera. La función de energı́a U = U (S, V, N) es mı́nima cuando
S se controla en la frontera. Y la función de energı́a libre de Helmholtz F es mı́nima
cuando T se controla en la frontera. Hay todavı́a otras dos funciones fundamentales.
La entalpı́a que se define en este numeral y la energı́a libre de Gibbs en el próximo.
La Entalpı́a, que es mı́nima en el equilibrio para un sistema en el cual S, p y N son
las variables independientes, se define como

H = H(S, p, N)) = U + pV.

La entalpı́a de un sistema es igual a su energı́a interna más el trabajo necesario


para hacer espacio para el sistema a presión constante. No es común usar la entalpı́a
como principio extremal porque la entropı́a no es una variable fácil de controlar. Sin
embargo, es útil porque se puede obtener de experimentos calorimétricos.
Si se calcula el diferencial de la definición y se reemplaza la expresión fundamental
de dU se obtiene
XM
dH = T dS + V dp + µj dNj .
j=1

Energı́a Libre de Gibbs


Controlar la temperatura y la presión es más fácil, la atmósfera los provee, por tanto,
la siguiente función fundamental también es muy útil, la llamada Energı́a Libre de
Gibbs, que se define como
G = H − T S. (2.23)
Para un sistema en el cual T, p, N son constantes el estado de equilibrio corresponde
al mı́nimo de G, con
XM
dG = −S dT + V dp + µj dNj .
j=1

La lógica de la energı́a libre de Gibbs es similar a la de Helmholtz. Si un proceso ocurre


en un tubo de ensayo a presión y temperatura constante, la energı́a libre de Gibbs

23
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

es un mı́nimo. Las reacciones quı́micas, los cambios de fase, los procesos biológicos
y fı́sicos pueden ocurrir en tubos de ensayo. Un tubo de ensayo puede intercambiar
energı́a con el entorno por cambio de volumen y/o flujo de calor. El equilibrio se da
cuando la entropı́a del tubo más la del entorno es máxima. Como para el tubo mismo,
T, p, N son constantes, el equilibrio ocurre cuando la energı́a libre G es mı́nima.

Distribución de Boltzmann
El principio de maximización de la entropı́a permite calcular la probabilidad de un
determinado nivel de energı́a Ej , dado el promedio de la energı́a, mediante la llamada
Distribución de Boltzmann
Pr[E = Ej ] = Z −1 e−Ej /kT , (2.24)
donde
t
X
Z= e−Ej /kT (2.25)
j=1

es la función de partición, que como se verá tiene mucha información.

Justificación
La siguiente es una justificación de la ecuación (2.24). Para un micro estado j, se
quiere calcular la probabilidad pj , dada la energı́a Ej . Se supone (T, V, N) constantes.
Luego la condición de equilibrio es la energı́a libre dF = dU − T dS = 0. Se procede
a calcular dS,
t t
S X X
=− pj ln pj ⇒ dS = −k (1 + ln pj ) dpj ,
k j=1 j=1

y dU ,
t
X t
X
U = hEi = pj Ej ⇒ dU = dhEi = (Ej dpj + pj dEj ).
j=1 j=1
P
La primera leyP es dU = δQ + δW . Si V es constante dU = dhEi = δq, luego Ej dpj
es el calor y pj dEj el trabajo.
Luego la distribución en el equilibrio cumple
X
dF = dhEi − T dS = 0 sujeta a pj = 1.
Usando la técnica de multiplicadores de Lagrange
t
X
dF = [Ej + kT (1 + ln p∗j ) + α] dpj = 0,
j=1

lo que da ln p∗j = −Ej /kT −α/kT −1. De donde se llega a la Distribución de Boltzmann
t
X
pj = Z −1 e−Ej /kT , con Z = e−Ej /kT
j=1

24
2.4. Termodinámica

Aplicación
En la atmósfera, debido al potencial gravitatorio la energı́a depende de la altura z,

E(z) = mgz.

Por lo tanto, para una atmósfera isotérmica se tiene

p(z) N (z)kT /V N (z)


= = = e−mgz/kT
p(0) N (0)kT /V N (0)

Distribución Maxwell-Boltzman
Una partı́cula en un recipiente, a volumen constante, con velocidad v = (vx , 0, 0) y
masa m, tiene energı́a cinética E(vx ) = 21 mvx2 , luego de acuerdo a la distribución de
Boltzmann se tiene

 1/2
1 2
p(vx ) = e−mvx /2kT .
2πmkT
En general las componentes son independientes, luego
 3/2
m 2 2 2
p(vx , vy , vz ) = e−m(vX +vy +vz )/2kT ,
2πkT

que es una distribución normal tridimensional para las velocidades. En particular la


media es h 12 mv 2 i = 32 kT y la varianza kT /m.

Función de Partición
En muchos casos el estado base tiene E1 = 0. Si T → ∞ entonces Pr[Ej ] → 1/T . En
el otro extremo si T → 0 entonces Pr[Ej ] → 0 para j 6= 1 mientras que Pr[E1 ] = 1.
También es posible enfocarse en niveles de energı́a El que tienen multiplicidad M (El ),
en tal caso Pr[El ] = Z −1 M (El )e−El /kT .
La función de partición de un sistema de N partı́culas distinguibles e independientes
se escribe como
Z = zN ,
donde z es la función de partición de cada partı́cula.
La función de partición de un sistema de N partı́culas indistinguibles e independientes
se escribe como
zN
Z= ,
N!
Claramente
t
X t
X
U = hEi = Ej Pr[Ej ] = Z −1 Ej e−βEj ,
j=1 j=1

25
2. Fundamentos de Termodinámica y Mecánica Estadı́stica

donde β = 1/kT facilita la escritura. Es fácil ver que


U ∂ ln Z ∂ ln Z
= ⇒ U =− . (2.26)
kT 2 ∂T ∂β
Igualmente usando la Función Partición se puede expresar la entropı́a
U ∂ ln Z
S = k ln Z + = k ln Z + kT . (2.27)
T ∂T
También se puede expresar la Energı́a Libre,
F = U − T S = −kT ln Z ⇒ Z = exp{−βF}, (2.28)
el potencial quı́mico,
∂ ln Z
µj = −kT , (2.29)
∂Nj
la presión
∂ ln Z
p = kT , (2.30)
∂V
y la varianza de la energı́a,
∂ 2 ln Z
h(E − hEi)2 i = hE 2 i − hEi2 = . (2.31)
∂β 2

2.5. Magnetismo
Para un sistema magnético la primera ley de la termodinámica es
dU = T dS − M dH, (2.32)
donde M es la magnetización y H el campo magnético (no confundir con la entalpı́a
H). Acá se asume que el volumen y la composición son fijos, por lo tanto, dV = 0 y
dNj = 0. En esta forma de escribir la energı́a no se incluye la energı́a almacenada en
el campo magnético.
En términos de la energı́a libre (y en vista de la ecuación (2.28) de la función de
partición) la magnetización es
 
∂F
M =− . (2.33)
∂H T
El calor especı́fico a H constante es
 
∂U
CH = , (2.34)
∂T H
la susceptibilidad isotérmica  
∂M
χT = . (2.35)
∂H T
El calor especı́fico a H o M constantes también se puede expresar en términos de la
entropı́a (X = H, M )  
∂S
CX = T .
∂T X

26
Capı́tulo 3

Transiciones de Fase

La consecuencia más espectacular de la interacción entre partı́culas es la aparición


de nuevas fases de la materia cuyo comportamiento colectivo tiene muy poca seme-
janza con el de partı́culas aisladas. ¿Cómo se transforma el comportamiento de las
partı́culas? Formalmente, todas las propiedades macroscópicas se pueden deducir de
la función de energı́a libre de las partı́culas. Para que haya cambios drásticos se re-
quieren singularidades. Como la función de partición de un conjunto de partı́culas
es analı́tica, la singularidad requiere un número infinito de partı́culas, el llamado
lı́mite termodinámico. El estudio de las transiciones de fase es por tanto el estudio
del origen de las singularidades de la función de energı́a libre o sus derivadas. La
simulación Monte Carlo del modelo Ising de un ferro magneto es una herramienta
importante para entender el balance entre las interacciones, el campo externo y la
fluctuación térmica. A pesar de que el modelo Ising es el más simple de los modelos
de transición de fase tiene todos los elementos para aplicarse a fluidos, aleaciones
binarias, polı́meros y variedad de situaciones ambientales y sociales.

3.1. Caracterización
Una transición de fase se caracteriza por una singularidad en un potencial termo-
dinámico, como por ejemplo la energı́a libre o una de sus derivadas. Lo que se obser-
va es un cambio abrupto en alguna de las propiedades de una substancia. Ejemplos
tı́picos son los cambios de estado de la materia. En tales casos hay fronteras bien
definidas entre un estado y otro y si se cruza una de estas fronteras hay un cambio
abrupto de la densidad y liberación de calor latente.
Si hay una discontinuidad finita en uno o más de las derivadas de primer orden de
tal potencial termodinámico la transición de fase se denomina de primer orden. Para
un sistema magnético, la energı́a libre F, ver definición en la ecuación (2.21), es el

27
3. Transiciones de Fase

potencial termodinámico apropiado, con una discontinuidad en la magnetización


 
∂F
M = − ∂H . (3.1)
T

Para un fluido, la energı́a libre de Gibbs G, definida en la ecuación (2.23), es el poten-


cial termodinámico relevante y hay discontinuidades en el volumen y en la entropı́a
al cruzar la curva de presión de vapor. Un salto en la función de entropı́a implica que
la transición de fase tiene asociado un calor latente.
Si las primeras derivadas son continuas pero las segundas son discontinuas o infinitas,
la transición de fase será de orden mayor, continua, o crı́tica. Este tipo de transición
corresponde a una susceptibilidad divergente, una longitud de correlación infinita y
un decaimiento de la correlación de acuerdo a una ley potencial. Siempre es útil
examinar con cuidado el comportamiento de los potenciales termodinámicos cerca a
un punto crı́tico. La idea es comparar con la forma tı́pica de las transiciones de primer
y segundo orden.

H>0
H→0+

H→0-
H<0

Figura 3.1: Dependencia de la magnetización M en la temperatura T para diferentes


valores del campo magnético H, que ilustra la transición de fase en un ferro magneto
simple. Para el campo cero H = 0, por debajo de la temperatura crı́tica hay una
magnetización espontánea ±M (T ). El parámetro de orden de esta transición de fase
es la magnetización y el parámetro ajustable es la temperatura. Adaptada de Yeomans
1992

Introducción
Un primer acercamiento a las transiciones de fase es mediante la descripción de como
cambian las diferentes funciones termodinámicas a medida que cambian las variables
que producen la transición. En lo que sigue se describen las figuras 3.1 a 3.10 para el

28
3.1. Caracterización

caso de un magneto y para los cambios de fase gas-lı́quido en un fluido. Es conveniente


analizar las figuras cuidadosamente y tener en cuenta el significado de las variables
consideradas.
La figura 3.1 ilustra la dependencia de la magnetización M de la temperatura T para
diferentes valores del campo magnético H. Es notoria la magnetización espontánea
de un ferro magneto por debajo de la temperatura crı́tica, en ausencia de campo
magnético externo. La figura 3.2 ilustra el diagrama de fase de un ferro magneto
simple. Sin campo externo aplicado, H = 0, y para temperaturas en el rango 0 ≤ T <
Tc hay una lı́nea de transiciones de fase de primer orden. Por ejemplo un cambio a lo
largo de la lı́nea punteada denotada con 1 significa un salto entre dos fases, una con
magnetización negativa para H < 0 y otra con magnetización positiva para H > 0. El
cambio en la energı́a libre F a lo largo de tal trayectoria se observa en la figura 3.3 en
la curva denotada T < Tc . Se puede observar que aunque F es continua, para H = 0
su primera derivada no, la curva termina en un pico, las derivadas por la derecha y
por la izquierda son diferentes. La discontinuidad en la derivada al cruzar la lı́nea
de transiciones de fase, se puede observar en la magnetización que se representa en
la figura 3.4 en la curva correspondiente al caso T < Tc . Efectivamente, tal como lo
expresa la ecuación (3.1) esta discontinuidad en la derivada corresponde al salto en
la magnetización M que ya habı́amos señalado en la figura 3.3.
Como se indica en la leyenda de la figura 3.1, el parámetro de orden para este ejem-
plo es la magnetización. Para la transición lı́quido-gas el parámetro de orden es la
diferencia de densidades. Como su nombre lo indica, un parámetro de orden mide el
grado de orden a través de una frontera en una transición de fase. Normalmente es
cero en una de las fases, por encima del punto crı́tico, y no es cero en la otra. La
susceptibilidad del parámetro de orden normalmente diverge en el punto crı́tico. El
origen del parámetro de orden es la pérdida de simetrı́a. Cuando esto ocurre, se re-
quiere una variable nueva para describir el estado del sistema. Por ejemplo en la fase
ferro magnética es necesario cuantificar la magnetización, cuya dirección se escogió
espontáneamente cuando el sistema se enfrió por debajo del punto crı́tico.
En la figura 3.2 se puede observar el punto crı́tico, T = Tc , H = 0. A lo largo de la
trayectoria punteada 2, con T = Tc , a medida que aumenta H desde valores negativos,
cruza por cero y pasa a valores positivos se presenta una transición de fase crı́tica, la
magnetización, que es igual a la primera derivada de la energı́a libre F es continua
en H = 0 como se ve en la figura 3.3 en la curva denotada T = Tc , y se verifica en
la magnetización representada en la figura 3.4 para el caso T = Tc . Pero en el punto
crı́tico la segunda derivada de la energı́a libre F es infinita, como se puede apreciar
en la figura 3.5 en la curva correspondiente al caso T = Tc . La susceptibilidad χ es
la primera derivada de la magnetización M y por tanto, la segunda derivada de la
energı́a libre F (ver ecuación (2.35)).
La trayectoria punteada 3, en la figura 3.2 corresponde a un valor dado de T > Tc ,
aumento de H desde valores negativos, cruce por cero y paso a valores positivos. En tal
trayectoria se presenta una transición de fase de segundo orden, se pasa continuamente
de una fase a otra. La primera derivada de la energı́a libre F es continua en H =
0 como se ve en la figura 3.3 en la curva denotada T > Tc , y se verifica en la
magnetización representada en la figura 3.4 para el caso T > Tc . Además la segunda

29
3. Transiciones de Fase

H
1 2 3

Tc
5
T

Figura 3.2: Diagrama de fase ferro magneto simple. Hay una lı́nea de transiciones
de primer orden a lo largo de H = 0 que termina en un punto crı́tico en T = Tc .
Adaptada de Yeomans 1992

0
F H
-­‐1 -­‐0.8 -­‐0.6 -­‐0.4 -­‐0.2 0 0.2 0.4 0.6 0.8 1

-­‐0.2

-­‐0.4

-­‐0.6

-­‐0.8

T<Tc T=Tc T>Tc


-­‐1

Figura 3.3: Dependencia de la energı́a libre F en el campo magnético H para diferentes


valores de la temperatura T, en la transición de fase en un ferro magneto simple.
Adaptada de Yeomans 1992

30
3.1. Caracterización

derivada de la energı́a libre F es finita, como se puede apreciar en la figura 3.5 en


la curva correspondiente al caso T > Tc . La susceptibilidad χ es la primera derivada
de la magnetización M y por tanto, la segunda derivada de la energı́a libre F (ver
ecuación (2.35)).

1.5

M
T<Tc
1
T=Tc

0.5
T>Tc

H
0
-­‐1.2 -­‐1 -­‐0.8 -­‐0.6 -­‐0.4 -­‐0.2 0 0.2 0.4 0.6 0.8 1 1.2

-­‐0.5

-­‐1

-­‐1.5

Figura 3.4: Dependencia de la magnetización M en el campo magnético H para


diferentes valores de la temperatura T, que ilustra la transición de fase en un ferro
magneto simple. Para el campo cero H = 0, por debajo de la temperatura crı́tica hay
una magnetización espontánea ±M (T ). Adaptada de Yeomans 1992

El diagrama de fase en la figura 3.2 es simétrico como consecuencia de la simetrı́a


ante el cambio de orientación del campo magnético. Esta caracterı́stica es importante
para estudiar en su versión más simple las transiciones de fase. En otros casos, por
ejemplo en la transición de lı́quido a gas, que es cualitativamente semejante no existe
esta simetrı́a, lo que hace un poco más complejo el estudio. La energı́a libre F en la
figura 3.3 es convexa y simétrica con respecto a la recta H = 0. Esto concuerda con
la anterior observación. Por otro lado la energı́a libre tiene su máximo en H = 0 y
desarrolla una cúspide para valores de la temperatura menores a la crı́tica. Como se
indicó esto es caracterı́stico de la transición de fase de primer orden, como se ve más
claro en la magnetización, figura 3.4.
También interesa la dependencia de la magnetización M y la susceptibilidad χ de la
temperatura para un campo magnético constante. Esto se ilustra en las figuras 3.1
y 3.6, para las tres trayectorias punteadas marcadas con los números 4, 5 y 6 en la
figura 3.2. Por la simetrı́a anotada no es posible cruzar la frontera de cambio de fase
variando sólo la temperatura, como si es posible para otros casos, como la transición de
gas a lı́quido. La trayectoria 5, que corresponde a H = 0, a medida que la temperatura
disminuye se cruza el punto crı́tico y sigue por la lı́nea de coincidencia de las dos fases
hasta la temperatura cero. Para las trayectorias 4 y 6 que se escogieron simétricas,
la primera positiva y la segunda negativa no hay transición de fase. Para valores del
campo magnético diferentes a cero, la magnetización aumenta suavemente a medida

31
3. Transiciones de Fase

T=Tc

T>Tc

T<Tc

Figura 3.5: Dependencia de la susceptibilidad χ en el campo magnético H para di-


ferentes valores de la temperatura T, en la transición de fase en un ferro magneto
simple. Adaptada de Yeomans 1992

que la temperatura disminuye hasta alcanzar el valor de saturación correspondiente


al caso en que todos los espines están alineados, según el signo del campo (figura 3.1).

χ
H=0

H�0
H 0

Tc T

Figura 3.6: Dependencia de la susceptibilidad χ en la temperatura T para diferentes


valores del campo magnético H, en la transición de fase en un ferro magneto simple.
Adaptada de Yeomans 1992

Regresando a la figura 3.1, para el caso H = 0, si T > Tc la magnetización es


cero, el ruido térmico predomina, los espines no tienden a alinearse. En T = Tc
hay una bifurcación, si la temperatura sigue disminuyendo la interacción entre los
espines domina sobre el ruido térmico, los espines se alinean, la existencia de una
agrupación de espines orientados en un determinado sentido puede crecer, aparece

32
3.1. Caracterización

magnetización y eventualmente todos los espines se alinean. Cual de los dos sentidos
predomina es accidental, depende de condiciones iniciales infinitesimales. Las dos
ramas tienen igual energı́a libre, la termodinámica no permite seleccionar una sobre
la otra. La susceptibilidad es máxima para T = Tc y es simétrica para valores positivos
o negativos de H. Lo más importante es que diverge para H = 0 lo que corresponde
a la magnetización espontánea (figura 3.6).

Densidad
Punto Crítico
217.7

100

Presión
Temperatura
Sólido
Líquido
1

Densidad
Gas

374.4
Temperatura
100 374.4
Temperatura

Figura 3.7: Transiciones de fase gas-lı́quido-sólido. Todas las transiciones son de pri-
mer orden (calor latente) excepto en el punto crı́tico. En T = 100 ◦ C la densidad del
agua lı́quida es 958 kg m−3 , y la del vapor de agua es 0,59 kg m−3 . Un factor de 1600.
Adaptada de Solé (2011)

Para contrastar con otros sistemas más complejos se presenta en la figura 3.7 el dia-
grama de fase para el agua. Para establecer una correspondencia con el ferro magneto
basta identificar el momento magnético H con el volumen V y la magnetización M
con la presión p. Por ejemplo comparar, con dNj = 0, la ecuación diferencial de la
energı́a para el fluido, ecuación (2.18), con la del ferro magneto, ecuación (2.32). Con
tal correspondencia conectar la termodinámica es simple. Note la falta de simetrı́a.
Por ejemplo siguiendo trayectorias con temperatura constante si es posible cruzar una
frontera entre fases.
La asimetrı́a es más clara en la gráfica de la densidad como función de la temperatura
en la curva gas–lı́quido, figura 3.8, que se contrasta con la
 figura 3.1. En la figura 3.9
∂U
se presenta la variación del calor especı́fico, CV = ∂T con la temperatura para
V
el argón a lo largo de la curva de densidad constante e igual a la densidad crı́tica. Se
puede observar que para T = Tc el calor especı́fico diverge. Esta divergencia es una
señal clara de la transición crı́tica.
En la figura 3.10 se representa para un fluido la superficie P − V − T que ilustra el
caso de un gas ideal, sin discontinuidades y un material real, con las correspondientes
fronteras entre fases y las discontinuidades de la superficie. Una transición crı́tica
puede entenderse con la imagen de un espacio en el que se separan dos ambientes
mediante un muro que no llega hasta el techo, es por lo tanto posible pasar de un
ambiente a otro de manera continua.

33
3. Transiciones de Fase

2.5 ρ/ρc

1.5
Párametro  de  orden

0.5

T/Tc
0
0 0.2 0.4 0.6 0.8 1

Figura 3.8: Densidad en función de la temperatura para las fases lı́quida (ρl (T ), rama
superior) y gaseosa (ρg (T ), rama inferior). El parámetro de orden es ρl (T ) − ρg (T ).
Adaptada de Yeomans 1992

18
Cv/k
16

14

12

10

T/Tc
0
0.5 0.7 0.9 1.1 1.3

Figura 3.9: Calor especı́fico a volumen constante para argón a lo largo de la curva de
densidad constante e igual a la densidad crı́tica. Adaptada de Yeomans 1992

Exponentes Anómalos
Se ha dicho que un punto crı́tico se caracteriza por la divergencia del calor especı́fico
en el caso de los fluidos y de la susceptibilidad en el caso de los ferro magnetos. Resulta
que es fundamental para la teorı́a de los fenómenos crı́ticos entender cuidadosamente
cómo ocurren estas divergencias y el comportamiento singular de las demás funciones
termodinámicas cerca al punto crı́tico. Para esto se define un conjunto de exponentes
denominados exponentes crı́ticos. Una caracterı́stica notable de estos exponentes es
su universalidad. Más adelante se argumenta que estos exponentes son anómalos, en
el sentido de que no se deducen del análisis dimensional.
Considere una medida adimensional de la desviación de la temperatura con respecto
a la temperatura crı́tica,
t = (T − Tc )/Tc , (3.2)

34
3.1. Caracterización

o
lid ido

Líqu
to
Pun ico

o
Crít

-líquid
Sólido
Líq
va uido Ga

Pesión
po
r - s

Lín
ea Va
trip po
le r
Líq
uid
o-
va
po
Vo r
lum
ene
sp
ecí
fic ura
o rat
pe
Tem

Figura 3.10: Superficie P − V − T para un gas real. Adaptada de Solé (2011)

entonces el exponente crı́tico asociado a una función genérica f (t) es


log |f (t)|
λ = lı́m , (3.3)
t→0 log |t|
asumiendo que tal lı́mite existe. Una manera de expresar la ecuación (3.3) es
f (t) ∼ |t|λ , (3.4)
donde el sı́mbolo ∼ significa que el cociente de los términos a su derecha e izquierda
tiende a una constante. Es decir, el término de la derecha en la ecuación (3.4) es el
término de primer orden en la expresión asintótica de f .
Por ejemplo, si se observa la figura 3.1 es razonable escribir que cerca al punto crı́tico
la magnetización para H = 0 se aproxima a una parábola y, por tanto,
M ∼ (−t)1/2 , (3.5)
es decir, si el exponente crı́tico de la magnetización lo denominamos b, con una buena
aproximación es b = 1/2. La susceptibilidad para campo cero diverge en el punto
crı́tico (figura 3.6), al igual que el calor especifico, por lo que es razonable expresar
ambas variables mediante
χT ∼ |t|−γ ; CH ∼ |t|−α , (3.6)
con tanto α como γ positivos.

35
3. Transiciones de Fase

Universalidad

Resulta que se ha observado que los exponentes crı́ticos son los mismos para dife-
rentes sistemas en los que se presenta una transición de fase. Esto ha dado origen al
término de Universalidad. La figura 3.11 ilustra esto para ocho fluidos diferentes, para
los cuales los datos experimentales se ajustan bien si se asume b = 1/3. Una prueba

1.05

0.95

0.9

0.85
Ajuste CH4 O2
T/Tc

0.8

Xe Kr CH4
0.75

CO N2 Ne
0.7

0.65 A

0.6

0.55
0 0.5 1 1.5 2 2.5

ρ/ρc

Figura 3.11: La coincidencia de la relación densidad temperatura para ocho diferentes


fluidos representada en variables reducidas. El ajuste asume un exponente de b = 1/3.
Adaptada de Yeomans 1992

adicional a la universalidad es comparar el exponente con el obtenido para transicio-


nes de fase en otros sistemas con diferentes interacciones, pero con un parámetro de
orden escalar. Una posibilidad es la de los magnetos con anisotropı́a uniaxial. Expe-
rimentalmente se ha encontrado b = 0,335(5). Para la separación en mezclas binarias
b = 0,33(2). El modelo Ising es un modelo simple con un parámetro de orden escalar.
En tres dimensiones no hay todavı́a soluciones analı́ticas, pero numéricamente se ha
encontrado que para las retı́culas cúbica simple, centrada en el cuerpo y centrada en
la cara las temperaturas crı́ticas son kTc /J = 0,2216; 0,1574 y 0,1021 respectivamente
y donde k = 1,38 × 10−23 JK−1 es la constante de Boltzmann y J es la energı́a de
acoplamiento descrita abajo con relación a la ecuación (3.8). Sin embargo, en todos
los casos b es el mismo, aproximadamente 0,327. Esto ilustra la importancia de los
exponentes, la universalidad y la utilidad de los modelos simples que tengan en cuenta
la interacción, representen adecuadamente la dimensión del problema y la simetrı́a
del parámetro de orden. Estos elementos constituyen lo que se denomina una clase
de universalidad.

36
3.2. Modelo Ising

3.2. Modelo Ising

Fundamentos
Sin fases el mundo serı́a monótono. Para que haya una transición entre dos fases,
éstas deben poder coexistir bajo iguales condiciones termodinámicas. Normalmente
el Hamiltoniano tiene más simetrı́a que una de las fases. Por lo tanto, hay pérdida de
simetrı́a en las transiciones mediante algún tipo de orden emergente. En el modelo
que se va a presentar, la energı́a no cambia si todos los espines se invierten, pero una
caracterı́stica fundamental de los ferro magnetos es la magnetización espontánea, es
decir, regiones predominantes del ferro magneto están alineadas en la misma dirección,
luego se pierde la simetrı́a. Explicar esto no es simple, más adelante se intenta usando
el modelo Ising y algo de matemática.
Además de las transiciones de fase de lı́quido a gas y demás cambios de estado estas
transiciones se habı́an observado en ferro magnetos y se consideró que el problema era
más fácil en este terreno. El caso sin interacción entre los espines habı́a sido resuelto
por Curie (1895) (Sección 3.2) y era claro que sin interacciones no era posible explicar
las observaciones. El modelo más simple que tiene en cuenta la interacción de spines
se conoce con el nombre de modelo Ising (Ising 1925), estudiante de Lenz (1920)
quien en su tesis de doctorado resolvió el problema formulado por su profesor en una
dimensión, y encontró que no habı́a lugar a transiciones de fase. Equivocadamente
generalizó que el modelo no puede explicar las transiciones en ninguna dimensión.
Algunos se refieren al modelo Ising como el modelo Lenz–Ising para hacer justicia a
la idea original.

Figura 3.12: Retı́cula rectangular (izquierda) y hexagonal (derecha) en dos dimensio-


nes. Con lı́neas continuas se unen los sitios vecinos más próximos, con lı́neas a trazos
se muestra la retı́cula dual obtenida de bisecar los enlaces originales. Los valores de v
son 4 para las dos retı́culas rectangulares, 3 y 6 para la hexagonal y triangular. Para
una retı́cula cúbica simple (no mostrada) v = 6.

Posteriormente Peierls (1936) demostró que en dos dimensiones hay transiciones de


fase usando expansiones asintóticas para temperatura cerca a cero y a infinito. Pos-
teriormente Kramers y Wannier (1941) encontraron la temperatura crı́tica a la cual
ocurre la transición de fase,
2J
Tc = √ , (3.7)
k ln(1 + 2)
donde J es la energı́a de acoplamiento entre spines.

37
3. Transiciones de Fase

Por debajo de Tc hay magnetización espontánea y por encima las fluctuaciones térmi-
cas hacen que los espines se desorganicen y la magnetización desaparece. La solución
completa y definitiva para el caso de dos dimensiones se debe a Onsager (1944). El
caso de tres dimensiones permanece abierto y para más dimensiones la teorı́a del
campo medio da buenos resultados.
Considere una retı́cula, R = a(n1 , n2 , . . . , nd ), con N sitios, donde d es la dimensión
del espacio, a es la longitud de la retı́cula, y los ni son un conjunto de posibles enteros
que definen cada punto de la retı́cula. En cada sitio i hay un espı́n si que toma el valor
±1. Sea {sk } una de las 2N posibles configuraciones definida por la orientación de los
espines en cada uno de los N sitios. El Hamiltoniano (la energı́a) de tal configuración
es X X
H{sk } = −H si − J si sj (3.8)
i hi,ji

donde H, con unidades de energı́a, es el producto del campo magnético externo, B


(unidades de Teslas, T), por el momento magnético del espı́n, µ (unidades J/T). Es
decir, se expresa H como H = µB para hacer explı́cito el producto, pero frecuen-
temente se usa el término campo magnético externo para el parámetro H, lo que
equivale a tomar µ = 1. Por ejemplo en la ecuación (3.1), si la derivada es con res-
pecto a este parámetro H, es necesario multiplicar por µ = ∂H/∂B, pues el campo
magnético es B. Obviamente, si µ = 1 no hay diferencia. La otra constante, J es
la energı́a de acoplamiento, si J > 0 la interacción tiende a alinear los spines, por
ejemplo si dos espines vecinos tienen igual orientación la energı́a es −J y si tienen
orientación diferente es J. La segunda suma es sobre todos los spines vecinos (hay
v = 2d por cada sitio interior en retı́culas rectangulares de dimensión d). Una manera
equivalente de expresar el Hamiltoniano es mediante
X
H{sk } = − si (H + 12 JsV (i) ), (3.9)
i

en la que X
sV (i) = sj (3.10)
j∈hi,ji

es la suma de los espines vecinos al sitio i.


La función de partición es
X X X
Z= e−βH{sk } = ··· e−βH{sk } . (3.11)
{sk } s1 =±1 sN =±1

En el caso unidimensional los vecinos cercanos de un sitio son dos, el sitio a su derecha
y a su izquierda. En las fronteras de la retı́cula hay sólo un sitio vecino cercano, excepto
si se asume una condición de frontera periódica, es decir, si se enrolla la retı́cula y el
sitio N queda a izquierda del sitio 1 y a la derecha del sitio N − 1. Para hacer claridad
se escribe en detalle la función de partición para el caso unidimensional con N = 3,
sin enrollar. El Hamiltoniano para este caso es

H(s1 , s2 , s3 ) = −H(s1 + s2 + s3 ) − J(s1 s2 + s2 s3 ),

38
3.2. Modelo Ising

y la función de partición es
Z =e−βH(1,1,1) + e−βH(1,1,−1) + e−βH(1,−1,1) + e−βH(1,−1,−1)
+ e−βH(−1,1,1) + e−βH(−1,1,−1) + e−βH(−1,−1,1) + e−βH(−1,−1,−1)
=eβ(3H+2J) + eβH + eβ(H−2J) + e−βH
+ eβH + e−β(H+2J) + e−βH + e−β(3H−2J)

Magnetización y Susceptibilidad
Conviene verificar el cálculo de M usando la ecuación (2.33)
 
∂F
  kT  ∂ Z 
M = − ∂H = kT ∂∂Hln Z
= ,
T T Z ∂H T
P P
recordando que la función de partición es Z = {sk } eβ(H si +J si sj ) , su derivada
P
con respecto a H es
  X P P
∂Z
∂H = β(Σsi )k eβ(H si +J si sj )
,
T
{sk }

y por tanto, la magnetización es


X
M= (Σsi )k Pr{sk } = hΣsi i = N hsi i.
{sk }

De manera semejante se verifica el cálculo de la susceptibilidad χT en la ecua-


ción (2.35),
 
  X P P
χT = ∂M
∂H =  ∂H∂
(Σsi )k Z −1 eβ(H si +J si sj ) 
T
{sk }
T
X P P
= β (Σsi )2k Z −1 eβ(H si +J si sj )

{sk }
 2
X P P
−βZ −2  (Σsi )k eβ(H si +J si sj ) 

{sk }

= β(h(Σsi ) i − hΣsi i2 ) = β Var[Σsi .]


2

por lo tanto,
kT χT = h(Σsi − hΣsi i)2 i = h(Σsi − hΣsi i)(Σsj − hΣsj i)i.
La última expresión corresponde a la suma de la función de correlación, también
denominada longitud de correlación, que denotamos como Σi,j Γi,j donde
Γi,j = Γ(ri , rj ) = h(si − hsi i)(sj − hsj i)i = hsi sj i − hsi i2 ,
solo depende de la distancia para el caso homogéneo. En el punto crı́tico la suscepti-
bilidad diverge porque la longitud de correlación diverge.

39
3. Transiciones de Fase

Punto de Curie
Un iman pierde la magnetización si se calienta más allá de una temperatura. Este
comportamiento fue explicado por Pierre Curie en 1895 en su tesis de doctorado. Lo
que sigue es un breve resumen que explica esta interesante observación e ilustra muy
bien los conceptos, todo derivado de la función de partición para el caso de dos niveles
de energı́a, el nivel base con energı́a cero y el nivel excitado con energı́a E1 .
Un material es un para magneto únicamente a temperaturas superiores a su tem-
peratura de Curie. Los para magnetos no son magnéticos en ausencia de un campo
externo. Si se aplica un campo externo los espines pueden temporalmente alinearse.
Las interacciones dipolo a dipolo entre átomos vecinos son pequeñas en comparación
con el efecto de campos externos. Considere un modelo de un para magneto en el cual
cada una de las N partı́culas independientes, distinguibles, tiene dipolo magnético de
magnitud µ. Este momento magnético del dipolo mide la (magnetización) alineación
que resulta de aplicar un campo. Si se aplica un campo magnético B > 0 a un átomo
la energı́a de éste baja en −µB, si su momento es paralelo al campo. Si es antiparalelo
la energı́a sube a +µB. Usando la convención que el nivel base es cero, la diferencia
de energı́as es E1 = 2µB, que corresponde al nivel excitado.
Para este sistema la función de partición por partı́cula es

z = 1 + e−2βE1 ,

recuerde que β = 1/kT , luego la probabilidad del estado base es p0 = 1/z y la del
estado excitado p1 = (1/z)e−2βE1 . La energı́a promedio es

∂ ln z 1 ∂z E1 e−E1 /kT
hEi = − =− = .
∂β z ∂β 1 + e−E1 /kT

El calor especı́fico (ver la figura 3.13) es

∂U N ∂hEi ∂β N ∂hEi N E12 e−E1 /kT


CV = = =− 2 = .
∂T ∂β ∂T kT ∂β kT (1 + e−E1 /kT )2
2

La entropı́a es,
S E1 e−βE1
= + k ln(1 + e−βE1 ).
N T (1 + e−βE1 )
Y la energı́a libre
F
= − ln z = − ln(1 + e−βE1 ).
N kT
El promedio de la magnetización (ver la figura 3.15) es
 
µB
hM i = hµsi i = µp0 − µp1 = µ tanh
kT

Cuando µB/kT  1 se aplica que tanh x ∼ x para obtener hM i = µ2 B/(kT ), en


contraste para B/kT → ∞ se tiene hM i = µ.

40
3.2. Modelo Ising

CV

Figura 3.13: Calor Especı́fico para sistema con dos niveles de energı́a.

Sin campo magnetico externo Campo magnético presente

Figura 3.14: Esquemas para ilustrar ferro magneto y para magneto. Izquierda: Por
debajo de la temperatura de Curie, los espines vecinos en un ferro magneto están
ordenados en ausencia de un campo externo. Derecha: Por encima de la temperatura
de Curie, los espines están desorganizados en un para magneto a menos que haya un
campo externo.

Lo anterior se puede escribir de una manera ligeramente diferente con h = βµB,


tomando J = 0 en la ecuación (3.8), lo que corresponde a ausencia de interacciones.
Las probabilidades son Pr[si = 1] = z −1 exp(h), y Pr[si = −1] = z −1 exp(−h), donde
z = exp(h)+exp(−h) = 2 cosh h. El valor adimensional h determina el comportamien-
to del spin. Si T es grande o B es débil y por tanto, h > 0 es pequeño, la probabilidad
de que el spin se alinee con B es sólo ligeramente mayor que la probabilidad de que
sea opuesto. Pero si h es grande es mucho más probable la alineación.
El promedio del spin es
hsi i = z −1 [exp(h) − exp(−h)] = tanh h. (3.12)
La magnetización de un espı́n es M = µsi , luego
hM i = µ tanh h. (3.13)

La susceptibilidad magnética es χ = ∂M/∂B a temperatura constante, luego


µ2 β
hχi = .
cosh2 h

41
3. Transiciones de Fase

Y la energı́a libre
F
= − ln z = − ln(2 cosh h). (3.14)
N kT

<M>
6

0
0 20000 40000
-1
BT

Figura 3.15: La magnetización promedio hM i en un para magneto se satura con el


campo magnético aplicado B/T . Adaptada de Dill y Bromberg (2003)

Esta teorı́a del para magneto sirvió a Schrodinger (1943) para ilustrar el carácter
estadı́stico de las leyes fı́sicas. No se debe pensar que en realidad todos los espines
se alinean con el campo externo. De la ley de Curie se desprende que si se duplica
el campo se duplica la magnetización, y que tal proporción es válida hasta valores
muy altos del campo. La orientación que trata de inducir el campo externo es contra-
rrestada por el ruido térmico, que produce una orientación al azar. Como resultado,
espines individuales cambian de orientación permanentemente y la magnetización es
el reflejo macroscópico del comportamiento promedio. Esto se comprueba al notar
que es posible aumentar la magnetización sin cambiar el campo externo mediante la
disminución de la temperatura. La existencia de un nivel de saturación es también un
reflejo de lo anterior, cuando bien sea el campo es muy grande o la temperatura se
acerca a cero. Todo esto depende de la gran cantidad de espines que componen el ferro
magneto. La saturación indicada por la ley de Curie se confirma experimentalmente.
Para temperaturas muy bajas, duplicar el campo no duplica la magnetización. Esto
depende de la cooperación entre las moléculas en medio de la competencia entre el
campo y el ruido térmico.

Teorı́a de Campo medio


Esta teorı́a de campo medio es una aproximación al problema original. La dificultad
para resolver la ecuación (3.8) viene de las interacciones. Tanto que sólo hay solu-
ciones explı́citas para los casos de 1 y 2 dimensiones. Una estrategia es recurrir a
aproximaciones.
Una manera simple de visualizar la teorı́a del campo medio es la asumir, para sim-
plificar, que la interacción que cada spin recibe de los vecinos corresponde al campo

42
3.2. Modelo Ising

promedio. Para esto la ecuación (3.8) se reemplaza con


 
X X X
H0 {sk } = − si H + J hsj i = − Hef (i)si , (3.15)
i j∈hi,ji i
P
donde Hef (i) = H + J j∈hi,ji hsj i. Aplicando el resultado anterior, ecuación (3.12),

hsi i = tanh βHef (i)


Si el sistema es invariante a traslaciones y se toma H = 0, esto se puede escribir como

hSi = tanh βJvhSi , (3.16)
donde v es el número de vecinos cercanos.
Una manera sistemática de desarrollar la aproximación del campo medio es mediante
la llamada desigualdad de Bogoliubov
F ≤ Φ = F0 + hH − H0 i0 (3.17)
donde F es le energı́a libre exacta del sistema, H es un Hamiltoniano de prueba que
depende de un parámetro H0 , F0 es la energı́a libre correspondiente a tal aproxima-
ción, y h·i0 denota el promedio con respecto al Hamiltoniano de prueba. La energı́a
libre del campo medio se define minimizando Φ con respecto al parámetro variacional
H0 .
Fcm = mı́n Φ. (3.18)
H0

Esto da la mejor aproximación posible. La selección usual es tomar H0 como el Ha-


miltoniano sin interacciones, lo que permite cálculos explı́citos.
Considere el modelo Ising con campo externo H = 0 en una retı́cula con N sitios y v
vecinos próximos por sitio. El Hamiltoniano de prueba es
X
H0 = −H0 si , (3.19)
i

donde H0 se denomina el campo medio. Este es el Hamiltoniano de un para magneto


que se estudió en la Sección 3.2, por lo tanto, de acuerdo a la ecuación (3.14) con
B = H0 y µ = 1 se tiene
F0 = −N kT ln(2 cosh βH0 ), (3.20)
igualmente
hSi0 = tanh βH0 . (3.21)
También se necesita el calculo
P  P P  P
{k} −J s s
hiji i j + H 0 i si exp[βH0 i si ]
hH − H0 i0 = P P
{k} exp[βH0 i si ]
X X
=−J hsi i0 hsj i0 + H0 hsi i0 .
hiji i

43
3. Transiciones de Fase

La factorización en el término de las interacciones es posible porque H0 sólo contiene


sitios aislados, en términos probabilı́sticos los espines si y sj son independientes, luego
el valor esperado del producto es igual al producto de los valores esperados. Para un
sistema invariante ante traslaciones se tiene hsi i0 = hsj i0 = hSi0 y las sumas dan

hH − H0 i0 = −JvN hSi20 /2 + N H0 hSi0 , (3.22)

donde vN/2 es el número de enlaces en la retı́cula. Substituyendo (3.20) y (3.22) en


la definición de Φ en la ecuación (3.17) se obtiene
JvN
Φ = −N kT ln(2 cosh βH0 ) − tanh2 βH0 + N H0 tanh βH0 . (3.23)
2
Ahora, si se minimiza Φ con respecto a H0 el resultado es

H0 = Jv tanh βH0 , (3.24)

lo que se puede expresar de manera equivalente como H0 = JvhSi0 usando de (3.21)


para obtener por este camino de nuevo la ecuación (3.16),

hSi0 = tanh βJvhSi0 . (3.25)

Por lo tanto, la energı́a libre del campo medio se encuentra de substituir este resultado
en la ecuación (3.18)

Fcm = −N kT ln(2 cosh βJvhSi0 ) + N JvhSi20 /2. (3.26)

La magnetización de campo medio depende de la temperatura, para hacer explı́cito


esta dependencia hay que resolver la ecuación (3.25). Una manera es graficar la recta
y1 = hSi0 y la curva y2 = tanh βJvhSi0 para diferentes valores de T . Los puntos de
intersección corresponden a las soluciones. Es claro que para valores de T mayores que
un cierto valor que llamaremos Tc , y que se va a calcula en seguida, la única solución
es hSi0 = 0, es decir, un para magneto. Mientras que para T < Tc hay adicionalmente
otras dos soluciones simétricas que corresponden a la magnetización espontánea. De
acuerdo a la aproximación del campo medio la temperatura crı́tica Tc se obtiene de
igualar las pendientes de las curvas y1 y y2 , lo que corresponde a

kTc = Jv. (3.27)

Es decir, la temperatura crı́tica en esta aproximación sólo depende de v y de J, y


es independiente de la dimensión del espacio. Este resultado no es correcto, pues
predice transición de fase independiente de la dimensión y desde Ising se sabe que
esto no es ası́ para una dimensión. Sin embargo, para v grande la aproximación
es adecuada. La teorı́a de campo medio predice transición de fase continua de para
magneto a ferro magneto a la temperatura crı́tica dada por la ecuación (3.27). Aunque
esta predicción es errónea para una dimensión y la aproximación no es buena para
2 y 3 dimensiones, si lo es para dimensiones mayores y además representa bien el
comportamiento cualitativo. Una manera de verificar esto es mediante los exponentes
anómalos. Usando la definición de la desviación adimensional de la temperatura con

44
3.2. Modelo Ising

0.8

0.6

0.4

y
0.2

-­‐0.2

-­‐0.4

-­‐0.6

-­‐0.8

-­‐1
-­‐1 -­‐0.8 -­‐0.6 -­‐0.4 -­‐0.2 0 0.2 0.4 0.6 0.8 1
<S>

Figura 3.16: Esquema para ilustrar el cálculo de las raı́ces de hSi0 = tanh βJvhSi0 ,
ecuación (3.25), para diferentes valores de la temperatura (β = 1/kT ). La lı́nea roja
es la recta y1 = hSi0 , las curvas corresponden a y2 (T ) = tanh βJvhSi0 para diferentes
valores de T . En azul para Tc = Jv/k, en el origen y1 es tangente a y2 y el único
intercepto es el origen. Si T > Tc , lı́nea verde, en el origen la pendiente de y2 es menor
que la de y1 y el único intercepto es el origen. Mientras que cuando T < Tc , lı́nea
morada, en el origen la pendiente de y2 es mayor que la de y1 y hay además otros dos
interceptos

respecto a la temperatura crı́tica, ecuación (3.2), y la expresión para ésta (3.27), el


promedio del espı́n, ecuación (3.25), se puede expresar como
 
hSi0
hSi0 = tanh , (3.28)
1+t
que se puede aproximar en series de potencia para valores pequeños de t y de hSi0
para obtener
hSi0 ∼ (−t)1/2 .
De manera semejante se pueden obtener otros exponentes.

Teorı́a de Landau
La teorı́a de Landau se basa en hipótesis simples, sin embargo, no sólo predice la
existencia de transiciones de fase, sino además reproduce los exponentes crı́ticos y

45
3. Transiciones de Fase

muestra la dependencia de la simetrı́a de los parámetros de orden. Landau asume que


la energı́a libre puede expandirse en serie de potencias del parámetro de orden m que
incluye aquellos términos compatibles con la simetrı́a del sistema.
Por ejemplo, para un ferro magneto simple con campo externo cero y parámetro de
orden m la energı́a libre se aproxima bien mediante

F = F0 + a2 m2 + a4 m4 , (3.29)

porque únicamente los términos pares son invariantes bajo la inversión de los signos
de la magnetización. No es necesario incluir términos mayores al de orden 4, por-
que como se verá, siendo a4 positivo, los términos que siguen no pueden alterar el
comportamiento crı́tico.
En la figura 3.17 se presenta la energı́a libre como función de m para valores decre-
cientes de a2 . Si a2 es positivo, el mı́nimo de la energı́a libre ocurre para m = 0, lo
que corresponde al estado paramagnético. Para a2 < 0, el mı́nimo de la energı́a libre
ocurre para valores finitos no nulos del parámetro de orden m, lo que corresponde
a la fase ferromagnética. Aparecen dos estados estables con magnetización −m0 y
+m0 que coexisten, como consecuencia de la simetrı́a de F. El punto crı́tico corres-
ponde a a2 = 0, donde la magnetización espontánea aparece, lo que corresponde a la
temperatura crı́tica. Por lo tanto, usando la convención para adimensionalizar de la
ecuación (3.2), el parámetro a2 se escribe

a2 = a˜2 t.

El hecho de que la magnetización debe ser acotada se refleja en a4 > 0. A pesar de la


primera impresión, no hay sorpresa en que un comportamiento singular se explique de
una expansión regular. La razón es que el valor de la magnetización que hace mı́nima
la energı́a libre es él mismo una función singular de la temperatura y el campo.
Según esta teorı́a de Landau la transición es continua, a medida que el parámetro
de ajuste t aumenta la magnetización se hace positiva continuamente, pero con una
derivada discontinua. Por lo tanto, es pertinente mirar a los exponentes. El más simple
es β. La magnetización de equilibrio corresponde al mı́nimo de la energı́a libre

dF
= 2a˜2 tm + 4a4 m3 = 0,
dm
de donde se obtiene que, para t < 0,

m ∼ (−t)1/2 .

En la fuente principal de estas notas, Yeomans (1992, p. 57) se pueden consultar los
demás exponentes.

Pérdida de Simetrı́a
Como se dijo, la pérdida de simetrı́a es una de las caracterı́sticas más sorprendentes de
la magnetización espontánea. En 2 o más dimensiones, sin campo externo aplicado,

46
3.2. Modelo Ising

F-­‐F0 F-­‐F0

m
m

F-­‐F0 F-­‐F0

m  
m  

Figura 3.17: Variación de la energı́a libre F con la magnetización m para valores


decrecientes del parámetro a2 , (arriba, izquierda) a2 > 0, (arriba, derecha) a2 = 0,
(abajo, izquierda) a2 < 0, (abajo, derecha) a2 << 0.

el modelo de Ising a una temperatura finita presenta en el lı́mite termodinámico


una transición de fase entre un estado paramagnético y uno ferromagnético. Para
temperaturas bajas, T < Tc , hay una magnetización promedio por sitio diferente
de cero. Esto es sorprendente porque el Hamiltoniano, ecuación (3.8), es invariante
ante la transformación de invertir todos los espines, si → −si , para el caso H = 0.
Esta es una simetrı́a importante del modelo de Ising. Como además hay invariancia
traslacional se tiene que la magnetización promedio por sitio es hM i = µhsi i. Por
tanto, un valor diferente de zero para hM i significa una pérdida espontánea de la
simetrı́a. Para describir matemáticamente esta pérdida hay que ser cuidadosos con
los lı́mites.
Considere temperatura cero. Luego hay dos estados degenerados con mı́nima energı́a,
uno con todos los espines positivos, si = +1, y el otro con todos negativos, si = −1.
P Si
se aplica un pequeño campo externo, es decir, se le agrega un término δH = − i si
a la energı́a, los dos estados tendrán energı́a diferente, H± = −JN v/2 ∓ N . El lı́mite
termodinámico de la energı́a libre por sitio es

−kT ln Z
F(T ) = lı́m lı́m .
→0 N →∞ N2
El punto es que el cociente de las contribuciones a Z de los términos de la forma
Z± = e−βH± para los dos estados degenerados es

Z−
= e−2N β ,
Z+

que va a cero cuando N va a infinito. Es decir, sólo el estado con todos los espines
hacia arriba, si = +1 contribuye a la función de partición. La clave es que

lı́m lı́m Z 6= lı́m lı́m Z.


→0 N →∞ N →∞ →0

47
3. Transiciones de Fase

El procedimiento de introducir un campo que rompa la simetrı́a y luego tomar el lı́mite


termodinámico y finalmente remover el campo es un procedimiento muy general para
explicar la pérdida de simetrı́a.

Aplicaciones
El término gas en retı́cula (en Inglés Lattice gas) tiene su origen en el modelo de Lee
y Yang (1952) que representan un gas mediante los números de ocupación de una
retı́cula. Considere que la retı́cula tiene V sitios (V representa el volumen). Hay una
colección de N partı́culas, con N << V . Las partı́culas se colocan el los nodos de la
retı́cula con la regla de que no puede haber más de una en cada sitio. La otra regla es
que sólo interactúan las partı́culas que ocupan sitios vecinos próximos. El potencial
de interacción entre dos sitios vecinos i y j se expresa como

∞ si r = 0,


V (r) = −0 si r = a, (3.30)

0

en otros casos

donde a es el espaciamiento entre sitios de la retı́cula. Los números de ocupación ni


para el sitio i son n= 1 si el sitio i está ocupado y n= 1 si el sitio está vacı́o. La energı́a
de interacción EG es función de los números de ocupación en toda la retı́cula y se
expresa como X
EG {n} = ni nj .
hi,ji

es posible hacer corresponder este modelo de gas en retı́cula con el modelo Ising del
ferro magneto tomando el espı́n si = 1 si el sitio está ocupado y si = −1 si no está
ocupado. Matemáticamente se escribe

s1 = 2ni − 1. (3.31)

En consecuencia, es posible aplicar lo que se conozca del modelo Ising al modelo


del gas en retı́cula. Por ejemplo 0 = 4J. Este tipo de modelos se ha generalizado
a los fluidos en general y hay toda un área de conocimiento denominada autómatas
celulares que se aplican a muchos campos, entre ellos a la solución de las ecuaciones
de Navier-Stokes (Wolfram 1983; Wolfram 1986a; Wolfram 1986b; Wolfram 2002;
Pomeau y Frisch 1986).
Una segunda aplicación es en el estudio de aleaciones binarias, es decir, formadas por
dos tipos de átomos. Por ejemplo el bronce está organizado en una retı́cula cúbica
centrada en el cuerpo, conformada por átomos de zinc, Zn, y cobre, Cu. A temperatura
T = 0, la retı́cula es completamente ordenada y un átomo de Cu está rodeado por
átomos de Zn y viceversa. A temperaturas positivas, los átomos pueden intercambiar
lugares. Por encima de una temperatura crı́tica, Tc = 742 K, los átomos de Zn y
de Cu se mezclan completamente, de tal manera que la probabilidad de encontrar
un átomo de Zn en cualquier sitio de la retı́cula es 1/2, igual para el átomo de Cu.
Para modelar este tipo de aleaciones binarias, se toma una retı́cula de N sitios, y dos

48
3.3. Simulación Montecarlo

clases de átomos con NA átomos del tipo A, y NB átomos del tipo B. Cada sitio tiene
precisamente un átomo, luego NA + NB = N . La ocupación de cada sitio es n1 = +1
si el sitio i está ocupado por un átomo del tipo A, o ni = −1 si está ocupado por un
átomo del tipo B. Es posible calcular las interacciones y aplicar el modelo Ising.
En soluciones de compuestos surfactantes se forman transiciones de fases a medida
que la concentración aumenta. Estas moléculas tienen una estructura polar, con un
grupo en la cabeza que es muy soluble en agua y una cola de hidrocarburos que es
apenas soluble. Como consecuencia, estas moléculas se organizan de tal manera que
la cabeza está próxima a las moléculas de agua y la cola lo más lejos o resguardada
de ellas. Por ejemplo, si hay una superficie migran hacia ella y se colocan cabeza
abajo. Esto baja la tensión superficial y explica su uso como jabones o detergentes.
A medida que se aumenta la concentración se forman micelas, que son grupos de
moléculas organizadas en forma de esfera o cilindro de tal manera que las cabezas
forman un escudo para proteger las colas de las moléculas del agua. Si se continúa
aumentando la concentración puede ocurrir otra transición a la organización de las
micelas en forma hexagonal o cúbica, con espacios llenos de agua. También puede
haber transiciones a fases laminares.

3.3. Simulación Montecarlo


El conocimiento de la función de partición es en teorı́a suficiente para calcular todas
las variables de interés. Esta afirmación, aunque válida adolece de dos problemas.
El primero es el del lı́mite termodinámico. Se sabe que no hay transiciones de fase
sino en el lı́mite, por lo tanto, las aproximaciones finitas no necesariamente incluyen
toda la complejidad. La segunda objeción es práctica. La función de partición, (3.11),
tiene 2N términos lo que hace costoso, incluso prohibitivo, el cálculo para valores
moderados de N .
La estrategia normalmente usada es el muestreo. No es necesario usar todas las posi-
bles configuraciones para obtener una aproximación aceptable del promedio de alguna
variable, por ejemplo la energı́a o la magnetización, definida por
−βH
P
{S} Ae
hAi = P −βH
, (3.32)
{S} e

puede aproximarse mediante


n
1X
hAi ≈ Ai (3.33)
n i=1

tomando cuidado en escoger las n configuraciones {S}i usadas para el cálculo de Ai de


tal manera que estén cerca a equilibrio termodinámico. Afortunadamente la mecáni-
ca estadı́stica predice que el sistema permanece la mayor parte del tiempo cerca al
equilibrio, y las variables observadas Ai = hAi+O(2−N/2 ). Para esto existe una estra-
tegia de muestreo conocida con el nombre de Simulación Montecarlo, especı́ficamente
el algoritmo de Metropolis (Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H.
Teller y E. Teller 1953), que garantiza que el promedio muestral en la ecuación (3.33)

49
3. Transiciones de Fase

se acerque al valor esperado, el promedio ponderado por la probabilidad en la ecua-


ción (3.32). El método se apoya en la teorı́a de cadenas de Markov. El método se
aplica si se conoce una función proporcional a la distribución, en este caso e−βH . Pa-
ra esto se construye una cadena de Markov que tiene como distribución estacionaria
la distribución deseada garantizando una relación de balance para las probabilidades
de transición. En nuestro caso la probabilidad de transición necesaria es
(
1 si H{si } > H{sf },
Pr[{si } ⇒ {sf }] = Pr[{sf }|{si }] = (3.34)
e−β(H{sf }−H{si }) si H{si } ≤ H{sf }.

Una explicación intuitiva de por qué el método funciona es que la secuencia de va-
lores que conforman la muestra es tal que a medida que más valores se generan la
distribución se acerca a la distribución deseada. Los valores de la muestra se produ-
cen iterativamente, con la distribución del siguiente dependiendo del actual. En cada
iteración el algoritmo selecciona un candidato al próximo valor de la muestra y con
la probabilidad indicada este candidato se acepta y se procede a la nueva iteración o
se rechaza y el valor actual se re usa para la próxima iteración.
En la figura 3.18 se presenta en términos generales el procedimiento de simulación.
Algunos comentarios sobre asuntos prácticos son necesarios.

Inicialización
Definir el número de sitios, N , inicializar los espines, mantener registro de los vecinos.
También deben incorporarse los parámetros del problema: la temperatura, T, el cam-
po magnético, H y la constante de acoplamiento, J. Una manera de simplificar los
cálculos posteriores será usar la segunda expresión del Hamiltoniano en (3.9), para lo
cual se requiere calcular para cada sitio sV (i) usando la ecuación (3.10).
La inicialización de los espines puede ser aleatoria para valores de la temperatura
altos, en los cuales el comportamiento es semejante al de un para magneto. Para
valor definitivamente bajos, es conveniente escoger al azar (con igual probabilidad)
un primer valor (+1 ó −1) y luego el resto con una distribución con una mayor
probabilidad de repetir tal valor.
También se requiere inicializar en cero las variables en las que se va a calcular los
promedios o los totales, normalmente la magnetización M , la función de partición
Z, que se usarán luego para calcular la energı́a libre y la susceptibilidad. Se calcula
H = H{s0 }, la energı́a correspondiente a la configuración inicial de los espines {s0 }
usando (3.8) o (3.9), y la magnetización correspondiente a la configuración inicial de
los espines
N
X
M0 = si .
i=1

También se requiere definir el número total de iteraciones, m; el número de iteraciones


que se usarán para calentar el sistema, mc y que no se tendrán en cuenta para el cálculo
de los promedios y totales e inicializar el contador de iteraciones, it .

50
3.3. Simulación Montecarlo

1. Inicialice los sitios,


Datos entrada los espines,
el contador

2. Cambie temporal
un espı́n,
calcule probabilidad r
genere aleatorio u

3. ¿Acepta el cambio
No (r > u)?

Si

4. Acepta
cambio de espı́n

5. Calcula
variables An
Incrementa contador

6. ¿Fin iteraciones?
No

Si

7. Calcula
promedios.
Termina

Figura 3.18: Diagrama para simulación Montecarlo. (Yeomans 1992) 51


3. Transiciones de Fase

Cambio temporal de Espı́n


Se puede usar una secuencia sistemática de cambio de los espines o seleccionar al azar
el espı́n a cambiar. Suponga que el espı́n seleccionado está denotado por el subı́ndice
c. El cambio en la energı́a que resultarı́a del eventual cambio de sc a −sc es

∆H = H{sf } − H{si } = 2sc (H + JsV (c) )

Criterio de aceptación
Se calcula
r = exp(−∆H/kT ), (3.35)
se procede a generar un número al azar, u con distribución uniforme entre 0 y 1. El
criterio de aceptación es r > u y el criterio de rechazo del cambio es r ≤ u.

Cambios
En el caso de aceptación del cambio del espı́n en el sitio c se procede a hacer:

sc ⇐ −sc ,
sV (j) ⇐ sV (j) + 2sc , para todo j vecino a c,
H ⇐ H + ∆H,
M0 ⇐ M0 + 2sc

Actualización
Se incrementa el contador de iteraciones it ⇐ it + 1. Si ya terminó el calentamiento,
(it > mc ), se actualizan las variables de acumulación,

M ⇐ M + M0 ,
Z ⇐ Z + exp(−βH)

Iteraciones
Si el número de iteraciones no se ha terminado se regresa al punto 3.3.

Cálculos finales
Se procede al cálculo de los promedios, por ejemplo

M ⇐ M/(m − mc ).

Se producen los informes correspondientes

52
3.4. Renormalización

Figura 3.19: Simulación para T = 1,5Tc . Renormalizaciones con λ = 3 y regla de la


mayorı́a.

3.4. Renormalización
Se ha hecho énfasis en la divergencia en el punto crı́tico. Una de las consecuencias de
la presencia de este infinito es que todas las escalas de longitud son importantes. Esto
no es usual en fı́sica, la mayorı́a de las veces es posible concentrar una teorı́a en un
rango de escalas estrecho e ignorar lo que sucede por fuera de él. La hidráulica puede
ignorar el movimiento molecular. En una primera mirada la invariancia de escala cerca
a la criticalidad parece una dificultad, pero también puede ser una oportunidad.
Una clave es la teorı́a de los grupos de renormalización. En las figuras 3.19 a 3.21
se ilustra el método mediante simulaciones Monte Carlo para el modelo Ising de la
Sección 3.2. La figura 3.19 corresponde a una temperatura mayor que la crı́tica, la
figura 3.20 a la temperatura crı́tica y la figura 3.21 a una temperatura menor a la
crı́tica. Cada punto de la retı́cula se dibuja negro o blanco según el espı́n corres-
pondiente sea +1 o −1. En cada caso se muestra una secuencia de configuraciones
renormalizadas que se obtiene de reemplazar 9 sitios de la configuración anterior por
un sólo sitio, cuyo espı́n toma el valor de la mayorı́a de los 9 originales. Por tanto, la
escala de longitud para cada retı́cula es cambiada por un factor 3, 32 , 33 y 34 en cada
caso. Se puede apreciar cualitativamente el cambio de la longitud de correlación. En
la figura 3.19 la longitud de correlación decrece, cada cuadro es menos organizado, la
renormalización borra cualquier orden de rango corto que habı́a en el cuadro anterior
y finalmente los espines no están correlacionados. La renormalización corresponde a
un cambio de temperatura, para esta figura cada vez se incrementa y en el lı́mite co-
rresponde a temperatura infinita. Mientras más cerca, por encima, de la temperatura
crı́tica, se inicie, más iteraciones de renormalización son necesaria para llegar a tal
lı́mite. Para temperaturas por debajo de la temperatura crı́tica, figura 3.21, hay un
flujo análogo al aplicar la renormalización, pero el lı́mite es hacia temperatura cero y
la correlación crece, el orden aumenta.
Únicamente para la temperatura crı́tica, figura 3.20, hay fluctuaciones a todas las es-

53
3. Transiciones de Fase

Figura 3.20: Simulación para T = Tc . Renormalizaciones con λ = 3 y regla de la


mayorı́a.

calas, el sistema permanece invariante bajo la renormalización. Esta propiedad puede


aprovecharse para identificar el punto crı́tico y describir el comportamiento de las fun-
ciones termodinámicas en la vecindad del punto crı́tico (K. G. Wilson 1971b; K. G.
Wilson 1971a; K. G. Wilson 1979). Es decir, la teorı́a de grupos de renormalización
toma ventaja del escalamiento, en particular de la divergencia de la longitud de corre-
lación. Una manera de expresar esto en sı́mbolos es representar por ξλ a la longitud
de correlación medida en unidades del espaciamiento de los bloques (λa), y por ξ
cuando se mide en unidades de longitud a, se tiene por tanto que
ξ1
ξ = λaξλ = aξ1 , por tanto ξλ = .
λ
Al aplicar la renormalización se hace un cambio de la escala de longitudes, por tanto,
la longitud de correlación luego de aplicar la renomalización (iteración n+1) se obtiene
de la longitud correlación en la anterior iteración (n) mediante

ξ[Rn+1 ] = ξ[Rn ]/λ.

Por tanto, en el lı́mite,


ξ[R∞ ] = ξ[R∞ ]/λ,
lo que implica ó ξ = 0, punto fijo trivial, ó ξ = ∞, punto fijo crı́tico.

54
3.5. Ejercicios

Figura 3.21: Simulación para T = 0,5Tc . Renormalizaciones con λ = 3 y regla de la


mayorı́a.

3.5. Ejercicios

3.5.1 (Simulación). Defina una retı́cula en 2 o tres dimensiones para representar un


ferro magneto. Realice simulaciones aplicando el algoritmo Metropolis para al menos
5 valores de temperatura (2 por debajo, una igual y 2 por encima de la temperatura
crı́tica) y al menos 5 valores del campo magnético (2 negativos, uno cero y dos posi-
tivos). Calcule la energı́a libre, la magnetización y la susceptibilidad. Reproduzca las
figuras 3.1 y 3.3 a 3.6. Presente sintéticamente el procedimiento, los resultados y el
análisis correspondiente.
3.5.2 (Aplicación). El modelo Ising ha sido aplicado a variadas situaciones. Nos intere-
san en particular las aplicaciones a temas socioambientales. Selecciona una aplicación
y describa la correspondencia entre variables y comportamientos con el ferro magne-
to. Elabore sobre el tipo de preguntas que este tipo de herramientas puede ayudar a
responder.
3.5.3 (Deshielo Ártico). Ma, Sudakov, Strong y Golden (2019) contiene una interesan-
te aplicación del modelo Ising al deshielo en el Ártico. Consulta la referencia, explica
las modificaciones introducidas al modelo original y discute las predicciones.
3.5.4 (Pistachos). Noble, Rosenstock, Brown, Machta y Hastings (2018) presenta una
aplicación del modelo Ising al rendimiento en plantaciones de pistachos. Consulta la
referencia, explica la aplicación del modelo y discute las comprobaciones con obser-
vaciones.
3.5.5 (Confianza Inversionista). Stauffer (2008) presenta una aplicación del mode-
lo Ising a la confianza inversionista en Alemania. Consulta la referencia, explica la
aplicación del modelo y discute las comprobaciones con observaciones.
3.5.6 (Segregación). En 1971 el economista Thomas Schelling, ganador del premio
Nobel en 2005 publicó un modelo semejante al modelo Ising para estudiar la segre-
gación racial en las ciudades americanas (Schelling 1971). Stauffer (2008) presenta

55
3. Transiciones de Fase

una reseña. Consulta las referencias, explica la aplicación del modelo y discute las
comprobaciones con observaciones.
3.5.7 (Cambios en el lenguaje). Nettle (1999) publicó un modelo semejante al modelo
Ising para estudiar los cambios espontáneos en el lenguaje. Stauffer (2008) presenta
una reseña. Consulta las referencias, explica la aplicación del modelo y discute las
comprobaciones con observaciones.
3.5.8 (Altruismo). Mitteldorf y D. S. Wilson (2000) presentan un modelo sobre la
evolución del altruismo. Consulta las referencias, explica la aplicación del modelo y
discute si este modelo se puede formular en el marco del modelo Ising.

56
Capı́tulo 4

Criticalidad Auto Organizada

4.1. Introducción
El concepto criticalidad auto organizada (CAO) se ha propuesto para sistemas con
comportamiento macroscópico que exhibe invariancia de escala tanto en el espacio
como el tiempo. Este tipo de comportamiento es tı́pico de transiciones de fase, pero
en lugar de ocurrir en un punto crı́tico mediante ajuste externo del parámetro de or-
den, los sistemas auto organizados llegan a la condición crı́tica de manera espontánea.
Esta idea de auto organización fue propuesta originalmente por Bak, Tang y Wie-
senfeld (1987) y para algunos es considerado uno de los mecanismos que generan la
complejidad que nos rodea (Bak 1996).
Los fenómenos crı́ticos se caracterizan por divergencia de la longitud de correlación,
lo que produce ausencia de una escala caracterı́stica y por tanto fluctuaciones a todas
las escalas. Como consecuencia se tienen las leyes de escalamiento, leyes de poten-
cia, que corresponden a la cuantificación mediante los exponentes (anómalos) de la
invariancia de escala. Mientras que tı́picamente, la criticalidad ocurre para un va-
lor particular del parámetro de control que es ajustado externamente; los fenómenos
descritos mediante CAO reciben un suministro continuo de materia y/o energı́a y
evolucionan a la criticalidad de manera espontánea, sin regulación externa.
El concepto ha sido aplicado en campos muy diversos incluyendo geofı́sica, cosmo-
logı́a, evolución y ecologı́a, economı́a, gravedad cuántica, sociologı́a, fı́sica solar, fı́sica
de plasma, neurobiologı́a y otros campos. De estos campos hay alguna evidencia
empı́rica y propuestas de modelos que reproducen el escalamiento en un rango de
escalas. La teorı́a no es tan desarrollada como algunos proclaman y además subsisten
inquietudes importantes tanto con respecto al análisis de datos, sean experimentales
o resultados de simulaciones, como frente a la formulación teórica. Sobre el primer
punto se hará una breve mención y se señalaran trabajos en los que se profundiza
el tema. Se presentan los fundamentos de los modelos y las observaciones para los

57
4. Criticalidad Auto Organizada

casos de incendios forestales, sismicidad, deslizamientos y evolución. Se termina con


algunas preguntas teóricas.
Se dice que los fenómenos CAO se observan en sistemas no lineales en desequilibrio y
con muchos grados de libertad. Aunque se reclama que muchos ejemplos corresponden
al concepto original, aún no hay acuerdo sobre las condiciones necesarias y suficien-
tes para que un sistema exhiba criticalidad auto organizada. Algunas caracterı́sticas
generales de los sistemas CAO incluyen el forzamiento por un mecanismo lento, la
existencia de umbrales que una vez superados desencadenan dinámicas rápidas y la
existencia de interacciones importantes entre sus componentes.
Los sistemas CAO han sido caracterizados por cambios bruscos recurrentes de gran
magnitud, acompañados de muchos más acontecimientos menores. Pero una compo-
nente integral de su dinámica está constituida por reacciones en cadena de todos los
tamaños. Más aún, el mecanismo que conduce a sucesos de poca entidad es el mismo
que el que desencadena los grandes eventos. A pesar de todos los cambios, el estado
crı́tico resiste leves alteraciones de las reglas del sistema. Además, los sistemas de esta
naturaleza jamás alcanzan un estado estacionario estable, sino que evolucionan de un
estado metaestable al siguiente.
El enfoque de un fı́sico es diferente al de un ingeniero que quiere incluir en sus mode-
los tantos detalles como sean necesarios para obtener un cálculo confiable. La agenda
del fı́sico es entender los principios fundamentales del asunto bajo investigación. De
hecho, trata de evitar los detalles especı́ficos no relevantes. Antes de preguntarse qué
hay que agregar a una descripción para hacer los cálculos más precisos, se pregunta
qué se puede suprimir del modelo actual sin perder la esencia de las caracterı́sticas
cualitativas. Esta actitud es fundamental cuando no existe una comprensión satisfac-
toria de los fenómenos. La actitud del ingeniero se justifica cuando ya se alcanzó un
entendimiento adecuado y se busca mejorar la precisión. En el campo de aplicación
de los fenómenos crı́ticos todavı́a estamos en la etapa de comprender, no en la de la
precisión.

4.2. Análisis Dimensional y Escalamiento


Esta sección se basa en Jensen (1998, p. 7), Hergarten (2002, p. 25-64) y en el vo-
lumen sobre Fractales y Caos en las secciones (Mesa 2020, S. 9.11, 3.1) de donde se
reproducen partes.
Como se ha visto, los ejemplos de fenómenos crı́ticos tienen la caracterı́stica común
de la divergencia de la longitud de correlación, la ausencia de escalas caracterı́sticas,
la presencia de fluctuaciones de todos los tamaños y la respuesta anómala (a todas las
escalas en amplitud, extensión espacial y duración) a cualquier perturbación incluso
las más pequeñas. Estas caracterı́sticas se reflejan en varias leyes de escalamiento que
expresan cuantitativamente la invariancia de escala.
El escalamiento puede provenir de la divergencia de la suma del correlograma, o de
no-estacionariedad o de distribuciones estables. En contraste con los fenómenos que
muestran evidencia de escalamiento, una clase muy general de procesos estocásticos
con varianza finita no lo tiene según lo explica el teorema funcional del lı́mite central

58
4.2. Análisis Dimensional y Escalamiento

(TFLC, Sección 8.6) de teorı́a de la probabilidades (Bhattacharya, Gupta y Waymire


1983).
Se procede primero a dar una interpretación fı́sica al escalamiento usando el concep-
to de semejanza, apoyado en análisis dimensional. Esta subsección se reproduce de
(Mesa 2020, S. 3.1). A continuación, se presenta el escalamiento en la función de auto
correlación mediante el llamado fenómeno de Hurst. Se concluye con el tema de las
distribuciones estables, también conocidas como de cola pesada. En todos los casos
se procura no sólo presentar los procedimientos de cálculo o estimación sino además
la importancia del escalamiento.

Semejanza
El tema de la semejanza en fı́sica es inmenso, se considera importante un resumen
(Gupta y Mesa 2014). En Barenblatt (1996) y Barenblatt (2003) se puede profundizar.
El análisis dimensional se basa en la idea simple de que las leyes de la naturaleza
son independientes del sistema de unidades que se escoja para las mediciones. Como
consecuencia, estas leyes son invariantes ante cambios de escala. Matemáticamente
esto se expresa mediante funciones homogéneas lo que implica leyes potenciales.
Una función f es homogénea de grado n si al cambiar la escala de cada uno de sus k
argumentos por un factor λ se cambia la escala de la función por el factor λn . Esto
es, f es homogénea si f (λx1 , λx2 , . . . , λxk ) = λn f (x1 , x2 , . . . , xk ). Según el teorema
de Euler, si una función f es homogénea de grado n entonces
∂f ∂f ∂f
x1 + x2 + · · · + xk = nf (x1 , x2 , . . . , xk ).
∂x1 ∂x2 ∂xk

En particular si k = 1 se desprende que f (x) = cxn .


El teorema Pi de Buckingham, o simplemente el teorema Π, es la conceptualización de
esta potente idea que permite simplificar la matemática, por ejemplo permite reducir
el número de argumentos necesarios de las funciones que expresan una ley fı́sica, o
cambiar una ecuación en derivadas parciales por una ecuación diferencial ordinaria.
El teorema dice (Barenblatt 2003, p. 25):
Teorema 4.2.1 (Π). Una relación fı́sica entre una cantidad dimensional dependiente
y varias variables independientes que la determinan se puede escribir como un produc-
to adimensional que contiene la variable dependiente en función de otros productos
adimensionales independientes. El número de estos productos independientes es igual
al número total de variables que la determinan menos el número de dimensiones
independientes contenido en estas variables.

Sea a la variable dimensional dependiente, y sean a1 , . . . , ak , b1 , . . . , bm las k + m = n


variables que la determinan, k de ellas con dimensiones independientes. Con esta
notación, a = f (a1 , . . . , ak , b1 , . . . , bm ) puede re-escribirse como Π = Φ(Π1 , . . . , Πm ),
con Π = aa−p −r
1 · · · ak , y los productos adimensionales Πi = bi a1
−pi
· · · a−r
k
i
para i =
1, . . . , m. De acuerdo a las definiciones, los exponentes pi , . . . , ri se pueden obtener
de la solución de un sistema elemental de ecuaciones lineales.

59
4. Criticalidad Auto Organizada

Un ejemplo clásico para ilustrar el teorema-Π es la fórmula para T , el perı́odo de


pequeñas oscilaciones de un péndulo de masa m y longitud ` bajo la acción de la
aceleración de la gravedad g. Los tres parámetros determinantes (m, `, g) tienen di-
mensiones independientes (M, L, LT −2 ). Por lo tanto el número de productos adi-
mensionales de las variables independientes es n − k = m = 3 − 3 = 0, lo que implica
que el producto, Π, que contiene el perı́odo es una constante. Lo que se puede escribir
como T g 1/2 `−1/2 = constante (Barenblatt 2003, p. 132). Esta constante no puede
obtenerse del análisis dimensional, requiere otro argumento teórico o experimental.
En este ejemplo la constante es 2π, la fórmula es
p
T = 2π `/g.

La mayorı́a de los ejemplos exitosos de aplicación del análisis dimensional comparten


una propiedad importante no siempre enfatizada, pero muy necesaria. Hay una ma-
nera clara de separar entre variables importantes y variables que no son significativas,
bien por muy grandes o muy pequeñas. Por ejemplo (Gibbings 2011, p. 119), es po-
sible derivar la tercera ley de Kepler usando sólo análisis dimensional. La variable de
interés es T , el perı́odo de rotación del planeta que depende de su masa m, la masa
del Sol M , las dimensiones de la órbita representadas por los semi-ejes de la elipse a
y b, y la constante universal de gravedad G. Esto da origen a tres productos, uno que
involucra al perı́odo y otros dos independientes, que pueden ser a/b, o en términos
de la excentricidad, e2 = 1 − (b/a)2 , y el otro la relación entre las masas, m/M . Es
decir,
GM T 2
= f (m/M, e).
a3
Aunque hasta acá hay un avance no despreciable, es posible ir mucho más allá si se
considera que los dos números adimensionales a la derecha son pequeños y por lo
tanto no deben jugar un papel significativo. Esta consideración importante desde el
punto de vista fı́sico, en términos matemáticos se traduce en que la función f tiende
a un lı́mite no trivial cuando sus dos argumentos tienden a cero. En este contexto,
no trivial significa que el lı́mite es un número diferente a cero o a infinito. Por otros
argumentos se sabe que en este caso el lı́mite es 4π 2 . En general se dice que un
problema es “auto semejante de primer orden” si existe el lı́mite de la función f y
este lı́mite no es trivial cuando alguno de los productos adimensionales va a cero (o
a infinito si se toma el recı́proco) (Barenblatt 2003, p. 84).

Semejanza de segunda clase


Pero hay muchos casos en los cuales un producto adimensional no se puede despreciar
a pesar de ser o muy grande o muy pequeño. Matemáticamente esto significa que ó el
lı́mite de f no existe o es trivial (cero o infinito). En estos casos se pierde la capacidad
de simplificación que da la auto semejanza de primer orden. No se pueden despreciar
las variables correspondientes, que, aunque pequeñas siguen jugando un papel. Existe
una generalización del concepto de auto semejanza que se puede aplicar a algunos
de estos casos, aquellos para los cuales existe el lı́mite trivial. Consiste en suponer
que el lı́mite (a cero o a infinito) es potencial. Esto se conoce como “auto semejanza

60
4.2. Análisis Dimensional y Escalamiento

asintótica de segunda clase”. En Barenblatt (1996, chap. 5) se desarrolla el concepto


a mayor profundidad. Para determinar los exponentes, que van a ser anómalos, es
decir no son los que indica el análisis dimensional, se requiere de otras herramientas,
‘grupos de renormalización’ en mecánica estadı́stica, por ejemplo. No es posible su
determinación mediante el análisis dimensional.
Un ejemplo simple es la determinación de la longitud de una curva fractal, en contraste
con la de una curva suave (Barenblatt 2003, p. 132). Sea Lη la longitud de la poligonal
de segmentos de longitud ξ que aproxima la curva continua, que va entre dos puntos
separados por la distancia η. Lη depende de los dos parámetros dimensionales η y ξ.
La aplicación del análisis dimensional da Lη = ηf (η/ξ). Para una curva suave, por
ejemplo, un semi cı́rculo, a medida que ξ → 0 el argumento η/ξ → ∞ y la función
f va a un lı́mite, no trivial, en este caso π/2. Mientras que, para una curva fractal,
el lı́mite de f cuando η/ξ → ∞ es infinito. De hecho, de la geometrı́a fractal se sabe
que
f (η/ξ) ' (η/ξ)D−1 .
El exponente anómalo D > 1, la dimensión fractal, no se puede determinar del análi-
sis dimensional. Barenblatt (1996) presenta un método para proceder en estos casos
y numerosos ejemplos de turbulencia, relaciones alométricas en biologı́a, aguas sub-
terráneas, entre otros.

Invarianza de escala
Para cerrar esta sección una muy breve mención a los métodos de semejanza de escala,
algebras de Lie y el teorema de Noether (Logan 2004, p. 416). La simetrı́a de la leyes
fı́sicas ante cambios de escala es una de un grupo más general de posibles simetrı́as.
El teorema de Noether establece una correspondencia entre leyes de conservación
y simetrı́as. Además, existe una sistematización matemática de la simetrı́a de escala
mediante los grupos de Lie que permite el desarrollo de técnicas para simplificar ecua-
ciones diferenciales, por ejemplo, para reducir de una ecuación en derivadas parciales
a una ecuación diferencial ordinaria. Solamente se va a ilustrar con un ejemplo para
motivar a los interesados.
Considere la ecuación de calor en una dimensión

ut (x, t) − uxx (x, t) = 0, (4.1)

en la que las derivadas se expresan como subı́ndices. Considere el siguiente cambio de


variables
x̄ = x, t̄ = 2 t, ū = u, (4.2)
con  un parámetro real positivo. Al aplicar la regla de la cadena para las derivadas,
el cambio de variables (4.2), la ecuación (4.1) se transforma a

ūt̄ − ūx̄x̄ = 2 ut (x, t) − uxx (x, t) .



(4.3)

En palabras, el operador diferencial que define la ecuación de calor es invariante


hasta una constante 2 , ante el estiramiento (4.2). De esta simetrı́a se deduce que si

61
4. Criticalidad Auto Organizada

se introduce una nueva variable independiente


x
s= √ , (4.4)
t
que también es invariante ante el estiramiento (4.2), y se asume que u(x, t) = f (s)
para alguna función f se obtiene
f 00 (s) + 2s f 0 (s) = 0, (4.5)
que es una ecuación diferencial ordinaria. Luego la invarianza de la ecuación en de-
rivadas parciales (4.1) se traduce con la substitución adecuada (4.2) en una ecuación
diferencial ordinaria, que se puede integrar
Z s
f (s) = c1 exp(−z 2 )dz + c2 .
0

Note que en (4.1) la derivada con respecto al tiempo es de primer orden y la respecto al
espacio es de segundo orden. En el estiramiento (4.2) esto se traduce en los exponentes
de la variable  en la transformación (4.2), lo que hace invariante la ecuación al cambio
de variables.
Este ejemplo se puede generalizar. En el proceso juega un papel importante el con-
cepto de grupo de Lie de transformaciones (cambios de variable). Para simplificar
se toma el caso de dos variables independientes x y t, pero todo se puede extender
a problemas con más variables. Por una transformación T se entiende un mapa del
plano R2 a R2 , definido por las ecuaciones
T : t̄ = φ(x, t), x̄ = ξ(x, t),
donde φ y ξ son funciones dadas. Geométricamente T transforma un punto del plano
(x, t) a otro punto del plano (x̄, t̄) con el mismo sistema de coordenadas de referencia.
Si S es otra transformación, entonces ST representa la transformación que resulta
de primero aplicar la transformación T y al resultado aplicarle la transformación
S. También es posible definir la transformada inversa T −1 y la identidad. Con estas
reglas se define el grupo de Lie de las transformadas locales para estudiar la invarianza
de una ecuación dada. Adicionalmente se asume que la transformación depende de un
parámetro , real, y que las funciones φ y ξ son analı́ticas en R2 × (−0 , 0 ). Algunos
ejemplos de transformaciones son las rotaciones, las traslaciones, los estiramientos.
Usando la expansión en series de Taylor alrededor de  = 0 (la identidad) se obtiene
la llamada transformación infinitesimal, que es lineal.
El procedimiento práctico consiste en trabajar con una familia de transformaciones y
escoger el miembro adecuado de la familia para obtener la invarianza de la ecuación
en cuestión. Por ejemplo, la familia de estiramientos en dos variables es
T : x̄ = (1 + )a x, t̄ = (1 + )b t, ū = (1 + )c u, (4.6)
donde a, b y c son constantes fijas por determinar, y  es un parámetro real con valores
en un intervalo I que contiene a cero. En esta nomenclatura, la identidad corresponde
a  = 0. La transformación infinitesimal asociada es
x̄ = x + ax + o(), t̄ = t + bt + o(), ū = u + cu + o().

62
4.3. Escalamiento Estadı́stico

Dada una ecuación en derivadas parciales

F (x, t, u, ux , ut , uxx , uxt , utt ) = 0, (4.7)

se dice que es constantemente invariante conforme bajo la transformación (4.6) si

F (x, t, u, ux , ut , uxx , uxt , utt ) = A()F (x̄, t̄, ū, ūx̄ , ūt̄ , ūx̄x̄ , ūx̄t̄ , ūt̄t̄ ),

para todo  en el intervalo I, para alguna función A, tal que A(0) = 1. En el caso en
que A() = 1 para todo  en el intervalo I, se dice que es absolutamente invariante.
Con tal definición hay un teorema que establece que la transformada de una solución
a (4.7) es solución de la ecuación transformada.

4.3. Escalamiento Estadı́stico


Scholes, Merton, and Black desarrollaron un modelo para calcular el precio de deri-
vados del mercado que les mereció a los dos primeros el Premio Nobel en 1997. El
modelo describe la evolución en el tiempo del precio justo de la opción. Se basa en
un modelo estocástico Gaussiano, el llamado Movimiento Browniano. Con base en el
modelo en 1993 se creó el fondo LTCM (long term capital management). El cálculo
de la probabilidad de quiebra del fondo era 10−28 . Según otros cálculos la cifra era
10−7 . Sin embargo, en 1997 vino la crisis asiática y en 1998 vino la crisis rusa y en
4 años el fondo quebró. ¿Qué falló? La Distribución Gaussiana. Para comenzar un
breve repaso de temas básicos de probabilidad sin mucha justificación, ver cualquier
buen libro de texto, en particular los clásicos Feller (1968) y Feller (1971).

Ley de Grandes Números


En general si una variable aleatoria X tiene función de distribución acumulada de
probabilidades (para ahorrar diremos distribución) Fx (x) = Pr[X ≤ x], la variable
aleatoria que se obtiene de cambiar la escala y el centro de X mediante Y = aX + b,
tiene distribución

Fy (y) = Pr[Y ≤ y]
= Pr[aX + b ≤ y]
= Pr[X ≤ (y − b)/a]
 
y−b
= Fx , (4.8)
a

y densidad de probabilidades, cuando existe (para ahorrar diremos densidad)

dFy (y)
fy (y) = dy
 
1 y−b
= fx . (4.9)
a a

63
4. Criticalidad Auto Organizada

Definición 4.3.1. Dos distribuciones F1 y F2 se dice que son del mismo tipo si
F2 (x) = F1 (αx + β) con α > 0. Se dice que α es el factor de escala y β la constante
de centro o ubicación.

d
F1 = F2

La esperanza matemática de una variable aleatoria X, E[X], es la integral


Z Z
E[X] = x dF (x) = xf (x) dx, (4.10)
D D

donde D es el dominio de la variable. La primera integral siempre existe si se usa


una definición adecuada. La segunda existe para las variables continuas. De las pro-
piedades de la integral se deduce que la esperanza es un operador lineal, es decir,
E[aX] = a E[X] y E[X + Y ] = E[X] + E[Y ], para cualquier par de variables aleatorias
X, Y y cualquier constante a.
La varianza de una variable aleatoria X, Var[X], es Var[X] = E[(X − E[X])2 ] =
E[X 2 ] − E[X]2 . Claramente la varianza no es lineal, Var[aX] = a2 Var[X] y Var[X +
Y ] = Var[X] + Var[Y ] + 2 Cov[X, Y ]. Donde la covarianza de X y Y es Cov[X, Y ] =
E[XY ] − E[X] E[Y ]. En el caso de variables independientes la varianza de una suma
es igual a la suma de las varianzas, pues en este caso la covarianza es cero. El hecho
de que las constantes salgan al cuadrado del operador Var es trivial de la definición,
pero tiene consecuencias importantes. En particular, para X1 , X2 , . . ., una sucesión
de variables aleatorias independientes e idénticamente distribuidas (iid), con media µ
y varianza σ 2 , con Sn = X1 + · · · + Xn , se tiene

E[Sn /n] = µ (4.11)


2
Var[Sn /n] = σ /n. (4.12)

De la ecuación (4.12) se puede entender uno de los pilares básicos de la teorı́a de


probabilidades, la Ley de Grandes Números, que dice, en un sentido a precisar, que
1
lı́m Sn = µ. (4.13)
n→∞ n
Note que el lado izquierdo es el lı́mite de una sucesión de variables aleatorias, mientras
que el lado derecho es una constante. Sin embargo, de la ecuación (4.12) se ve que para
n → ∞ la varianza tiende a 0. En términos intuitivos se entiende que una variable
aleatoria con varianza cero sea una constante, que es precisamente el valor esperado,
de acuerdo a la ecuación (4.11). Hay versiones más generales de la ley de grandes
números para sucesiones no necesariamente independientes, y para varias maneras de
definir la convergencia.
Desde el punto de vista estadı́stico, la Ley de grandes números garantiza una buena
aproximación para estimar
√ la media si n es suficientemente grande. El error muestral
es proporcional a σ/ n. Esto garantiza que se puede aprender de la historia y que
un valor extraordinario (outlier) no daña el promedio

64
4.3. Escalamiento Estadı́stico

Teorema del Lı́mite Central


El siguiente resultado central de la teorı́a de probabilidades es el Teorema del Lı́mite
Central. Si se cambia el factor con el que se escala la suma Sn la convergencia es
a una distribución normal. En la ley √ de grandes números el factor de escala es n,
para
√ el teorema del lı́mite central es n. Note que esto equivale a multiplicar por
n la ecuación (4.13), es decir, se amplifica la variabilidad para apreciarla mejor.
Para darle una buena justificación al teorema necesitamos introducir el concepto de
función caracterı́stica de una variable aleatoria. Enunciaremos sus más importantes
propiedades para luego mostrar las ideas principales de una demostración clásica.
Pero antes, una variable aleatoria Z con distribución Gaussiana, o normal estándar
(con media 0 y varianza 1) tiene densidad y distribución

1
φ(z) = √ exp {−z 2 /2}, (4.14)

Z x
Φ(z) = φ(z) dz. (4.15)
−∞

En general, dada una variable aleatoria X, con distribución Fx , su función carac-


terı́stica se define como el valor esperado de eıwX , donde ı es la unidad imaginaria y
w, el argumento de la función caracterı́stica, es un real cualquiera. Es decir, la función
caracterı́stica es
Z Z
ϕx (w) = E[eıwX ] = eıwx dFx (x) = eıwx fx (x) dx. (4.16)
D D

La función caracterı́stica siempre existe. La última integral sólo cuando la variable


aleatoria tiene densidad. En este caso la función caracterı́stica es la transformada
de Fourier de la densidad. Algunas veces se usa el término transformada de Fourier,
o simplemente transformada, como sinónimo de función caracterı́stica. En general,
la función caracterı́stica determina la distribución de la variable X. Distribuciones
diferentes tienen caracterı́sticas diferentes. Cualquiera de las dos, la caracterı́stica o
la distribución tiene la misma información, de hecho, dada la caracterı́stica es posible
obtener la distribución con la llamada transformada inversa
1
Z
fx (x) = e−ıwx ϕx (w)dw. (4.17)
2π D

Por ejemplo, la función caracterı́stica de la distribución normal es


Z ∞
2
ϕz (w) = eıwz φ(z) dx = e−w /2 , (4.18)
−∞

cómo se puede verificar usando las ecuaciones (4.14) y (4.16). Como se ve, la carac-
terı́stica de la distribución normal tiene la misma forma que la densidad.
Si una variable aleatoria X tiene caracterı́stica ϕx (w), la variable Y = aX + b tiene
caracterı́stica ϕy (w) = eıwb ϕx (aw).

65
4. Criticalidad Auto Organizada

Una propiedad elemental es que mediante la derivada de orden n de la función carac-


terı́stica, evaluada en cero, se pueden obtener el momento correspondiente del mismo
orden de la variable aleatoria. Esto es una consecuencia directa de intercambiar el
orden de la integral y la derivada, lo cual se puede justificar,

ϕ(n) n n
x (0) = ı E[X ]. (4.19)

Para variables aleatorias independientes X y Y , la función caracterı́stica de la suma


es igual al producto de las funciones caracterı́sticas,

ϕx+y (w) = E[eıw(X+Y ) ] = ϕx (w)ϕy (w). (4.20)

Note que la independencia es necesaria en la anterior ecuación. En general, sólo para


variables independientes el valor esperado del producto es igual al producto de los
valores esperados. La independencia de X y Y implica la de eıwX y eıwY . Si F y G
denotan las distribuciones de dos variables independientes X y Y , la distribución de
la suma se denota como F ∗ G y se denomina la convolución.
La función caracterı́stica tiene la propiedad de continuidad, es decir la transformada
del lı́mite de una sucesión de distribuciones es igual al lı́mite de las transformadas.
Propiedad que se va usar para la justificación del teorema del lı́mite central.
Para variables aleatorias discretas, o continuas positivas existen transformadas seme-
jantes a la de Fourier, la función generatriz o transformada geométrica y la transfor-
mada de Laplace respectivamente. Ambas comparten con la transformada de Fourier
las propiedades fundamentales, con el necesario ajuste. Para una variable aleatoria
discreta, X, la función generatriz es ϕ(s) = E[sX ] y para una variable positiva conti-
nua la transformada de Laplace es L(λ) = E[e−λX ]. Las correspondientes traducciones
con la función caracterı́stica son s = eıw y λ = −ıw. Entre la función generatriz y la
transformada de Laplace es s = e−λ .
Para simplificar el enunciado del teorema del lı́mite central se toma µ = 0 y σ = 1
en la sucesión de variables aleatorias iid con suma Sn . El teorema
√ del lı́mite central
dice que en el lı́mite cuando n → ∞, la distribución de Sn / n es una distribución
normal. Para esto se procede a calcular su función caracterı́stica
√ √
ϕSn /√n (w) = E[eıwSn / n
] = [ϕx (w/ n)]n . (4.21)

Ahora, como w/ n → 0 cuando n → ∞ se puede aplicar la siguiente expansión en
serie de Taylor de ϕx al rededor de cero, usando las derivadas evaluadas en cero,

√ w2
ϕx (w/ n) = 1 − + o(w2 /n).
2
Al substituir esta expansión en la ecuación (4.21) se obtiene la función caracterı́stica
de la distribución normal, pues ex = lı́m(1 + x/n)n .
Algunas de las propiedades más importantes de la distribución normal son: cualquier
función lineal de normales es normal, la distribución normal es el lı́mite de sumas
de variables aleatorias (TLC), existe una teorı́a desarrollada para hacer pruebas de

66
4.3. Escalamiento Estadı́stico

Una moneda Cinco monedas 100 Monedas


8%
30%
50%

Probabilidad

Probabilidad

Probabilidad
0 1 0 1 2 3 4 5 30 50 70
Número de caras Número de caras Número de caras

Figura 4.1: Probabilidades de sellos en lanzamiento de n monedas. Tomada de Fieguth


(2017)

hipótesis e intervalos de confianza para problemas con distribuciones normales. De


hecho, existen muy pocas pruebas para casos con distribuciones no normales, y aun-
que se acepta que en el lı́mite la estadı́stica Gaussiana se aplica, tal afirmación no
siempre es correcta. Por su simetrı́a, los momentos impares alrededor de la media de la
distribución normal son cero, el coeficiente de Kurtosis es 3, la cola de la distribución
Gaussiana es delgada, de hecho,

1 − Φ(x) ∼ x−1 φ(x), cuando x → ∞. (4.22)

Colas pesadas
La razón del fracaso del fondo LTCM (long term capital management) descrito al co-
mienzo de esta sección parece se debe a que el modelo usado se basa en distribuciones
de cola delgada, mientras que la realidad corresponde a distribuciones de cola pesada.
Para introducir el tema de las distribuciones de cola pesada considere una distri-
bución potencial, es decir una con densidad proporcional a x−β , con un exponente
caracterı́stico dado β. Los métodos de integración clásicos muestran que
(
1
x1−β + c si β 6= 1
Z
−β
x dx = 1−β
ln(x) + c si β = 1,

por lo tanto, el dominio de la función de densidad no puede ser (0, ∞). Para que tales
densidades sean normilizables se debe excluir el cero del dominio. Si el dominio es
(s, ∞), para algún s > 0, se deduce que tal distribución potencial (distribución de
Pareto):
- No es normalizable si β ≤ 1,
- Es normalizable con media y varianza infinitas si 1 < β ≤ 2,
- Es normalizable con media finita y varianza infinita si 2 < β ≤ 3,
- Es normalizable con media y varianza finitas si 3 < β.

67
4. Criticalidad Auto Organizada

Distribución Unos cuantos puntos Muchos puntos

Exponencial
x x
1 2 0 20 40

Cola pesada
x x
1 2 0 20 40

1 x

Figura 4.2: Aunque las densidades de distribuciones con colas exponenciales y pesadas
parecen semejantes, las colas son muy diferentes. En el medio se ilustran unas cuantas
realizaciones y a la derecha un número grande de realizaciones lo que hace evidente
la gran diferencia. Tomada de Fieguth (2017).

Un resultado fundamental del cálculo es que la función exp(x) va más rápido a infinito
que cualquier potencia positiva de x. De manera correspondiente vale semejante afir-
mación sobre la rapidez de la convergencia a cero para exp(−x) y potencias negativas
de x. Por tal razón se usa el término cola delgada para las distribuciones cuya cola
va a cero a una velocidad exponencial o mayor. Por ejemplo, según la ecuación (4.22)
la cola de distribución normal va a cero como exp(−x2 ). Pero la distribución Pareto
va a cero como x−β , mucho más lentamente, por eso el nombre de cola pesada. La
figura 4.2 ilustra la diferencia entre cola delgada y pesada. La figura 4.3 muestra
varios ejemplos de aplicaciones de distribuciones con cola pesada.
Para ilustrar las implicaciones prácticas considere el caso de la sismicidad. Suponga
que en un sitio dado (por ejemplo la zona del Pacı́fico cercana a la central nuclear de
Fukushima en Japón), con 200 años de datos, el máximo terremoto observado tiene
magnitud 8,5, lo cual lo escribimos como x1/200 = 8,5. Ahora, si se asume que la
distribución de la magnitud es normal, y se condiciona a una magnitud x > 8,5, el
promedio de 1000 realizaciones es 1, 12x1/200 , pero si la distribución es Pareto con
β = 2/3 dicho promedio es 10x1/200 . Una diferencia substancial si se quiere diseñar
por ejemplo la altura del muro para proteger la central nuclear de las olas de un
tsunami generado por sismos. En realidad, la distribución de la magnitud de sismos
se considera que está bien descrita por la distribución de Pareto con tal exponente, y
el valor de x1/200 citado es cercano a lo estimado para el sitio.
Para un ejemplo un poco menos importante desde el punto de vista aplicado, pero
que ilustra la diferencia dramática, considere que la estatura de la mujer más alta
entre 200 es x1/200 = 1,82m. Si la distribución de la estatura es normal (que es lo
aceptado), el promedio de la estatura de 1000 mujeres más altas que x1/200 es 1,85m.
Pero si la distribución de la estatura fuera Pareto tal promedio serı́a 9,14m.
Una variable aleatoria X tiene distribución Pareto en el dominio (s, ∞), con cola, F̄ ,

68
4.3. Escalamiento Estadı́stico

Riqueza individual Meteoritos Palabras en libro


2 4
10 4 10
10

Frecuencia

Frecuencia
Riqueza
1 0 2
10 x −0.7 10 x −2.7 10 x −0.9
-4
10
0 0
10 0 1 2 3 -2 0 2 10 0 2 4
10 10 10 10 10 10 10 10 10 10
Rango de Riqueza Tamaño Rango

Víctimas de conflicto Temblores Citas a artículos


0
10 10-6 104

Frecuencia
Frecuencia
-8
-2 10
10

Citas
3
x −2.2 x −1.2 10 x −0.5
-10
-4 10
10
-12 2
0 1 2 10 5 10 10 0 1 2 3
10 10 10 10 10 10 10 10 10
Victimas Magnitud Rango

Figura 4.3: Diagramas Log-Log para varios ejemplos de aplicaciones en las cuales se
considera que la distribución es de colas Pesada. Tomada de Fieguth (2017).

distribución, F y densidad f dadas respectivamente por

F̄ (x) = (x/s)−β (4.23)


−β
F (x) = 1 − (x/s) (4.24)
β −(β+1)
f (x) = βs x . (4.25)

Note que el exponente de la distribución, y por lo tanto, también de la cola es igual


al de la densidad más 1, como es lógico debido a la integral. El parámetro de forma
es β, s es el de escala.√La media es βs(β − 1)−1 si β > 1, e infinita si β ≤ 1. La moda
es s, y la mediana s β 2. La varianza es s2 β(β − 1)−2 (β − 2)−1 , si β > 2, pero ∞ si
β ∈ (1, 2]. En general, para cualquier m,
Z ∞ (
m m βsm (β − m)−1 , si β > m
E[X ] = x f (x) dx =
s ∞ si m ≥ β.

Otras propiedades: si X se distribuye Pareto con parámetros β y s, entonces [X|X >


s1 > s] también es Pareto con parámetros β y s1 . Si X se distribuye Pareto con
parámetros β y s, entonces Y = log(X/s) se distribuye exponencial con parámetro
β. De manera equivalente, si Y se distribuye exponencial con parámetro β, entonces
X = seY se distribuye Pareto con parámetros β y s.
La distribución de Pareto no es la única con cola pesada, hay otras, entre ellas las
distribuciones estables que se describen más adelante.
Para distribuciones con cola pesada no es razonable tratar de estimar la media, mejor
se estima la mediana, que es más estable, como lo ilustra la figura 4.4.
Un parámetro clave a estimar es el exponente de la cola. Lo recomendado es trabajar
en espacio Log-Log. Para estimar la densidad, la distribución, o su complemento
(cola) se usan subintervalos no aritméticos sino geométricos, es decir de la forma

69
4. Criticalidad Auto Organizada

5 5 5

Mediana muestral
Media muestral

Media muestral
0 0 0

-5 -5 -5
0 1 2 3 0 1 2 3 0 1 2 3
10 10 10 10 10 10 10 10 10 10 10 10
Número de muestras normales Número de muestras cauchy Número de muestras cauchy

Figura 4.4: Comparaciones Media y Mediana. Media en función del tamaño muestral.
Izquierda: distribución con varianza finita. Centro: distribución de Cauchy. Derecha:
Mediana para la distribución Cauchy. Tomada de Fieguth (2017)

0 0
10 10

-2 -2
10 10
Probabilidad

Probabilidad

-4 -4
10 10
x −1.0
-6 -6
10 10
x −3.0

x −2.0
-8 -8
10 0 2 4 6 10 0 2 4 6
10 10 10 10 10 10 10 10

Tamaño Tamaño

Figura 4.5: Estimación del exponente de la cola en una distribución de cola pesa-
da.Tomada de Fieguth (2017), ver otra aplicacion en figura 4.12

70
4.3. Escalamiento Estadı́stico

(q, βq), (βq, β 2 q), . . ., para un valor conveniente β > 1. La frecuencia asociada a cada
intervalo se escala con la longitud del intervalo, fi = ni /(N si ), donde ni es el número
de observaciones en el intervalo, N el número total de observaciones y si la longitud
del intervalo. El exponente se puede estimar por mı́nimos cuadrados en espacio Log-
Log, o se usan dos intervalos separados convenientemente y la fórmula γ = 1 −
log[f1 /f2 ]/ log[q1 q2 ], donde f1 es la frecuencia asociada al intervalo (q1 , βq1 ) y f2 al
(q2 , βq2 ). La figura 4.5 ilustra este método.

El origen de colas pesadas en las distribuciones puede ser variado. Las explicaciones
incluyen el escalamiento o la autosemejanza. También la criticalidad auto-organizada
que se presenta en este capı́tulo. Es muy popular el llamado principio de Pareto que
dice que para muchos eventos, aproximadamente el 80 % de los efectos viene del 20 %
de las causas. Por ejemplo aplicado a la distribución de la tierra indica que el 80 % de
la tierra es propiedad del 20 % de los propietarios. Afirmaciones semejantes se refieren
a la distribución del ingreso y varias otras evidencias de la llamada desigualdad. Con-
viene anotar que de ser cierto este principio para situaciones problemáticas puede ser
una buena noticia, por ejemplo controlando sólo el 20 % de las causas se puede resol-
ver el 80 % del problema. La figura 4.6 ilustra tal auto-semejanza con la distribución
del ingreso a nivel mundial y en Canadá, también la frecuencia del uso de palabras
en un libro y un capı́tulo. Este es uno de los signos de un posible escalamiento es el
hecho de que al menos en los exponentes hay semejanza entre el todo y las partes,
una propiedad muy propia de los fractales.

Riqueza individual Frecuencia


2 4
10 10
Mundo Este libro
Canada Capítulo 5
3
10
Frecuencia
Riqueza

1
10 2
10 x −0.9
x −0.7
1
10 x −0.8
x −0.7
0 0
10 0 1 2 3
10 3 2 4
10 10 10 10 10 10 10
Rango de riqueza Rango

Figura 4.6: Ilustración de que la parte puede ser semejante al todo. Caso de la riqueza
en un paı́s con distribución semejante a la distribución global. Caso de la frecuencia
de uso de palabras en un capı́tulo semejante al libro. Tomada de Fieguth (2017)

Para la simulación de procesos en los que haya variables aleatorias con distribución
Pareto se procede según la receta general que consiste en generar números con distri-
bución uniforme entre (0, 1) y a partir de ellos se obtienen los números con distribución
Pareto usando la inversa de la distribución. La figura 4.7 ilustra el procedimiento.

71
4. Criticalidad Auto Organizada

Fx
1

Distribución uniforme x
0
Distribuido como px

Figura 4.7: Se genera, u, un número al azar con distribución uniforme en (0, 1) y se


calcula y = s(1 − u)−1/β que tiene distribución potencial en (s, ∞), con exponente β.
Tomada de Fieguth (2017)

Distribuciones estables
Teorı́a Básica
Sean X, X1 , X2 , . . . variables aleatorias independientes con distribución R y Sn =
X1 + · · · + Xn .

Definición 4.3.2. La distribución R es estable si no está concentrada en un punto


y para cada n existen constantes cn > 0 y γn tales que
d
Sn = cn X + γn .

Teorema 4.3.1. Las constantes de normalización son de la forma

cn = n1/α , con 0 < α ≤ 2.

La constante α se denomina el exponente caracterı́stico de R.


Una distribución R para la cual γn = 0 se dice que es estrictamente estable. Para el
caso α 6= 1 es posible escoger las constante de localización (centro) de tal manera que
la estabilidad sea estricta. Luego,

Teorema 4.3.2. Si R es estrictamente estable con exponente α, entonces para todo


s > 0 y t > 0 se tiene
d
s1/α X1 + t1/α X2 = (s + t)1/α X (4.26)

En lo que sigue se mantiene la nomenclatura de una sucesión de variables aleatorias


iid, digamos X, X1 , X2 , . . ., con distribución F y Sn = X1 + · · · + Xn .

Definición 4.3.3. La distribución F de las variables iid Xk pertenece al dominio de


atracción de una distribución R si existen constantes de normalización an > 0 y bn
tales que la distribución de (Sn − bn )/an tienda a R cuando n → ∞

72
4.3. Escalamiento Estadı́stico

De acuerdo a la definición, una distribución R tiene un dominio de atracción si y sólo


si es estable.
Considere una distribución estable con α < 1. Por lo tanto, el promedio Sn /n tiene la
misma distribución que X1 n−1+1/α , pero este último término tiende a ∞. Es decir, con
alta probabilidad el promedio de n variables es considerablemente mayor que cualquier
componente Xk . Esto sólo puede ocurrir si el máximo Mn = máx[X1 , . . . , Xn ] tiene
alta probabilidad de ser considerablemente grande y dominar el promedio. De hecho,
si las variables son positivas, el valor esperado de Sn /Mn tiende a (1 − α)−1 .
Para distribuciones positivas se tienen los siguientes resultados adicionales. El siguien-
te teorema caracteriza las transformadas de Laplace de las distribuciones estables y
establece que su cola tiene exponente α.
α
Teorema 4.3.3. Para 0 < α < 1 fijo, la función L(λ) = e−λ es la transformada
de Laplace de una distribución Gα con la siguientes propiedades: Gα es estable, si
X1 , . . . , Xn son iid con distribución Gα , entonces (X1 + · · · + Xn )/n1/α tiene también
la distribución Gα y
1
lı́m xα [1 − Gα (x)] = , (4.27)
x→∞ Γ(1 − α)
−α
lı́m ex Gα (x) = 0. (4.28)
x→0

El siguiente teorema caracteriza el dominio de atracción de las distribuciones estables


positivas con 0 < α < 1.

Teorema 4.3.4. Dada una distribución de probabilidades F en (0, ∞) tal que

F n∗ (an x) → G(x) (4.29)

en los puntos de continuidad, donde G es una distribución de probabilidades no con-


centrada en un punto y la notación F n∗ significa la convolución de F con sigo misma
n veces, entonces
x−α L(x)
[1 − F (x)] ∼ , cuando x → ∞, (4.30)
Γ(1 − α)
con L una función que varı́a lentamente en el infinito y una constante 0 < α < 1.
Además, si F es de la forma (4.30), es posible escoger an tales que

nL(an )
lı́m = 1, (4.31)
n→∞ aα
n

y en este caso (4.29) vale con G = Gα .

Ejemplos

Normal. La distribución normal estándar es un ejemplo de distribución estable con


α = 2. La ecuación (4.26) se reduce en este caso a la regla para la composición de la
varianza.

73
4. Criticalidad Auto Organizada

Cauchy. La distribución de Cauchy es estable con α = 1. Su densidad y distribución


son
1
f (x) = , (4.32)
π(1 + x2 )
1 1
F (x) = arctan(x) + . (4.33)
π 2
La distribución de Cauchy no tiene media. Si se parte la integral que define la media
entre (−∞, 0) y (0, ∞) se obtiene −∞ + ∞ que no está definido. Por tal motivo no
tiene varianza, ni ningún otro momento al rededor de la media, aunque los momentos
pares son ∞. Se puede ver que el cociente de dos distribuciones normales indepen-
dientes con media cero y varianza uno se distribuye Cauchy. Es un ejemplo de una
distribución estable con α = 1, que se define más abajo. Por lo tanto, si X1 y X2 son
independientes con distribución Cauchy, el promedio aritmético (X1 + X2 )/2 tiene la
misma distribución, en general vale que el promedio aritmético de variables aleatorias
iid con distribución Cauchy tiene la misma distribución. La distribución de Cauchy
coincide con la distribución t de Student de un grado de libertad. La ecuación (4.32)
tiene centro cero y escala uno. Es posible cambiar la escala y el centro usando las
ecuaciones (4.8) y (4.9).
Holtsmark. Otro ejemplo interesante es la distribución de Holtsmark para la com-
ponente x de la fuerza gravitatoria de un sistema estelar. Se considera que el sistema
estelar está compuesto por un agregado aleatorio de puntos de masa aleatoria. Se
acepta que la densidad ρ del sistema estelar sea un parámetro libre de la distribución.
Sea Xρ la componente x de la fuerza gravitatoria ejercida sobre el origen por tal
sistema estelar. Claramente dos sistemas estelares independientes con densidades s
y t se pueden combinar para producir un sistema con densidad s + t. En términos
probabilı́sticos esto significa que la suma de Xs y Xt debe tener la misma distribución
que Xs+t , es decir
d
Xs + Xt = Xs+t ,
ahora, un cambio de densidad de 1 a ρ corresponde a un cambio de longitud de 1 a

1/ 3 ρ y como la fuerza de gravedad es inversamente proporcional con el cuadrado de
la distancia se deduce que Xt debe tener la misma distribución que t2/3 X1 . Por lo
tanto, α = 3/2 y
d
s2/3 X1 + t2/3 X2 = (s + t)2/3 X. (4.34)
El resultado es que hay una única distribución estable simétrica con tal exponente.
Esta distribución coincide con la que encontró el astrónomo Holtsmark por otros
métodos.
Caminata Aleatoria Simple La distribución del primer paso por a de una partı́cu-
la sometida al movimiento Browniano estándar es

F (t) = 2[1 − Φ(a/ t)], (4.35)
con densidad
a a2
f (t) = √ e− 2t , (4.36)
2πt3

74
4.3. Escalamiento Estadı́stico

que es estable en (0, ∞) con exponente α = 1/2, y tiene transformada de Laplace



L(λ) = e− 2aλ
. (4.37)

Para justificar lo anterior vamos a presentar los fundamentos de la caminata aleatoria


simple, y luego se pasa al movimiento Browniano como un lı́mite cuando tanto ∆x
como ∆t van a cero. Aunque el camino parece ser largo, vale la pena por lo instructivo.
Vamos a considerar una caminata aleatoria simple, con

S0 = 0, Sn = Sn−1 + Xn , para n = 1, 2, · · · , (4.38)

con Xn una familia de variables aleatorias iid con distribución Bernoulli con parámetro
p ∈ (0, 1), tal que
(
+1 con probabilidad p
Xn = (4.39)
−1 con probabilidad q = 1 − p.

Este ejemplo tiene múltiples aplicaciones y arroja luces sobre temas profundos de la
teorı́a de probabilidades que por otros métodos requieren métodos avanzados.
Una manera de describir la caminata es pensar en la ganancia (pérdida) acumulada
de un jugador que en cada instante del tiempo n apuesta una unidad monetaria al
lanzamiento de una moneda, con cara gana una unidad, con sello la pierde. Suponemos
que tanto el jugador como el oponente tienen un capital inicial ilimitado y por tanto,
el juego es indefinido.
Otra manera de entender la caminata es en el lenguaje del movimiento Browniano
unidimensional. Sn describe la posición de una partı́cula coloidal suspendida en el
fluido contenido en un tubo infinito. En cada instante del tiempo la partı́cula es
golpeada al azar por las moléculas del fluido que la desplazan a la derecha o a la
izquierda con las probabilidades enunciadas.

Tiempo de espera a una ganancia. Sea T la época en la que se tiene por primera vez
una ganancia neta positiva, es decir Sn ≤ 0 para n < T , y ST = 1. Claramente
T es una variable aleatoria. Vamos a calcular su distribución, Pr[T = k] = hk . La
herramienta es la función generatriz
X
H(s) = sk Pr[T = k] = E[sT ]. (4.40)
k

La estrategia es condicionar en el resultado del primer lanzamiento de la moneda y


aplicar el teorema de la probabilidad total,

H(s) = E[sT ] = p E[sT |X1 = 1] + q E[sT |X1 = −1].

Claramente si X1 = 1 entonces T = 1, por tanto, E[sT |X1 = 1] = s. Por otro lado,


si X1 = −1 entonces S1 = −1 y para poder tener una ganancia neta se requiere
pasar de S1 = −1 a ST1 = 0 para algún tiempo aleatorio T1 y luego de ST1 = 0

75
4. Criticalidad Auto Organizada

a ST1 +T2 = 1, con T2 otro tiempo aleatorio. La clave es reconocer que T1 y T2 son
independientes y tienen la misma distribución, igual también a la de T . Por lo tanto,
E[sT |X1 = −1] = E[s1+T1 +T2 ] = sH(s)2 . En resumen,

H = ps + qsH 2 .

Esta ecuación algebraica tiene dos raı́ces, se toma la acotada cerca a s = 0 y se obtiene
p
1 − 1 − 4pqs2
H(s) = .
2qs
Es posible expandir H en serie de potencias de s para obtener las probabilidades
correspondientes de los coeficientes. Antes es posible obtener resultados importantes.
X 1 − |p − q|
H(1) = Pr[T = k] = ,
2q
k

y por tanto, si p ≥ q, con probabilidad 1 hay una ganancia neta en alguna época.
Pero si p < q, existe la posibilidad de que Sn permanezca negativa por siempre, esto
ocurre con probabilidad (q − p)/q, que es el complemento de H(1). Claramente, si
p < q, T no es una variable aleatoria genuina. Pero para p ≥ q se puede calcular el
valor esperado,
2p
E[T ] = H 0 (1) = − 1,
p−q
que para p = q = 1/2 es infinito.
La expansión en series se apoya en el teorema del binomio de Newton,
∞  
β
X β k
(1 + x) = x , (4.41)
k
k=0

que en este caso da

(−1)k−1 12
 
h2k−1 = (4pq)k (4.42)
2q k
 
1 2k − 2 k k−1
= p q , h2k = 0.
k k−1

Primer retorno al equilibrio. El primer retorno a equilibrio después de S0 = 0 ocurre


en el tiempo τ si Sn 6= 0 para 1 ≤ n < τ , y Sτ = 0. De nuevo, la herramienta para
calcular la distribución es la función generatriz
X
G(s) = sk Pr[τ = k] = E[sτ ]. (4.43)
k

Igualmente, la estrategia es condicionar en el resultado del primer lanzamiento de la


moneda y aplicar el teorema de la probabilidad total,

G(s) = E[sτ ] = p E[sτ |X1 = 1] + q E[sτ |X1 = −1].

76
4.3. Escalamiento Estadı́stico

Es claro que [τ |X1 = −1] = 1+T porque para retornar al equilibrio hay que ganar una
unidad empezando en S1 = −1. Ahora usando simetrı́a, intercambiando los papeles
de p y q se puede decir algo semejante para la condición X1 = 1. En resumen, (4.43)
se puede expresar como
p
G(s) = E[sτ ] = ps(q/p)H(s) + qsH(s) = 1 − 1 − 4pqs2 . (4.44)

Primera visita. A continuación, se procede a calcular la distribución de la época de


la primera visita a r > 0. Es decir, la distribución del tiempo aleatorio T (r) , tal
que ST (r) = r, pero Sn < r para todo n < T (r) . Las respectivas probabilidades se
denotar por h(r) . El argumento es que para llegar a r > 0 se debe sucesivamente pasar
por ST (1) = 1, ST (2) = 2, hasta ST (r) = r. En cada caso T (1) = T1 , T (2) − T (1) =
T2 , T (3) − T (2) = T3 , . . ., T (r) − T (r−1) = Tr son independientes e identicamente
distribuidos a T . Es decir T (r) = T1 + · · · + Tr . Por tanto, la función generatriz de la
primera visita a r es " #r
p
r 1 − 1 − 4pqs2
H(s) = ,
2qs
y que  
(r) r 2k − r r k k
h2k = 2 p q .
2k − r k
R-avo retorno al origen. La probabilidad de que el r-avo retorno al origen ocurra en
la época n es igual a la probabilidad de la primera visita a r en la época n − r (Feller
1968, p. 90).

Movimiento Browniano. El paso de la caminata aleatoria al movimiento Brow-


niano consiste en considerar que cada paso de la partı́cula produce un desplazamiento
infinitesimal ∆x y que cada paso ocurre en el tiempo cada ∆t. De definición en la
ecuación (4.38) es claro que el teorema del lı́mite central va a jugar un papel, pues
n
X
Sn = Xk ,
k=1

donde las Xk son iid, y n es muy grande para tiempos macroscópicos, n = t/∆t, con
∆t → 0. Por tanto, la distribución de Sn tiende a la distribución normal. Sin embargo,
hay que tener cuidado porque ambos, ∆t y ∆x van a cero, pero no pueden ir a igual
velocidad. Antes de considerar este tema, conviene calcular la media y la varianza
de Xk y Sn . De la ecuación (4.39) es fácil ver que E[Xk ] = p − q, E[Xk2 ] = p + q =
1 = (p + q)2 , y por tanto, Var[Xk ] = (p + q)2 − (p − q)2 = 4pq. En consecuencia,
E[Sn ] = n(p − q) y Var[Sn ] = 4npq.
Si los pasos en lugar de unitarios son de tamaño ∆x, la media y la varianza pasan a
ser t(p − q)∆x/∆t y 4tpq∆X 2 /∆t respectivamente. De la expresión para la varianza
es claro que para obtener un lı́mite finito diferente de cero se requiere que ∆X 2 /∆t
tienda a una constante positiva, digamos σ 2 . De igual manera, para que en el caso
p 6= q se tenga una media finita diferente de cero se toma p = 1/2 + µ∆t/(2∆X). En
conclusión, en el lı́mite la media es µt y la varianza σ 2 t.

77
4. Criticalidad Auto Organizada

Para resumir, sea X(t) la posición de la partı́cula sometida al movimiento Browniano,


que se obtiene del paso al lı́mite de la caminata aleatoria Sn , escalando
√ el tiempo con
un factor de escala grande, m, y el espacio con factor de escala m. Es decir

S[tm]
X(t) = lı́m √ , (4.45)
m→∞ m

donde [tm] = n es la parte entera


√ de tm. Para establecer la equivalencia con lo anterior
se toma m = 1/∆t y ∆x ∝ 1/ m. Como resultado, X(t) tiene densidad
( )
1 (x − µt)2
p(x) = √ exp − .
2πσ 2 t 2σ 2 t

Además, los incrementos del proceso X(t) son independientes. Es decir, para 0 <
t1 < t2 < · · · < tn se tiene que X(t1 ), X(t2 ) − X(t1 ), . . ., X(tn ) − X(tn−1 ) son
independientes. La razón es que cada incremento corresponde a la suma de variables
iid diferentes. La última propiedad importante del movimiento Browniano es que sus
trayectorias son continuas como función del tiempo.
Ya se tienen los elementos necesarios para justificar (4.35), la distribución estable con
exponente α = 1/2 (Feller 1971, p. 437). Contamos con la función generatriz de τ , el
tiempo al primer retorno al equilibrio
√ de la caminata aleatoria, ecuación (4.44), que
con p = q = 1/2 es G(s) = 1 − 1 − s2 . Con la substitución s = e−λ se tiene la
transformada de Laplace p
Lτ (λ) = 1 − 1 − e−2λ .
Para pasar de la caminata aleatoria al movimiento Browniano se requiere el lı́mite de
(τ1 + · · · + τn )/n2 cuando n → ∞, con τ1 , . . . , τn variables aleatorias iid con la misma
distribución que τ . La transformada de la suma es
p
LP τ (λ) = [1 − 1 − e−2λ ]n ,

que al escalar por n2 da


p
LP τ /n2 (λ) = [1 − 1 − e−2λ/n2 ]n .

Para calcular el lı́mite se toman los dos primeros términos de la expansión en serie
de Taylor del exponencial, lo que resulta en
√ √
η(λ) = lı́m LP τ /n2 (λ) = lı́m [1 − 2λ/n]n = e− 2λ ,
n→∞ n→∞

que corresponde a la ecuación (4.37), la transformada de Laplace de la distribución


estable con exponente α = 1/2 y a = 1. De la transformada de Laplace se puede ver
de inmediato que la distribución es estable, η n (λ) = η(n2 λ).
Una segunda justificación se basa en la distribución de Ta , el tiempo al primer paso del
movimiento Browniano por un valor positivo a, dado X(0) = 0, σ = 1 y µ = 0 (Feller
1971, p. 174). Por la independencia de incrementos, X(Ta +t)−X(Ta ) = X(Ta +t)−a

78
4.4. Memoria Larga

es independiente de X(s) para cualquier s < Ta . Ahora, por continuidad, para pasar
por a + b > a tiene que pasar primero por a, luego Ta+b − Ta es independiente de Ta
y tiene la misma distribución que Tb . Por tanto, si denotamos por Fa (t) = Pr[Ta ≤ t]
la distribución de Ta , entonces Fa+b = Fa ∗ Fb , y como ∆x2 /∆t es constante, la
distribución de Ta es la misma que la de a2 T1 , es decir las distribuciones difieren sólo
por un factor de escala y por lo tanto, son estables con parámetro α = 1/2.
La distribución se puede calcular directamente por un argumento de simetrı́a
1 Pr[X(t) > a]
Pr[X(t) − X(s)|Ta = s < t] = = .
2 Pr[Ta < t]

Ahora, X(t)
√ tiene distribución normal con media 0 y varianza t, luego Pr[X(t) > a] =
1 − Φ(a/ t) y, por tanto

Pr[Ta < t] = 2[1 − Φ(a/ t)].

4.4. Memoria Larga


Sea xt una serie de tiempo que representa la variable de interés en el intervalo (t −
∆t, t). Sean n la longitud del registro, ∆t = 1, y para centrar las observaciones se
resta una cantidad igual a la media de la muestra x̄. Por lo tanto, la serie acumulada
en el momento t es
St = St−1 + (xt − x).
Suponga además que S0 = 0. Defina el rango de St como,

Rn = máx St − mı́n St . (4.46)


{0≤t≤n} {0≤t≤n}

Hurst (1951) encontró que para muchas series de tiempo observadas el rango reesca-
lado Rn∗ = Rn /σn crece con la longitud de registro n a una potencia H mayor que
0,5, por lo general cerca de 0,7, donde σn es la desviación estándar de la muestra. En
contraste, según el teorema funcional del lı́mite central (TFLC) de la teorı́a de pro-
babilidades, para una clase muy general de procesos estocásticos con varianza finita
(Bhattacharya, Gupta y Waymire 1983),

0,5
X
E[Rn∗ ] ∼ ( 21 πθn) , con θ = ρk . (4.47)
k=−∞

Mediante el sı́mbolo ∼ se indica que la relación de los dos lados converge a 1 cuando
n → ∞. La secuencia ρk , k = 0, 1, . . . denota los coeficientes de correlación de rezago k,
y θ es la integral de la función de correlación, que también se conoce como la ‘escala
de fluctuación del proceso’ en turbulencia (Taylor 1922). La diferencia observada
empı́ricamente entre los valores de H y 0,5 se conoce como el “fenómeno de Hurst”,
una de las primeras observaciones de escalamiento.
Debido al TFLC, para la existencia del fenómeno de Hurst es necesario violar al menos
una de las dos hipótesis del teorema, a saber, la estacionariedad o la existencia de

79
4. Criticalidad Auto Organizada

escala de fluctuación θ finita. Un proceso estacionario con θ < ∞ es conocido como un


“proceso de la memoria corta”. La existencia de θ depende de la tasa de convergencia
de ρk a cero. Por ejemplo, si ρk decae a un ritmo lento, digamos como una ley de
potencia ρk = k −d L(k) con 0 ≤ d < 1 y L(·) una función que varı́a lentamente en
infinito, θ no existe, diverge. Recuerde que una función L varı́a lentamente en infinito
si L(ax)/L(x) → 1 cuando x → ∞ para todo a > 0. Para apreciar lo significativo de
la escala de fluctuación note que
t−1
X 
Var[St ] = Var[x1 − x̄] t + 2 (t − k)ρk .
k=1

Luego cuando θ < ∞ la varianza de las sumas parciales crece linealmente con t y
el comportamiento del proceso xt − x̄ no difiere fundamentalmente de una sucesión
de variables aleatorias independientes. Por ejemplo, hay lugar a una ley de grandes
números porque Var[St /t] → 0 cuando t → ∞, lo que implica que la variable aleatoria
St /t converge a una √ constante, E[x1 − x̄] = 0. Igualmente, hay lugar al teorema del
lı́mite central, St / t converge a una variable aleatoria con distribución normal con
media cero y varianza Var[x1 − x̄]θ. Además, el TFLC aporta más resultados, por
ejemplo, sobre los máximos, mı́nimos y el rango.
Por otro lado, si θ = ∞ se dice que tales procesos estocásticos tienen “dependencia
de largo alcance” o “memoria infinita”. Es importante señalar aquı́ que la tasa de
decaimiento de ρk a cero juega un papel similar en la teorı́a de los sistemas dinámicos
deterministas. También hay que recordar que estas definiciones se basan en propie-
dades de segundo orden (correlaciones). Aunque se puede usar toda la estructura de
la dependencia del proceso para hacer definiciones más estrictas, pero las nociones
más débiles son suficientes para nuestros propósitos (Samorodnitsky 2007). El caso
varianza infinita se tratará más adelante.
Los conceptos de semejanza y auto semejanza son muy importantes para muchas
ramas de la ciencia y la ingenierı́a. Para un proceso auto semejante Z(t), t ≥ 0, si
se cambia la escala de tiempo, el proceso resultante tiene la misma estructura pro-
babilı́stica en una versión a escala del original. En concreto, para a > 0 existe una
constante b positiva tal que
d
Z(at) = bZ(t). (4.48)
Para un proceso estocástico auto semejante, estacionario, no trivial, existe un único
exponente positivo H tal que b = aH . Los procesos auto semejantes no tienen escala
caracterı́stica, en el sentido de que las propiedades temporales tanto locales como
de gran escala son semejantes. La estructura geométrica de las trayectorias puede
ser caracterizada por la dimensión fractal. Pero si las propiedades locales y de gran
escala de un proceso estocástico son independientes, entonces no hay auto semejanza
(Gneiting y Schlather 2004).
Para el caso de varianza finita, sea ρ(s) la correlación de rezago s de un proceso
estocástico estacionario continuo. El comportamiento asintótico de ρ(s) cuando s →
∞ determina la presencia o ausencia de la dependencia de largo alcance. Si
1
lı́m ρ(s) ∼ , β ∈ (0, 1], entonces H = (1 + β)/2. (4.49)
s→∞ |s|1−β

80
4.4. Memoria Larga

La dependencia de largo alcance, o persistencia, corresponde al caso H ∈ ( 12 , 1). Si


H < 21 se tiene anti-persistencia, y las fluctuaciones de alta frecuencia dominan. En
el caso unidimensional, esto puede ser expresada en términos de la densidad espectral
Z ∞
P (f ) = e−2πif s ρ(s) ds. (4.50)
−∞

Para el caso de dependencia de largo alcance

P (f ) ∼ |f |−β cuando |f | → 0. (4.51)

Ahora, las propiedades locales dependen de ρ(s) cerca s = 0. Si

1 − ρ(s) ∼ |s|−κ cuando s → 0, para algún κ ∈ (0, 2], (4.52)

entonces la dimensión fractal de las trayectorias en un espacio m dimensional es


(Gneiting y Schlather 2004)
D = m + 1 − κ/2. (4.53)

Un ejemplo bien conocido de un proceso auto semejante con varianza finita es el


movimiento fraccional browniano (MFB) (BH (t), t ≥ 0), un proceso gaussiano con
media cero, inicia en cero en el tiempo cero BH (0) = 0, los incrementos cumplen
E[BH (t) − BH (s)]2 = σ 2 |t − s|2H , para constantes σ > 0 y H ∈ (0, 1] dadas. Este pro-
ceso tiene incrementos estacionarios. En el caso H = 1/2 es el movimiento browniano.
d
Claramente este proceso tiene la propiedad de auto semejanza, BH (ct) = cH BH (t),
para cualquier c > 0, t ≥ 0. El ruido fraccional gaussiano (RFG) es un proceso de
tiempo discreto definido mediante los incrementos del MFB, Xn = BH (n)−BH (n−1),
para n = 1, 2, . . .. Este proceso es estacionario por la estacionariedad de los incremen-
tos de BH (t). Su covarianza es Cov(Xj+n , xj ) = 21 σ 2 [(n + 1)2H + |n − 1|2H − 2N 2H ].
Usando la propiedad de auto semejanza se puede mostrar que para este proceso Rn∗
crece a la tasa nH (Samorodnitsky 2007).
El caso de varianza infinita necesita una consideración separada porque existe la
posibilidad de que la auto semejanza venga de distribuciones estables no Gaussianas.
En este caso, el exponente de escala puede tener contribuciones por la dependencia a
largo plazo y/o por el exponente de la distribución estable. Mandelbrot y Wallis (1968)
se refirió a la primera fuente como el efecto de José, y a la segunda como el efecto de
Noé usando referencias bı́blicas. Un proceso que exhibe discontinuidades marcadas,
debido a cambios abruptos puede tener varianza infinita. Ambas causas pueden ocurrir
simultáneamente en los sistemas naturales. Una representación adecuada de estas
propiedades es muy importante en las aplicaciones. Por ejemplo, la estimación de la
probabilidad de ocurrencia de eventos extremos es muy sensible a la existencia del
segundo momento.
El caso general de los procesos de auto semejantes con varianza infinita es complejo
(Samorodnitsky 2007). Para dejar en claro los puntos principales se toma un modelo
tı́pico, el llamado movimiento estable fraccional lineal, que a la vez tiene dependencia
de memoria infinita y varianza infinita. Está construido siguiendo el modelo corres-
pondiente al caso MFB pero con incrementos estables no gaussianos. Recordemos

81
4. Criticalidad Auto Organizada

que una familia de variables aleatorias independientes, X1 , X2 , . . ., tiene una distri-


d
bución estable con exponente caracterı́stico α, si X1 + X2 + . . . + Xn = n1/α X1 , para
0 < α ≤ 2. En el caso simétrico, la función de distribución acumulativa complemen-
taria decae con una ley de potencia, P (X > x) ∼ x−α .
De manera análoga a la construcción del ruido fraccional gaussiano a partir del movi-
miento browniano, se procede a partir del movimiento estable fraccional lineal con la
construcción el llamado ruido estable fraccional lineal, mediante sus incrementos, que
son estacionarios con exponente de escalamiento auto semejante dado por (Franzke,
Graves, Watkins, Gramacy y Hughes 2011)

1 1
ϑ=H− + , 0 < ϑ < 1. (4.54)
2 α

Esta notación es diferente a la de Franzke, Graves, Watkins, Gramacy y Hughes (2011)


o Mandelbrot (2002). Acá, H − 21 representa la contribución al exponente de escala
proveniente de la persistencia de largo alcance, y 1/α representan la contribución
al escalamiento que viene de la distribución estable no gaussiana; su suma, ϑ, es
el exponente total de escalamiento. La distinción entre H y ϑ es importante. No
todas las series de tiempo observadas tienen fluctuaciones gaussianas y algunos de los
métodos estadı́sticos utilizados para analizar series temporales pueden ser insensibles
a las colas pesadas, detectando H y no ϑ o viceversa. Es útil poder estimar ambos.
Observe que el caso extremo α = 2 corresponde a la distribución gaussiana, y en este
caso ϑ = H, como debe ser.
Claramente, la varianza infinita es otra causa posible a discernir además de la no
estacionariedad y la dependencia a largo plazo. En este caso, incluso para un proceso
estacionario de memoria corta, la convergencia no es a un proceso gaussiano, el re-
sultado teórico se llama teorema del lı́mite no central (Samorodnitsky 2007, p. 202).
Sin embargo, como Mandelbrot y Taqqu (1979) mostraron, la varianza infinita por sı́
sola no puede explicar el fenómeno de Hurst como se sugirió en las primeras etapas
(Moran 1964). Esto se debe a la función de la normalización en el análisis estadı́stico
del rango re-escalado R/S.
La estimación de H o ϑ o de ambos a partir de registros muestrales es un tema de-
licado porque las longitudes de registro son generalmente limitadas. En las primeras
etapas la mayorı́a de los estimadores de H se tomaron en términos de la pendiente de
la regresión lineal de Rn∗ vs. n en el espacio logarı́tmico. Posteriormente se introdu-
jeron estimadores espectrales utilizando el peridograma. La lista fue posteriormente
enriquecida con el análisis de fluctuaciones, las onditas y otros métodos. De éstos, los
dos últimos estiman el exponente de escalamiento auto semejante ϑ, mientras que el
resto son métodos de estimación de H. Hay una larga lista de aplicaciones de este
tipo de estimadores a una amplia variedad de registros que no son revisados aquı́, ver
por ejemplo Beran (1994) y Franzke, Graves, Watkins, Gramacy y Hughes (2011).
A continuación, se presenta una breve descripción de los métodos de estimación del
exponente H. Dada una serie, xt , de longitud N , se divide el registro en Nn = N/n
segmentos disjuntos de tamaño n. El diagrama R/S es una gráfica en escala log-log
plot del rango ajustado re-escalado Rn∗ , ecuación (4.46), para cada segmento contra el

82
4.4. Memoria Larga

tamaño del segmento n. La pendiente de este diagrama se ha usado como un estimador


del exponente H de Hurst. Este procedimiento asume una estructura auto semejante.
Recientemente se han desarrollado otros métodos que se basan en la estimación de
las fluctuaciones alrededor de las tendencias para cada segmento. El punto de par-
tida de estos métodos es la cantidad St , ecuación (4.46), que en probabilidades se
conoce como la posición en una caminata aleatoria. La partı́cula se mueve un paso
de longitud xt − x desde su posición anterior en St−1 . Si los pasos se describen por
variables aleatorias independientes, el desplazamiento medio cuadrático crece propor-
cional a t, pero la dependencia de largo plazo puede producir crecimiento superlineal.
La estimación de la tasa de crecimiento del desplazamiento cuadrático medio es la
base del método denominado Análisis de Fluctuaciones, FA por las siglas en inglés
(Koscielny-Bunde, Kantelhardt, Braun, Bunde y Havlin 2006). Para cada segmento
se estima la fluctuación mediante F 2 (k, n) = (Skn − S(k−1)n )2 , y la fluctuación media
como s
1 X 2
F (n) = F (k, n). (4.55)
Nn
k

Nuevamente, la pendiente en el diagrama log-log de F (n) vs. n se usa como el estima-


dor del exponente de Hurst. Este es el llamado diagrama de Análisis de Fluctuación
(FA).
Sin embargo, tanto la estimación por los métodos R/S o FA pueden fallar debido a
la presencia de tendencias en el registro, lo que lleva a sobre estimar el exponente.
Ahora, los registros producto de procesos con correlación infinita pueden mostrar una
tendencia para desviaciones positivas o negativas por perı́odos largos que pueden pa-
recer tendencias. Por esta razón, el análisis FA se ha generalizado al llamado Análisis
de Fluctuación con tendencia removida (DFA). Para eliminar la tendencia, un poli-
nomio yn de orden p se ajusta a los datos en cada segmento k de longitud n mediante
mı́nimos cuadrados. La varianza de la curva residual se estima mediante:
n
1X
Fp2 (k, s) = (S(k−1)n+t − yn (t))2 . (4.56)
n t=1

De manera semejante a como se hizo en la ecuación (4.55) se estima la fluctuación


media de orden p, que se denota mediante Fp (n), y se procede a estimar la pendiente
del diagrama log-log de Fp (n) vs. n para estimar el exponente de Hurst, el llamado
DFAp . Normalmente, es suficiente con el ajuste de tendencia lineal y cuadrática.
Otro método común para la estimación del exponente de Hurst de una serie de tiempo
es mediante la densidad del espectro de potencias. Como lo indica la ecuación (4.50),
la pendiente −β del diagrama log-log de P (f ) vs. f , cuando f → 0, está relacionada
con el exponente de Hurst mediante H = (1 + β)/2. La densidad espectral se puede
estimar de diversas maneras. Es común usar los llamados ajustes (tappers) (Perci-
val y Walden 1993). El método de multi ajustes usa sucesiones discretas esferoidales
alargadas, que se escogen para minimizar la fuga de frecuencias que proviene del mues-
treo discreto. De esta manera se produce un conjunto de estimados aproximadamente
independientes que se promedian para reducir la varianza muestral.

83
4. Criticalidad Auto Organizada

Para procesos no estacionarios, la función de correlación no está bien definida, porque


depende no sólo de la separación (rezago) sino también del tiempo mismo. Algo
semejante ocurre con la transformada de Fourier. Sin embargo, hay una generalización
de estas ideas, el llamado espectro de Wigner-Ville que permite obtener una relación
potencial lı́mite entre los exponentes, semejante a la que se usa para los procesos
estacionarios, ecuación (4.49) (Heneghan y McDarby 2000). en este caso la relación
es
H = (β − 1)/2. (4.57)

Por lo tanto, para un movimiento FBM, un proceso no estacionario con incrementos


auto semejantes, el exponente del diagrama DFA, H + 1, está en el rango [1, 2], β, el
exponente del espectro, está en el rango [1, 3], y hay que aplicar la ecuación (4.57).
Mientras que para el caso estacionario FGN, el exponente del diagrama DFA, H, está
en el rango [0, 1], β en el rango [−1, 1], y se aplica la ecuación (4.49). Hay que recordar
que esto sólo es válido bajo la hipótesis de auto semejanza.

4.5. Incendios Forestales


Como se indicó en la Introducción, un fenómeno crı́tico corresponde a un comporta-
miento macroscópico de escalamiento que resulta del ajuste de un parámetro. En el
caso de los incendios forestales el modelo correspondiente es el de percolación, que tie-
ne un punto crı́tico claro. Se ha propuesto una modificación que lleva a la criticalidad
auto organizada como resultado del des equilibrio que resulta tanto del suministro
permanente de nuevos árboles como de chispas que pueden incendiar el bosque. Tal
suministro de árboles como las chispas producen un auto ajuste del parámetro de
criticalidad, lo que explica el nombre. Se presenta primero el modelo crı́tico de perco-
lación y luego el modelo CAO. Este ejemplo ilustra bien la relación entre criticalidad
y criticalidad auto organizada.

Percolación
Lo que sigue se apoya en lo fundamental es Stauffer y Aharony (1992). Suponga una
retı́cula bidimensional suficientemente grande para que las fronteras no sean impor-
tantes. Cada sitio (centro de un pixel) puede estar o no ocupado por un árbol. Una
constelación es un conjunto de sitios vecinos ocupados por árboles. Vecinos cercanos
se refiere a sitios con un lado de la retı́cula en común. Los sitios que están en esquinas
diferentes de la retı́cula no son vecinos cercanos, sino vecinos próximos a cercanos.
Todos los sitios de una constelación están conectados por una cadena de vecinos cer-
canos ocupados. La teorı́a de percolación trata sobre el número y las propiedades de
las constelaciones (también se usan las palabras racimo, nido y otras más en lugar de
constelación). Hay varias posibilidades para las retı́culas, por ejemplo, triangulares,
rectangulares, hexagonales, cúbicas, cúbicas centradas en la cara, en el cuerpo, para
simplificar sólo se trata el caso rectangular.
La hipótesis más simple sobre la distribución de los árboles en la retı́cula es la inde-
pendencia, es decir, no hay tendencia a la atracción o a repulsión entre vecinos. Se

84
4.5. Incendios Forestales

dice que la ocupación es al azar, cada sitio se ocupa independientemente de la ocu-


pación de los demás sitios. Sea p la probabilidad de ocupación de un sitio cualquiera.
Si se tienen n sitios en la retı́cula, con n grande, por la ley de grandes números hay
np sitios ocupados y (1 − p)n sitios vacı́os.
Históricamente la teorı́a de percolación tiene su origen en trabajos durante la II
Guerra Mundial sobre coagulación de polı́meros, es decir a la formación de una red
enlaces quı́micos que atraviesa todo el sistema originando un gel. Un ejemplo de
la coagulación es la cocción de un huevo que inicialmente es lı́quido y con el calor
produce un gel.
La aplicación inicial de las ideas de percolación a los incendios forestales tiene como
objetivo la comprensión de los conceptos de percolación, no tanto la de desarrollar
una herramienta para ayudar a combatir los incendios. En particular se busca hacer
claridad con un ejemplo simple sobre la existencia de un umbral de percolación, la
transición brusca que se presenta en tal umbral, y sobre el escalamiento en el punto
crı́tico.
La pregunta inicial es sobre el tiempo que demora un incendio en penetrar un bosque
o en su defecto en extinguirse. Suponga que algunos árboles se incendian y que el
fuego puede extenderse a los árboles vecinos. La condición más simple para modelar
la propagación es considerar que en el estado inicial los árboles de la primera fila (caso
rectangular plano, fila superior) de la retı́cula se incendian y que no hay incendios en
las demás filas. Se procede a determinar los vecinos cercanos a un árbol encendido,
con la regla de que estos vecinos cercanos se encienden. Por lo tanto, en el primer
recorrido un árbol recién encendido prende sus vecinos a derecha, izquierda, arriba y
abajo, en caso de que esos sitios estén ocupados. Cada recorrido por toda la retı́cula
constituye un paso de tiempo en la simulación. Se asume también que un árbol que ha
estado encendido una etapa de tiempo se quema por completo en esa etapa, se apaga
y se convierte en un árbol quemado, que en etapas siguientes ya no puede encender los
vecinos, ni ser encendido por ellos. En consecuencia, los posibles estados de un sitio
son cuatro: vacı́o, ocupado por árbol verde, ocupado por árbol encendido y ocupado
por un árbol quemado. La vida de un incendio forestal se define como el promedio
del número de pasos necesario para que una de dos condiciones se cumpla: o que el
incendio penetre todo el bosque, o que el incendio se extinga. La primera condición
se da si llega hasta la fila inferior. Como la ocupación es aleatoria es necesario usar
el promedio en la definición de la vida del incendio. El promedio se calcula sobre
diversas simulaciones con diferentes realizaciones de la ocupación de los sitios, con
todos los otros datos constantes. En la literatura hay ligeras variantes en la definición
de la vida del incendio y del algoritmo, pero las conclusiones básicas son semejantes.
En la figura 4.8 se presentan los resultados de un conjunto de simulaciones con dife-
rentes probabilidades de ocupación y diferente tamaño de la malla. Se ve que existe
una transición brusca para la vida del incendio para una probabilidad p ≈ 0,6. Para
valores bajos de la probabilidad de ocupación, p < 0,6, no hay constelaciones de árbo-
les que crucen la malla de abajo a arriba, el incendio no percola, la vida del incendio
es corta. Para valores altos, p > 0,6, es muy probable que exista una constelación que
percola, lo que claramente ocurre en el lı́mite, p → 1, por tanto, la vida es igual al
tamaño de la malla. Pero lo verdaderamente importante es la divergencia de la vida

85
4. Criticalidad Auto Organizada

para p ≈ 0,6. Para este caso el tamaño de la constelación percolante, tal como se mide
con la vida del incendio tiende a infinito, como se puede comprobar si se aumenta
el tamaño de la malla, el promedio de la vida crece linealmente con el tamaño de la
malla.

Figura 4.8: Izquierda: Promedio de la vida de un incendio forestal en función de


la probabilidad de ocupación para una malla de 200 × 200 y 20 repeticiones para
el cálculo del promedio. Derecha: Máximo del promedio de la vida del incendio en
función del tamño de la malla.

Criticalidad Auto Organizada de Incendios


Esta Sección se apoya en Turcotte (1999) y en Lesne y Laguës (2012, p. 349). La
superficie se discretiza en una retı́cula, para tomar el caso simple digamos cuadrada.
En un instante dado un pixel está vacı́o o con árbol. El crecimiento lento de nuevos
árboles se modela mediante el llenado al azar de un pixel vacı́o a una tasa a1 . Es
decir, el tiempo medio entre eventos de pixeles plantados es ∆t1 = 1/a1 . La densidad
promedio de árboles, el promedio de la fracción de pixeles ocupados se representa por
p(t), que es función del tiempo. Si no hay incendios, p(t) crece debido al crecimiento
de nuevos árboles. Usando el modelo de percolación de la sección anterior se puede
caracterizar completamente la estadı́stica de los racimos y la percolación de incendios
en función del parámetro p(t). Por otro lado, con una tasa más baja a2 se escoge un
pı́xel al azar y se descarga una chispa. Es decir, el tiempo medio entre dos chispas
es ∆t2 = 1/a2  ∆t1 . Si la chispa ocurre en un pı́xel ocupado por un árbol, este se
incendia, y el fuego se propaga rápidamente a todos los vecinos ocupados por árboles
con la regla anterior y ası́ sucesivamente. Es decir, el racimo completo se incendia,
pasa a ser tierra desocupada, lo que ocurre en un paso de tiempo. El rango del incendio
se mide por el número de pixeles quemados, que es igual al tamaño del racimo donde
cayó la chispa.
Bajo este esquema habrá perı́odos largos de reforestación, durante la cual la densidad
p(t) crece, separados por incendios de duración corta, durante los cuales la densidad
cae abruptamente. Si p(t) es bajo al comienzo, por debajo de la densidad crı́tica pc ,
de haber un incendio la constelación será normalmente de tamaño menor s(p) y por
lo tanto p(t) se verá afectada poco por el incendio y el bosque se recupera pronto.

86
4.6. Sismicidad

Por otro lado, si p(t) > pc un pı́xel elegido al azar tiene un a probabilidad positiva
de pertenecer a una constelación infinita. Un incendio por tanto normalmente será
de tamaño considerable y la caı́da de p(t) será significativa. Si se deja evolucionar el
sistema se observa numéricamente que p(t) → pc , es decir el sistema se auto orga-
niza para que la densidad tienda a la crı́tica. Esto se puede cuantificar mediante la
distribución del tamaño de los incendios, A que sigue una ley de potencia

P (A) ∼ A−µ , con µ ≈ 1,3.

La distribución de las fluctuaciones en la densidad es invariante ante cambios de


escala, es una ley de potencia que refleja la ausencia de un tamaño caracterı́stico
(aparte de los introducidos por el tamaño de la malla usada en la simulación, que es
artificial e introduce un truncamiento en la ley de potencias.
Una variación del modelo es sólo permitir que en una etapa de tiempo se quemen
árboles vecinos cercanos a árboles prendidos. En este caso, la vida del incendio T es
otra medida de su escala, y se observa también ley de potencia para su distribución.
En este caso, se reporta que las simulaciones reproducen bien datos observados en
incendios reales en Australia y América (Turcotte 1999).
Para terminar, hay que resaltar dos caracterı́sticas de este modelo que se van a encon-
trar en otros ejemplos de CAO: la amplia separación de escalas temporales entre la
reforestación (larga) y los incendios (corta) y la estabilidad global del punto crı́tico,
es decir la dinámica conduce a la criticalidad.
CAO es fundamentalmente un fenómeno colectivo. Muchas interacciones simples no
lineales se organizan gradualmente hasta desarrollar correlaciones de rango largo (in-
finito). Tales interacciones pueden contemplar por ejemplo umbrales. El sistema evo-
luciona a un estado donde muchas regiones correlacionadas están cerca al umbral. Por
lo tanto, el sistema es sensible a pequeñas perturbaciones que se pueden amplificar.
La consecuencia a una causa pequeña es un evento de magnitud inconmensurable.
El estado crı́tico es estable ante perturbaciones, es decir regresa al punto crı́tico de
manera espontánea sin que exista un parámetro externo de control.
Por ejemplo, si se cambia la tasa de inyección de material o energı́a (en nuestro
ejemplo la tasa de reforestación a1 ) que mantiene el sistema lejos del equilibrio ter-
modinámico, no se afecta el comportamiento observado del sistema, en la medida
que el cambio sea moderado. El mecanismo de la CAO ilustra que el mecanismo que
produce los eventos pequeños o las grandes catástrofes es el mismo, y que en conse-
cuencia son impredecibles. Una condición de la CAO es que los sistemas deben ser
abiertos y disipativos. Pero es clave que las tasas de inyección y disipación deben ser
muy diferentes.

4.6. Sismicidad
Se presenta una breve descripción de la aplicación de las ideas de criticalidad auto
organizada a la sismicidad. Las fuentes principales son Burridge y Knopoff (1967),
Olami, H. Feder y Christensen (1992) y Bak, Christensen, Danon y Scanlon (2002).
Primero una explicación de los principales conceptos. Luego una breve descripción

87
4. Criticalidad Auto Organizada

de las observaciones y se concluye con la descripción de la aplicación de un modelo


CAO.

Principales Conceptos
Un terremoto (temblor o sismo o seı́smo) es la vibración de la superficie terrestre que
resulta de la liberación súbita de energı́a por la ruptura de una falla en la litosfera
terrestre que genera ondas sı́smicas que se propagan y pueden causar daños y ser
sentida a distancia considerable.
La teorı́a principal que explica los temblores es la llamada teorı́a del rebote elástico.
De acuerdo a esta hipótesis, un sismo ocurre cuando hay suficiente energı́a elástica
acumulada debido a la deformación de la corteza para producir una ruptura y la
consecuente liberación súbita de energı́a en forma de calor, ondas sı́smicas y despla-
zamiento de las superficies de falla. Es posible que exista movimiento continuo en
una falla sin liberación de energı́a sı́smica. Esto se presenta si no hay irregularidades
en la superficie de la falla que opongan resistencia al movimiento. La mayorı́a de las
fallas si oponen resistencia y la energı́a se acumula en forma de energı́a elástica de
deformación. Esta acumulación continúa hasta que los esfuerzos alcanzan a romper
la resistencia de una manera súbita. La ruptura libera la energı́a acumulada.
También hay sismos de origen volcánico. La inyección o retiro de magma producida
por un volcán resulta en cambios de presión en las rocas circundantes que pueden
producir rupturas y movimientos de tierra.
La intensidad es un número que describe la severidad de los efectos de un temblor
en un sitio dado, es decir depende tanto del sismo (magnitud y profundidad) como
de la distancia entre el epicentro y el punto de referencia. Una escala muy usada es
la llamada escala Mercalli modificada en la que la intensidad se escribe en números
romanos y que varı́a de I para sismos imperceptibles, hasta XII para terremotos muy
destructivos.
El momento sı́smico es una medida del tamaño de un terremoto basado en el área
de la ruptura de la falla, el promedio del desplazamiento y la fuerza que se requiere
para superar la fricción que mantenı́a las rocas antes del movimiento. El momento
sı́smico M0 se expresa como M0 = µAD donde µ es el módulo de cortante, que se
toma como 32 GPa en la corteza y 75 GPa en el manto. A es el área de la ruptura y
D el desplazamiento promedio.
La magnitud es un número que caracteriza el tamaño relativo de un terremoto y se
basa en mediciones de acelerogramas. Hay varias escalas, la más usada es la mag-
nitud local o de Richter ML . También se usa la magnitud basada en el área de la
fractura MS y la magnitud del momento sı́smico, MM = (2/3) log(M0 ) − 6, también
expresada como log M0 = cMM + d, con c = 3/2 y d ≈ 9,1. Esta última definición de
magnitud es la más satisfactoria, aunque requiere información adicional a la conte-
nida en los sismogramas. Todas las escalas de magnitud dan valores semejantes para
un determinado temblor, excepto para los más fuertes, para los que se recomienda
MM . Cada unidad de magnitud representa un incremento de diez en la amplitud de la
onda sı́smica y aproximadamente un incremento de aproximadamente 30 veces en la
energı́a del sismo. Empı́ricamente se observa una relación lineal en espacio logarı́tmi-

88
4.6. Sismicidad

co entre el área de la falla y el momento sı́smico, log A ∝ log M0 lo que indica que
el esfuerzo tiende a ser constante para los diferentes terremotos. Igualmente, se ha
reportado M0 ∝ A3/2 y la energı́a E = 1,44MM + 5,24.

Sismicidad Observada
La evaluación del riesgo sı́smico de una región tiene como propósito aportar la infor-
mación necesaria para que los ingenieros puedan diseñar estructuras sismo resistentes.
Para esto se hacen estudios de sismicidad histórica, se estudian los catálogos de los
eventos observados y la tectónica que ubica las fallas geológicas en una región. De fun-
damental importancia es la evaluación de la frecuencia de ocurrencia de los temblores
y la distribución de su magnitud e intensidad. Esta última depende de la distancia a
las fuentes y del tipo de rocas y suelos por los que se propaga la onda sı́smica.
Una de las caracterı́sticas más básicas que se ha observado sobre la sismicidad de un
lugar es la llamada Ley de Gutenberg-Richter,

log10 (N ) = −bML + a,

con N el número de sismos por año con magnitud mayor que ML (Gutenberg y Richter
1944). Los terremotos de mayor magnitud son más infrecuentes y los más abundantes
son de menor magnitud. La existencia de esta relación lineal es notoria y universal.
Es decir, se observa en diferentes regiones del planeta (ver figura 4.9). La constante de
proporcionalidad b, se ha considerado universal, b = 0,9 ± 0,15 (Malamud y Turcotte
1999), y el intercepto a de alguna manera define la sismicidad de una región.
La existencia de esta relación requiere explicación. Algunos (Aki 1981; Rundle, Tur-
cotte, Shcherbakov, Klein y Sammis 2003) toman las relaciones empı́ricas y la ley
de Gutenberg-Richter como una indicación de la fractalidad de la distribución de los
sismos. Es fácil ver que luego de reemplazar las anteriores relaciones se obtiene la
relación de escala
N = βA−3b/2c .
De allı́ infieren por la definición de dimensión fractal que D = 2b, recordando que
b = 3/2. Es decir, la distribución de sismos es fractal y la ley de Gutenberg-Richter
es una manifestación de este carácter. Sin embargo, no se ha establecido una relación
entre el escalamiento en la frecuencia de sismos y la dimensión fractal inferida con la
estructura fractal de la red de fallas geológicas que también ha sido reportada para
un rango amplio de escalas (Turcotte 1997).
Sornette (2003, p. 76) presenta una discusión interesante sobre los lı́mites de la ley de
Gutenberg-Richter para magnitudes muy grandes. Las razones son la conservación de
energı́a y la geometrı́a. Varias propuestas para esto en términos de una segunda ley
potencial con un mayor valor de la pendiente b luego de cruzar un umbral de magnitud.
Otra posibilidad es el llamado ajuste (tapper en inglés) exponencial apoyado en un
lı́mite suave o duro en la magnitud. No se entra en estos detalles, pero si es conveniente
recordar que hay lı́mites para la validez de la ley de Gutenberg-Richter.
Otra observación clara es la disminución con el tiempo del número de réplicas después
de un gran terremoto, f ∝ T −α . Esto se conoce como ley de Omori. La ocurrencia de

89
a sequence of aftershocks an upper limit of the waiting time. For fixed cell size L
h time as T 2a , a ! 1. This and increasing cutoff S (or m), the range of the power-law
ld belief that aftershocks are regime increases. For fixed cutoff S and increasing cell
on mechanism than the main size L, the range of the power-law regime decreases [7].
In Fig. 4, the curves are replotted in terms of rescaled
mplex behavior is obviously4.of Criticalidad
coordinates. The x axis isAuto
chosen as xOrganizada
! TS 2b Ld f , and the
the statistics of earthquakes, y axis represents y ! T a PS,L"T#. The rescaling causes a
ctal structure displayed by the
ribution of epicenters, is also 5
ess and one might speculate 10 10
y these observations. 4

N(M>m) [earthquakes/year]
ng law for the waiting times 10
sing a hierarchical organiza- 3
nitude. There is a correlated 10
1
n of waiting times between 2
T 2a , a ! 1 and an uncorre- 10
waiting time interval for the 1
10
egimes for earthquakes larger
0.1
nds on the area and magnitude 0
10
vering the period 1984 –2000 10
−1

panning 20±N–45±N latitude


e was analyzed [6]. The total 10
−2 0.01
5 6 7 8 9
kes in the catalog is 335 076. 0 1 2 3 4 5 6 7 8
N"M . m# with a magnitude Magnitude m = log10(S)
e Gutenberg-Richter law [1]
! 0.95 (see Fig. 1). FiguraFIG. 4.9:
1. The Leynumber de Gutenberg-Richter:
of earthquakes N"M . m# with a mag- log10 (N ) = −bML + a, con N el número
is was carried out as follows. nitude larger than m per year (open circles). The dashed line is
de
grid with cells of size L 3 L
sismos por año
the Gutenberg-Richter lawcon magnitud
log10 N"M . m# ~ 2bm, bmayor
! 0.95. que ML (Gutenberg y Richter 1944). A la
The deficit at small magnitude m # 2 is related to the prob-
waiting time T as the timeizquierda
lems withdatos de 335
detecting small 076sosismos
earthquakes, en California,
only earthquakes with con magnitud mayor que 2 se estima
ing of two successive earth- m $ 2 will be considered.
b = 0,95, adaptada de Bak, Christensen, Danon y Scanlon (2002). A la derecha 913
sismos
02$ 88(17)$178501(4)$20.00 con The
© 2002 magnitud mayor
American Physical Societyque 5 entre
1900 y 1990 en un rectángulo centrado en
178501-1
Colombia con extremos de latitud 10S−10N y longitud 70 − 80W. Se estima b = 0,84,
adaptada de Mesa (2002).

réplicas requiere explicación por parte de la teorı́a del rebote elástico. Se aduce que
hay regiones en las que la ocurrencia de un terremoto aumenta el esfuerzo, pero hay
sistemáticamente un rezago para la ocurrencia de la primera réplica. La corrosión y
la existencia de un esfuerzo crı́tico dependiente de la intensidad son los argumentos
usados.
Hay alguna evidencia de que la frecuencia de sismos de magnitud intermedia aumen-
ta antes de la ocurrencia de un gran evento (Rundle, Turcotte, Shcherbakov, Klein
y Sammis 2003). Lo que se ha propuesto como un método de predicción.

Modelo de Bloques
La interpretación CAO de la sismicidad considera que en una transición de fase de
primer orden las fuerzas tectónicas conducen el sistema de fallas a un estado de equi-
librio metaestable. Como las interacciones elásticas son de largo alcance, el sistema
de fallas puede acercarse a una lı́nea espinoidal. De hecho, en el caso de repetición
en el tiempo de sismos a lo largo de una falla se puede considerar que el sistema
reside permanentemente en la vecindad de una lı́nea espinoidal, con fluctuaciones en
el tiempo alrededor de tal equilibrio.

90
4.7. Deslizamientos (pila de arena)

kL

kc kc

Figura 4.10: Esquema del modelo de bloques y placas tomado de Rundle, Turcotte,
Shcherbakov, Klein y Sammis (2003).

4.7. Deslizamientos (pila de arena)


El modelo de la pila de arena (Bak, Tang y Wiesenfeld 1988) es uno de los más popu-
lares ejemplos de CAO. Probablemente por que su descripción es elemental y porque
hacer experimentos mediante simulaciones en el computador es también simple. Este
éxito ha motivado experimentos en laboratorio con diferentes materiales (Kadanoff,
Nagel, Wu y Zhou 1989; Nagel 1992; Malthe-Sørenssen, J. Feder, Christensen, Frette
y Jøssang 1999) con resultados variables. Por ejemplo, (Jaeger, C.-h. Liu y Nagel
1989) no encuentran auto semejanza en experimentos reales en pilas de arena, aun-
que sı́ parece que en algunos casos los experimentos en el laboratorio confirman las
simulaciones en el computador, por ejemplo en pilas de granos de arroz (Grumbacher,
McEwen, Halberson, Jacobs y Lindner 1993; Frette, Christensen, Malthe-Sorenssen,
J. Feder y col. 1996). Algunos deducen de estos medelos de juguete propiedades de
deslizamientos reales (Hergarten y Neugebauer 1998). Se presenta un breve resumen
del modelo con sus resultados básicos. El análisis de estos se deja como tarea, y la
discusión general sobre la aplicabilidad de estas ideas se deja para la discusión general
sobre CAO. De todas maneras, es notable como un modelo tan simple da lugar a es-
calamiento, memoria infinita, ruido 1/f y leyes de potencia. Para una mirada teórica
de acuerdo al enfoque de la mecánica estadı́stica ver Kadanoff (1999).
El modelo de la dinámica de avalanchas o deslizamiento transcurre sobre una su-
perficie plana finita sobre la que se traza una grilla regularmente espaciada. En cada
punto de la grilla, de coordenadas i, j puede haber entre 0 y l granos de arena. hay dos

91
4. Criticalidad Auto Organizada

procesos que ocurren a escalas de tiempo diferentes. El primero es gradual y consiste


es agregar en cada etapa del tiempo un grano a uno de los sitios de la grilla escogido
al azar. El segundo ocurre esporádicamente, en caso de llegar al lı́mite superior l se
produce un deslizamiento, los granos en exceso de un umbral u se distribuyen a los
vecinos. Es común considerar el caso l = 4 y u = 0, es decir si un sitio con coordenadas
(i, j) llega a 4 granos, en el instante siguiente queda con 0 pues le ha transferido 1 a
cada uno de sus cuatro vecinos: (i − 1, j), (i + 1, j), (i, j − 1) y (i, j + 1). Esto ocurre
con la excepción de los sitios (i, j) que estén en alguna de las fronteras de la superficie,
en cuyo caso 1 o 2 granos salen del dominio, por los bordes o las esquinas respec-
tivamente. Note que la desestabilización de un sitio puede generar una reacción en
cadena si alguno de los vecinos se desestabiliza con el grano que recibe. La condición
inicial es al azar, es decir en cada punto de la grilla se pone un número aleatorio de
granos n(i, j) distribuido uniformemente entre los valores 0, 1, 2, 3. Las caracterı́sticas
macroscópicas de interés son N T (k), el número de granos totales sobre la superficie
en la etapa k y C(k), el tamaño de la constelación, o número de sitios involucrados
en la avalancha o deslizamiento que ocurre en la etapa k, que se toma como 0 si no
hay deslizamiento en esta etapa. Como en cada etapa se agrega un grano, k es igual
al número de granos suministrados.
550 +3.4e4
35000 70000

500 60000
30000 450 50000
nro granos presentes
nro granos presentes

tamaño constelación

400 40000
25000
350 30000

300 20000
20000
250 10000

150000 10000 20000 30000 40000 50000 200


40000 42000 44000 46000 48000 50000 0
40000 42000 44000 46000 48000 50000
nro granos suministrados nro granos suministrados nro granos suministrados

Figura 4.11: Resultados de simulación del modelo de la pila de arena en una malla
cuadrada de 128 nodos. Izquierda, número de granos presentes en función del número
de granos agregados. Centro, detalle de la gráfica anterior para las últimas 10 000
iteraciones. Derecha, tamaño de la constelación de sitios involucrados en el desliza-
miento para las últimas 10 000 iteraciones, note que un sitio puede aparecer varias
veces en una constelación.

Intuitivamente es claro que inicialmente hay un proceso de acumulación de los granos


suministrados y pocas avalanchas. Esto se refleja en un crecimiento N T (k) ∝ k. Luego
se llega a un equilibrio estadı́stico, ocurren deslizamientos con una frecuencia que en
el largo plazo entra en balance con el suministro de granos. En la parte izquierda de
la figura 4.11 esto se observa claramente, la estabilización ocurre aproximadamente
cerca a k = 18 000 que es del orden del número de sitios en la grilla (1282 ). De allı́ en
adelante la figura muestra fluctuaciones alrededor de un valor del orden de 34 400. Es
decir, un promedio de 2 granos por grilla. El panel central presenta una ampliación
para las últimas 10 000 etapas de la simulación. Puede verse que las fluctuaciones
son irregulares, aunque hay cambios pequeños, estos van acompañados de cambios
grandes, de hecho, se afirma que estas fluctuaciones corresponden a ruido fraccional,
son auto semejantes y su distribución sigue una ley de potencias.

92
4.8. Evolución

Cola  del  tamaño  de  avalanchas


1.E+00

1.E-­‐01

Densidad  de  probabilidad


1.E-­‐02
y  =   0.1964x-­‐1.11
1.E-­‐03

1.E-­‐04

1.E-­‐05

1.E-­‐06

1.E-­‐07

1.E-­‐08
1.E+00 1.E+01 1.E+02 1.E+03 1.E+04 1.E+05

Tamaño  de  avalancha

Figura 4.12: Cola densidad del tamaño, malla 128 × 128

Otra forma de caracterizar la irregularidad es mediante el tamaño de las constelaciones


de cada deslizamiento. El panel derecho de la figura 4.11 presenta los resultados para
la parte final de la simulación. Se aprecia muchos deslizamientos de menor tamaño,
acompañados por algunos (pocos) muy grandes.
En la figura 4.12 se presenta la función de densidad del tamaño de las constelaciones
estimada de las últimos 10000 iteraciones en una simulación en una malla de 128×128.
La pendiente es semejante a la reportada en la literatura (Turcotte 1999). En los
ejercicios se pide hacer un análisis de las métricas de este modelo para caracterizar
su estructura de escalamiento, la longitud de correlación, la auto semejanza y la
intermitencia. El mecanismo de criticalidad auto organizada se ha explicado por el
caracter abierto del sistema y por la diferencia de escalas temporales entre los dos
procesos responsables de la dinámica. El sistema es abierto, en cada iteración entran
granos y en algunas salen. La diferencia de escalas fue descrita, el equilibrio que resulta
corresponde a una acumulación gradual seguida de eventuales descargas de tamaños
variables, algunas muy grandes, muchas pequeñas. La discusión sobre la pertinencia
de estos modelos para explicar los deslizamientos o avalanchas se deja para la Sección
4.9.

4.8. Evolución
Bak y Sneppen (1993) presentan un modelo de la evolución que captura la carac-
terı́stica básica señalada por Gould y Eldredge (1977) que postula que ésta ocurre
en ráfagas intermitentes de actividad que separan largos perı́odos de estabilidad en
lugar de un desarrollo gradual como se desprende de la teorı́a de Darwin (1859). La
siguiente reseña se toma de Lesne y Laguës (2012).
El estudio de los fósiles ha permitido reconstruir la historia de las extinciones y
concluir que, en lugar de ser un proceso continuo acumulativo, se concentra en eventos
de corta duración. En el contexto de los ecosistemas, criticalidad se refiere a la alta
interdependencia entre las especies, por ejemplo, mediante relaciones de mutualismo
o de dominancia en la cadena trófica. Tal interdependencia puede explicar los eventos
de extinción de múltiples especies.
El modelo de Bak y Sneppen (1993) se diseñó para capturar tal intermitencia en las

93
4. Criticalidad Auto Organizada

extinciones. Aunque no busca describir exactamente la realidad, sugiere un mecanismo


plausible. La unidad considerada es la especie en lugar de los individuos. Una red
virtual representa las interacciones entre las especies. En tal red, la vecindad de
especies representa la interdependencia y no hace relación al espacio fı́sico. Para
simplificar la exposición inicialmente se toma una red con igual número de vecinos
y con frontera periódica, por ejemplo, un cı́rculo, pero el modelo es general. A cada
especie i se le asigna un real fi entre 0 y 1 que representa el grado de aptitud de la
especie. Para una especie aislada su vida media es

τi = eb(fi −fref ) .

Una especie con grado de aptitud menor que el umbral fijo fref se estingue. La
interdependencia se representa mediante el mecanismo de que cambios en el grado
de aptitud de una especie tienen inicialmente repercusiones en el grado de aptitud
de las especies directamente relacionadas. Pero también de manera indirecta tiene
influencia global porque el efecto se propaga.
El algoritmo evolutivo consiste en seleccionar la especie j con el menor grado de
aptitud y cambiárselo por un valor aleatorio rj . Los vecinos también se cambian,
se reemplaza fj±1 por (fj±1 + rj±1 )/2. Se genera una cascada de extinción y una
evolución espontánea del grado de aptitud a un valor crı́tico fc .
Una vez se alcanza un estado estacionario, se observa la alternancia de perı́odos de
calma con series de extinción. La estadı́stica de la vida media T sigue la relación
N (T ) ∼ 1/T . Tal equilibrio se denomina puntuado, o interrumpido para resaltar la
intermitencia observada en el registro fósil.

4.9. Discusión
Lo que sigue se basa en Jensen (1998). Considere una colección de electrones, o un
montón de granos de arena, un cubo de lı́quido, una red elástica de resortes, un ecosis-
tema, o la comunidad de agentes en el mercado de valores. Cada uno de estos sistemas
consta de muchos componentes que interactúan mediante algún tipo de intercambio
de fuerzas o información. Además de estas interacciones internas, el sistema puede ser
impulsado por alguna fuerza externa: un campo eléctrico o magnético, la gravedad
(en el caso de los granos de arena), cambios ambientales, y ası́ sucesivamente. El sis-
tema evolucionará en el tiempo bajo la influencia de las fuerzas externas y las fuerzas
internas de interacción, suponiendo que se puede descomponer el sistema en compo-
nentes internas y externas de una manera simple. ¿Qué pasa? ¿Hay algún mecanismo
simplificador que produzca un comportamiento tı́pico compartido por la amplia clase
de sistemas, o el comportamiento siempre dependen crucialmente de los detalles de
cada sistema?
El trabajo de Bak, Tang y Wiesenfeld (1987) contiene la hipótesis de que, de hecho,
los sistemas que consisten de muchas componentes que interactúan pueden exhibir de
manera general un comportamiento caracterı́stico. La afirmación seductora es que,
bajo condiciones muy generales, los sistemas dinámicos se organizan en un estado
complejo, pero con una estructura general. Los sistemas son complejos en el sentido

94
4.9. Discusión

de que no existe un tamaño de evento caracterı́stico: no hay una escala temporal


o espacial que controle la evolución temporal de estos sistemas. A pesar de que la
respuesta dinámica de los sistemas es compleja, el aspecto simplificador es que las
propiedades estadı́sticas se describen por simples leyes de potencia. Además, algunos
de los exponentes pueden ser universales para sistemas que parecen ser diferentes
desde una perspectiva microscópica.
La afirmación de Bak, Tang y Wiesenfeld (1987) es que este comportamiento tı́pico
se desarrolla sin ninguna “afinación” externa del sistema. Además, los estados en los
que los sistemas se organizan tienen el mismo tipo de propiedades exhibidas por los
sistemas de equilibrio en un punto crı́tico. Por lo tanto, el nombre utilizado, criticali-
dad auto organizada (CAO). La esperanza era que ésta es la explicación dinámica de
por qué muchos sistemas en la naturaleza exhiben complejas estructuras espaciales
y temporales. CAO se convirtió en un candidato para la teorı́a de complejidad. Una
de las razones de la intensa atención recibida es que combina dos conceptos fascinan-
tes, auto organización y comportamiento crı́tico, para explicar una tercera, no menos
fascinante y de moda, la noción de complejidad.
Se ha afirmado que fenómenos en campos muy diversos de la ciencia exhiben com-
portamiento CAO. Comenzó con pilas de arena, terremotos e incendios forestales.
Luego vinieron las fallas eléctricas, el movimiento de lı́neas de flujo magnético en
superconductores, gotas de agua en superficies, dinámica en campos magnéticos y el
crecimiento de interfaces. Pronto se sugirió que CAO también se aplica a la economı́a
y al medio ambiente y la evolución biológica. Pero no existe una definición clara y
generalmente aceptada de lo que CAO es. Tampoco existe una imagen muy clara de
las condiciones necesarias para que surja comportamiento CAO.
Conectado con esta falta de definición de CAO está la falta de un formalismo ma-
temático. El objetivo de la mecánica estadı́stica de equilibrio puede resumirse de
una manera muy precisa y sencilla. Es la rama de la fı́sica que tiene por objeto el
cálculo de la función de partición de un sistema fı́sico. Se define primero el Hamil-
toniano del sistema considerado, es decir, una función H{sk } de las configuraciones
{sk } que Determine la energı́a de una configuración dada, E = H{sk }. Tan pronto
como uno tiene definido el Hamiltoniano, todo lo que la mecánica estadı́stica nece-
sita hacer
Pt para describir el estado de equilibrio es calcular la función de partición
Z = k exp{−H{sk }/kT } que tiene toda la información necesaria para obtener
cualquier cantidad de interés.
Ningún formalismo general como este se ha establecido para los sistemas CAO, aunque
hay formalismos individuales para casos especı́ficos.
Hay escépticos como Frigg (2003) que discuten qué es y que no es CAO, y plantean que
es otro ejemplo de una teorı́a inflada, como la teorı́a de catástrofes, o la geometrı́a
fractal, y el caos, de las cuales se ha reclamado aplicación universal, pero no han
aportado mucho. En particular hasta ahora sólo reproducen el escalamiento y nada
más.
Otras referencias sobre CAO son Hergarten (2002) que tiene varios capitulos sobre
deslizamientos, sismicidad y redes. También están los trabajos de Jensen y Arcaute
(2010), Christensen, Di Collobiano, Hall y Jensen (2002). Laird y Jensen (2006) y
Hergarten (2002).

95
4. Criticalidad Auto Organizada

Yano, C. Liu y Moncrieff (2012) describe un modelo de convección que merece reseña.
Sobre convección hay otros trabajos que dicen ser CAO, aunque no lo demuestran
(Craig y Mack 2013). Respecto a análisis de datos de precipitación hay que mencionar
a Andrade, H. Schellnhuber y Claussen (1998). Sornette y Ouillon (2012) presenta
una discusión interesante sobre eventos extraordinarios. Además hay que mencionar
que existen propuestas de aplicación de la CAO al desarrollo de ciudades (Allen 2012).

4.10. Ejercicios

4.10.1 (Escalamiento). Consulte los algoritmos para estimar alguno de los parámetros
básicos de series de tiempo o campos espaciales que se han usado para caracterizar la
criticalidad auto organizada: Escala de fluctuación, exponente de Hurst, intermitencia,
leyes de potencia, exponentes de escalamiento. Aplı́quelo a una serie o campo espacial
observado. Discuta y analice los resultados.
4.10.2 (Percolación). En una malla de percolación p es la probabilidad de que cada si-
tio esté ocupado. Se asume independencia entre los sitios. Para el caso unidimensional
es posible calcular las probabilidades de constelaciones de tamaño dado s, se requieren
s sitios contiguos ocupados y los dos extremos desocupados, es decir ps (1 − p)2 . Si se
ignoran los efectos de borde para el caso de una malla de tamaño L se puede afirmar
que hay en promedio Lps (1 − p)2 constelaciones de tamaño s, y por tanto si se divide
por L se obtiene ns = ps (1 − p)2 el número normalizado de constelaciones de tamaño
s. Argumente que ns es igual a la probabilidad de que un sitio sea el extremo derecho
de una constelación de tamaño s en una malla infinita. Igualmente, argumente que
la probabilidad
P de que un sitio haga parte de uns constelación de tamaño s es sns .
Muestre que s ns s = p para p < pc . En el caso unidimensional pc = 1. La condición
corresponde a dejar de lado las constelaciones de tamaño infinito. Muestre que el
tamaño promedio de una constelación finita escogida al azar es (1 + p)/(1 − p).
4.10.3 (Proyecto). Una hipótesis controvertida sugiere que algunos sistemas biológicos
pueden extraer importantes beneficios funcionales al operar al borde de la inestabili-
dad, a medio camino entre el orden y el desorden, es decir, en la vecindad del punto
crı́tico de una transición de fase. Se ha argumentado que la criticalidad proporciona
a los sistemas biológicos un equilibrio óptimo entre robustez frente a perturbaciones
y flexibilidad para adaptarse a las condiciones cambiantes, ası́ como para conferir-
les capacidades de adaptación óptimas, enormes repertorios dinámicos, sensibilidad
incomparable a los estı́mulos, etc. La invariancia de escala concomitante, puede conje-
turarse como emergente en los sistemas vivos como resultado de procesos adaptativos
y evolutivos que, por razones no completamente aclaradas, la seleccionan como una
plantilla sobre la cual pueden descansar más capas de complejidad. Esta hipótesis es
muy sugestiva, ya que propone que la criticidad podrı́a constituir una estrategia orga-
nizativa general y común en biologı́a derivada de la fı́sica de las transiciones de fase.
Sin embargo, a pesar de sus implicaciones llamativas, esto todavı́a está en su estado
embrionario, y dista de ser una teorı́a bien fundada y, como tal, ha provocado un
cierto escepticismo saludable. Desde el punto de vista experimental, el advenimiento
de las tecnologı́as de alto rendimiento ha creado nuevas perspectivas en la exploración
de sistemas biológicos, y ha proliferado la evidencia empı́rica a favor de la criticidad,

96
4.10. Ejercicios

con ejemplos que van desde la actividad cerebral endógena y los patrones de expresión
génica, hasta bandadas de aves. y la búsqueda de colonias de insectos, por nombrar
solo algunos. Algunas piezas de evidencia son bastante notables, mientras que en otros
casos los datos empı́ricos son limitados, incompletos o poco convincentes. Sin duda, se
necesitan configuraciones experimentales más estrictas y análisis teóricos para acla-
rar completamente el panorama. En cualquier caso, parece el momento oportuno para
cerrar la brecha entre esta conjetura teórica y su validación empı́rica. Dadas las pro-
fundas implicaciones de arrojar luz sobre este tema, es pertinente y oportuno revisar
el estado del arte y discutir estrategias y perspectivas futuras. Haga una revisión del
estado del arte (Muñoz 2018).

97
Capı́tulo 5

Fundamentos Sistemas Dinámicos

Las fuentes principales de este capı́tulo son Strogatz 1994 y Logan 2004, que se
recomiendan y usaremos en casi todas partes. La exposición procede de lo simple a
lo complejo. Simplemente, si no se entiende lo fácil, es inútil abordar lo difı́cil. Los
teoremas de existencia y unicidad son enunciados en general para flujos de dimensión
arbitraria finita.

5.1. Análisis Cualitativo


Enfoque Geométrico
La interpretación geométrica de una ecuación diferencial, ẋ = f (x), como un campo
vectorial ayuda bastante en la comprensión. Si interpretamos a x como la posición
de una partı́cula, y a ẋ como su velocidad, la gráfica de ẋ vs. x representa un campo
vectorial, para cada valor de x se tiene un vector ẋ. Este vector se puede pensar como
una velocidad. Esto da origen a un flujo. Una partı́cula ubicada en la posición x tiene
velocidad ẋ. El carácter vectorial de ẋ viene de su magnitud y dirección, que en una
dimensión depende del signo. Para dimensiones mayores la interpretación vectorial es
más evidente.
Un ejemplo ayuda a explicar estas ideas. La ecuación no lineal ẋ = sen x, puede
resolverse fácilmente por separación de variables e integración para obtener t =
− ln | csc x + cot x| + C. Si en t = 0, x = x0 la constante C se puede determinar,
csc x0 +cot x0
C = ln | csc x0 + cot x0 | y por tanto la solución es t = ln csc x+cot x . Las pregun-
tas que nos interesan son del tipo: ¿suponga x0 = π/4, cuáles son las principales
caracterı́sticas cualitativas de x(t)? En particular, ¿qué pasa cuando t → ∞?
A pesar de tener la solución explı́cita, la respuesta a estas preguntas no es directa.
Se puede decir mucho más de la interpretación geométrica. La Figura 5.1 ilustra el

99
5. Fundamentos Sistemas Dinámicos

-­‐10  

-­‐1.2  

Figura 5.1: Campo vectorial para ẋ = sen x.

campo vectorial. La velocidad está representada por flechas, que apuntan a la derecha
si ẋ > 0, y a la izquierda si ẋ < 0. Para algunos valores de x, la velocidad es máxima
y positiva, a medida que la partı́cula se desplaza a la derecha, la velocidad disminuye
y eventualmente es cero. Igual se puede analizar el caso de los valores de x para
los cuales la velocidad es negativa, o positiva pero inferior al máximo. En el caso
ẋ = 0, la velocidad es cero. Por tanto, si una partı́cula inicia en un valor de x para
el cual ẋ = 0, permanece allı́. Dichos puntos se llaman puntos fijos. En la figura
están representados por puntos gruesos. Puede observarse que las flechas convergen
a los puntos negros, mientras que en los puntos blancos las flechas divergen. Una
partı́cula muy cercana a un punto blanco se aleja de él, independientemente si está a
su izquierda o a su derecha. A estos puntos fijos los llamamos inestables. Mientras
una partı́cula muy cercana a un punto negro tiene la tendencia a acercarse, por tal
razón son llamados puntos fijos estables. otra terminologı́a para los puntos fijos
estables es atractor, o sumidero. Para los inestables los términos son fuentes o
repelentes.

x  
3.5  

π!3  

2.5  

2  

1.5  

1  

0.5  

0  
t  
0   1   2   3   4  

Figura 5.2: Solución de ẋ = sen x, para la condición inicial x0 = π/4

La Figura 5.2 ilustra la solución para la condición inicial mencionada en la pregunta

100
5.1. Análisis Cualitativo

1.6  

1.2  

0.8  

0.4  

0  
-­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2  

-­‐0.4  

-­‐0.8  

-­‐1.2  

Figura 5.3: ẋ = x2 − 1

de arriba. Como puede verse mirando simultáneamente las Figura 5.1 y 5.2, para
x0 = π/4, la velocidad es positiva, luego x crece con el tiempo. A medida que crece
la velocidad aumenta, hasta un valor para el cual la velocidad es máxima, que co-
rresponde a x = π/2. Por lo tanto, entre esos dos puntos la curvatura es positiva. En
este último la curvatura se anula, la velocidad ni aumenta ni disminuye, aunque sigue
siendo positiva. Luego la partı́cula continúa moviéndose a la derecha, pero la veloci-
dad empieza a disminuir, la curvatura es entonces negativa. Eventualmente llega al
punto x = π, para el cual ẋ = 0.
El ejemplo ilustra el concepto del análisis cualitativo. Aunque en general no se obtiene
información cuantitativa precisa, si se puede obtener un análisis cualitativo útil. En
particular es bastante claro qué pasa cuando t → ∞.

Puntos Fijos
El análisis anterior se puede extender a cualquier ecuación de una dimensión ẋ = f (x).
Se grafica f (x) y se procede a trazar el campo vectorial. Por ejemplo, en la Figura
5.3, se representa el caso f (x) = x2 − 1. Los puntos fijos corresponden a las soluciones
de f (x∗ ) = 0, que en este caso son x∗ = ±1. A la izquierda de x = −1 la función f
es positiva, luego el flujo es hacia la derecha. En −1 < x < 1 se tiene f negativa y el
flujo es hacia la izquierda. A la derecha de x = 1 nuevamente la función es positiva y
el flujo es hacia la derecha. En la Figura 5.3 esto se representa con las flechas y los
puntos fijos con los puntos gruesos. La estabilidad se obtiene de analizar pequeñas
perturbaciones alrededor de los puntos de equilibrio.
Más adelante se desarrolla con rigor el concepto de estabilidad, por ahora se puede
decir que si el sistema está en la vecindad tiende a acercarse a un punto estable.
Mientras que, si es inestable se aleja. Por lo tanto, en un sistema real los puntos
inestables no se observan frecuentemente.
Es posible que la gráfica de la función f (x) no sea tan simple, pero se pueden usar
varias técnicas para simplificar. Por ejemplo, el caso ẋ = f (x) = x − cos x. Se invita
al lector a seguir este ejemplo con su propia gráfica. De forma independiente se repre-

101
5. Fundamentos Sistemas Dinámicos

Figura 5.4: Tasa de crecimiento y capacidad de soporte y modelo lineal

sentan las gráficas y = cos x y y = x. Cuando la primera está por encima f (x) < 0, la
partı́cula imaginaria en el espacio de fase se desplaza a la izquierda. El punto de corte
de las dos gráficas corresponde al punto de equilibrio x∗ , y a la derecha de este punto
la segunda gráfica está por encima de la primera, por tanto f (x) > 0 y la partı́cula se
desplaza hacia la derecha. A partir de este análisis es fácil trazar la solución partien-
do de cualquier punto inicial. El punto de equilibrio x∗ es inestable. Soluciones que
empiecen en x0 < x∗ tienden a menos infinito. Soluciones que empiecen a en x0 > x∗
tienden a mas infinito. Si x0 = x∗ la solución es x(t) = x∗ para todo t. Pero por
la inestabilidad, la condición inicial tiene que ser exacta, no puede tener los errores
inherentes al mundo real.

Crecimiento Demográfico
Un modelo aplicado interesante en varias áreas del conocimiento se refiere a la dinámi-
ca poblacional. Para iniciar con lo más simple, sea N (t) la población de alguna especie
en el tiempo t. El modelo de crecimiento lineal asume una tasa de crecimiento pro-
porcional a la población, con constante de proporcionalidad r > 0. Es decir, Ṅ = rN .
El crecimiento proporcional a la población puede justificarse si no hay agotamiento
de recursos, ni competencia con otras especies. El modelo únicamente incorpora la
reproducción, a mayor población mayores descendientes. La constante r, representa
la tasa de crecimiento. Para el caso r < 0 realmente representa un decrecimiento. El
modelo se integra fácilmente a N (t) = N0 ert , es decir, un crecimiento (decrecimiento)
exponencial.
Sin embargo, los biólogos o demógrafos señalan que tal modelo no es aplicable sino
bajo ciertas circunstancias, en particular la existencia de recursos limitados y/o una
posible sobrepoblación pueden conducir a que la tasa de crecimiento no sea constan-
te. Para valores bajos de la población se puede aceptar una tasa aproximadamente
constante, pero a medida que la población crece, la tasa tiende a disminuir, como lo
ilustra la Figura 5.4. Eventualmente, la tasa se hace nula y posteriormente negativa.
El valor de la población para el cual la tasa se hace 0 se conoce como capacidad de
carga, K. Una manera de modelar estas ideas es asumir, como se ilustra en la Figura
5.4, una variación lineal de la tasa de crecimiento per cápita Ṅ /N con la población

102
5.1. Análisis Cualitativo

Figura 5.5: Ecuación Logı́stica, Ṅ = rN (1 − N/K) y soluciones para diferentes con-


diciones iniciales

N . Esto se conoce como la ecuación logı́stica,

N
Ṅ = rN (1 − ). (5.1)
K

Esta ecuación se planteó por primera vez en 1838 por Verhulst para describir el
crecimiento de la población humana. La solución es elemental, pero como el énfasis
de este enfoque no es en los métodos de solución de ecuaciones diferenciales sino en el
análisis de la dinámica directamente de la ecuación usaremos el enfoque geométrico.
En concordancia con el carácter aplicado, el análisis se limita a valores positivos de la
población. Nuestro método hasta ahora ha sido la representación gráfica de Ṅ contra
N , Figura 5.5. Los puntos fijos, aquellos para los cuales Ṅ = 0, son N = 0 y N = K.
Si la población inicial es alguno de estos dos valores, no cambiará para cualquier valor
del tiempo, lo que justifica el nombre de punto fijo. Entre los dos valores, la tasa de
crecimiento es positivo, lo que se representa con la flecha hacia la derecha. Para valores
mayores de N = K, la tasa es negativa, lo que se representa con la flecha hacia la
izquierda. Se aprecia de la figura que K es un punto fijo atractor, valores cercanos,
tanto mayores como menores tienden a acercarse a K. Por eso el cı́rculo lleno. Por el
contrario, el origen es un punto fijo repelente, los valores cercanos tienden a alejarse
de él. Incluso es posible definir la forma cualitativa de las soluciones, la forma de
la parábola indica que la tasa de crecimiento crece a la izquierda del máximo en
K/2, y decrece a la derecha. Con esta información podemos delinear un conjunto
de soluciones en la Figura 5.5. En particular, la solución tiene forma de S, también
llamada curva sigmoidea cuando N (0) < K/2.
El modelo logı́stico tiene sus limitaciones. La forma precisa de representar la variación
de la tasa de crecimiento no debe tomarse como una regla, sino como una manera
simple de representar observaciones. Como sucede a menudo con el éxito alcanzado en
las primeras aplicaciones, se sobre valoró y el modelo se pretendió presentar como un
modelo universal, aplicable a cualquier población (Pearl 1927). Una revisión crı́tica
de estos modelos se puede consultar en Krebs (1972). El modelo trabaja bien para
colonias de bacterias, levadura y otros organismos en los cuales hay un suministro
constante de alimentos, ausencia de predadores y un ambiente constante. Para otros
organismos más complejos, que involucran reproducción con huevos, desarrollo en

103
5. Fundamentos Sistemas Dinámicos

1.6   1.6   1.6  

1.2   1.2   1.2  

0.8   0.8   0.8  

0.4   0.4   0.4  

0   0   0  
-­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2   -­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2   -­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2  

-­‐0.4   -­‐0.4   -­‐0.4  

-­‐0.8   -­‐0.8   -­‐0.8  

-­‐1.2   -­‐1.2   -­‐1.2  

Figura 5.6: Ejemplos gráficos de análisis de estabilidad. Estable: ẋ = −x3 . Inestable:


ẋ = x3 . Semiestable: ẋ = x2 .

larvas, pupas y adultos y/o interacciones con el medio ambiente los resultados no son
tan buenos. Otros trabajos importantes en esta área son Pielou (1969), May y McLean
(2007) y Murray (2008).

Análisis Lineal de Estabilidad


La aproximación de primer orden de la serie de Taylor de la función f permite ana-
lizar lo que sucede con perturbaciones alrededor de los puntos fijos. Esto se conoce
como análisis lineal de estabilidad porque la aproximación incorpora sólo los térmi-
nos lineales. Sea x∗ un punto fijo de ẋ = f (x), es decir, f (x∗ ) = 0. Denotemos por
η(t) = x(t) − x∗ las perturbaciones respecto al punto fijo. Claramente, las perturba-
ciones crecen o decaen según el signo de η̇ = ẋ = f (x∗ + η). Si usamos la serie de
Taylor,
f (x∗ + η) = f (x∗ ) + ηf 0 (x∗ ) + O(η 2 ),
se1 ve que cuando f 0 (x∗ ) 6= 0, la solución de la ecuación lineal η̇ ≈ ηf 0 (x∗ ) define la
estabilidad del sistema original. Habrá crecimiento exponencial de las perturbaciones
si la constante f 0 (x∗ ) es positiva y decaimiento si f 0 (x∗ ) < 0. La aproximación es
suficiente si f 0 (x∗ ) 6= 0. En el caso f 0 (x∗ ) = 0 los términos no lineales no son des-
preciables, la aproximación no es suficiente y se requiere un análisis adicional. En la
Secciones fci-4.3 y 5.7 este resultado se formula en términos precisos, tanto para los
mapas como para las ecuaciones diferenciales. Note que 1/f 0 (x∗ ) es una escala de
tiempo caracterı́stica.
La Figura 5.6 ilustra algunos casos tı́picos de estabilidad que aparecen en el contexto
del estudio de las bifurcaciones.

Existencia y Unicidad
Hasta ahora no se ha considerado el tema de la existencia y unicidad. Desde el punto
de vista aplicado es común obviar esta preocupación, lo cual casi siempre es jus-
tificado, o mejor, se puede justificar a posteriori. Sin embargo, no faltan los casos
especiales. De ellos se puede aprender bastante tanto desde el punto de vista teóri-
co, como aplicado. Considere el caso con múltiples soluciones ẋ = 3x2/3 y condición
1 La nomenclatura se presenta en la p. fci-31, el lı́mite es cuando η tiende a cero.

104
5.1. Análisis Cualitativo

1.6  

1.2  

0.8  

0.4  

0  
-­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2  

-­‐0.4  

-­‐0.8  

-­‐1.2  

Figura 5.7: Unicidad? La ecuación ẋ = x1/3 , con condición inicial x0 = 0, no tiene


solución única, dos posibles soluciones son x1 (t) = (2t/3)3/2 y x2 (t) = 0, y hay más.

inicial x0 = 0, representado en la Figura 5.7. Según nuestro método geométrico el ori-


gen es inestable. Además, según el criterio de estabilidad lineal, f 0 (0) = ∞, es decir,
es muy inestable. El siguiente teorema precisa condiciones suficientes de existencia y
unicidad, que claramente no se cumplen en este ejemplo. Aunque el tı́tulo del capı́tulo
está restringido a una dimensión, se van a formular estos importantes teoremas para
el caso general de dimensión n.
Teorema 5.1.1. El problema de valores iniciales
ẋ = f (x), x(0) = x0
tiene una única solución en un intervalo abierto (−τ, τ ), si tanto f como f 0 son
continuas en una vecindad abierta que contiene a x0

El teorema no garantiza la existencia de solución para todo t. El ejemplo ẋ = 1 + x2 ,


con condición inicial x(0) = 0, cuya solución fácilmente se muestra que es x(t) =
tan(t), ilustra este caso. La solución sólo existe para −π/2 < t < π/2. En los extremos
de tal intervalo la solución tiende a ±∞, y por fuera de tal intervalo no hay solución.
Esto se conoce como explosión, el sistema alcanza valores infinitos en un tiempo finito.
Este teorema no es el más general, se pueden considerar casos en los que la función
f dependa también de la variable independiente t, o se pueden rebajar las exigencias
sobre f ; aunque no del todo. Por ejemplo, la ecuación ẋ = 3x2/3 , con condición inicial
x(0) = 0 tiene infinitas soluciones: la integración ingenua da x1 (t) = t3 , que cumple
tanto la ecuación como la condición inicial. También es solución x2 (t) = 0. Pero el
número importante de soluciones está dado por xτ (t) = 0 si t ≤ τ y xτ (t) = (t − τ )3
si t > τ , para τ > 0. La dificultad viene de que 3x2/3 aunque continua en x = 0 no es
diferenciables en tal punto (en la Figura 5.7 hay un ejemplo semejante).
Desde el punto de vista fı́sico también es importante la dependencia continua de las
condiciones iniciales. El siguiente teorema lo garantiza.
Teorema 5.1.2. Dado el problema de valores iniciales
ẋ = f (x),

105
5. Fundamentos Sistemas Dinámicos

con tanto f como f 0 continuas en una vecindad abierta que contiene a x0 . Sea x1
una solución en [t0 , t1 ] con x1 (t0 ) = a, entonces existe una vecindad U de a y una
constante K tal que para b ∈ U existe una única solución x2 de la ecuación diferencial
en [t0 , t1 ] con x1 (t0 ) = b que satisface

|x2 (t) − x1 (t)| ≤ K|b − a| exp(K(t − t0 )), para todo t ∈ [t0 , t1 ]

es decir, si las dos soluciones inician cerca, permanecen cerca. Aunque se pueden
separar, la velocidad de separación no es más rápido que exponencial. En particular,
el flujo φt (x) es una función continua de x
También es importante el caso en el cual la ecuación diferencial depende de un paráme-
tro, digamos k. Desde el punto de vista aplicado también se espera que la solución
dependa continuamente del parámetro. Es posible aplicar el teorema anterior para ver
que tal expectativa se cumple si la ecuación depende continuamente del parámetro.
El truco es aumentar en uno el número de variables y de ecuaciones, la nueva variable
es el parámetro y la nueva ecuación es k̇ = 0.

Teorema 5.1.3. Dada un sistema de ecuaciones diferenciales que depende del paráme-
tro k, expresado mediante ẋ = f (x; k), con f continuamente diferenciable tanto en x
como en k, entonces el flujo φt (x; k) también es una función continua de k.

5.2. Bifurcaciones
Tal como se desprende de la sección anterior, la dinámica de los campos vectoriales
en una dimensión es bastante simple. Todas las soluciones o tienden a un punto fi-
jo o van a ±∞. Dado este comportamiento casi trivial, no parece justificado haber
iniciado considerando el caso unidimensional. Sin embargo, se justifica, no sólo por
la facilidad para explicar la representación geométrica, los puntos fijos y la estabili-
dad; sino además por el análisis de las bifurcaciones que proviene del estudio de la
dependencia de parámetros, el carácter cualitativo de los flujos cambia a medida que
cambian los parámetros. Además, este comportamiento juega un papel importante
en el caso general de flujos de dimensión mayor. En varios campos de las ciencias las
bifurcaciones son modelos que explican transiciones e inestabilidades que resultan del

1.6   1.6   1.6   1.5  

1.2   1.2   1.2  


1  

0.8   0.8   0.8  


0.5  

0.4   0.4   0.4  

0  
-­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2  
0   0   0  
-­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2   -­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2   -­‐2   -­‐2   -­‐1   -­‐1   0   0   1   1   2  

-­‐0.5  
-­‐0.4   -­‐0.4   -­‐0.4  

-­‐1  
-­‐0.8   -­‐0.8   -­‐0.8  

-­‐1.2   -­‐1.2   -­‐1.2   -­‐1.5  

Figura 5.8: Bifurcación de punto de silla, ẋ = r + x2 , de izquierda a derecha r < 0,


r = 0, r > 0. Y a la derecha, diagrama de bifurcación, el eje vertical representa los
puntos fijos y el eje horizontal el parámetro r, La lı́nea a trazos significa puntos fijos
inestables, la lı́nea continua puntos fijos estables.

106
5.2. Bifurcaciones

cambio de parámetros de control. En esta sección se presentan los casos tı́picos me-
diante ejemplos. En la sección siguiente se profundiza sobre la explicación matemática
de estos cambios de comportamiento en función de los parámetros y se justifica la
clasificación. Veremos que las bifurcaciones se presentan únicamente cuando se crean,
se destruyen, colisionan o cambia la estabilidad de los puntos crı́ticos.

Bifurcación de Ensilladura
La bifurcación de ensilladura o de punto de silla es el mecanismo básico por el cual se
crean y destruyen puntos fijos. A medida que un parámetro cambia dos puntos fijos
se acercan, chocan y se aniquilan mutuamente. El ejemplo tı́pico es ẋ = x2 + r, donde
r es un parámetro que puede ser positivo, negativo√ o cero, ver Figura 5.8.
√ Cuando r
es negativo, hay dos puntos fijos, uno estable, − −r, y otro inestable, −r. Cuando
r es cero, sólo el origen es punto fijo. El método geométrico nos indica que es semi
estable, atrae puntos cercanos a la izquierda de él, pero repele puntos cercanos a
su derecha. Cuando r > 0 no hay puntos fijos, el flujo tiende a ∞. La Figura 5.8
representa la dependencia de los puntos fijos en función del parámetro r. Como el
comportamiento del flujo cambia drásticamente en el punto r = 0 se dice que este
sistema tiene una bifurcación para este valor particular del parámetro.
Cuando miremos el caso con dimensión mayor a uno, la razón del nombre será más
evidente. Conviene advertir que algunos usan otras terminologı́as para este caso, bien
sea bifurcación de doblado, o bifurcación de punto de quiebre. Incluso se ha usado el
nombre de bifurcación caı́da del cielo, porque si se mira el diagrama iniciando para
valores grandes y positivos de r, no hay puntos fijos, a medida que se disminuye
el parámetro se llega a un punto, el punto de bifurcación, en el cual súbitamente
aparece primero un punto fijo semi estable y luego dos puntos fijos, que salen de la
nada, caı́dos del cielo. Mirada en esta dirección el uso de la palabra bifurcación tiene
más sentido. Un punto fijo se convierte en dos a medida que cambia el parámetro,
aparecen dos ramas.
El siguiente ejemplo aporta en la interpretación de la bifurcación de ensilladura. Sea
ẋ = r − x − e−x , ver Figura 5.9. De manera directa no es posible encontrar los
puntos fijos, pero la representación geométrica del numeral anterior sugiere proceder
a graficar la recta y = r − x y la curva y = e−x que son más familiares. Como f (x) es
la diferencia entre las dos, tenemos que cuando la recta esté por encima de la curva la
derivada es positiva, x crece, el vector velocidad apunta a la derecha; cuando la curva
está por encima de la recta la velocidad apunta a la izquierda. Cuando se cortan la
velocidad es cero y se tiene un punto fijo. Para un valor grande del parámetro r, se
tienen dos intersecciones tal y como se ilustra a la parte (a) de la figura, la de la
izquierda corresponde a un punto fijo inestable y la de la derecha a uno estable. Si el
parámetro r es todavı́a mayor los puntos fijos se separan, pero no se encuentra ningún
comportamiento diferente. Por el contrario, medida que se tomen valores menores de
r, los puntos fijos se acercan, eventualmente se unen en uno sólo (parte b de la figura)
y posteriormente no habrá ninguno (c). El valor crı́tico, corresponde a un punto de
bifurcación, que podemos encontrar al notar que en este caso no sólo tenemos igualdad
de la curva y la recta, r − x = e−x , sino que además la recta es tangente a la curva, es

107
5. Fundamentos Sistemas Dinámicos

1.8   1.8   1.8  

1.3   1.3   1.3  

0.8   0.8   0.8  

0.3   0.3   0.3  

-­‐2   -­‐1   -­‐1   0   1   1   2   -­‐2   -­‐1   -­‐1   0   1   1   2   -­‐2   -­‐1   -­‐1   0   1   1   2  

-­‐0.2   -­‐0.2   -­‐0.2  

Figura 5.9: Bifurcación ensilladura: ẋ = r − x − e−x . Izquierda r > 1, centro r = 1,


derecha r < 1.

decir, las derivadas son iguales, −1 = −e−x . Por lo tanto, en el punto de bifurcación
x = 0 y el valor crı́tico de r es rc = 1. En este caso el diagrama de bifurcación es
semejante al de la Figura 5.8 rotado respecto a ambos ejes.
Este último ejemplo ilustra bien el caso general de las bifurcaciones de punto de silla.
En particular la razón por la cual el primer ejemplo parabólico es genérico de este tipo
de bifurcaciones. Si se expande en serie de Taylor alrededor del punto de bifurcación
la función ẋ = f (x) = r − x − [1 − x + x2 /2 + o(x2 )] que tiene la misma forma
parabólica del primer ejemplo cuando se retiene el término de orden mayor en x, y
se hace una traslación o cambio de escala. Esto es lo tı́pico. Un punto de tangencia
se ve como una parábola cuando se mira con un microscopio.

Bifurcación Trans Crı́tica


En la bifurcación trans crı́tica no desaparece ningún punto fijo, pero hay cambio de
estabilidad a medida que cambia un parámetro. El ejemplo tı́pico es ẋ = rx − x2 ,
Figura 5.10. El lado derecho es igual a la ecuación logı́stica usada para estudiar el
crecimiento de poblaciones, pero acá se acepta también los valores negativos de x y/o
r. Un análisis elemental muestra que los puntos fijos están formados por dos ramas
en el diagrama de bifurcación. La primera es el eje x = 0 independiente del valor del
parámetro r. La segunda es x = r. La estabilidad se puede determinar del signo de
f 0 (x) = r − 2x usando el análisis lineal. En la primera rama f 0 (x) = r, por tanto,
los puntos fijos son estables para r < 0 e inestables para r > 0. En la segunda rama
f 0 (x) = −x = −r, por tanto, los puntos fijos son estables para x > 0 e inestables
para x < 0. La observación de la Figura 5.10 y el análisis geométrico confirman estas
conclusiones, que se ilustran en el diagrama de bifurcación.

Bifurcación Tridente
El tercer tipo de bifurcación podrı́a llamarse también trifurcación, porque los puntos
fijos aparecen o desaparecen en pares, y se pasa de uno a tres puntos fijos o viceversa.
El diagrama de bifurcación correspondiente parece un tridente. Desde el punto de vista
fı́sico esto se asocia a una simetrı́a particular que matemáticamente corresponde a la
simetrı́a x ⇔ −x. Es decir, el sistema, su ecuación no cambian al hacer la substitución
correspondiente, o lo que es lo mismo, la orientación contraria del eje conduce a la

108
5.2. Bifurcaciones

0.5

0.5   0.5   2  

-­‐2 -­‐2 -­‐1 -­‐1


0
0 1 1 2 2
x  
1.5  
0   0  
-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  

-­‐0.5
1  
-­‐0.5   -­‐0.5  

-­‐1 0.5  
-­‐1   -­‐1  

0  
-­‐1.5 -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  
-­‐1.5   -­‐1.5   r  
-­‐0.5  

-­‐2
-­‐2   -­‐2  
-­‐1  

-­‐2.5
-­‐2.5   -­‐2.5  
-­‐1.5  

-­‐3   -­‐3   -­‐3 -­‐2  

Figura 5.10: Ejemplo de bifurcación trans crı́tica, caso ẋ = rx − x2 . De izquierda a


derecha r < 0, r = 0, r > 0 y diagrama de bifurcación.

5   5   5   1.5  
x  

1  
3   3   3  

0.5  

1   1   1  

0  
-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  
r  
-­‐1   -­‐1   -­‐1  

-­‐0.5  

-­‐3   -­‐3   -­‐3  


-­‐1  

-­‐5   -­‐5   -­‐5   -­‐1.5  

Figura 5.11: Bifurcación tridente ẋ = rx − x3 . Izquierda a derecha r < 0, r = 0, r > 0


y diagrama de bifurcación.

misma ecuación debido a la simetrı́a izquierda-derecha o arriba-abajo o antes-después


del sistema fı́sico. Existen dos tipos de bifurcaciones tridente.

Tridente Supercrı́tica
La forma normal de la bifurcación tridente supercrı́tica es ẋ = rx−x3 . Es claro que la
substitución de x por −x deja invariante la ecuación. La Figura 5.11 ilustra el campo
vectorial para diferentes valores del parámetro r. El origen es el único punto fijo para
r ≤ 0, además se puede ver que en este caso es un punto fijo estable. La bifurcación
ocurre en r = 0, a partir de este valor, para r > 0 aparecen dos nuevos puntos fijos,
simétricos y estables, y el origen, que continúa siendo punto fijo pierde su estabilidad.
La Figura 5.11 también ilustra el diagrama de bifurcación correspondiente.
En el punto de bifurcación, el término lineal se anula y por tanto, las perturbaciones
no decaen exponencialmente, sino a una tasa algebraica mucho más lenta. De hecho,
en este caso la ecuación tiene solución explı́cita, x(t) = x(0)[2tx(0) + 1]−1/2 . Este
fenómeno se conoce como pérdida crı́tica de velocidad, o frenado crı́tico (critical
slowing down), una caracterı́stica tı́pica de las transiciones de fase de segundo orden.
Sobre este tema volveremos en varias ocasiones.
Un ejemplo de este tipo de bifurcación es el sistema ẋ = −x + β tanh x de acuerdo al
parámetro β. En mecánica estadı́stica aparecen ecuaciones similares, también en el
estudio de redes neuronales y magnetismo. Una explicación sobre la razón de que este
sistema pertenezca a esta categorı́a está en la expansión en series de la función tanh,
lo cual conduce, después de un cambio de escala, a los primeros términos de la forma
normal de la bifurcación tridente supercrı́tica indicada antes, con parámetro β − 1.
Otra manera de analizar este sistema es la consideración simultánea de las gráficas de

109
5. Fundamentos Sistemas Dinámicos

1.5   1.5   1.5   4.5  


4   x  
3.5  
1   1   1   3  
2.5  
2  
0.5   0.5   0.5   1.5  
1  
0.5  
0   0   0   0  
-­‐2   -­‐1   -­‐1   0   1   1   2   -­‐2   -­‐1   -­‐1   0   1   1   2   -­‐2   -­‐1   -­‐1   0   1   1   2   0   1   1   2   2   3   3   4   4  
-­‐0.5   β  
-­‐1  
-­‐0.5   -­‐0.5   -­‐0.5   -­‐1.5  
-­‐2  
-­‐2.5  
-­‐1   -­‐1   -­‐1   -­‐3  
-­‐3.5  
-­‐4  
-­‐1.5   -­‐1.5   -­‐1.5   -­‐4.5  

Figura 5.12: Bifurcación tridente ẋ = −x+β tanh x. Izquierda a derecha β < 1, β = 1,


β > 1 y diagrama de bifurcación.

5   5   5   1.5  
x  

1  
3   3   3  

0.5  

1   1   1  

0  
-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  
r  
-­‐1   -­‐1   -­‐1  

-­‐0.5  

-­‐3   -­‐3   -­‐3  


-­‐1  

-­‐5   -­‐5   -­‐5   -­‐1.5  

Figura 5.13: Bifurcación tridente subcrı́tica, ẋ = rx + x3 . Izquierda a derecha r < 0,


r = 0, r > 0 y diagrama de bifurcación.

y = x y y = β tanh x. Los puntos de intersección son los puntos fijos del sistema. La
pendiente en el origen aumenta con β, las dos gráficas son tangentes cuando β = 1,
para valores β > 1 aparecen dos nuevos puntos fijos, simétricos y estables. Para trazar
el diagrama de bifurcación (Figura 5.12) en lugar de tratar de resolver la ecuación
trascendental x = β tanh x, se expresa β en términos de x, aunque en la gráfica x
juegue el papel de variable dependiente.

Tridente Subcrı́tico
La forma normal para este tipo de bifurcación es ẋ = rx + x3 . En comparación
con el anterior cambia el signo del término cúbico. Allá el término cúbico era una
especie de fuerza restauradora, que estabiliza el sistema. En este caso es un término
desestabilizador. La Figura 5.13 representa el campo vectorial para diferentes valores
del parámetro r y el correspondiente diagrama
√ de bifurcación. En este caso el tridente
está invertido, los puntos fijos x∗ = ± −r son inestables, y existen sólo debajo de la
bifurcación, de allı́ el término subcrı́tico. Más interesante es la estabilidad del origen,
estable para r < 0 e inestable para r > 0. De hecho, para este último caso el término
cúbico conduce a la explosión del sistema, que tiende a ±∞ en un tiempo finito.
En sistemas reales, tal explosión es opuesta por la influencia estabilizadora de otros
términos. Si nos mantenemos en el ámbito de los sistemas simétricos, el ejemplo es un
sistema ẋ = rx + x3 − x5 , cuyo diagrama de bifurcación se ilustra en la Figura 5.14.
para valores de x cercanos al origen el diagrama es semejante al anterior, el origen es
localmente estable para r < 0, y aparecen dos ramas inestables que se bifurcan hacia
atrás del origen cuando r = 0, lo nuevo que introduce el término de orden 5 es que
estas ramas inestables se doblan y regresan para un valor r = rs < 0, a partir del
cual son estables. Estas ramas estables existen para r > rs , y en el rango rs < r < 0

110
5.2. Bifurcaciones

x   x  
1.1   1.1  

0.6   0.6  

0.1   0.1  

0   0   0   0  
r   r  
-­‐0.4   -­‐0.4  

-­‐0.9   -­‐0.9  

-­‐1.4   -­‐1.4  

Figura 5.14: Diagrama de bifurcación para ẋ = rx + x3 − x5 , a la derecha esquema


de la histéresis

coexisten con el origen, que también es estable. La condición inicial determina el


punto fijo final al cual se acerque el sistema para t → ∞. Por esto se usó el término
localmente estable, pues el origen es estable ante perturbaciones pequeñas, pero no
es globalmente estable.
Otra caracterı́stica interesante de este sistema es la posibilidad de histéresis, como se
ilustra en la Figura 5.14. Suponga que se inicia el sistema con x = 0 y gradualmente
se incrementa el valor del parámetro r, tal y como ilustran las flechas de la figura.
Cuando se llega al valor r = 0 el origen pierde estabilidad, la más mı́nima perturbación
hace que el sistema salte a una de las ramas de mayor amplitud. Con incrementos
posteriores, el punto fijo sigue a lo largo de tal rama. Ahora, si se procede a disminuir
el valor del parámetro r, el estado permanece sobre la rama de mayor amplitud,
incluso para valores negativos de r. Se requiere disminuir todavı́a más r por debajo
de rs para que el sistema salte nuevamente al origen. Dos caracterı́sticas importantes
de estos sistemas no lineales son los saltos y la falta de reversibilidad. Esto último es
lo que da origen al nombre de histéresis. Las bifurcaciones en r = rs corresponden a
bifurcaciones de ensilladura.

Catástrofes
Como se mencionó, la simetrı́a juega un papel importante en las bifurcaciones de
tenedor, pero en los problemas reales la simetrı́a es únicamente aproximada. Para
poner un ejemplo, cualquier imperfección lleva a que haya diferencias entre el lado
derecho y el izquierdo de un sistema. En esta sección se mira a este tema mediante
el estudio del sistema
ẋ = h + rx − x3

Si h = 0 se tiene el caso de la bifurcación supercrı́tica y hay simetrı́a perfecta entre x


y −x. La simetrı́a se rompe si h 6= 0. Hay un grado de dificultad nuevo en el análisis
porque se tienen dos parámetros independientes r y h. Para esto se piensa que uno
de ellos es fijo, digamos r, y se analiza el efecto de variar el otro. Aunque las raı́ces
de la ecuación cúbica se pueden expresar explı́citamente para encontrar los puntos
fijos del sistema, es más intuitivo un enfoque gráfico, se representan simultáneamente
y = rx − x3 y y = −h, las intersecciones corresponden a los puntos fijos, esto se ve
en la Figura 5.15. Cuando r ≤ 0 la cúbica es monotónicamente decreciente y por lo

111
5. Fundamentos Sistemas Dinámicos

3   3  
h>|hc|  

y=-­‐h   h=|hc|  

1   1  

h<|hc|  

-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  

-­‐1   -­‐1  

-­‐3   -­‐3  

Figura 5.15: Puntos fijos del sistema ẋ = h + rx − x3 . La lı́nea continua representa a


y = rx − x3 y las léneas a trazos y = −h. A la izquierda se presenta el caso r ≤ 0 y
a la derecha r > 0 cuando hay pérdida de simetrı́a

tanto, intercepta la lı́nea horizontal y = −h en exactamente un punto (Figura 5.15a).


El caso cuando r > 0 es más interesante, pues puede haber uno, dos o tres puntos de
intersección, dependiendo del valor de h.
El caso crı́tico ocurre cuando la lı́nea horizontal es justamente tangente al mı́nimo
o máximo local de la cúbica. En esos casos se tiene una bifurcación de ensilladura.
d
En estos puntos de extremos locales se cumple ddx (rx − x3 ) = r − 3x2 = 0. Por
p
tanto, xmáx,mı́n =
p± r/3 y las bifurcaciones de ensilladura ocurren para h = ±hc ,
con hc = (2r/3) r/3. Para resumir toda esta información, se presentan las curvas
de bifurcación en un plano (r, h) en la Figura 5.16. Las dos ramas se encuentran
tangencialmente en el origen en una cúspide.

h  

0.7  

1  punto  fijo   3  puntos  fijos  


 
-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2  
r  

-­‐1.3  

3
Figura 5.16:
p r Diagrama de bifurcación del sistema ẋ = h+rx−x , que tiene dos ramas
2r
h = ± 3 3 que se cortan en una cúspide en el origen

Es posible representar estos resultados usando los diagramas de bifurcación (X ∗ vs. r)


que se habı́an empleado antes. En la Figura 5.17 se presentan dos casos para valores
fijos de h. Cuando h = 0 se tiene el tridente clásico. Pero cuando h 6= 0 el tridente
se desconecta en dos ramas. La superior consiste totalmente de puntos fijos estables,
mientras que la inferior tiene un tramo inestable y otro estable. A medida que r se
incrementa desde valores negativos no hay más una transición brusca en r = 0. El
punto fijo se desliza suavemente a lo largo de la rama superior. La rama inferior es

112
5.2. Bifurcaciones

inaccesible, excepto si se le hace una perturbación de amplitud mayor al sistema.


1.5   4   1.5   1.5  
x   x3.5     x   x  
3  
1   1   1  
2.5  

2  

1.5  
0.5   0.5   0.5  
1  

0.5   r   h   h  
0   0   0   0  
-­‐2   -­‐2   -­‐1   -­‐1   0   1   1   2   2   -­‐20   -­‐15   -­‐10   -­‐5   0   5   10   15   20   -­‐1   0   0   -­‐1   0   0  
r   -­‐0.5  

-­‐1  
-­‐0.5   -­‐0.5   -­‐0.5  
-­‐1.5  

-­‐2  

-­‐2.5  
-­‐1   -­‐1   -­‐1  
-­‐3  

-­‐3.5  

-­‐1.5   -­‐4   -­‐1.5   -­‐1.5  

Figura 5.17: Sistema ẋ = h + rx − x3 . Diagrama de Bifurcación x∗ vs. r para h fijo.


Primero a la izquierda con h = 0, luego a la derecha con h 6= 0. Más a la derecha
diagrama de Bifurcación x∗ vs. h para r fijo, con r < 0 y por último con r > 0.

Alternativamente, se puede representar el diagrama de bifurcación (X ∗ vs. h) para


valores fijos de r (Figura 5.17). Cuando r ≤ 0 hay un único punto fijo para cada h.
Sin embargo, para r > 0 hay tres puntos fijos cuando |h| < hc (r), exactamente uno
cuando |h| > hc (r), y dos para el caso de igualdad. En el caso triple, la rama del
medio es inestable y la superior y la inferior son estables.
Hay por último otra manera de representar esto usando una gráfica tridimensional
de x∗ como función de (r, h) (Figura 5.18). Todas las demás gráficas son o secciones
o proyecciones de esta. Esta superficie se conoce como la catástrofe en cúspide. La
superficie se dobla en sı́ misma en ciertos lugares, en los casos trivaluados. El término
catástrofe viene de analizar lo que ocurre cuando los parámetros cambian a lo largo
de una lı́nea que cruce la superficie superior, llegue al pliegue y bruscamente cae a
la rama inferior. Este salto catastrófico puede tener consecuencias de este estilo en
aplicaciones prácticas. Por ejemplo, en diseño de ingenierı́a, o en comportamiento de
la bolsa de valores, o de sociedades.

x x

h
h
r
r

Figura 5.18: Diagrama de bifurcación tridimensional para el sistema ẋ = h + rx − x3


y superficie de Catástrofe, tomada de Strogatz (2014, f. 3.6.6)

113
5. Fundamentos Sistemas Dinámicos

5.3. Formalización de Bifurcaciones


El teorema de la función implı́cita es fundamental para entender las bifurcaciones.
Considere el sistema ẋ = f (x; r). En un punto fijo x = x0 , para un valor particular
del parámetro r = r0 , se tiene f (x0 , r0 ) = 0. Ahora, ¿cuándo es (x0 ; r0 ) un punto de
bifurcación? Una condición necesaria es que fx (x0 ; r0 ) = 0, porque de lo contrario
el teorema de la función implı́cita garantiza unicidad de la solución de la ecuación
f (x; r) = 0 para x en términos de r, en la vecindad del punto. Note la notación
la derivada con el subı́ndice, es decir, gx (x, y, z) es la derivada con respecto a x de
la función de tres variables g, esta notación permite indicar el punto en el cual se
calcula la derivada. La unicidad garantiza que no se destruyen ni crean puntos fijos.
Por tal motivo iniciamos con el teorema de la función implı́cita, enunciado sin prueba
(consultar cualquier libro de cálculo). A continuación, se definen los puntos regulares
y singulares y se considera la expansión alrededor de los puntos singulares, que son
los interesantes, desde el punto de vista de bifurcaciones.

Conceptos básicos
Teorema de la Función Implı́cita

Teorema 5.3.1 (Teorema de la Función Implı́cita). Sea f (µ, u) una función con-
tinuamente diferenciable en alguna región abierta U del plano µu que contiene a
(µ0 , u0 ). Si f (µ0 , u0 ) = 0 y fu (µ0 , u0 ) 6= 0, entonces existe un rectángulo S =
{(µ, u) ∈ U : |µ − µ0 | < a, |u − u0 | < b} tal que la ecuación f (µ, u) = 0 tiene
una única solución u = u(µ) en S, esta función es continuamente diferenciable en
|µ − µ0 | < a y su derivada es

du fµ (µ, u(µ))
=−
dµ fu (µ, u(µ))

Claramente el teorema es simétrico, si fµ (µ0 , u0 ) 6= 0 entonces se puede despejar


µ = µ(u) y su derivada es
dµ fu (µ(u), u)
=−
du fµ (µ(u), u))

Puntos Regulares y Singulares

Definición 5.3.1. Si f tiene derivadas parciales continuas hasta orden 3 en la


vecindad de un punto P0 = (µ0 , u0 ), dicho punto es un Punto Regular del lugar
f = 0, si f (P0 ) = 0 y si una de las dos derivadas parciales no es cero, es decir, si o
fu (µ0 , u0 ) 6= 0, o fµ (µ0 , u0 ) 6= 0.

Por tanto, de acuerdo al teorema de función implı́cita, por un punto regular pasa una
única curva, u = u(µ) o µ = µ(u).

Definición 5.3.2. Si P0 = (µ0 , u0 ) es un Punto Singular si no es regular, es decir,


si f (P0 ) = fu (µ0 , u0 ) = fµ (µ0 , u0 ) = 0.

114
5.3. Formalización de Bifurcaciones

El comportamiento en un punto singular debe ser anómalo, no sólo por el nombre,


sino porque ambas fracciones en las expresiones de las derivadas son indeterminadas,
de la forma 0/0. Es necesario por tanto, un estudio sistemático del comportamiento
de la función cerca a estos puntos. Para esto usamos el teorema de L’Hôpital y la
serie de Taylor, asumiendo que las derivadas parciales de segundo orden no se anulan
simultáneamente.

Expansión Alrededor de un Punto Singular


Sea un punto singular P0 = (µ0 , u0 ) y P = (µ, u) un punto cercano, con ∆µ =
µ − µ0 , ∆u = u − u0 . Entonces la expansión en serie de Taylor de f alrededor del
punto singular es

f (P ) = 21 (fµµ (P0 )∆µ2 + 2fµu (P0 )∆µ∆u + fuu (P0 )∆u2 ) + o(∆µ2 + ∆u2 ).

En el lı́mite, cuando ∆µ y ∆u tienden a cero,

fµµ (P0 ) dµ2 + 2fµu (P0 ) dµ du + fuu (P0 ) du2 = 0,

lo que define una relación entre los diferenciales dµ y du a lo largo de cualquier curva
f (µ, u) = 0 por P0 . Esta relación se puede interpretar como una ecuación cuadrática
du
para dµ (dividiendo por dµ2 ).
2
Si el discriminante D = fµu (P0 ) − fuu (P0 )fµµ (P0 ) es positivo, hay dos raı́ces reales y
el punto singular P0 se denomina Punto Doble. En este caso la solución de la ecuación
cuadrática es s s
du fµu D dµ fµu D
=− ± 2
, o =− ± 2
, (5.2)
dµ fuu fuu du fµµ fµµ

que corresponden a las pendientes de las tangentes de las curvas de bifurcación en el


punto doble. Se va a mostrar en el Lema 5.3.2 que cuando D > 0 sólo hay dos casos
posibles. Por otro lado, si D < 0, entonces no hay tangentes reales y P0 es un Punto
Aislado; y si D = 0, entonces al menos dos curvas que pasan por P0 tienen la misma
tangente.

Ejemplos

Ejemplo 5.3.1 (Lemniscata). Considere la lemniscata f (µ, u) = (µ2 + u2 )2 − 2(µ2 −


u2 ) = 0 que se ve en la parte izquierda de la Figura 5.19. Claramente en el origen
f = fµ = fu = 0, además D > 0. Por lo tanto, el origen es un punto doble por el que
pasan dos ramas con diferentes tangentes. Todos los demás puntos son regulares.

Ejemplo 5.3.2 (Cúspide). Considere la función f (µ, u) = u3 − µ2 = 0 que se ve en


la parte derecha de la Figura 5.19. Claramente en el origen f = fµ = fu = 0, además
D = 0. Por lo tanto, por el origen pasan dos ramas con la misma tangente vertical.
Este punto se denomina una cúspide.

115
5. Fundamentos Sistemas Dinámicos

0.8  
u  

u  
2  

0.4  

0  
-­‐2   -­‐1   1   2  

μ   1  

-­‐0.4  

-­‐0.8   0  
-­‐4   -­‐3   -­‐2   -­‐1   0   1   2   3   4  
μ  

Figura 5.19: Lemniscata (izquierda) y cúspide (derecha)

Ejemplo 5.3.3 (Punto aislado). Considere el lugar f (µ, u) = u2 + µ2 = 0. El origen


es un punto aislado con D < 0.

Existen puntos singulares de orden mayor para los cuales la función y las derivadas
parciales de orden 1 y 2 son todas cero.

Tangentes en Puntos Dobles

Lema 5.3.2. Sea P0 un punto doble de f (µ, u) = 0, entonces o bien fµµ (P0 ) 6= 0 y
las dos tangentes están dadas por la segunda ecuación en (5.2), o fµµ (P0 ) = 0 y las
dos tangentes en P0 son dµ du
= 0 y dµ fuu
du = − 2fuµ . Para el caso fuu 6= 0 se tiene un
resultado simétrico.

Demostración. Por definición D > 0. Si fµµ (P0 ) 6= 0 el resultado se obtiene de la


aplicación de la serie de Taylor ya presentada. Si fµµ (P0 ) = 0, entonces fuµ (P0 ) 6= 0
pues D > 0. En este caso el polinomio cuadrático es du(fuu du + 2fuµ dµ) = 0, de
donde se obtiene el resultado.

Intercambio de Estabilidad
En un punto de quiebre puede intercambiarse la estabilidad.

Definición 5.3.3 (Punto de Quiebre). Un punto regular P0 es un punto de quiebre


(turning point) con respecto al parámetro µ si fµ 6= 0 y dµ
du cambia de signo en P0

Con respecto al cambio de estabilidad interesa investigar los puntos dobles y los
puntos de quiebre.

Ejemplo 5.3.4 (Punto de quiebre). La función f (µ, u) = (1 + u2 − µ)(µ2 − 9u2 ) tiene


como puntos de equilibrio las tres curvas µ1 = 1 + u2 , µ2 = 3u, y µ3 = −3u. Todos
los puntos son regulares, excepto el origen (A en la Figura 5.20), las intersecciones
B, E, entre las curvas µ1 y µ2 ; y C, F entre las curvas µ1 y µ3 . Estos cuatro puntos
son puntos dobles. Además, D = (1, 0), el vértice de la parábola µ1 , es un punto de
quiebre.

116
5.3. Formalización de Bifurcaciones

4  
u  
3  

2   E  

1  
B  

-­‐5  
0  
0  
D   5   10  
A   μ  
-­‐1   C  

-­‐2  
F  
-­‐3  

-­‐4  

Figura 5.20: Ejemplo punto de quiebre

Teorema 5.3.3 (Cambio de Estabilidad en Punto de Quiebre). Sea P0 = (u0 , µ0 ) un


punto de quiebre regular del lugar f (u, µ) = 0, entonces los puntos fijos del sistema
dinámico u̇ = du
dt = f (u, µ) son estables en un lado de P0 e inestables en el otro.

Demostración. Claramente u0 es un punto fijo. Según el análisis lineal, la estabilidad


depende del signo de α0 = fu (u, µ(u)). De acuerdo a la expresión para la tangente
de un punto regular se tiene α0 = fu (u, µ(u)) = −fµ (u, µ(u)) dµ
du . Por hipótesis fµ no
pasa por cero en P0 , luego α0 cambia de signo al cruzar el punto de quiebre, debido
al cambio de signo de dµdu

Cambio de Estabilidad en Puntos Dobles


Según el Lema, hay dos casos posibles de puntos dobles
Caso 1: hay dos curvas con tangente diferente de 0, µ = µ1 (u) y µ = µ2 (u). Las
tangentes vienen dadas según expresión (5.2)
Caso 2: una de las curvas u = u1 (µ) tiene pendiente du
dµ = 0 en P0 , y la otra es
1

dµ2
µ = µ2 (u) con pendiente du = −fuu /2fuµ
Teorema 5.3.4 (Caso 1). Si P0 es un punto doble con fµµ 6= 0, entonces los paráme-
tros lineales α1 (u) y α2 (u) para determinar la estabilidad para las curvas µ = µ1 (µ)
y µ = µ2 (u), son respectivamente
dµ1 √
α1 (u) = − (u)[sgnfµµ (P0 ) D(u − u0 ) + o(|u − u0 |)]
du
dµ2 √
α2 (u) = (u)[sgnfµµ (P0 ) D(u − u0 ) + o(|u − u0 |)]
du
Teorema 5.3.5 (Caso 2). Si P0 es un punto doble con fµµ = 0, entonces los paráme-
tros lineales α1 (µ) y α2 (u) para determinar la estabilidad para las curvas u = u1 (µ)
y µ = µ2 (u), son respectivamente

α1 (µ) = sgnfuµ (P0 ) D(µ − µ0 ) + o(|µ − µ0 |)

117
5. Fundamentos Sistemas Dinámicos

2   2.4  
u   u  
2  
μ2  =u2+μc      
1.6   μ  =μ+(u)      
1.6  
 
  1.2  

0.8  

1.2  
0.4  
u1=0    
0  
-­‐2   -­‐1   1   2   3   4   5  

0.8  
-­‐0.4   μ  
μ  =μ-­‐(u)     -­‐0.8  

-­‐1.2  
0.4  
-­‐1.6  

μ   -­‐2  

0   -­‐2.4  
0   1   2   3  

Figura 5.21: Izquierda: Ejemplo intercambio de estabilidad en punto doble. Suponga


que fµµ < 0. Derecha: Ejemplo 5.3.5, puntos dobles.

dµ2 √
α2 (u) = −sgnfuµ (P0 ) (u)[ D(u − u0 ) + o(|u − u0 |)]
du

La interpretación es la siguiente, en el Caso 1, cuando |u − u0 | es pequeño, α1 y α2


tienen el mismo signo si dµ1 / du y dµ2 / du tienen signos opuestos. Y tienen signos
diferentes si las tangentes tienen el mismo signo. Luego las pendientes en el punto
doble determinan el cambio de estabilidad. Como ilustración ver lado izquierdo de la
Figura 5.21.

Ejemplo 5.3.5. u̇ = f (u, µ) = (µ − µc )u − u3 . Los puntos fijos están en u1 (µ) = 0


y µ2 (u) = u2 + µc . El punto Pc = (0, µc ) es un punto doble. De hecho, fu = µ −
µc − 3u2 , fuu = −6u, fµ = u, fµµ = 0, y fuµ = 1. En Pc se tiene f = fu = fµ =
fuu = fµµ = 0, pero fuµ 6= 0 y D = 1. De acuerdo al Lema, las dos tangentes
son du1 / dµ = 0 y dµ2 / du = −fuu /(2fuµ ) = 0. Los parámetros de estabilidad son
2
α1 (µ) = µ − µc + o(|µ − µc |) y α2 (u) = − d(u du
+µc )
[u + o(|u|)]. El lado derecho de la
Figura 5.21 ilustra el diagrama de estabilidad.

5.4. Flujos en el cı́rculo


Hasta ahora en este capı́tulo las ecuaciones que se han considerado son en la lı́nea
real, en esta sección se van a considerar ecuaciones unidimensionales en el cı́rculo,
algunas veces también llamadas ecuaciones de fase (ver Secciones fci-4.4 y 6.6 para
enfoques complementarios),
θ̇ = f (θ),
que corresponden a un campo vectorial en el cı́rculo. Es decir, θ es un punto en el
cı́rculo, y θ̇ es el vector velocidad en ese punto. Aparentemente no hay nada nuevo,
pero el hecho de que el cı́rculo sea cerrado da origen a periodicidad, un fenómeno muy
importante. Realmente en una dimensión sólo es posible el comportamiento periódico
si el espacio es periódico.
Matemáticamente el carácter cerrado del cı́rculo se puede representar de dos maneras,
una tomando operaciones reales módulo 2π. También es posible trabajar en el cı́rculo
unitario del plano complejo (r = 1).

118
5.4. Flujos en el cı́rculo

Note que esto impone restricciones en los tipos de funciones f que se pueden conside-
rar, por ejemplo θ̇ = θ no puede interpretarse como un campo vectorial en el cı́rculo
para −∞ < θ < ∞, pues hay lugar a un doble valor de la velocidad en θ = 0 y θ = 2π
que realmente son el mismo punto; el primer valor indica una velocidad 0 y el segundo
2π. El problema no se arregla con restringir el dominio, por ejemplo a −π < θ ≤ π,
pues aparecen discontinuidades en la velocidad. En la lı́nea no hay ningún problema
con este campo vectorial. El problema se resuelve si sólo se aceptan funciones con
perı́odo 2π, es decir, para las cuales f (θ + 2π) = f (θ) para todo real θ. Además, se
asumen otras propiedades de suavidad de la función f para garantizar existencia y
unicidad de la solución.

Oscilador Uniforme
El ejemplo más elemental es en el que el cambio de la fase es uniforme, θ̇ = ω, donde
ω es una constante. La solución es θ(t) = ωt + θ0 , que corresponde a un movimiento
uniforme alrededor del cı́rculo con una frecuencia angular ω y un perı́odo constante
T = 2π/ω. En este ejemplo no hay amplitud, para lo cual habrı́a que pasar a varias
dimensiones.
Una variante es considerar dos osciladores aislados θ1 y θ2 con frecuencias diferentes
ω1 y ω2 . Si empiezan igualados, la diferencia φ = θ1 −θ2 puede emplearse para estudiar
el tiempo hasta la próxima igualación. El perı́odo de φ es

2π 1
T = = 1 1 .
ω1 − ω2 T1 − T2

Oscilador No—uniforme
La ecuación
θ̇ = ω − a sen θ
se encuentra en varios campos de aplicación, en el fenómeno de enfasamiento en
electrónica, en biologı́a en el estudio de las oscilaciones de neuronas, en los ciclos
biológicos del sueño, en el comportamiento acompasado de las luciérnagas en algu-
nas regiones. También se encuentra en fı́sica de materia condensada en las llamadas
oscilaciones de Josephson y en el estudio de péndulos sobre amortiguados. Se va a
asumir que ω > 0 y que a ≥ 0. La Figura 5.22 ilustra el campo vectorial. Note que ω
corresponde a la media de la velocidad y a a su amplitud.
Si a = 0 el oscilador es uniforme. El parámetro a se puede interpretar como una
medida del grado de no-uniformidad. El flujo es más rápido en θ = −π/2 = 3π/2 y
más lento en θ = π/2. A medida que a se incrementa la no-uniformidad también se
acentúa. Cuando a es ligeramente menor que ω se crea un cuello de botella cerca a
θ = π/2, mientras que en el resto del cı́rculo el flujo es bastante más rápido. Cuando
a = ω el sistema deja de oscilar completamente y aparece un punto fijo semi estable en
θ = π/2 mediante una bifurcación de ensilladura. Cuando a > ω, el punto semi estable
se bifurca en dos puntos fijos, uno estable y otro inestable y todas las trayectorias
llevan al punto fijo estable.

119
5. Fundamentos Sistemas Dinámicos


π/2
Paso lento por
este cuello de botella

(a) a<ω (b) a<ω (c) a<ω

Lento Ꝋ = π/2

Rápido

(a) a<ω (b) a<ω (c) a<ω

Figura 5.22: Diagrama de fase y angular para el oscilador no-uniforme

120
5.4. Flujos en el cı́rculo

2 π/
a

Figura 5.23: Perı́odo de un oscilador no-uniforme

La estabilidad de los puntos fijos se puede estudiar mediante el análisis lineal. Cla-

ramente los puntos fijos
psatisfacen sen θ = ω/a y el parámetro de estabilidad es
0 ∗ ∗ 2
f (θ ) = −a cos θ = ∓ 1 − (ω/a) . Por lo tanto, el punto fijo estable es aquel con
cos θ∗ > 0, como se confirma en la Figura 5.22.
El perı́odo se puede encontrar analı́ticamente, mediante

dθ 2π
Z Z
T = dt = =√ .
0 ω − a sen θ ω − a2
2

La integral se resuelve con la substitución u = tan θ/2. Se puede mostrar que cuando
a → ω − se tiene r r
2 1
T 'π .
ω ω−a
es decir, T diverge como (ac − a)−1/2 , con ac = ω.
Para el caso de a = ω + , con  > 0 pero muy pequeño, se siente un fantasma del
cuello de botella (ver Figura 5.24). Se puede derivar una ley de escala general para el
tiempo requerido para pasar el cuello de botella. Lo que realmente interesa es lo que
ocurre cerca al mı́nimo de f , pues el tiempo que el sistema permanece allı́ es mucho
mayor que en el resto. Cerca al mı́nimo, toda función es bien aproximada por una
parábola (bifurcación de ensilladura), es decir, ẋ = r + x2 , con 0 < r << 1. Lo que
conduce a
dx
Z
Tc ≈ ≈ r−1/2 .
r + x2

Sincronización de Luciérnagas
En la naturaleza hay más de un ejemplo de sincronización. Parece que la primera
observación sistemática se debe a Christian Huygens (1629-95) en una carta a su
padre del 26 de febrero de 1665 (Huygens 1888, Vol. 5, p. 243). Al cientı́fico holandés
le debemos entre muchas otras cosas el invento del reloj de péndulo. Precisamente
en el reporte indica que observó que dos de estos relojes colgados mediante ganchos
de una misma viga de madera entraban en sincronı́a: “Es muy interesante que los
movimientos de los dos péndulos en oscilación opuesta están tan de acuerdo que
nunca se atrasan en lo más mı́nimo el uno con respecto al otro y los sonidos de los

121
5. Fundamentos Sistemas Dinámicos


Tcuello de botella


t
Fantasma de un
cuello de botella

Figura 5.24: Cuello de botella en el oscilador no-uniforme

dos se oyen en simultánea. Además, si uno perturba este acuerdo, se restablece por
sı́ mismo en corto tiempo. Por mucho tiempo estuve sorprendido de este resultado
inesperado, pero después de examinar cuidadosamente finalmente encontré la causa,
que se debe al movimiento de la viga, aunque sea tan leve que casi no es perceptible”.
La Figura 5.25 reproduce la ilustración original del mismo Huygens.
Otro ejemplo muy citado es la rotación sincrónica frecuente en astronomı́a, que co-
rresponde al caso en el cual un cuerpo que orbita a otro tarda lo mismo en completar
un giro que lo que tarda en rotar sobre su eje, y por lo tanto, siempre deja el mismo
hemisferio de cara al cuerpo alrededor del cual orbita, como ocurre con nuestra Luna.
La explicación está en la marea y por esto también se denomina enfasamiento por
marea. También es frecuente que la relación entre el perı́odo rotacional y el perı́odo
orbital, aunque bien definida, sea diferente de 1 : 1. Un ejemplo bien conocido es la
rotación de Mercurio alrededor del Sol, que está en resonancia de marea en relación
3 : 2.
Otras observaciones interesantes sobre fenómenos no—lineales de sincronización en
tubos en órganos fueron hechas por Lord Rayleigh (1842–1919) en su “Teorı́a del
Sonido” (Rayleigh 1945). Sin embargo, la explicación de este fenómeno requiere temas
avanzados, y sólo se dio con los trabajos de Appleton y Van der Pol (1921). El caso
de las luciérnagas es un primer ejemplo interesante, pero volveremos sobre el tema
varias veces.
En algunas regiones, en particular en el Sureste de Asia, miles de luciérnagas macho
se ubican en los árboles al atardecer y encienden y apagan sus luces al unı́sono,
mientras las hembras vuelan por encima para escoger su pareja, probablemente a la
que más alumbre. Los machos no inician sincronizados, pero por la influencia de unos
sobre los otros la sincronı́a se desarrolla y refuerza. Cuando uno ve la oscilación de
los otros acelera o frena tratando de entrar en sincronı́a en el próximo ciclo. Se ha

122
5.4. Flujos en el cı́rculo

Figura 5.25: Reproducción de la ilustración original de Huygens acerca de la sincro-


nización de dos relojes de péndulo

estudiado experimentalmente, con osciladores mecánicos de frecuencia controlada y


se ha establecido que las luciérnagas son capaces de sincronizarse cuando la frecuencia
es cercana a su frecuencia natural, que es aproximadamente 0,9 ciclos por segundo.
En este caso se dice que la luciérnaga se encarriló a la frecuencia del estı́mulo. Si
la diferencia es mayor, o muy rápido o muy lenta, la luciérnaga trata pero no logra
encarrilar su oscilación. En estos casos resulta algo parecido a un latido, pero la
diferencia entre las fases no se incrementa uniformemente, sino que crece primero
lentamente mientras la luciérnaga trata, de acoplarse al estı́mulo, y luego crece más
rápido hasta la próxima oscilación. Esto se conoce como deriva de fase. En J. Buck
y E. Buck (1976), J. Buck (1988), Mirollo y Strogatz (1990), Ermentrout (1991),
Strogatz (1994) y Strogatz (2000) se puede consultar mayores detalles.
Un modelo simple para describir el comportamiento de las luciérnagas es el siguiente.
En ausencia de estı́mulo la dinámica de encendido y apagado se describe por θ̇ = ω,
donde θ es la fase de la oscilación, el momento de encendido corresponde a θ = 0, y ω
es la frecuencia natural. El estı́mulo periódico, correspondiente al resto de luciérnagas
se representa por Θ̇ = Ω. En presencia del estı́mulo la luciérnaga trata de acomodarse,
lo que se describe agregando un término sinusoidal, θ̇ = ω+A sen(Θ−θ). El parámetro
A > 0 mide la habilidad para modificar la frecuencia. Por ejemplo, si el estı́mulo está
adelantado 0 < Θ − θ < π, la luciérnaga trata de alcanzarlo, θ̇ > 0. Para estudiar la
sincronización es conveniente mirar la dinámica de la diferencia de fases φ = Θ − θ.
Por lo tanto, la ecuación que describe el sistema es

φ0 = Ω − ω − A sen φ.

Reescalando el tiempo con τ = At y agrupando parámetros µ = (Ω − ω)/A se tiene

φ0 = µ − sen φ,

123
5. Fundamentos Sistemas Dinámicos

(a) =0 (b) <1 (c) >1

Figura 5.26: Campo vectorial del problema de sincronización de luciérnagas, φ̇ =


µ − sen φ, para diferentes valores del parámetro µ.

donde φ0 es la derivada de φ con respecto a τ . La Figura 5.26 ilustra el campo


vectorial para diferentes valores del parámetro µ, que se interpreta como una medida
de la diferencia de frecuencias relativa a la habilidad para modificar la frecuencia.
Para µ = 0 la luciérnaga está en fase, φ = 0 es un punto fijo estable. Para valores
pequeños de µ, las frecuencias están relativamente cercanas y se espera que sea posible
el enfasamiento. La Figura 5.26 confirma esta expectativa. Para valores más grandes
de µ el encarrilamiento ya no es posible.
El análisis de estabilidad confirma que para 0 < µ < 1 hay un punto fijo φ∗ > 0
estable, lo que significa que aunque el estı́mulo y la luciérnaga no están al unı́sono,
oscilan con la misma frecuencia instantánea y la diferencia de fases tiende a una
constante positiva, lo que se describe con el término de enfasamiento (phase looking
en inglés). El estı́mulo está adelantado con respecto a la luciérnaga, pero está no logra
alcanzar, hace el esfuerzo, pero se mantiene una diferencia constante.
Si se continúa aumentando µ, el punto fijo estable eventualmente se junta con el
inestable a la derecha. La bifurcación de ensilladura ocurre para µ = 1. Para µ > 1
los dos puntos fijos han desaparecido y ya no hay enfasamiento. La diferencia de fases
crece indefinidamente, se tiene una deriva de fases. El crecimiento de la diferencia no
es uniforme, es menor debajo del mı́nimo de la función seno, en φ = π/2; y aumenta
debajo del máximo en φ = −π/2.
Es interesante notar que el modelo predice que no toda posible combinación de fre-
cuencias conduce a enfasamiento, en términos de las variables originales, hay una re-
gión, denominada región de encarrilado que queda restringida a ω − A < Ω < ω + A,
tal como se ilustra en la Figura 5.27

124
5.5. Aplicaciones

Rango de
encarrilado

W
ω ω ω

Figura 5.27: Rango de encarrilado para el problema de sincronización de luciérnagas

5.5. Aplicaciones

Láser
Una aplicación interesante para ilustrar la bifurcación trans crı́tica es un modelo del
láser de estado sólido presentado por Haken (1983) y reseñado en Strogatz (1994).
La palabra láser es la abreviatura en Inglés de Light Amplification by Stimulated
Emission of Radiation, o amplificación de luz por la emisión estimulada de radiación.
Su descripción requiere fı́sica avanzada, en términos simples es un conjunto de átomos
activos, en una matriz de estado sólido que tiene en los extremos espejos que reflejan
parcialmente y que es excitada por una lámpara común. Los átomos excitados oscilan
independientemente unos de otros y emiten fotones. Si el bombeo es relativamente
débil, cada átomo emite luz con fase aleatoria, el resultado es una lámpara común,
con luz en todas las frecuencias. Pero si se incrementa la potencia del bombeo se
llega eventualmente a un umbral en el cual los átomos empiezan a emitir en fase y la
lámpara se convierte en un láser. En el modelo la variable de estado es el número de
fotones n(t). La ecuación dinámica es una ecuación de conservación, con dos términos,
uno positivo que representa la ganancia y otro negativo que representa la pérdida. La
pérdida corresponde al escape de fotones por los extremos del láser y es proporcional al
número de fotones, con una constante positiva k, cuyo inverso corresponde al tiempo
medio de permanencia de los fotones en el láser. La ganancia se modela como el
producto del número de fotones n, el número de átomos excitados N y una constante
positiva, G, llamada el coeficiente de ganancia. Es decir, ṅ = GnN −kn. La idea fı́sica
importante es la relación entre n y N . Luego de que un átomo excitado emite un fotón,
cae a un nivel de energı́a más bajo y deja de estar excitado. Es decir, N decrece por

125
5. Fundamentos Sistemas Dinámicos

la emisión de fotones. Si en la ausencia de la acción del láser, la lámpara mantiene el


número de átomos excitados en N0 , se puede asumir que N (t) = N0 − αn(t), donde
α es la tasa a la cual los átomos decaen a su estado base. En resumen, el modelo es
ṅ = Gn(N0 − αn) − kn = (GN0 − k)n − (αG)n2 . Por tanto, ocurre una bifurcación
trans crı́tica cuando el parámetro GN0 − k cambia de signo. Si N0 < k/G el único
punto fijo es el origen y es estable (por razones fı́sicas no caben valores negativos de
n). En el punto N0 = k/G ocurre la bifurcación, este valor se conoce como el umbral
del láser, porque de allı́ en adelante, para N0 > k/G el origen pierde la estabilidad
y aparece un nuevo punto fijo estable, n∗ = (GN0 − k)/αG > 0, que corresponde a
la acción espontánea del láser. Este modelo no tiene en cuenta varios detalles fı́sicos
importantes, como la dinámica de los átomos excitados, la posibilidad de emisiones
espontáneas y otras más (Strogatz 1994).

Cuenta Sobre Amortiguada


Una cuenta es una pequeña bola perforada para ensartar en un alambre, collar, pulsera
o camándula y que puede usarse para contar, por ejemplo, las carambolas en el
juego del billar. El ejemplo a considerar es un tı́pico problema de un curso básico
de fı́sica. En el modelo ideal, la cuenta tiene masa m, puede deslizarse en un aro
rı́gido de alambre de radio r que gira a una velocidad angular constante ω alrededor
de la vertical. Sobre la cuenta actúan la gravedad, la fuerza centrı́fuga y una fuerza
de fricción que se opone al movimiento, que la vamos a considerar proviene de una
amortiguación viscosa. Esta última fuerza puede aparecer en problemas reales cuando
hay movimiento al interior de algunos lı́quidos y es una fuerza de frenado proporcional
a la velocidad. Sea φ el ángulo entre el radio que pasa por la cuenta y la vertical hacia
abajo. Por convención el ángulo φ se restringe al rango −π ≤ φ ≤ π, para que cada
posición de la cuenta esté descrita por un único ángulo, es decir, φ = π y φ = −π son
el mismo ángulo y representan la posición superior, la posición inferior es φ = 0.
El modelo de fuerzas es simple, la gravedad es vertical e igual a mg, la fuerza centrı́fu-
ga es horizontal e igual a mρω 2 , con ρ el radio de giro, es decir, la distancia horizontal
entre la cuenta y el eje de rotación. La amortiguación tangencial es bφ̇. Las constan-
tes b y g son positivas. La geometrı́a para calcular la componente tangencial de las
fuerzas es elemental. En particular, se puede ver que ρ = r sen φ, y que la aceleración
tangencial es rφ̈. Lo que resulta en

mrφ̈ = −bφ̇ − mg sen φ + mrω 2 sen φ cos φ, (5.3)

que es una ecuación diferencial de segundo orden. En este Capı́tulo no hemos desarro-
llado las herramientas para considerar este tipo de problemas, por lo que se hace una
aproximación para reducirlo a un problema de orden uno, despreciando el término
mrφ̈. Las condiciones para tal aproximación se discuten extensamente más adelante.
En estas condiciones, el problema de primer orden a analizar es
!
rω 2
bφ̇ = mg sen φ cos φ − 1 ,
g

126
5.5. Aplicaciones

-
0 1 2 3

Figura 5.28: Diagrama de bifurcación para el problema de la cuenta. Aparece un


tridente supercrı́tico además de la posición superior

que tiene por lo menos dos puntos fijos, φ∗1 = 0 en la posición más inferior, y φ∗2 = π en
la más superior. Esto concuerda con la intuición, pero pueden existir otros y además
hay que estudiar la estabilidad. Si rω 2 /g > 1, es decir, si el aro gira suficientemente
rápido, hay otros dos puntos fijos que satisfacen φ∗3,4 = ± arc cos 1/γ, con γ = rω 2 /g.
Estos corresponden a las intersecciones de y = cos φ con y = 1/γ. Claramente la
existencia de estas soluciones adicionales depende de la condición indicada. El análisis
lineal de estabilidad de estos puntos es directo.
En la Figura 5.28 se resume el análisis de los puntos fijos y se puede apreciar que
el correspondiente diagrama de bifurcación corresponde a un tridente supercrı́tico.
La interpretación fı́sica es la siguiente: cuando γ < 1 la fuerza centrı́fuga es más
débil que la fuerza de gravedad y la cuenta se desliza hacia la posición más inferior,
que por tanto, es un punto fijo estable. Cuando γ > 1, el aro está girando a una
velocidad suficiente para que cualquier perturbación con respecto al punto fijo inferior
se amplifique por efecto de la fuerza centrı́fuga. Ahora, esta fuerza es mayor a medida
que la cuenta se aleja de la vertical y eventualmente se equilibra con la gravedad en un
nuevo punto fijo, que corresponde a un ángulo igual a ± arc cos 1/γ. Cuál de los dos
dependerá de la perturbación inicial. La solución tiene menos simetrı́a que la ecuación
y por tal razón se dice que la solución corresponde a una pérdida de simetrı́a. Tanto
la ecuación original como la simplificada son simétricas con respecto a la substitución
φ ↔ −φ, pero ninguna de las dos soluciones φ∗3 = arc cos 1/γ ó φ∗4 = − arc cos 1/γ
es simétrica. Este ejemplo ilustra la afirmación que se hizo acerca de la aparición
de la bifurcación tipo tridente supercrı́tica en casos en los cuales hay simetrı́a en las
ecuaciones.
Para completar este ejemplo es conveniente estudiar la justificación de la aproxima-

127
5. Fundamentos Sistemas Dinámicos

ción en que se incurrió al despreciar el término que contiene la derivada de segundo


orden en la Ecuación 5.3. La primera idea de considerar el lı́mite cuando m → 0 parece
que pudiera funcionar, pero en tal caso también las fuerzas centrı́fugas y la gravedad
tienden a 0. Por lo tanto, el análisis debe ser más cuidadoso. Un enfoque adecuado
es el análisis dimensional (Barenblatt 1996) que permite comparar los términos entre
sı́, para poder decidir más adecuadamente cuáles son grandes y cuáles pequeños en
comparación con la unidad, además permite reunir los parámetros en grupos adimen-
sionales. Para tal fin se procede a definir una escala temporal caracterı́stica, T , a
ser definida más adelante, lo que permite introducir un tiempo adimensional τ = Tt .
Usando la regla de la cadena las derivadas son
1 dφ 1 d2 φ
φ̇ = , y φ̈ = 2 2
T dτ T dτ
que al reemplazarse en la Ecuación 5.3 producen
r dφ b dφ rω 2
2
=− − sen φ + sen φ cos φ.
gT dτ mgT dτ g
Los factores que resultan son adimensionales, en particular el asociado al término
independiente es el factor γ que ya habı́amos encontrado. Por tanto, lo que queremos
2
b
es mgT ≈ O(1), y gTr 2 << 1, que corresponde a T = mgb
y  = gr mg
b << 1. Lo que
se resume en
d2 φ dφ
 2 =− − sen φ + γ sen φ cos φ.
dτ dτ
La aproximación que analizamos corresponde al caso en el cual los términos de la
derecha son de magnitud O(1) y el término de la izquierda es despreciable porque
 → 0, lo que equivale a b2 >> m2 gr. Que fı́sicamente se interpreta como que la
cuenta es sobre amortiguada o que la masa es despreciable, pero de una manera más
precisa, al compararla con la amortiguación.

Epidemia de Insectos
Los abetos en Canadá y la costa Este de los Estados Unidos son infestados por una
peste de gusanos que se alimentan de las yemas y hojas tiernas, y pueden matar
todos los árboles de una zona en cuestión de 4 años. La dinámica de esta infestación
tiene dos escalas de tiempo, una más rápida que corresponde a la vida de los gusanos,
que pueden multiplicar por cinco la densidad en el transcurso de un año, es decir,
que tienen una escala de tiempo caracterı́stica del orden de meses. Por otro lado, los
árboles tienen una vida del orden de 100 a 120 años en ausencia de enfermedades
y tienen capacidad de reemplazar completamente su follaje en un perı́odo de 7 a 10
años. Inicialmente los parámetros del bosque se van a tomar como constantes, pero
luego se va a considerar su variación paramétrica, lo que permite entender el tema
de la infestación. El ejemplo es tomado de Strogatz (1994) que a su vez lo toma de
Ludwig, Jones y Holling (1978).
El modelo propuesto es  
N
Ṅ = RN 1 − − p(N ).
K

128
5.5. Aplicaciones

B p(N)

N
A

Figura 5.29: Tasa de mortalidad de los gusanos del abeto

Su justificación es simple, en ausencia de predadores la población de los gusanos de las


yemas del abeto se asume crece de acuerdo a la ecuación logı́stica, con la capacidad de
soporte proporcional a la cantidad de follaje, que se va a considerar es un parámetro
que varı́a lentamente. El término P (N ) es la tasa de mortalidad que se asume tiene
la forma representada en la Figura 5.29. La principal causa de muerte de los gusanos
es el ataque de predadores, en lo fundamental pájaros. Cuando hay pocos gusanos,
no hay casi predadores, los pájaros buscan la comida en otros lugares. Cuando la
población de gusanos alcanza un cierto valor A, se dispara la presencia de pájaros,
atraı́dos por la abundancia de comida, lo que lleva a que la tasa de mortalidad se
sature en un valor B, que corresponde a la tasa máxima de predación, los pájaros
comen gusanos tan rápido como pueden. Esto se puede representar matemáticamente
mediante p(N ) = BN 2 /(A2 + N 2 ), con A y B dos constantes conocidas y positivas.
En estas condiciones el modelo es

BN 2
 
N
Ṅ = RN 1 − − 2 . (5.4)
K A + N2

En el contexto de este modelo se quiere entender mejor el significado de epidemia. De


alguna manera intuitiva el uso del término indica un aumento rápido de la población
de insectos de un nivel bajo (normal) a uno alto. Pero qué significa bajo, o normal
y alto en este contexto, se quiere que el modelo permita predecir estos valores y las
transiciones. Para tal fin es conveniente reescribir el modelo en forma adimensional.
Tanto K como A tienen unidades de población y cualquiera de las dos pudiera servir
para adimensionalizar N , se escoge A para que el término de la mortalidad no con-
tenga parámetros, que van a quedar en el término logı́stico. Sea x = N/A la nueva
variable dependiente, una población adimensional. Luego el modelo se convierte en

BA2 x2
 
Ax
Aẋ = RAx 1 − − 2 ,
K A + A2 x2

de donde se deduce que si se cambia la escala de tiempo mediante τ = Bt/A y


se reescribe los parámetros r = RA/B como una tasa de crecimiento adimensional
y k = K/A la correspondiente capacidad de soporte adimensional la ecuación se

129
5. Fundamentos Sistemas Dinámicos

simplifica en
x x2
ẋ = rx(1 − )− .
k 1 + x2
Lo primero es reconocer que el origen, x = 0, es un punto fijo independiente de
los valores de los parámetros (x es un factor común de los términos a la derecha
de la ecuación diferencial). Además, el origen es inestable como se puede verificar
calculando el signo de la derivada, lo que se puede interpretar porque la predación es
despreciable y la población de abetos crece exponencialmente de acuerdo al modelo
logı́stico para valores muy pequeños de x.
x
Los otros puntos fijos se encuentran fácilmente mirando a la intersección de y = 1+x 2
x
con la recta y = r(1 − k ) (ver Figura 5.30). El análisis es directo porque la curva
no tiene parámetros, mientras que r y k son respectivamente los interceptos con el
eje y y el eje x de la recta. Se aprecia que cuando k es lo suficientemente pequeña
hay una única intersección independiente del valor de r (lado izquierdo de la Figura
5.30). Para valores mayores de k, se pueden presentar una, dos o tres intersecciones,
dependiendo del valor de r (lado derecho de la Figura 5.30). Si se fija la intersección
con el eje x, es decir, se fija el parámetro k, la variación de r corresponde a una
rotación de la recta. Si se inicia con un valor de r para el cual hay tres intersecciones
(a < b < c) y se decrece r se tiene una rotación anti horaria de la recta, que hace que
las intersecciones b y c se acerquen, hasta que eventualmente se presenta coalescencia
(b = c, lı́nea punteada de la figura), que corresponde a la tangencia. Si r continúa
decreciendo hay sólo una intersección. Esta bifurcación corresponde a la de punto
de ensilladura. De manera semejante, si r se aumenta, también hay coalescencia y
tangencia, a y b se acercan y eventualmente a = b.
La estabilidad para el caso de tres puntos fijos adicionales a x = 0 se deduce por los
métodos indicados. Una manera rápida es considerar que el origen es inestable y que
el signo de la derivada en los puntos fijos alterna de signo. Por lo tanto, x = a y x = c
serán estables, mientras que x = b es inestable (ver Figura 5.31). La interpretación
es que en el caso de tres puntos fijos adicionales se tienen dos poblaciones de gusanos
estables, una baja, que denominan de refugio y otra alta que llaman de infestación o
epidemia. Si los parámetros están fijos, cuál de esto dos estados se alcanza depende
del estado inicial. Habrá infestación si x(0) > b, y el sistema llega al estado de refugio
si x(0) < b. El valor de b corresponde a un umbral que separa los dos regı́menes
estables.
Una epidemia también puede resultar de cambios ambientales que se reflejen en cam-
bios en los parámetros que produzcan una bifurcación. La Figura 5.32 ilustra tanto el
diagrama de bifurcación con cúspide, como la correspondiente superficie catastrófica.
Para el cálculo de estos diagramas se establece además de la condición de intersección
de la curva y la recta de la Figura 5.30, la condición de tangencia, que corresponde
a igualdad de las derivadas −r/k = (1 − x2 )/(1 + x2 )2 . La solución simultánea lleva
a la siguiente representación paramétrica con x > 1 jugando el papel de parámetro
r = 2x3 /(1 + x2 )2 y k = 2x3 /(x2 − 1).

130
5.5. Aplicaciones

r r

x
2
1+ x

x
k x a b c k

Figura 5.30: Esquema para cálculo de los puntos fijos en el problema de los gusanos
x2
y abetos, sistema ẋ = rx(1 − xk ) − 1+x x
2 , mediante la intersección de y = 1+x2 con la
x
recta y = r(1 − k ), para varios casos de los parámetros r y k

dx
dt

x
a b c

Figura 5.31: Estabilidad de los puntos fijos del problema de los gusanos y abetos

131
5. Fundamentos Sistemas Dinámicos

0.8
0.7 x
epidemia epidemia
0.6
0.5 r
r 0.4
0.3 biestable refugio
k
0.2
0.1 refugio

0.0
0 10 10 10 10
k

Figura 5.32: Diagrama de bifurcación del problema de los gusanos y abetos

5.6. Sistemas Lineales


De forma gradual empiezan a aparecer los primeros elementos de situaciones más
complejas, por ejemplo, las oscilaciones y los ciclos lı́mite. Se inicia con los sistemas
lineales lo que permite presentar situaciones genéricas válidas para cualquier número
de dimensiones en un caso de fácil comprensión. Se procede luego al caso general
no-lineal.
Temas más avanzados se pueden consultar en Mesa (2020, S. 6.3) que presenta los
elementos básicos de la teorı́a de ı́ndices2 . Se estudian luego los ciclos lı́mite (Mesa
2020, S. 6.4), una caracterı́stica netamente no-lineal. Se termina con el estudio de
bifurcaciones (Mesa 2020, S. 6.5). En capı́tulos posteriores de esa referencia se trata
el caos y se presentan varias aplicaciones.
El material es tomado principalmente de Strogatz 1994, Hirsch, Smale y Devaney
2004, Arnold (1973) y de Arnold (2012).

Introducción
La nomenclatura que se usará para el sistema acoplado de dos ecuaciones diferenciales
ordinarias es
ẋ = ax + by
ẏ = cx + dy.
En forma matricial
ẋ = Ax,
2 Las secciones y figuras a este documento se anteceden por fci-

132
5.6. Sistemas Lineales

   
a b x
A= ,x=
c d y

Un truco elemental permite expresar un sistema de orden mayor como un sistema de


ecuaciones. Lo ilustramos con el caso particular del oscilador armónico simple, muy
conocido en fı́sica elemental. Se obtiene de aplicar la segunda ley de Newton para una
partı́cula de masa m sometida a una fuerza elástica lineal con constante k,

mẍ = −kx, (5.5)

que se puede escribir como un sistema de dos ecuaciones de primer orden, usando la
definición de velocidad y expresando la aceleración como la derivada de la velocidad,

ẋ = v (5.6)
k 2
v̇ = −m x = −ω x.

En la Figura 5.33 se ilustra el campo vectorial y el espacio de fase correspondiente.


Note que el espacio de fase es el plano bidimensional, cualquier punto representa
una posición y una velocidad de la partı́cula, nuestro sistema se caracteriza por el
vector (x, v). En cada instante, t, el sistema de ecuaciones nos describe la evolución
del sistema, cómo va a ser el sistema en el tiempo futuro, t + dt, mediante el vector
(v, −ω 2 x) = (ẋ, v̇). El campo vectorial corresponde a la asignación de un vector a
cada punto, este vector tiene como componentes las derivadas con respecto al tiempo
de cada una de las coordenadas del espacio de fase. Si se usa la terminologı́a del
flujo, al vector derivada se le designa como un vector velocidad. El término acá tiene
un sentido más general que el de la velocidad de la partı́cula y se entiende como la
velocidad del sistema, el vector que indica la magnitud y dirección del cambio del
sistema en el espacio de fase. Cada punto es transportado por el flujo, de acuerdo al
vector velocidad indicado en el campo vectorial correspondiente.
En el cuadro de la derecha de la Figura 5.33 se presenta el esquema de varias tra-
yectorias asociadas a diferentes condiciones iniciales. Las trayectorias son cerradas,
alrededor del origen. El origen es un punto fijo. Estas trayectorias en el espacio de
fase corresponden a comportamientos bien reconocidos del oscilador simple. El origen
corresponde a un equilibrio estático. Las trayectorias cerradas a oscilaciones o movi-
mientos periódicos. La descripción del movimiento periódico es interesante, cuando
el resorte está más comprimido el desplazamiento es mı́nimo (más negativo), la ve-
locidad cero, corresponde al punto cuando el sistema cruza el eje x en el extremo
izquierdo de la trayectoria cerrada en el espacio de fase. En tal punto, la fuerza (ace-
leración) es máxima, lo que corresponde a que el campo vectorial es hacia arriba y de
máxima magnitud. A medida que gira, la partı́cula adquiere velocidad y se acerca en
posición al origen (cero fuerzas elásticas), pero la velocidad es máxima, por tanto, lo
sobrepasa e inicia un ciclo de extensión. De igual manera se puede describir el resto
del movimiento.
Otro caso particular que permite analizar el comportamiento del sistema en función
de los posibles valores de un único parámetro, a, corresponde a dos ecuaciones des-

133
5. Fundamentos Sistemas Dinámicos

v v

Figura 5.33: Esquemas del campo vectorial y diagrama de fase de un oscilador armóni-
co simple en dos dimensiones

acopladas,
ẋ = ax
ẏ = −y.
La solución es directa, x = x0 eat y y = y0 e−t . La Figura 5.34 ilustra las trayectorias
en el espacio de fase para diversos valores del parámetro a.
Cuando a < 0 todas las trayectorias van al origen, la dirección por la que se acercan
depende de cómo es a en comparación con −1; tanto x como y van a cero, pero una de
las dos va más rápido, las trayectorias se vuelven tangentes a la dirección que decae
más despacio. Igualmente, si se miran las trayectorias invertidas, cuando t → −∞,
se vuelven tangentes a la dirección que decrece más rápido. En este caso (a < 0), el
origen es estable.
Cuando a > 0 la variable x tiende a infinito, el origen es inestable, aunque sigue
siendo un punto fijo. De hecho, si la condición inicial está sobre el eje y, la trayectoria
tiende al origen, pero basta un pequeño error para que la trayectoria tienda a infinito.
El origen se denomina en estos casos un punto de ensilladura. El eje y es la variedad
estable y el eje x la variedad inestable. En la siguiente sección se explica mejor esta
terminologı́a.
Antes de proceder con el caso lineal en n dimensiones vale la pena expresar en forma
general el procedimiento que se empleó para escribir la ecuación de segundo orden
(Ec. 5.5) como un sistema de dos ecuaciones de primer orden (Ec. 5.6). Sea una
ecuación diferencial ordinaria de orden n
dn y
= y (n) = f (y (n−1) , y (n−2) , . . . , y (2) , y (1) , y), (5.7)
dtn
donde las derivada de orden k se expresan como f (k) , el punto y doble punto superior
se usa para las derivadas de orden 1 y 2. Mediante la nomenclatura z0 = y, z1 =

134
5.6. Sistemas Lineales

(a) a < -1 (b) a = -1 (c) -1< a <

(b) a=0 (e) a>0

Figura 5.34: Esquemas del diagrama de fase de dos ecuaciones desacopladas, ẋ = ax,
ẏ = −y para diferentes valores del parámetro a

y (1) = ż0 , z2 = y (2) = ż1 , . . . , zn−1 = y (n−1) = żn−2 , y y (n) = żn−1 la Ec. 5.7 se
puede escribir como un sistema de primer orden en n variables

ż0 = z1
ż1 = z2
..
.
żn−2 = zn−1
żn−1 = f (zn−1 , zn−2 , . . . , z1 , z0 )

Exponencial de una Matriz


Buena parte del material de esta sección es general para cualquier número de dimen-
siones (Hirsch, Smale y Devaney 2004). Como el sistema es lineal, el problema queda
totalmente definido por la matriz de coeficientes A y el vector de valores iniciales x0 ,

ẋ = Ax, x(0) = x0 (5.8)

135
5. Fundamentos Sistemas Dinámicos

Si λ1 es un autovalor de la matriz A y v1 es su correspondiente vector propio, es decir,


det(Av1 − λ1 I) = 0 y Av1 = λ1 v1 , una solución (satisface la ecuación diferencial, no
necesariamente la condición inicial) del sistema ẋ = Ax es de la forma

x = x(t) = eλ1 t v1 .

Como se puede verificar directamente

ẋ = λ1 eλ1 t v1
= eλ1 t λ1 v1
= eλ1 t Av1
= Aeλ1 t v1
= Ax.

En los casos de autovalores complejos se usa la fórmula de Euler (exp(ıθ) = cos θ +


ı sen θ) para calcular el exponencial.
Si para el caso n-dimensional se tienen n valores propios diferentes, λ1 , λ2 , · · · , λn , los
correspondientes vectores propios, vk , k = 1, · · · , n son linealmente independientes y
por lo tanto, se tienen n soluciones independientes.
Para los sistemas lineales, cualquier combinación lineal de las soluciones es solución,
ck eλk t vk es solución para coeficientes arbitrarios ck . Lo que permite
P
por tanto,
pensar que la solución del sistema (5.8) es x(t) = eAt x(0), como se va a mostrar.
La exponencial de una matriz se define usando la expansión en series

eA = exp (A) = I + A + 1
2! A
2
+ 1
3! A
3
+ ··· .

Cuando los vectores propios son linealmente independientes, la matriz A es diagona-


lizable. Sea P una matriz cuyas columnas son los vectores propios de A. Entonces,
la matriz D = P−1 AP es diagonal, con precisamente los autovalores de A en la
diagonal. En este caso se tiene
 2  3
eA = I + PDP−1 + 1
2! PDP−1 + 1
3! PDP−1 + ···
−1 −1 −1
= PIP + PDP + 1
2! PDP PDP−1 + 1
3! PDP
−1
PDP−1 PDP−1 + ···
h i
1
= P I + D + 2! D2 + 3!
1
D3 + · · · P−1
= PeD P−1 .

La exponencial de una matriz diagonal es la matriz diagonal formada con los ex-
ponenciales de los elementos en la diagonal original. En general, si existe una ma-
triz invertible P, tal que A = PDP−1 , con D no necesariamente diagonal se tiene
exp (A) = P exp(D)P−1 .
Hay otros resultados del algebra lineal que son útiles en este contexto (Hirsch, Smale
y Devaney 2004, p.75-130), entre ellos (ver también los ejercicios al final del capı́tulo):

136
5.6. Sistemas Lineales

a) Si AB = BA entonces exp(A + B) = exp(A) exp(B)


b) exp(−A) = exp(A)−1
c) exp(AT ) = exp(A)T
d) exp(A∗ ) = exp(A)∗
e) Si A es simétrica, entonces exp(A) también
f) Si A es antisimétrica entonces exp(A) es ortogonal
g) Si A es autoadjunta o Hermitiana, entonces exp(A) también
h) Si A es antiadjunta entonces exp(A) es unitaria
i) Si λ es un autovalor de la matriz A y v es su correspondiente vector propio,
entonces v también es un autovector de exp(A) con valor propio asociado exp(λ)
1
j ) Si N es nilpotente de grado k, entonces exp(N) = I + N + · · · + (k−1)! Nk−1
   
0 β cos β sen β
k ) Si A = entonces exp(A) = , como se puede
−β 0 − sen β cos β
verificar pues los valores propios de A son ±ıβ, la matrizcuyas columnas son
1 1
los correspondientes vectores propios es P = √12 , con inversa igual a
ı −ı
su transpuesta conjugada, P−1 = P∗ " #
eλt teλt
 
λ 1
l ) Si A = entonces exp(tA) = , como se puede verificar
0 λ 0 eλt
 
0 1
pues A = λI + N, con N = nilpotente de grado 2
0 0
Teorema 5.6.1.
d
exp(tA) = A exp(tA) = exp(tA)A
dt
Prueba.
d exp((t + h)A) − exp(tA)
exp(tA) = lı́m
dt h→0 h
exp(tA) exp(hA) − exp(tA)
= lı́m
h→0 h
exp(hA) − I
= exp(tA) lı́m = exp(tA)A.
h→0 h
El último lı́mite se obtiene directamente de emplear la definición de la exponencial
de una matriz mediante series.
Teorema 5.6.2. El problema de valores iniciales (Ec. 5.8)

ẋ = A(x), x(0) = x0 ,

con A una matriz constante de orden n × n, tiene como única solución

x(t) = etA x0

La prueba es una aplicación directa del anterior teorema. Es ilustrativo verificar el


caso en el cual la matriz tiene valores propios diferentes y por tanto, es diagonalizable.

137
5. Fundamentos Sistemas Dinámicos

Figura 5.35: Esquema del diagrama de fase para la ecuación ẋ = x + y, ẏ = 4x − 2y.

El vector columna con los coeficientes (coordenadas) para expresar x0 en términos de


la base formada por los vectores propios es P−1 x0 , y la matriz cuyas columnas son
las soluciones asociadas a cada valor propio es P exp(tD).

Genericidad
Un resultado muy importante (Hirsch, Smale y Devaney 2004, p. 101), se refiere a
que entre todas las matrices con coeficientes reales de orden n × n, el conjunto de
las que tienen n valores propios diferentes ocupa un papel fundamental, pues este
conjunto es abierto y denso. Es decir, la gran mayorı́a de matrices o tiene n valores
propios diferentes, o se puede aproximar arbitrariamente mediante sucesiones de estas
matrices con n valores propios diferentes.
Otra clase de matrices con un papel protagónico está conformada por las matrices
cuyos autovalores tiene parte real no nula:

Definición 5.6.1. Una Matriz A es Hiperbólica si ninguno de sus valores propios


tiene parte real cero. En este caso se dice que el sistema dinámico ẋ = A(x) es
Hiperbólico.

Clasificación en 2D
El origen es el único punto fijo aislado en los sistemas lineales. Como puede deducirse
de la fórmula de la solución en términos de la exponencial de la matriz, Su estabilidad
depende de los valores propios. En particular si la parte real es negativa, positiva o
cero. En caso de valores propios complejos se tienen espirales si la parte real es
diferente de cero y trayectorias cerradas si la parte real es cero.
En dos dimensiones, una formula simple para los autovalores es
p
λ1,2 = 21 (τ ± τ 2 − 4∆),

138
5.6. Sistemas Lineales

t
Nodos Inestables
t 2 - 4Δ =0

Espirales Inestables

Centros
Puntos de Silla Δ

Espirales Estables

Puntos Fijos,
No-Aislados
Estrellas,
Nodos Degenerados
Nodos Estables

Figura 5.36: Diagrama de clasificación de los diferentes comportamientos asintóticos


de las soluciones del sistema lineal de dos ecuaciones lineales diferenciales ordinarias
según √
los valores de los parámetros. Los valores propios de la matriz son λ1,2 =
1
2 (τ ± τ 2 − 4∆). El determinante ∆ y la traza τ se calculan mediante, ∆ = λ1 λ2 =
ad − bc, τ = λ1 + λ2 = a + d

y
Autovector Lento

Autovector Rápido

Figura 5.37: Esquemas del diagrama de fase para un nodo, λ1 < λ2 < 0.

donde τ = a + d es la traza y ∆ = ad − bc es el determinante de A. No hay formulas


semejantes para el cálculo de los valores propios en otras dimensiones.
Con esta fórmula se procede a la clasificación. El primer criterio se refiere a si los
valores propios son complejos, reales y diferentes, o reales y repetidos. Todo depende
del valor del discriminante, τ 2 − 4∆. En cada caso se puede decir más, dependiendo si
la parte real es positiva o negativa. La Figura 5.36 ilustra muy bien esta clasificación.

1. Si τ 2 − 4∆ < 0, los valores propios son complejos, la parte imaginaria diferente


de 0.
a) Si τ < 0, la parte real de los dos valores propios es negativa, por lo tanto,
el origen es un sumidero en espiral, también se le dice espiral estable, es

139
5. Fundamentos Sistemas Dinámicos

Autovector

Figura 5.38: Esquemas del diagrama de fase para un nodo degenerado.

decir, el origen es estable (ver ejemplo en Figura 5.39).


b) Si τ > 0, la parte real de ambos valores propios es positiva, por tanto,
el origen es una fuente en espiral, también se le dice espiral inestable, es
decir, el origen es inestable (ver ejemplo en Figura 5.39).
c) Si τ = 0, la parte real de los dos valores propios es cero, ambos son ima-
ginarios puros y se tiene un centro. En este caso el origen es neutramente
estable (ver ejemplo en Figura 5.33).
2. Si τ 2 − 4∆ > 0, los valores propios son reales y diferentes.
a) Si ∆ < 0 se tiene un valor propio negativo y uno positivo, pues ∆ = λ1 λ2 ,
luego el origen es un punto de silla, en una dirección atrae y en la otra
repele (Figura 5.35 y Figura 5.40).
b) Si ∆ > 0 y τ < 0 ambos valores propios son negativos √ pues obviamente
τ 2 >√τ 2 − 4∆ > 0, lo que implica −τ = |τ | > τ 2 − 4∆ y por tanto,
τ ± τ 2 − 4∆ < 0. Luego, el origen es un sumidero (real), también se
llama nodo estable ( Figura 5.40).
c) Si ∆ > 0 y τ > 0 entonces ambos valores propios son positivos, como se
puede ver de un√análisis semejante al del caso anterior (τ 2 > τ 2 − 4∆,
por tanto, τ > τ 2 − 4∆ > 0). El origen es entonces una fuente (real),
también se le dice un nodo inestable (ver ejemplo en Figura 5.40).
d ) Si ∆ = 0 y τ 6= 0 al menos un valor propio es cero, por tanto, no hay
puntos fijos aislados (ver ejemplo en Figura 5.34). Todo el plano es punto
fijo si A = 0
3. Si τ 2 − 4∆ = 0, los valores propios son reales y repetidos. En este caso, cuando
hay un sólo auto vector linealmente independiente, el punto fijo se designa como
un nodo degenerado (ver Figura 5.38); si hay dos auto vectores linealmente
independientes, el punto fijo con valor propio repetido se denomina una estrella
(ver ejemplo en Figura 5.34).

140
5.7. Espacio de Fase, 2D

Figura 5.39: Esquema del diagrama de fase, nulclinas y algunas trayectorias para
dos espirales, izquierda un sumidero ẋ = −y, ẏ = 2x − y, y derecha una fuente
ẋ = x − y, ẏ = 2x.

Figura 5.40: Esquemas del diagrama de fase, nulclinas y algunas trayectorias para
diferentes casos: a la izquierda un nodo sumidero ẋ = −x, ẏ = x − 2y, en el medio un
nodo fuente ẋ = 2x + y, ẏ = y y a la derecha un punto de silla ẋ = −x + y, ẏ = x + 2y,
en este caso también se muestran las divisorias.

5.7. Espacio de Fase, 2D


Es fundamental la interpretación del espacio de fase como un campo vectorial en el
cual a cada punto (en este caso del plano) se le asigna un vector (con componentes las
respectivas derivadas temporales). Cada punto se puede pensar como una posición
inicial y el vector asociado a cada punto representa la velocidad. La solución del
sistema de ecuaciones con esa posición inicial da origen a una trayectoria. El vector
velocidad es tangente a la trayectoria. El interés es el sistema dinámico completo, por
lo tanto, se mira la colección completa de posibles trayectorias (Figura 5.42).

Diagramas de Fase
La forma general de un sistema dinámico en dos dimensiones es

x˙1 = f1 (x1 , x2 )
x˙2 = f2 (x1 , x2 ),

que en forma vectorial es


ẋ = f (x) (5.9)

141
5. Fundamentos Sistemas Dinámicos

D B

A C

Figura 5.41: Puntos fijos, trayectorias, órbitas, ciclos lı́mite

X
X (t)

Figura 5.42: Esquema para ilustrar la interpretación del diagrama de fase como un
campo vectorial del cual se puede deducir la trayectoria a partir de la velocidad y la
posición

Como se indicó en el Capı́tulo 5, los puntos fijos son de especial importancia. Corres-
ponden a las raı́ces del sistema de ecuaciones que se obtienen de igualar a cero el lado
derecho de la Ecuación (5.9). Por tanto, la derivada se anula en estos puntos, de allı́
su nombre, no cambian. Si la condición inicial corresponde a un punto fijo, la solu-
ción permanece contante. La pregunta sobre si estos puntos fijos atraen condiciones
iniciales vecinas, o las repelen, corresponden al análisis de estabilidad.
Son también de particular interés las órbitas cerradas, que corresponden a compor-
tamiento periódico. En el caso lineal ya se vieron los centros, en el caso general juega

142
5.7. Espacio de Fase, 2D

x >0
x <0 y <0
y <0

x
x <0 y =0
y >0
x =0 x >0
y >0

Figura 5.43: Nulclinas para el sistema ẋ = x + e−y , ẏ = −y

un papel fundamental los llamados ciclos lı́mite, trayectorias cerradas no lineales que
se estudian en la Sección fci-6.4. La Figura 5.41 ilustra algunos de estos casos.
Un concepto importante que facilita el estudio del espacio de fase es el de nulclinas.
Que corresponden al lugar geométrico de los puntos para los cuales se anula alguna
de las componentes del vector con componentes las derivadas respecto al tiempo. En
el plano, son las curvas donde bien sea ẋ = 0, o ẏ = 0. En las nulclinas el flujo es
puramente vertical (ẋ = 0), o puramente horizontal (ẏ = 0). En la Figura 5.43 se
ilustran las nulclinas del sistema ẋ = x + e−y , ẏ = −y. El flujo es vertical en la
curva ẋ = x + e−y = 0, y horizontal en ẏ = −y = 0. Cada nulclina parte el plano en
dos regiones, en una la correspondiente derivada será positiva y en la otra negativa.
Al considerar simultáneamente ambas nulclinas el plano se parte en cuatro regiones
según el signo de las dos derivadas. Esta información por si sola aporta un ingrediente
básico para la construcción del campo vectorial o diagrama de fase. Para completar
el diagrama probablemente sea necesario recurrir a cálculos más detallados, como se
ilustra en la Figura 5.44.

Existencia y Unicidad
El teorema de existencia y unicidad que se habı́a enunciado en el caso unidimensional
es también válido para n dimensiones y tiene consecuencias importantes.

Teorema 5.7.1. El problema de valores iniciales

ẋ = f (x), x(0) = x0

143
5. Fundamentos Sistemas Dinámicos

Figura 5.44: Diagrama de fase para el sistema ẋ = x + e−y , ẏ = −y

Figura 5.45: Esquemas sobre imposibilidad de intersección de trayectorias y sobre


trayectorias al interior de una trayectoria cerrada

144
5.7. Espacio de Fase, 2D

Figura 5.46: Ejemplo hiperbólico en el cual la linealización predice adecuadamente la


estabilidad de los puntos fijos: ẋ = −x + x3 , ẏ = −2y

tiene una única solución en un intervalo abierto (−τ, τ ), si tanto f como todas sus
derivadas parciales ∂fi /∂xj , i, j = 1, · · · , n son continuas en un conjunto abierto que
contiene a x0

La unicidad prohı́be la intersección de trayectorias diferentes, pues habrı́a múltiples


trayectorias iniciando de un mismo punto común (el punto de corte), como se ilustra
en el lado de la izquierdo de la Figura 5.45. Esto no excluye las trayectorias cerradas,
que son una sola trayectoria. Pero en el plano si hay consecuencias topológicas impor-
tantes. En el lado derecho de la Figura 5.45 se ilustra una trayectoria en el interior de
una trayectoria cerrada, que por lo tanto debe permanecer en interior por siempre.
Si hay algún punto fijo en el interior de la trayectoria cerrada, una trayectoria del
interior puede obviamente acercarse a él. Pero si no hay puntos fijos en el interior, la
trayectoria no puede divagar eternamente. El Teorema de Poincaré-Bendixson prueba
que eventualmente debe acercarse a una trayectoria cerrada.

Linealización
El análisis de estabilidad lineal también se extiende al caso de varias dimensiones,
solo hay que hacer más precisa la condición de aplicabilidad.
Sea x∗ un punto fijo del sistema (5.9) y z(t) = x(t) − x∗ la perturbación alrededor
de tal punto fijo. Estas perturbaciones crecen o decaen según la ecuación ż = ẋ =
f (x∗ + z). Que se puede estudiar usando serie de Taylor,

f (x∗ + z) = f (x∗ ) + J(f , x∗ )z + O(z2 ),

145
5. Fundamentos Sistemas Dinámicos

a<0 a=0 a>0

Figura 5.47: Caso en el cual no aplica el análisis lineal, un centro no hiperbólico se


perturba a una espiral ẋ = −y + ax(x2 + y 2 ), ẏ = x + ay(x2 + y 2 )

donde J(f , x∗ ) es la matriz Jacobiana de f , evaluada en x∗ . es decir, que tiene por


componentes ∂fi /∂xj evaluadas en x∗ . Si J(f , x∗ ) es hiperbólica la solución de la
ecuación lineal ż = J(f , x∗ )z define la estabilidad de acuerdo al análisis lineal. Este
es el teorema de Hartman-Grobman, importante resultado del estudio de sistemas
dinámicos. Si no se cumple la condición, los términos no lineales no son despreciables
y se requiere un análisis posterior.
El sistema ẋ = −x + x3 , ẏ = −2y, ilustrado en la Figura 5.46 es hiperbólico en los
tres puntos fijos (−1, 0), (0, 0) y (1, 0), la matriz Jacobiana es

−1 + 3x2
 
∗ 0
J(f , x ) = .
0 −2
En el origen el sistema lineal indica un nodo estable, que como es hiperbólico también
lo es para el sistema no lineal. Los otros dos puntos fijos son puntos de silla, también
hiperbólicos que por tanto su carácter se mantiene para el sistema no lineal.
La condición de que la matriz Jacobiana sea hiperbólica en el punto fijo es funda-
mental, como lo ilustra el análisis del siguiente sistema ẋ = −y + ax(x2 + y 2 ), ẏ =
x + ay(x2 + y 2 ). La aproximación lineal predice que el origen es un centro para todo
a. El sistema linealizado es ẋ = −y, ẏ = x. Pero en realidad el origen no es un centro
para el sistema no lineal, incluso con valores muy pequeños de a, como se puede ver
si se transforma el sistema a coordenadas polares, ṙ = ar3 , θ̇ = 1. La Figura 5.47
ilustra el diagrama de fase para tres casos del parámetro a.
La conclusión es que los centros son frágiles, la trayectoria cerrada exige que después
de un ciclo la trayectoria cierre exactamente, cualquier perturbación, por pequeña,

146
5.7. Espacio de Fase, 2D

como puede ser una perturbación no—lineal, la transforma en una espiral.


Para formalizar, el concepto de sistema hiperbólico se extiende a los sistemas no
lineales mediante

Definición 5.7.1. Si la parte real de todos los autovalores de matriz Jacobiana en


un punto es diferente de cero, el sistema se denomina hiperbólico.

Teorema 5.7.2 (Hartman-Grobman). Un sistema hiperbólico es equivalente a su


parte lineal en la vecindad de un punto singular hiperbólico.

El teorema de Hartman-Grobman establece además que el diagrama de fase cerca a un


punto fijo hiperbólico es equivalente topológicamente al diagrama de fase del sistema
linealizado. En particular, la estabilidad de los puntos fijos se representa fielmente.
La equivalencia topológica en este contexto significa que hay un homomorfismo (una
función continua, con inversa continua) que relaciona un diagrama de fase local con
el otro, tal que las trayectorias se mapean en trayectorias y la dirección y el sentido
del tiempo se preservan. Además, el teorema establece una clase de estabilidad más
fundamental, la llamada estabilidad estructural. Los sistemas hiperbólicos no cambian
su estabilidad si el sistema mismo sufre perturbaciones, es decir, si el lado derecho
de la Ecuación (5.9) se cambia por g(x), con f cercano a g el flujo resultante es
estructuralmente estable.
Esto es particularmente importante, pues cualquier sistema real se aproxima median-
te un modelo, es decir, se dejan de lado aspectos de la realidad que se consideran
en algún sentido despreciables. Pero es necesario verificar si el carácter asintótico de
la solución no cambia debido a la aproximación. Un modelo para el cual esta con-
dición no se cumpla no es muy útil para estudiar la realidad. Para ilustrar con un
ejemplo, el modelo del movimiento de un móvil terrestre en la gran mayorı́a de casos
ignora la atracción de Saturno. El teorema de Hartman-Grobman establece que tales
aproximaciones son legı́timas.
Un diagrama de fase es estructuralmente estable si su topologı́a no cambia por pe-
queñas perturbaciones al campo vectorial. Por ejemplo, un punto de silla es estructu-
ralmente estable, pero un centro no. Una pequeña dosis de amortiguación transforma
un centro en una espiral.

Ejemplos
Péndulo
Probablemente el primer sistema no lineal que se encuentra en un curso de fı́sica
elemental es el péndulo, con ecuación
p θ̈ + sen θ = 0 que es la forma adimensional de
dθ2 /dτ 2 +(g/L) sen θ, con ω = g/L, t = ωτ . En este caso no se tiene amortiguación,
ni forzamiento externo. También es probable que en los tratamientos elementales se
haya hecho la aproximación sen θ ∼ θ. Aquı́ interesa el sistema no lineal.
En forma de sistema de dos ecuaciones se tiene θ̇ = v y v̇ = − sen θ. Donde v es la
velocidad angular adimensional. Los puntos fijos son (kπ, 0), con k cualquier entero.
El jacobiano en el origen (k = 0) es ((0, 1), (−1, 0)) y por tanto, es un centro lineal.

147
5. Fundamentos Sistemas Dinámicos

Figura 5.48: Diagrama de fase para el péndulo

Sentido Sentido
Horario Antihorario

E>1

E=1

E = -1 Rotaciones

E=1
E=1
E>1
Libraciones

E=-1

Figura 5.49: Espacio de fase cilı́ndrico para el péndulo

Ahora, el sistema es conservativo y reversible. La función de energı́a es E(θ, v)) =


1 2
2 v − cos θ, que tiene un mı́nimo en el origen y por tanto, el origen es un centro no
lineal. La transformación t → −t, v → −v deja el sistema invariante y por tanto, es
reversible. El punto fijo (π, 0) es un punto de silla. La Figura 5.48 muestra el diagrama
de fase.
Espacio de fase cilı́ndrico

148
5.8. Ejercicios

Figura 5.50: Amortiguación

La periodicidad de los ángulos hace natural enrollar el diagrama de fase en un cilindro,


como se ilustra en la Figura 5.49. Aunque el teorema garantiza que el sistema lineal
cerca al origen y el sistema no lineal son conjugados y por tanto, los centros se
mantienen, la perturbación no lineal debida a una amortiguación, por pequeña que
sea, destruye el centro y produce una espiral, como se ilustra en la Figura 5.50.

5.8. Ejercicios

5.8.1. Consulte los métodos de solución numérica de sistemas de ecuaciones dife-


renciales, en particular el método de Euler y los métodos de Runge-Kutta. No sólo
interesa el procedimiento, también es importante estimar los errores de la aproxi-
mación. Seleccione un caso de interés y aplique dos esquemas de solución numérica.
Compare y estudie los errores de aproximación.
5.8.2. Discuta el problema inverso: Dada una función, encontrar una ecuación dife-
rencial cuya solución sea la función original, o dado un campo vectorial. Presente
ejemplos.
5.8.3. En cada caso, si existe, encuentre una ecuación ẋ = f (x) tal que todo real sea
un punto fijo; tal que todo entero sea punto fijo y no tenga otros puntos fijos; tal que
tenga precisamente tres puntos fijos todos estables; tal que no tenga puntos fijos; tal
que tenga precisamente 20 puntos fijos.
5.8.4. Resuelva analı́ticamente la ecuación logı́stica por separación de variables y
fracciones parciales; y/o mediante la substitución w = 1/N .
5.8.5. Las soluciones de una ecuación diferencial ẋ = f (x) en una dimensión no
pueden ser periódicas. Suponga que T es el perı́odo y encuentre una contradicción

149
5. Fundamentos Sistemas Dinámicos

C: f (f)-W = 0

f
-2p 2p

Figura 5.51: Paradoja de condiciones iniciales

considerando
T
dx
Z
f (x) dt
0 dt
5.8.6. Sea xf un punto crı́tico de la ecuación diferencial ẋ = f (x), es decir, f (xf ) = 0.
Demuestre que para cualquier condición inicial x0 6= xf el tiempo para llegar a xf
es infinito, es decir ı́nf t>0 {x(t) = xf , ẋ = f (x), x(0) = x0 } = ∞. Pista suponga lo
contrario y llegue a una contradicción considerando en sistema que resulta de invertir
la dirección del tiempo.
5.8.7. En el ejemplo de la cuenta amortiguada se aproximó una ecuación de segundo
orden por una ecuación de primer orden. Aunque el argumento es correcto, el tema
de las condiciones iniciales requiere explicación. Las ecuaciones de segundo orden
tienen dos condiciones iniciales independientes, en este caso el ángulo inicial φ(0) y
la velocidad angular inicial Ω(0) = φ̇. Mientras que la aproximación usada tiene sólo
una condición inicial. En el Capı́tulo siguiente se estudiarán los sistemas de segundo
orden, con detalle, pero por ahora es posible considerar un sistema de dos ecuaciones
φ0 = Ω y Ω0 = (f (φ) − Ω)/, en la cual hemos escrito f (φ) = sen φ(γ cos φ − 1).
El concepto de campo vectorial acá corresponde al plano φ, Ω como se ilustra en la
Figura 5.51. En cada punto el vector (φ0 , Ω0 ) se interpreta como la velocidad y el
concepto de flujo adquiere más sentido. En la Figura 5.51 la curva C corresponde a
los puntos para los cuales Ω = f (φ). La aproximación de primero orden corresponde
a los puntos que se mueven a lo largo de la curva C. Interpretar lo que ocurre para
los puntos iniciales que están por fuera de la curva.
5.8.8. Las ecuaciones diferenciales de primer orden en una dimensión son elementales,
su comportamiento asintótico es simple, todas las soluciones tienden a un punto fijo,
que eventualmente puede ser ±∞. No es posible la periodicidad y mucho menos
el caos. Sin embargo, hay comportamiento complejo en ecuaciones diferenciales de
primer orden de una sola variable cuando se tienen rezagos. Es decir, la ecuación es

150
5.8. Ejercicios

del tipo
ẋ = f (x(t), x(t − τ ))
para algún valor del rezago τ diferente de 0. Este rezago cambia la dimensionalidad
del problema y la vuelve efectivamente de dimensión infinita, el problema depende de
x en un intervalo de longitud τ . En particular las soluciones periódicas son posibles
incluso en el caso de una variable. Secciones fci-8.1 y 8.3 se presentan aplicaciones de
ecuaciones con rezagos. Verifique que la ecuación
π
ẋ = − x(t − τ )

tiene como solución
πt
x(t) = A cos , con τ = π/2.

Es instructivo aplicar el método usual empleado para las ecuaciones diferenciales
ordinarias buscando soluciones de la forma x(t) = c exp λt, con λ = µ + iω un número
complejo por determinar. Considere los posibles casos con λ real, imaginario puro o
parte real negativa. Interprete la condición τ = π/2.
5.8.9. Continuando con las ecuaciones rezagadas, el caso de la ecuación logı́stica es
importante desde el punto de vista aplicado. La ecuación logı́stica rezagada es

Ṅ = rN (t)[1 − N (t − τ )/K].

Los puntos fijos son N = 0 y N = K. Note que por el rezago no hay cambio en
los puntos fijos. Una expansión lineal al rededor de N = 0 muestra que este punto
es inestable. Para hacer una expansión lineal al rededor de N = K se procede a
adimensionalizar mediante N ∗ = N/K, t∗ = rt, τ ∗ = rτ . Si se hace la substitución,
se toma x = N ∗ y se retiene sólo términos lineales se llega a

ẋ = −x(t − τ ).

donde por comodidad no se usan los ∗ para t y τ . Demuestre que la solución es


periódica, que para N el perı́odo es 4τ .
5.8.10. Desarrolle o consulte un procedimiento numérico semejante al método de
Euler para las ecuaciones con rezago.
5.8.11. Considere la siguiente ecuación diferencial lineal rezagada

ẋ = ax(t) + bx(t − τ ),

con a, b constantes y t > 0. Muestre que el punto fijo y ∗ (t) = 0 es estable si a < −|b|.

151
Capı́tulo 6

Aplicaciones

6.1. Modelos de poblaciones


Efecto Allee
La ecuación Logı́stica, Ṅ = rN (1 − N/k), que se trató en la sección 5.1 se puede
modificar para incorporar efectos que en algunas circunstancias son importantes. Por
ejemplo, el llamado efecto Allee que corresponde a una correlación positiva entre
densidad poblacional y el nivel de adaptación de los individuos. En un estanque de
peces, por ejemplo, la tasa de crecimiento es mayor cuando la población es mayor.
Esto se puede representar mediante la ecuación

Ṅ = rN (1 − N/K)(N/a − 1),

que corresponde a multiplicar la ecuación logı́stica por el factor (N/a − 1). Si a > 0
se tiene un fuerte efecto Allee, para a ≈ 0 el efecto es débil. Como es lógico, no existe
el efecto Allee cuando el último factor no existe, es decir se tiene el modelo logı́stico
tradicional.

Figura 6.1: Efecto Allee. Fuerte a la izquierda, débil en el centro y sin efecto a la
derecha.

153
6. Aplicaciones

El efecto Allee es más notorio para valores cercanos a cero población. En algunos
casos puede ser que la tasa de crecimiento sea negativa y eventualmente se llegue a
extinción. Si existe tal nivel crı́tico de población se tiene un efecto Allee fuerte. Los
mecanismos para explicar este efecto pueden ser la falta de parejas. Pero hay otras
posibles causas del efecto, la cooperación en defensa, o en la búsqueda de alimentación
también se pueden reflejar en la existencia del efecto Allee. La riqueza genética y la
capacidad de modificación del ambiente son otros posibles mecanismos que producen
correlación positiva entre población y tasa de crecimiento unitaria.

Función de Monod
Una función muy usada en quı́mica y biologı́a es la llamada función de Monod (figu-
ra 6.2)
S
µ = µmax .
KS + S

Figura 6.2: Función de Monod

La ecuación de Monod se puede entender desde la Cinética de reacciones, en particular


la llamada cinética Michaelis-Menten. Considere el equilibrio de la siguiente reacción
con las tasas indicadas,

kf k
−−
E+S)−* c
− ES −−→ E + P.
kr

Las concentraciones de cada substancia deben cumplir


d[E]
dt = −kf [E][S] + kr [ES] + kc [ES] (6.1)
d[S]
dt = −kf [E][S] + kr [ES] (6.2)
d[ES]
dt = kf [E][S] − kr [ES] − kc [ES] (6.3)
d[P ]
dt = kc [ES]. (6.4)
En estas ecuaciones se asume que el cambio en el tiempo de la concentración de una
substancia está compuesto de las contribuciones positivas si la reacción produce la

154
6.1. Modelos de poblaciones

substancia y negativas si la consume. Cada contribución es proporcional al producto


de los reactivos necesarios para la reacción.
Al sumar (6.1) y (6.3) se obtiene

d[E] d[ES]
+ = 0, luego [E] + [ES] = cte = [E]0 .
dt dt

Se asume además que en el equilibrio

kf [E][S] = kr [ES],

y por lo tanto,
kf ([E]0 − [ES])[S] = kr [ES].
De donde se obtiene
[S]
[ES] = [E]0 ,
kd + [S]
con kd = kr /kf . Luego, tomado µmax = kc [E]0 , la máxima velocidad de la reacción
sigue una función de Monod

d[P ] [S]
= µmax .
dt kd + [S]

En algunas ocasiones se usa la llamada función inversa de Monod, µinv , definida de


tal manera que µ + µinv = µmax , es decir

KS
µinv = µmax − µ = µmax ,
KS + S

que para S = 0 vale µmax , decrece a cero a medida que S → ∞, pasando por µmax /2
para S = KS .

Función de Hill
Otra función usada con frecuencia es la llamada función de Hill, que corresponde a
una función de Monod con la variable elevada a una potencia n que puede aumentar
o disminuir la curvatura (figura 6.3),

Sn
µ = µmax .
KSn + S n

De manera semejante a como se hizo con la función de Monod se puede definir una
función inversa de Hill,

KSn
µin = µmax − µ = µmax .
KSn + S n

155
6. Aplicaciones

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2 n=0.5

n=1
0.1 n=2

n=3
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8

Figura 6.3: Función de Hill para diferentes valores de n

Modelo Lotka-Volterra de Competencia


Corresponde a una ligera generalización del ejemplo de la curva logı́stica de crecimien-
to al introducir dos especies que compite. El modelo asume que cada especie crecerá
hasta su capacidad de soporte en ausencia de competencia (modelo logı́stico). Una de
las especies (conejos) tiene mayor tasa de crecimiento. Las dos especies compiten por
el mismo recurso, en este caso pastura. La competencia es proporcional al tamaño
de cada población, el efecto de la competencia puede ser diferente para las distintas
especies (los conejos sufren más).
Si x representa la población de conejos y y la de ovejas, un modelo para representar
lo anterior es

ẋ = 3x(1 − x/3) − 2xy


ẏ = 2y(1 − y/2) − xy.

El sistema tiene 4 puntos fijos: P1 = (0, 0), p2 = (0, 2), P3 = (3, 0), P4 = (1, 1). Su
Jacobiano es
 
3 − 2x − 2y −2x
J= .
−y 2 − x − 2y
La substitución de x y y para cada uno de los puntos fijos en la matriz jacobiana y el
análisis de los correspondientes valores propios permite concluir que el origen (P1 ) es
inestable, tanto P2 como P3 , que corresponden a una sola de las especies presentes son
estables, y P4 es un punto de silla. Como la matriz jacobiana en todos estos puntos
es hiperbólica, la estabilidad del análisis lineal se aplica para el sistema nolineal. La
figura 6.4 ilustra este análisis y además introduce el concepto de lı́nea divisoria y
cuenca para cada uno de los puntos fijos estables.

156
6.1. Modelos de poblaciones

Ovejas Ovejas Divisoria, Variedad Estable de la Silla

2 2
y

1 1
Cuenca de (3,0)

x 1 2 3 Conejos
1 2 3 Conejos

Figura 6.4: Diagrama de fase para el modelo Lotka-Volterra de Competencia

Generalización
Es posible generalizar las ideas anteriores para un número arbitrario de especies, n,
y para incluir además de competencia por el mismo recurso otras dependencias entre
las especies, como predación, simbiosis, y competencia intra-especı́fica. La ecuación
general es
Xn
x˙k = xk (ak + bk,j xj ), para k = 1, . . . , n.
j=1

Para cada especie ak es la tasa de crecimiento (muerte si es negativa). bk,j mide


la magnitud de la influencia de la población de la especie j sobre la especie k. Por
ejemplo, si j preda a k entonces bk,j < 0 y bj,k > 0. Pero ambas son negativas si
compiten, y son positivas si hay simbiosis. En el caso de presa-predador, la tasa de
crecimiento del predador es negativa en ausencia de la presa (la presa es un recurso
de subsistencia indispensable). Las autoinfluencias bk,k son normalmente negativas
reflejando la capacidad de soporte.

Presa-Predador
Las anteriores ideas se aplican a la dinámica de las poblaciones de presas y predadores,
por ejemplo, leones y gacelas. Sea x la población de la presa, la del predador y, un
modelo simple puede ser

ẋ = x(3 − 2y)
ẏ = y(−1 + x).

Sus puntos fijos son (0, 0), (1, 3/2). La matriz Jacobiana es
 
3 − 2y −2x
J= .
y −1 + x

Por lo tanto, al estudiar los valores propios se concluye que (0, 0) es un punto de silla
y (1, 3/2) un centro. La figura 6.5 ilustra el diagrama de fase y una serie de tiempo.

157
6. Aplicaciones

Figura 6.5: Diagrama de fase modelo Presa predador, izquierda, y serie de tiempo,
derecha.

Presa-Predador Modificado
Al anterior modelo se le pueden incluir varias modificaciones. Una primera puede ser
considerar competencia intraespecı́fica.

ẋ = x(3 − x − 2y) (6.5)


ẏ = y(−1 + x − y),

que tiene tres puntos fijos: (0, 0), (3, 0), (5/3, 2/3) y matriz Jacobiana
 
3 − 2x − 2y −2x
J= .
y −1 + x − 2y

Luego (0, 0) y (3, 0) son puntos de silla y (5/3, 2/3) una espiral atractiva. La parte
izquierda de figura 6.6 ilustra el diagrama de fase correspondiente.

Figura 6.6: Diagrama de fase del modelo presa predador modificado, izquierda ecua-
ción (6.5), derecha ecuación (6.6)

158
6.2. Control Genético

Otro modelo con competencia intraespecı́fica es

ẋ = x(3 − x − 2y) (6.6)


ẏ = y(−1 + x/4 − y),

que tiene puntos fijos: (0, 0), (3, 0). El Jacobiano es


 
3 − 2x − 2y −2x
J= .
y/4 −1 + x/4 − 2y

Luego (0, 0) es un punto de silla y (3, 0) un sumidero. La parte derecha de la figura 6.6
ilustra el diagrama de fase correspondiente.

Control Biológico de Plagas


El uso de predadores naturales para controlar plagas se fundamenta en mantener
bajo control, es decir, evitar el aumento significativo de la población de la plaga
mediante el incremento de la población del predador. Es decir se busca mantener
ambas poblaciones en niveles bajos aceptables. El propósito no es erradicar la peste,
únicamente mantener su población en niveles bajos, controlados (Murray 2002).
Aunque muchos modelos de situaciones reales son razonablemente robustos desde el
punto de vista de estabilidad, la sensibilidad puede ser alta. Por tal razón es impor-
tante cuidar el ajuste del modelo y los parámetros a las observaciones.
Hay muchos ejemplos satisfactorios de control biológico, en particular en cultivos de
larga duración como los frutales y otras explotaciones forestales, donde la interac-
ción presa-predador es continua. Sin embargo, los cambios ecológicos producidos por
la cosecha de cultivos perennes han producido resultados menos satisfactorios. Los
mayores éxitos han sido en casos en los que el predador es un parásito. Esto último
puede ser importante en enfermedades humanas.
Además de los aspectos de construcción de modelos, esta área requiere especial cui-
dado con la estimación de parámetros y de las condiciones iniciales. En particular,
cuando las oscilaciones muestran un brote inicial, una recesión y una recuperación
lenta. Los niveles durante la recesión pueden estar cerca de los niveles de extinción.

6.2. Control Genético


Un ejemplo de una bifurcación interesante es el control genético que puede resultar
en que un gen se exprese o permanezca inactivo dependiendo del estı́mulo de dos
proteı́nas que son sus subproductos. El modelo es

ẋ = −ax + y
x2
ẏ = − by,
1 + x2
donde tanto x como y son proporcionales a las concentraciones de los dos subpro-
ductos, ambos parámetros a y b son positivos. Los puntos fijos de este sistema son

159
6. Aplicaciones

y
y
y y =ax
x2
y=
b(1 +x 2)

x x
x

Figura 6.7: Control genético


x∗1 = (0, 0) y x∗2,3 = (1 ± 1 − 4a2 b2 )/2ab, si 2ab < 1. Los dos puntos x∗2,3 van a
chocar cuando la raı́z es cero, es decir ac = 1/2b y por tanto en la bifurcación el
valor crı́tico de la variable x es x∗c = 1. La figura 6.7 presenta el esquema del campo
vectorial a partir del análisis de las nulclinas.
Para estudiar la estabilidad de los puntos fijos la matriz Jacobiana es
" #
−a 1
J= 2x .
(1+x2 )2 −b

La traza es τ = −(a + b) < 0, luego los puntos fijos son o sillas o sumideros según el
determinante. En el origen ∆ = ab > 0, por lo tanto, es estable siempre. Para los otros
dos puntos fijos ∆ = ab(x2 − 1)/(x2 + 1), luego el del medio es una silla y el mayor
es estable. La figura 6.7 presenta el esquema del diagrama de fase. Dependiendo de
la condición inicial, el gen está inactivo, el sistema es atraı́do por el origen, o el gen
es activo. es atraı́do por el punto x∗3 .

6.3. SobrePesca
El sistema económico mundial depende del suministro continuo de recursos naturales.
En este trabajo se aborda la sostenibilidad de largo plazo. El caso de los recursos no
renovables no parece interesante para este tipo de preguntas, independiente de su
importancia práctica, pues ante el crecimiento hace rato no es válida la hipótesis de
depósitos infinitos para la gran mayorı́a de ellos. Los recursos renovables sı́ plantean
asuntos urgentes de interés práctico y académico. El enfoque sigue la herramienta de
los modelos simplificados, en el espı́ritu de Einstein, “Simple but not simpler”. Es decir
que describan un aspecto importante de la realidad, aunque no necesariamente toda la
complejidad de la realidad, lo suficientemente simples para que los podamos entender.
Se toma el problema de la pesca con el modelo logı́stico de crecimiento de la población
y varias representaciones simples de la motivación económica del esfuerzo pesquero.
La conclusión es clara, a los bienes comunes no se aplica el principio de optimalidad
propio de bienes privados en la actual economı́a de mercado. La intervención estatal en
este campo es también problemática. Los trabajos de Gordon (1954), Hardin (1968),
Mesa (2007) y Clark (2013). son la base de esta reflexión.

160
6.3. SobrePesca

Población de Peces
Los biólogos justifican el modelo logı́stico porque el modelo exponencial (tasa de cre-
cimiento constante) no es aplicable cuando hay recursos limitados lo que conduce a
una posible sobrepoblación y por tanto a una tasa de crecimiento que no será cons-
tante. Para valores bajos de la población se puede aceptar una tasa aproximadamente
constante, pero a medida que la población crece, la tasa tiende a disminuir. Eventual-
mente, la tasa se hace nula y posteriormente negativa. El valor de la población para
el cual la tasa se hace 0 se conoce como capacidad de carga, o capacidad de sopor-
te, K. Una manera de modelar estas ideas es asumir una variación lineal de la tasa
de crecimiento per cápita, Ṅ /N , con N . Esto se conoce como la ecuación logı́stica,
5.1. En general, las soluciones para diferentes condiciones iniciales tienen forma de S,
también llamada curva sigmoidea.

Recursos Naturales
El sistema económico mundial depende del suministro continuo de recursos naturales.
Esto es evidente, algo menos obvio es la posibilidad de la explotación sostenible de los
recursos naturales en el largo plazo. El caso de los combustibles fósiles, por definición
no–renovables, ha llevado a la polémica de su eventual agotamiento. Por otro lado, no
es claro si otros recursos, aparentemente menos agotables, tienen lı́mites; por ejemplo,
la producción agrı́cola. Otros recursos naturales que hasta ahora han sido considerados
sin lı́mite, están bajo estrés. Probablemente nuestra capacidad de responder a estos
interrogantes es limitada, con mayor razón si queremos respuestas cuantitativas. Por
tal motivo es ilustrativo considerar modelos simplificados, en el espı́ritu de la famosa
frase de Einstein, “Simple but not simpler”. Es decir, modelos que describan un
aspecto importante de la realidad, aunque no necesariamente toda la complejidad de
la realidad, lo suficientemente simples para que los podamos entender. En este caso
vamos a considerar que el crecimiento neto natural de la población de peces, o la bio-
masa del recurso pesquero, en un lugar determinado, eventualmente el Globo entero,
(teniendo en cuenta la reproducción y las muertes naturales, incluyendo las debidas
a otros predadores diferentes a los hombres) está representada por nuestro modelo
logı́stico r0 N (1 − N/K), que vamos a denotar como C(N ). Pero esta vez también se
va a tener en cuenta la tasa de pesca, que vamos a representar por P . En general
tanto C como P dependen del tiempo, C a través de N que depende del tiempo y
P por razones socioeconómicas que a primera vista parecen más complejas que la
dinámica poblacional. Sin embargo, es posible obtener conclusiones útiles, aunque no
se conozca la función de pesca P . La introducción de la tasa de pesca modifica el
modelo de la población de peces a la siguiente ecuación

Ṅ = C(N ) − P (t) = r0 N [1 − N/K] − P (t). (6.7)

Un concepto importante que se puede definir usando este modelo es el de la Máxima


Tasa Sostenible de Pesca, M T SP ,

M T SP = máx C(N ) = C(K/2) = rK/4. (6.8)


N

161
6. Aplicaciones

Es fácil ver que si se pesca a la tasa constante P (t) = M T SP y N (0) = K/2 la po-
blación permanece constante, el punto K/2 es un punto fijo de la ecuación diferencial
(6.7). Esto luce muy prometedor para el ideal de una explotación sostenible. Pero
hay que tener en cuenta que requiere por una parte el conocimiento de la función C,
lo que podrı́a resolverse de manera aproximada con estudios, pero también requiere
que N (0) ≥ K/2. Si N (0) < K/2 la pesca a la tasa M T SP lleva a la extinción. La
derivada Ṅ es negativa para todos los valores de N excepto para K/2, luego el punto
fijo es semiestable y por lo tanto este concepto no es tan útil como parecerı́a.
Una crı́tica al modelo representado en le Ecuación 6.7 es predice población negativa
cuando P (t) = constante > M T SP .

Sistema Económico
Por otro lado, hay un obstáculo mayor al considerar el sistema económico. Una so-
lución real basada en el concepto de la Máxima Tasa Sostenible de Pesca, M T SP
requiere un Estado capaz de tener el conocimiento perfecto del recurso, de emitir la
reglamentación correspondiente y la capacidad de hacerla cumplir. Es claro que esta-
mos muy lejos de tal ideal. Hoy las decisiones se toman por individuos, por motivos
económicos, con un Estado que pretende controlar. Una idea que ha tenido mucha
influencia, tal vez demasiada, es la famosa “mano invisible” de la economı́a. Aquello
de que si cada uno procura su interés particular se lleva a un sistema que “funciona”.
Hay muchas crı́ticas a esta idea, con el presente ejemplo se ilustra la incapacidad de
que la búsqueda del lucro particular pueda llevar a un óptimo global para el caso de
la explotación de los recursos naturales debido a la llamada tragedia de los bienes
comunes (Hardin 1968).
Ası́ que se requiere una teorı́a para explicar y ojalá prevenir la sobreexplotación de
los recursos naturales. Gordon (1954) desarrolló una teorı́a, que, a pesar de lo simple,
explica muy bien lo que históricamente se ha observado. Lo primero que hizo fue
proponer una expresión estándar para la tasa de pesca,

P (t) = qN (t)E(t), (6.9)


donde E(t) es el “esfuerzo pesquero” en el tiempo t, representado por ejemplo, por
el tamaño de la flota, o el número de redes. La constante q, un número menor que
la unidad, corresponde a la efectividad de la pesca. La ecuación (6.9) simplemente
expresa que la tasa de pesca es proporcional a la población de peces, N (t), al esfuerzo
pesquero, E(t), y a la efectividad de la pesca.
A continuación, Gordon (1954) procede a calcular la ganancia G de los pescadores.
Si el precio de venta unitario de los peces es p y el costo por unidad de esfuerzo es c,
el flujo de ganancia para los pescadores es
G(t) = pP (t) − cE(t) = [pqN (t) − c]E(t). (6.10)
De la ecuación (6.10) se puede concluir que en ausencia de controles sobre la pesca,
la población de peces será reducida, diezmada hasta un nivel Nebe , que está dado por
c
Nebe = , (6.11)
pq

162
6.4. Inteligencia Colectiva

la razón de la nomenclatura es que Nebe es una población de equilibrio bio-económica.


Para entender el por qué se reduce la población hasta este nivel, note que si N (t) >
Nebe entonces G(t) > 0, por lo tanto es rentable aumentar el esfuerzo pesquero E(t),
lo que conduce a Ṅ < 0, por tanto la población disminuye hasta que N (t) ≤ Nebe ,
es decir, hasta que G(t) sea menor o igual a cero y por lo tanto el esfuerzo por pesca
adicional cese.
Otra manera de ver esto es considerar el sistema
Ṅ = r0 N [1 − N/K] − qN E
Ė = (pqN − c)E,
donde la segunda ecuación contiene la dinámica del esfuerzo pesquero E, que se asume
proporcional a la ganancia, es decir crece si la ganancia es positiva  y decrece si es
negativa. Claramente (Nebe , Eebe ) = cp−1 q −1 , r0 q −1 (1 − Nebe /K) es un punto fijo
estable, sumidero en espiral, para el rango de parámetros cp−1 q −1 < K.
Pero el análisis de la ecuación 6.11 indica que Nebe es proporcional al costo c, e inver-
samente proporcional al precio de venta p. Por lo tanto, menores costos, o mayores
precios de venta, implican un nivel mayor de explotación del recurso. Es decir más
sobrepesca. Pero esto, aunque completamente lógico y elemental, es todo lo contrario
de lo que la teorı́a económica predice para la producción de otros bienes, por ejem-
plo, los industriales. Para este tipo de bienes la capacidad productiva se incrementa
con menores costos o mayores precios de venta, lo contrario de lo que ocurre con la
explotación de los recursos naturales.

Conclusiones
¿Por qué la economı́a de los recursos naturales conduce a este comportamiento inver-
so? La pregunta no es sólo académica. La teorı́a de Gordon (1954) no sólo contiene
esta anomalı́a económica para los recursos naturales, sino que precisamente este com-
portamiento inverso proporciona una perfecta explicación a la sobreexplotación de
los peces, los bosques tropicales, la biodiversidad, el aire, el agua, el medio ambiente
mismo. Gordon (1954) dice que la razón del comportamiento inverso es que en su
modelo nadie es propietario de los peces, son propiedad comunal, y por tanto nadie
tiene ningún incentivo para proteger el recurso. Aunque el modelo de Gordon (1954)
es simple, sus predicciones y conclusiones son muy fuertes.
La humanidad requiere avanzar en el entendimiento y la capacidad de orientar es-
tas interacciones complejas entre el sistema natural y el sistema social para que las
consecuencias correspondan a lo que queremos para las futuras generaciones.

6.4. Inteligencia Colectiva


Esta sección presenta un modelo simple para la inteligencia colectiva basado en
Solé (2011, p. 157). Los insectos sociales construyen estructuras complejas para ex-
plorar el ambiente en búsqueda de recursos, tomar decisiones que de alguna manera
nos recuerdan el funcionamiento del cerebro. Estas colonias realizan tareas sofistica-
das a pesar de que los individuos tienen capacidad limitada. La respuesta a cómo los

163
6. Aplicaciones

insectos sociales pueden realizar tareas complejas no es elemental. Una posibilidad es


la teorı́a de la criticalidad auto organizada, que algunos expresan por las sigla SOC
(Self Organized Criticality). Aquı́ se considera sólo un primer modelo simple de este
tema que es bastante más amplio.
El experimento a considerar se refiere a la pérdida de simetrı́a. Se construye una si-
tuación en la cual para acceder a una fuente de alimento las hormigas deben escoger
entre dos posibles puentes, ver figura 6.8. Ambas rutas tienen igual longitud y difi-
cultad. Se sabe que las hormigas siguen la huella quı́mica que sus congéneres dejaron.
Mientras más feromonas se hayan depositado a lo largo de una ruta mayor será la
probabilidad de que la sigan. En el mundo real las rutas tienen longitudes y dificulta-
des diferentes y como resultado de tal inteligencia colectiva estos organismos sociales
resuelven complejos problemas de optimización. El experimento ilustrado busca en-
tender cómo realizan los problemas más complicados estudiando en caso más simple
(Nicolis y Deneubourg 1999).
Sean x y y las concentraciones de feromona en cada uno de los puentes. Estas concen-
traciones son de alguna manera función del número de hormigas que exploran cada
ruta. También se tiene en cuenta que hay evaporación.

dx (x + k)2
dt = ẋ = a1 − bx, (6.12)
(x + k)2 + (y + k)2
dy (y + k)2
dt = ẏ = a2 − by. (6.13)
(x + k)2 + (y + k)2
Los parámetros a1 , a2 son la cantidad de la feromona que resulta si todas hormigas del
nido van por cada ruta, b es la tasa de evaporación y k un umbral de concentración.
Todos lo parámetros son positivos. Se va a tomar el caso simétrico, a1 = a2 = a.
Para referencia posterior las ecuaciones de los puntos fijos del sistema (6.12), (6.13)
son
(x + k)2
a − bx = 0, (6.14)
(x + k)2 + (y + k)2
(y + k)2
a − by = 0. (6.15)
(x + k)2 + (y + k)2

Si se suman las Ecs (6.14) y (6.15) se tiene que los puntos fijos cumplen

x + y = a/b. (6.16)

Con algebra elemental se ve que la nulclina (6.14), asociada a ẋ = 0, es


r
a − bx
y = (x + k) − k, (6.17)
bx
y que la nulclina (6.15), asociada a ẏ = 0, es
s
a − by
x = (y + k) −k (6.18)
by

164
6.4. Inteligencia Colectiva

Figura 6.8: Pérdida de simetrı́a en colonias de hormigas. La imagen muestra cómo


las hormigas seleccionan uno de dos posibles puentes entre su nido y una fuente de
alimento. Al cabo de un tiempo toman una ruta preferencial. Tomado de Solé (2011,
p.158)

Para caracterizar mejor los puntos fijos de cada una de las ecuaciones (6.14) y (6.15)
se despeja (x + k)2 + (y + k)2 y se igualan entre sı́ ambas expresiones para obtener

y(x + k)2 = x(y + k)2 . (6.19)

La substitución z = (x − y)/2 ayuda a simplificar un poco la escritura (en vista de


(6.16) se tiene x = a/(2b) + z y y = a/(2b) − z). Reemplazando estas expresiones en
(6.19) se tiene
  2   2
a a a a
−z +k+z = +z +k−z .
2b 2b 2b 2b

que se simplifica a !
a2
− k2 z − z 3 = 0. (6.20)
4b2

Por lo tanto zp= 0 es siempre una raı́z. Además, si a > 2bk = acr hay otras dos raı́ces
reales, z = ± a2 /(2b)2 − k 2 .
Se invita al lector a complementar el análisis anterior usando una herramienta de
solución (pplane) para los tres casos importantes (a < acr , a = acr y a > acr ). En
cada caso es importante determinar la estabilidad de los puntos fijos y dibujar el

165
6. Aplicaciones

diagrama de bifurcación correspondiente (asumir valores positivos arbitrarios para


los parámetros b y k).
Para a < acr el único punto de equilibrio es estable, simétrico, es decir hay igual
número de hormigas por ambos caminos. Mientras que para a > acr el punto de
equilibrio simétrico, aunque permanece, pierde la estabilidad, se convierte en un punto
de silla, y aparecen dos nuevos puntos de equilibrio, estables, en cada uno de ellos
predomina uno de los dos caminos sobre el otro, depende de la condición inicial, no
porque alguno de ellos tenga ventaja.
Lo que demuestra el ejemplo es que hay un mecanismo de refuerzo que conduce a
que los caminos más visitados sean más probables de ser visitados nuevamente, ese
mecanismo es la segregación de feromona

6.5. Dinámica de Lagos Pandos


Scheffer (2009) presenta un buen resumen de las múltiples retro alimentaciones exis-
tentes en los lagos pandos. El autor es un especialista en el tema, autor de múltiples
trabajos, algunos serán reseñados, otros se pueden consultar en la bibliografı́a del
libro.
Entre los ejemplos más espectaculares de transiciones crı́ticas se destaca la histéresis
entre aguas claras y turbias debida al incremento de fitoplancton, a su vez resulta-
do del aumento de nutrientes en vertimientos que van al lago, proceso denominado
eutrofización. El diagnóstico del problema sugiere controlar los vertimientos, pero,
aunque se regrese a niveles propios del estado claro en el lago, la turbiedad continúa.
Son varios los procesos involucrados, probablemente la presencia o ausencia de vege-
tación de fondo hace la diferencia, como se puede deducir de la figura 6.9.

Figura 6.9: Histéresis de turbidez en lagos pandos. La curva negra corresponde a au-
sencia de vegetación, la gris a presencia de vegetación. Las lı́neas horizontales son
valores crı́ticos de turbidez para alta temperatura (trazos) y baja (punteada). Adap-
tada de Scheffer (2009, p. 28)

166
6.5. Dinámica de Lagos Pandos

Los lagos pandos, o someros, son cuerpos de agua con profundidad media no mayor a
3 m. La superficie puede variar entre una hectárea y decenas de km2 . Una consecuencia
directa de la profundidad es la falta de estratificación térmica porque la luz puede
penetrar toda la columna. También es común que haya mezcla total por efecto del
viento, aunque esto depende obviamente del clima y de la presencia de vegetación.
Estos cuerpos de agua son vulnerables a la eutrofización por aumento de nutrientes
en vertimientos, debido a la amplia posibilidad de interacción entre los sedimentos y
el agua. Los nutrientes son ricos en fósforo y nitrógeno.
Los lagos pueden tener gran diversidad de biota, incluyendo macrófitas, numerosas
interacciones tróficas, fitoplancton, zooplancton, plantas sumergidas o flotantes, micro
invertebrados, peces, aves, etc.
Los estados alternativos que se mencionaron antes se denominan claro o transparente
y turbio. En el primero la luz penetra hasta el fondo, hay vegetación de fondo, hay
fitoplancton pero su población está controlada por zooplancton, en particular por
pulgas de agua o Dafnias, que a su vez pueden estar bajo control por peces. El estado
turbio se caracteriza por la falta de vegetación de fondo, domina el fitoplancton,
eventualmente se pueden desarrollar ciano-bacterias, el zooplancton normalmente está
sometido a altos niveles predatorios por peces, el sedimento es inestable.
Otra manifestación de las complejas interacciones en estos ecosistemas es la posibili-
dad, documentada y verificada en múltiples oportunidades, de revertir una transición
al estado claro mediante la remoción temporal de los peces, para disminuir la pre-
dación sobre el zooplancton lo que significa la posibilidad de que la población de
fitoplancton sea controlada y disminuya la turbidez. Otra opción que se ha empleado
es la disminución del nivel del lago.
En las zonas templadas la estacionalidad produce una dinámica temporal importan-
te, eventualmente ciclos y hasta caos. En invierno la vegetación sumergida tiende a
desaparecer, subsisten las semillas, las raı́ces y tubérculos. En primavera hay la posi-
bilidad de que se reestablezca el estado anterior claro, para empezar, el valor crı́tico
de turbidez para la temperatura baja es también más bajo. En primavera los peces
ponen grandes cantidades de huevos, y al cabo de una semana habrá abundancia de
juveniles. Estos se refugian en zonas de profundidad baja donde no pueden ser ata-
cados por peces mayores, además la temperatura tiende a ser mayor, lo que favorece
su desarrollo. Eventualmente el alimento puede llegar a ser limitante. El crecimiento
en talla es importante, porque a partir de un determinado tamaño no son objeto de
presa. En algunos lagos el estado claro de la primavera da origen a una fase turbia,
por el colapso de la población de dafnias que son predadas por los peces.
Como se puede apreciar, la complejidad del tema es grande, son varias las variables
y las interacciones. De las diferentes posibilidades se van a presentar cuatro mode-
los simples, que consideran uno, máximo dos eslabones de las posibles cadenas de
retroalimentación.
La filosofı́a de la modelación no es diferente a la básica de los modelos en general en
ciencias e ingenierı́a. Se quiere capturar parte de la realidad, se simplifica el resto, lo
que no se considera importante para efectos de la pregunta de interés. El modelo se usa
con un propósito, siempre hay conciencia de sus limitaciones. Cuando éstas se tornan

167
6. Aplicaciones

importantes es el momento de abandonar el modelo y reemplazarlo por otro mejor.


El proceso de contrastar las predicciones del modelo con las observaciones es parte
fundamental de la construcción del conocimiento del sistema de interés. Además, no
sólo se quiere conocer, normalmente se quiere actuar, solucionar un problema, mitigar
una acción inconveniente, o adaptarse o revertir un cambio. En tal sentido, los modelos
son fundamentales para responder preguntas del estilo: qué pasa si, esenciales para el
diseño de cursos de acción y su permanente evaluación (Kuhn 1970b; Kuhn 1970a).

Modelo Zooplancton-Fitoplancton
El modelo (Scheffer y Rinaldi 2000) es un modelo de presa predador. Sea A la po-
blación de fitoplancton (algas) y Z la del zooplancton. Las unidades usadas son de
concentración, ambas en mgl−1 . Las algas crecen de acuerdo a un modelo logı́stico y
su mortalidad se representa como una función de Monod, mientras que la ecuación
para la población de zooplancton tiene una tasa de crecimiento que se deriva de la
tasa de mortalidad de las algas y a su vez una tasa lineal de mortalidad. En efecto,
las ecuaciones son
   
A A
Ȧ = rA 1 − − gZ (6.21)
K A+h
 
A
Ż = agZ − mZ.
A+h

En la literatura se han usado los siguientes parámetros (Scheffer 2009, p. 340):


r = 0,5 d−1 es la tasa unitaria de crecimiento para las algas, K = 10 mgl−1 es
la capacidad de soporte para las algas. La máxima tasa de pastoreo del zooplanc-
ton es g = 0,4 gg−1 d−1 . El parámetro de media tasa en la ecuación de Monod es
h = 0,6 mgl−1 . El factor de eficiencia de conversión de comida en zooplancton es
a = 0,6, y la tasa lineal de mortalidad del zooplancton es m = 0,15 d−1 . El tiempo
está en dı́as, d.
Un análisis de estabilidad de este sistema muestra que tiene 3 puntos fijos. Dos tri-
viales, uno correspondiente al origen y el otro a Z = 0 y A = K. Es decir, ausencia de
vida en el primer caso y únicamente algas en un nivel de población igual a la capaci-
dad de soporte en el otro. En el cuadrante positivo, ambos puntos fijos triviales son
puntos de silla. Hay un tercer punto fijo no trivial al interior del primer cuadrante,
cuyo análisis de estabilidad se deja al lector. Corresponde a una fuente en espiral.
Al integrar esta información se llega a sospechar de la presencia de una trayectoria
cerrada no lineal que rodea la espiral inestable, es decir un ciclo lı́mite. Se invita al
lector a verificar esta sospecha. La interpretación corresponderı́a a un ciclo semejante
al del modelo Lotka-Volterra.

Modelo Turbiedad-Vegetación
En este caso las variables que se consideran más importantes son la turbiedad, que
está relacionada con el fitoplancton y se representa por E, y la vegetación de fondo
que se representa por V . En ambos casos se asume que su población obedece a un

168
6.5. Dinámica de Lagos Pandos

modelo logı́stico
 
E
Ė = rE E 1 − (6.22)
KE
 
V
V̇ = rV V 1 − ,
KV
donde la capacidad de soporte para la turbiedad se toma como una función inversa de
Monod en V , y la capacidad de soporte para la vegetación como una función inversa
de Hill en E, dadas por
hV
KE = E0 (6.23)
hV + V
hp
KV = p E p .
hE + E
Esta es la hipótesis fundamental del modelo, la capacidad de soporte del fitoplancton
decrece con la vegetación y la capacidad de soporte de la vegetación decrece con la
turbiedad. El exponente p controla la curvatura de esta función y para valores grandes
la forma sigmoidea. En Scheffer (2009, pág. c. 7) se presenta la argumentación y la
evidencia empı́rica para justificar estas hipótesis. En particular en su Figura 7.3 se
presenta un esquema que representa varias cadenas de retroalimentación. Por ejemplo,
a mayor vegetación hay mayor protección contra las olas y el sedimento tiende a ser
más estable lo que no sólo por el efecto directo de este en la turbiedad sino también
en la recirculación de nutrientes tiende a disminuir la turbiedad. La cadena se puede
seguir vı́a el efecto de la vegetación en los nutrientes y de estos en el fitoplancton,
o de la vegetación en las algas mediante sustancias alelofáticas que pueden exudarse
de raı́ces u hojas y que evitan el crecimiento de otras especies en su vecindad. Las
plantas macrófitas también pueden servir de refugio al zooplancton, lo que a su vez
significa menor fitoplancton.
Se procede al análisis del modelo. Del sistema de ecuaciones 6.22 se ve que hay dos
nulclinas para cada una de las ecuaciones, dos triviales (E = 0 y V = 0) y las otras
dos E = KE y V = KV , ecuación (6.23). Se toman los parámetros rE = rV = 0,6,
E0 = 2, hV = 0,4, hE = 1 y P = 6. La figura 6.10 ilustra las dos nulclinas. Para estos
valores de los parámetros hay lugar a tres puntos fijos, dos estables y un punto de
silla en el medio. Los dos puntos fijos estables corresponden a los dos posibles estados
alternativos, lago claro con baja turbiedad y alta cobertura vegetal en el fondo y lago
turbio sin vegetación y alta población de fitoplancton.
Se invita al lector a considerar variaciones en los parámetros, en un rango relativa-
mente estrecho se mantienen los tres puntos fijos y la interpretación no cambia. Es
posible desplazar una de las curvas a la derecha o izquierda hasta que en lugar de
tres puntos fijos haya dos, o sólo uno. La tangencia corresponde a dos puntos fijos.
Los desplazamientos corresponden a cambios en los parámetros hV o hE .
El parámetro p se puede asociar a la profundidad del lago, a medida que mayor es la
profundidad, menor p y por tanto menor la curvatura de la nulclina, más estirada la
S invertida y menor posibilidad de tres puntos fijos, ver Scheffer (2009, f. 7.5).

169
6. Aplicaciones

Figura 6.10: Nulclinas no triviales del modelo turbiedad-vegetación, ecuación (6.22).


En negro V = KV , la nulclina correspondiente a V̇ = 0. En gris E = KE , la nulclina
correspondiente a Ė = 0. KV y KV están dadas en la ecuación (6.23). Adaptada de
Scheffer (2009)

Dominio de Vegetación Flotante


Aunque los modelos anteriores son genéricos, la eutroficación es un problema tı́pico
de lagos templados, mientras que en los lagos pandos tropicales la vegetación flotante
es una preocupación fundamental, un problema abierto no resuelto. Por debajo de la
vegetación el agua queda oscura y anóxica y muy difı́cilmente puede desarrollar otra
vida. Además del efecto negativo en la piscicultura y la calidad del agua. el efecto sobre
la navegación es dramático. Se van a presentar los rudimentos del modelo propuesto en
Scheffer, Szabo, Gragnani, Van Nes, Rinaldi, Kautsky, Norberg, Roijackers y Franken
(2003), que plantea la existencia de estados estables alternos y transición crı́tica.
La transición crı́tica se da cuando se pasa un umbral de nutrientes. La explicación
viene de analizar la competencia entre la vegetación flotante y la de fondo. Las plantas
flotantes dominan la competencia por luz, pero son dominadas en la competencia
por nutrientes. Mientras que las macrófitas de fondo son afectadas por la sombra,
pero son muy resilientes con respecto a nutrientes, que los toman directamente de
los sedimentos del fondo. Además, también tienen capacidad de usar los nutrientes
disponibles en la columna de agua y de reducir la concentración de nitrógeno a valor
inferiores al lı́mite de detección.
Esta interacción da origen a dos estados estables alternativos, uno dominado por la
vegetación flotante que impide por sombra el desarrollo de vegetación de fondo. El
otro es dominado por la vegetación de fondo, con bajos niveles de nutrientes en la
columna de agua que impiden el desarrollo de vegetación flotante. esta bi estabilidad
hace muy difı́cil la transición de un estado al otro.
Las variables del modelo son la densidad de plantas flotantes F y de plantas de fondo
S. Las tasas máximas de crecimiento de cada especie son respectivamente rf y rs .

170
6.5. Dinámica de Lagos Pandos

Estas tasas máximas se reducen debido a limitaciones en luz o nutrientes. Adicio-


nalmente hay mortalidad natural, lineal con la población respectiva, con tasas lf y
ls .

n 1
Ḟ = rf F − lf F, (6.24)
n + hf 1 + af F
n 1
Ṡ = rs S − ls S.
n + hs 1 + as S + bF + W

La limitante por nutrientes se modela como una función de Monod del contenido
total del nitrógeno inorgánico disuelto en la columna, n. Esta función se satura. La
concentración de nitrógeno se asume es una función decreciente de la cantidad total
de biomasa en las plantas
N
n= ,
1 + qs S + qf F

donde la máxima concentración en ausencia de plantas es N , y los parámetros qf y qs


representan el impacto sobre el nitrógeno por unidad de masa de la planta respectiva.
La competencia intraespecı́fica por la luz para las plantas flotantes está representada
por una función inversa de Monod, con reducción a la mitad de la luz con F = 1/af .
Además de la competencia intraespecı́fica, las plantas de fondo sufren atenuación de
la luz, representada en el factor W y sombra por las plantas flotantes, representada en
el parámetro b. Se toma af = as = 0,01, b = 0,02, hf = 0,2 y hs = 0 para considerar
el caso en el cual las plantas de fondo no sufren restricción por nutrientes. Las tasas
de mortalidad se toman iguales, lf = ls = 0,05, mientras que las máximas tasas de
crecimiento son diez veces mayores, rf = rs = 0,5. La atenuación se toma en cero,
W = 0, pero la sombra es importante, b = 0, 02. Los factores en la expresión del
nitrógeno son qf = 0,005 y qs = 0,075. El valor de N es uno de los cuales se considera
tiene un efecto importante y se desea analizar con mayor detalle.
Los puntos fijos del sistema (6.24) se pueden calcular mediante algebra elemental,
las incógnitas están el denominador. Se presentan dos casos, si no hay vegetación
de fondo, S = 0, de la primera ecuación igualada a cero se obtiene un polinomio
de segundo orden para F . Si S 6= 0 hay lugar a dos ecuaciones con dos incógnitas
que igual se resuelven por métodos elementales. Como se dijo, interesa obtener el
efecto de diferentes valores de N . En la figura 6.11 se muestran los resultados. Para
valores cercanos a cero de N toda la vegetación es de fondo. A medida que crecen
los nutrientes disponibles se desarrolla un regimen mixto, con vegetación de fondo
y flotante. Si se continúa incrementando N se llega a un punto crı́tico en el cual
desaparece la vegetación de fondo y sólo queda vegetación flotante. En la figura esto
se representa con una flecha que ilustra el salto. Si se disminuye el aporte de nutrientes,
no se regresa a la condición mixta sino hasta un valor muy inferior de N .
Scheffer, Szabo, Gragnani, Van Nes, Rinaldi, Kautsky, Norberg, Roijackers y Franken
(2003) reporta evidencia para soportar el modelo, entre ella experimentos de campo.

171
6. Aplicaciones

Figura 6.11: Histéresis entre vegetación flotante y de fondo en el sistema (6.24) en


función de la carga de nutrientes N. Adaptada de Scheffer, Szabo, Gragnani, Van Nes,
Rinaldi, Kautsky, Norberg, Roijackers y Franken (2003).

Estabilización por Heterogeneidad Espacial


La estructura espacial puede afectar el potencial de un sistema. En lugar de considerar
en detalle la estructura espacial, se va a considerar un lago, en el cual hay una zona
con caracterı́sticas diferentes al resto. El modelo a considerar es la competencia entre
fitoplancton y zooplancton. El zooplancton está restringido a la zona especial, el
fitoplancton se desarrolla tanto en la zona como en el resto, y hay difusión entre
las zonas. El carácter especial de la zona puede venir de diferencias en profundidad,
presencia de vegetación que sirva de refugio al zooplancton contra la predación por
peces u otras razones (Scheffer y De Boer 1995).
Sean A1 , A2 la población de algas (fitoplancton) en cada uno de los compartimientos,
Z la población de zooplancton en el compartimiento 1. Con estas consideraciones las
ecuaciones del modelo son
   
A1 A1 d
Ȧ1 = rA1 1 − − gZ + (A2 − A1 )
K A+h f
 
A2 d
Ȧ2 = rA2 1 − − (A2 − A1 )
K 1−f
 
A
Ż = agZ − mZ.
A+h

En comparación con el modelo inicial, ecuación (6.21), se ve que la población de


fitoplancton en la zona 2 no está sometida al pastoreo por el zooplancton, y que las
dos primeras ecuaciones tienen un intercambio modelado por el parámetro d, mientras
que f representa la fracción de área de la zona 1. Para los parámetros anteriores se
toman los mismos valores usados antes. Scheffer y De Boer (1995) proceden a estudiar
el efecto de los dos nuevos parámetros, f y d. En su figura 2 se muestra la curva
de bifurcación de Hopf que indica comportamiento estable para valores bajos de la
fracción del área de la zona de pastoreo f y para valores intermedios del parámetro de

172
6.6. Corales

intercambio d. Mientras que por fuera de tal región de parámetros el comportamiento


es oscilatorio. Se invita al lector a realizar el correspondiente análisis.

6.6. Corales
Los arrecifes coralinos son ecosistemas de enorme importancia por los grandes servi-
cios ambientales que aportan, como nicho para el desarrollo de peces, primera barrera
de protección costera contra tormentas y mareas, atractivo turı́stico, hogar de la vi-
da salvaje y captador de CO2. Aunque están presentes en 101 paı́ses alrededor del
mundo, ocupan menos del 1 % de la superficie y últimamente están sometidos a cons-
tante deterioro en particular por el calentamiento global, debido al llamado blanqueo.
Tanto que se han disparado las alarmas por su inminente colapso.
Se estima que los arrecifes de coral albergan un tercio de todas las especies marinas
conocidas, es de lejos el ecosistema más biodiverso del océano, gracias a sus intrin-
cados paisajes promueve la adaptación y la creación de complejas interdependencias
entre las diversas especies que lo habitan. También son una fuente importante de
médicamente activos.
Los corales son animales invertebrados que forman colonias conformadas por diminu-
tos pólipos, que viven en simbiosis con algas fotosintéticas, y que secretan carbonato
de calcio para formar una coraza dura, construyendo ası́ los arrecifes de coral, las
enormes estructuras de roca caliza que albergan grandes cantidades de especies de
plantas y animales.
Los corales requieren luz solar para subsistir, pues la mayor parte de su energı́a pro-
viene de la relación mutualista con el alga unicelular fotosintética Zooxanthella, que
habita en sus tejidos y de la cual obtiene nutrientes y energı́a a cambio de brindarle
protección. Por depender de la fotosı́ntesis se desarrollan en aguas claras y con profun-
didades menores a los 60 metros, y son muy vulnerables a los cambios de temperatura,
acidez, y contaminantes.
La vulnerabilidad al calentamiento global, que se hace evidente con el blanqueo de
los corales, se debe a la alta sensibilidad térmica de las algas Zooxanthella. Ante altas
temperaturas del agua el coral expulsa las algas lo que implica la pérdida de color
y de allı́ su nombre. Aunque un coral blanco no necesariamente está muerto, y se
han documentado casos de corales que logran sobrevivir un evento, si es claro que
están sometidos a mayor estrés y eventualmente a la mortalidad. Lo que ha implicado
reducciones en la riqueza de especies, la reducción taxonómica y pérdida de hábitat
para millones de organismos. Estas condiciones de mayor temperatura y menor canti-
dad de algas fotosintéticas viviendo en su tejido, pueden ocasionar un cambio de fase,
de una dominada por los corales, a una fase de expansión y dominación de macro y
microalgas. Hay competencia directa por la energı́a y nutrientes disponibles, y al estar
los corales debilitados, cobran fuerza sobre estos cubriéndolos casi que en su totalidad,
y tornando un arrecife saludable en un espacio inhóspito. Las ilustraciones con foto-
grafı́as de estos estados alternativos son notables (ver por ejemplo Hastings (2013)).
Sin embargo, Buddemeier y Fautin (1993) atribuyen el blanqueo a una estrategia
adaptiva, que suspende el crecimiento hasta que las algas protozoarias retornen.

173
6. Aplicaciones

En las últimas décadas se ha observado una disminución significativa en la cobertura


y calidad de los arrecifes coralinos. Por un lado, está el calentamiento global, pero el
problema se acentúa con los fenómenos climáticos extremos como El Niño. A su vez el
problema se agrava por otras perturbaciones humanas, que favorecen la eutrofización
por aumento de nitratos y fosfatos que causa enriquecimiento en las algas. Además,
están las altas tasas de sedimentación y sobrepesca, que disminuye los niveles de
pastoreo ofrecidos por las especies herbı́voras que viven en los arrecifes y mantienen
bajo control las macroalgas.
Después de un evento de blanqueo debido a aumento de la temperatura, algunos
corales se pueden recuperar, son recolonizados por Zooxanthella. Para otros lo que
se ha observado es un cambio de régimen, donde antes predominaban los corales se
desarrollan capas gruesas de macroalgas. Una pregunta importante desde el punto
de vista de la conservación es qué hace la diferencia entre recuperación o cambio de
régimen.
Un trabajo reciente (Graham, Jennings, MacNeil, Mouillot y S. K. Wilson 2015) con-
sideró un gran evento de blanqueo en el Océano Índico debido a un evento climático.
Después de la pérdida de más del 90 % del coral vivo, 12 de 21 arrecifes documen-
tados se recuperaron a condiciones semejantes a las preexistentes, mientras que los
9 restantes sufrieron un cambio de régimen a un estado dominado por macroalgas.
La diversidad funcional de los peces asociados cambió sustancialmente durante el
blanqueo, pero retornó a las condiciones preexistentes en los corales recuperados y
continuó el deterioro en los arrecifes dominados por macroalgas. En el estudio iden-
tifican umbrales para un conjunto de factores que permiten predecir la respuesta
posterior al blanqueo. La recuperación fue favorecida cuando los arrecifes eran com-
plejos estructuralmente en aguas profundas, cuando las densidades de juveniles de
corales y de peces herbı́voros eran relativamente altas y cuando la carga de nutrientes
era relativamente baja.
A continuación, se muestra un modelo simple de cambio de régimen, esta es un área
en la que esperamos posteriores desarrollos.

Modelo

Se quiere analizar las variaciones en la fracción del área cubierta por corales (C),
macroalgas (M ) y pasto marino (T ). Se considera la competencia entre estas especies,
en particular se considera que el coral puede crecer sobre el pasto marino, mientras
que las macroalgas pueden crecer tanto sobre el coral como sobre el pasto marino.
El pasto marino puede crecer en los lugares en los que las macroalgas sean retiradas
por el pastoreo llevado a cabo por los herbı́voros o en donde los corales han muerto
de forma natural (Hastings 2013). Las macroalgas son las mayores competidoras de
los corales por luz, espacio y nutrientes. Las tasas de crecimiento asociadas a esta
competencia se asumen proporcionales al producto de las fracciones de las especies
involucradas. Se tiene en cuenta además una tasa natural de mortalidad de los corales
y una función de saturación de las macroalgas. El modelo se puede expresar con dos

174
6.7. Epidemias

variables porque M + C + T = 1,

gM
Ṁ = aM C − + γM T
M +T
Ċ = rT C − dC − aM C.

Los parámetros del modelo son las tasas de pastoreo (g = 0,0015), de mortalidad
de los corales (d = 0,001), de crecimiento de las macroalgas encima de los corales
(a = 0,01), de crecimiento de las macroalgas encima del pasto marino (γ = 0,002), y
tasa de sedimentación y crecimiento de los corales encima del pasto marino (r = 0,01).
Es claro que estos parámetros no son constantes, pueden cambiar de un sitio a otro o
en función de otras condiciones ambientales, por lo que es importante hacer análisis
de sensibilidad, los diagramas de bifurcación.

Figura 6.12: Histéresis entre corales (izquierda), macroalgas (centro) y pasto marino
(derecha) en función del parámetro de pastoreo

En la figura 6.12 se muestran los puntos fijos para las 3 variables en función del
parámetro g, la tasa de pastoreo. Las figuras se obtienen de calcular los puntos fijos,
del sistema, teniendo cuidado de considerar los casos triviales. Se invita al lector a
repetir el análisis y a estudiar la estabilidad de los puntos fijos. También se invita a
analizar la consistencia de estos resultados con la formulación del modelo.

6.7. Epidemias
Introducción
Hay en la historia varias epidemias famosas, en la peste negra del siglo XIV en Eu-
ropa se estima que murió un tercio de la población para la época que se estima en
85 millones. En Atenas en 430-428 a.c., Tucı́dides presenta un detalle minucioso de
una epidemia que diezmó los soldados y que por lo bien documentada ha servido para
varios estudios recientes. El contagio persona a persona no era claro, las enfermeda-
des se atribuı́an a vapores, maldiciones, etc. Todavı́a en la actualidad, en Indonesia
la epidemia de dengue se atribuye al humo asociado a los incendios forestales, ambos
fenómenos se incrementan con El Niño, en realidad transmitido por el mosquito Aedes
Aegypti. Para otras teorı́as conspiratorias, epidemias como la del SIDA son invencio-

175
6. Aplicaciones

nes de oscuros intereses. Claramente no todas las enfermedades son infecciosas, las
hay de origen ambiental o genético y cada una requiere su estudio especı́fico.
El control con antibióticos, vacunas, el registro y reporte epidemiológico y algunas
medidas ambientales han sido las principales herramientas en la lucha contra las
epidemias. Han aparecido complicaciones nuevas por la mutación de patógenos, el
desarrollo de resistencia a los antibióticos y la aparición o reemergencia de nuevas
enfermedades. También la movilidad ha crecido exponencialmente, aumentando el
riesgo de contagio y borrando la frontera entre poblaciones.
Sin embargo, la salud pública ha avanzado suficiente en modelos cuantitativos de
las enfermedades infecciosas. Se procede a describir lo esencial de algunos de ellos,
basados en Murray (2002, p. 316).
Hay cuatro tipos de microorganismos que causan enfermedades en humanos: virus,
bacterias, parásitos y hongos; además algunos de los patógenos son transmitidos por
vectores, como es el caso de los mosquitos. La dinámica poblacional, incluso en su
versión más simple, permite conclusiones importantes y orientar la acción de salubri-
dad. En aplicaciones reales se hace un llamado por la validación de los modelos, la
estimación de los parámetros y la verificación.
El primer modelo dinámico de una epidemia del que se tiene conocimiento es de
Bernoulli en 1760 relacionado a la varicela y que además considera la primera idea
de una vacuna.

Modelos SIR
Se considera constante la población, un pequeño grupo de individuos infectados entra
en contacto con la población y se quiere estudiar la propagación de la enfermedad
en función del tiempo. Claramente este problema depende de muchas caracterı́sti-
cas particulares, entre ellas el mecanismo especı́fico de contagio para la enfermedad
particular. A este nivel de modelo simplificado se considera sólo lo más básico.
Las hipótesis básicas son que la enfermedad luego de la recuperación confiere inmu-
nidad, lo cual en general incluye la posible muerte. Es decir, en el modelo los muertos
se contabilizan como inmunes. En estas circunstancias la población, N , se divide en
tres clases, los susceptibles, S, que son las personas sanas pero que pueden adquirir la
enfermedad. Los infectados, I, que tienen la enfermedad y la pueden transmitir. Por
último, esta la clase de los removidos, R, que incluye a los recuperados o recobrados
y también a quienes se aı́slan en cuarentena hasta la recuperación y como se dijo
los muertos. En algunas enfermedades (Ébola) los muertos son la principal fuente de
contagio, para que este modelo funciones los muertos siguen siendo parte de la clase
I y sólo pasan a la clase R cuando son enterrados.
Bajo estas hipótesis la dinámica se puede representar mediante el diagrama
S −→ I −→ R.
En términos matemáticos se asume que el incremento en el número de infectados
por contagio es proporcional al producto SI, con factor de proporcionalidad r > 0,
denominado tasa de infección. La tasa a la cual los infectados se recuperan es propor-
cional al número de infectados I con factor de proporcionalidad a > 0, denominada

176
6.7. Epidemias

tasa de recuperación, su inverso es la duración media de la enfermedad. El perı́odo de


incubación de la enfermedad es lo suficientemente corto para despreciarlo, es decir, un
susceptible que contrae la enfermedad es infeccioso de inmediato. Bajo estas hipótesis
el modelo es
Ṡ = −rSI,
I˙ = rSI − aI
Ṙ = aI.
Claramente el interés es en soluciones no negativas. Note que la constancia de la
población está construida en las ecuaciones porque Ṡ + I˙ + Ṙ = 0 lo que implica
S(t) + I(t) + R(t) = N . El problema matemático queda completamente definido si se
tienen las condiciones iniciales
S(0) = S0 > 0, I(0) = I0 > 0, R(0) = 0.
Una pregunta clave, dados todos los datos del problema: r, a, S0 y I0 = N − S0 , es
si la infección se va a propagar o no, y en caso afirmativo cómo, en particular cuándo
es el pico de la infección. Es claro que
(
˙ dI > 0 si S0 > ρ = a/r,
I(0) = = I0 (rS0 − a)

dt < 0 si S0 < ρ,

t=0

ahora, si Ṡ ≤ 0 se tiene que S(t) ≤ S0 y por tanto si S0 < ρ = a/r, la infección


declina, pues en este caso
I˙ = I(rS − a) ≤ 0,
para t ≥ 0, luego I0 > I(t) → 0 cuando t → ∞. Es decir, no hay epidemia en este
caso.
Por otro lado, si S0 > ρ = a/r se tiene que I˙ > 0 inicialmente, por lo tanto I(t) crece
y hay epidemia. El término epidemia significa que I(t) > I0 para algún t > 0.
Por lo tanto, se tiene un umbral, si S0 > Scr = ρ = a/r hay epidemia y en el
caso contrario, S0 < Scr no hay. El parámetro crı́tico ρ se denomina tasa relativa de
remoción, y su inverso r/a tasa relativa de contacto de la infección.
Otra manera de caracterizar el umbral es con la tasa de reproducción de la enferme-
dad,
rS0
R0 = ,
a
que se interpreta como el número de infectados secundarios producidos por cada
infectado primario durante el perı́odo de infección medio. Claramente si R0 > 1 hay
epidemia. La figura 6.13 muestra el diagrama de fase para diferentes condiciones
iniciales. Como R(0) = 0 se tiene que S + I = N . Se ilustra también el parámetro
crı́tico Scr = ρ.
Note que el máximo de I(t) ocurre cuando S = ρ, donde I˙ = 0. Al integrar dI/ dS =
−1 + ρ/S se ve que las trayectorias cumplen
I + S − ρ ln S = I0 + S0 − ρ ln S0 .

177
6. Aplicaciones

Ahora como I0 + S0 = N y I˙ = 0 para S = ρ se tiene


ρ
Imax = N − ρ + ρ ln .
S0
Por lo tanto, para cualquier condición inicial S0 > ρ se tiene I creciendo desde I0
hasta Imax > I0 y hay epidemia. De la Figura se ve que si S0 < ρ no hay epidemia,
I decrece desde I0 . En general para todas las trayectorias I → 0 cuando t → ∞.
Para obtener lo valores lı́mite (t → ∞) de S y/o R se usa el cálculo de
dS S
=− ,
dR ρ
que permite integrar a S = S0 exp(−R/ρ) y por tanto 0 < S(∞) ≤ N , de hecho como
I(∞) = 0 se tiene R(∞) = N − S(∞) y por tanto
   
R(∞) N − S(∞)
S(∞) = S0 exp − = S0 exp − .
ρ ρ

la solución de esta ecuación trascendente permite calcular S(∞) y por tanto R(∞) =
N − S(∞). Claramente el contagio decae por falta de infectados y no por falta de
susceptibles. Otra consecuencia importante es

Itot = I0 + S0 − S(∞).

Figura 6.13: Diagrama de fase I vs. S del modelo SIR para varias condiciones iniciales
sobre la recta S + I = N . La lı́nea vertical punteada señala el parámetro crı́tico
Scr = ρ.

178
6.8. Descomposición Espinodal

Otros Modelos
De manera muy breve se mencionan otros modelos aplicables a otras epidemias o bajo
otras circunstancias. Lo primero es considerar cambios en la población total debidos
a nacimientos y muertes. Otra modificación simple es cuando la enfermedad no causa
inmunidad, esto da origen al modelo SIS con diagrama

S −→ I −→ S.

A su vez este puede incorporar nacimientos y muertes.


El llamado modelo SIRS tiene en cuenta que los miembros de la clase R pierden la
inmunidad, el diagrama del modelo es

S −→ I −→ R −→ S.

También es posible que sea importante un perı́odo de latencia sin inmunidad, el


llamado modelo SEIS con diagrama

S −→ E −→ I −→ S.

A su vez este puede considerar inmunidad

S −→ E −→ I −→ R.

Otro aspecto importante es el patrón espacial, cuya modelación requiere ecuaciones


en derivadas parciales.

6.8. Descomposición Espinodal


Ecuación de Cahn-Hilliard
Esta Sección sigue en lo fundamental a Ursell (2007). La descomposición espinodal es
un mecanismo para la separación rápida de las componentes de una mezcla de lı́quidos
o sólidos que originalmente ocupan una fase termodinámica hasta formar dos fases que
coexisten (Dill y Bromberg 2003, p. 509). En un sistema de partı́culas que interactúan
hay dos tendencias opuestas cuya competencia explica las transiciones de fase. Por
un lado, está la entropı́a que tiende a maximizarse, el sistema tiende a maximizar
el desorden. Esta tendencia es proporcional a la magnitud de las fluctuaciones, la
temperatura T . Simultáneamente, para cada partı́cula existe la tendencia a minimizar
la energı́a de interacción con sus vecinos. En el caso que se examina en esta sección
hay una transición entre orden y desorden dependiendo de una temperatura crı́tica.
Por debajo de tal temperatura el sistema se organiza para minimizar la energı́a de
las interacciones. En la mayorı́a de los casos las partı́culas ‘prefieren’ estar cerca de
partı́culas semejantes, las fases se separan. Por encima de esa temperatura, prima la
entropı́a, hay desorden, mezcla, una sola fase.
La ecuación que describe estas interacciones se conoce como la ecuación de Cahn-
Hilliard. Suponga que se tiene un fluido compuesto de dos partı́culas diferentes, A y B.

179
6. Aplicaciones

Para simplificar se considera que el fluido ocupa un espacio de dimensión 2, un plano,


un toro o una esfera. Suponga también para simplificar que el principal mecanismo
de transporte es la difusión, es decir la hidrodinámica no juega un papel importante.
Se define un parámetro de orden, φ, que mide la abundancia de partı́culas A o B,
tal que φ = 1 significa una fase conformada totalmente por partı́culas A, mientras
que φ = −1 significa una fase conformada totalmente por partı́culas B, con una
interpolación lineal entre esas dos fases extremas. En general φ cambia en el espacio,
es decir es función de las coordenadas espaciales. Se asume que las interacciones AA
y BB son favorables, mientras que AB=BA son desfavorables. Por lo tanto, hay una
cierta energı́a no favorable asociada al gradiente del campo ∇φ. Como la dirección del
gradiente no es importante, la energı́a se penaliza por el factor |∇φ|2 para incorporar
esta simetrı́a rotacional.
De acuerdo con la teorı́a de Landau (Sección 3.2) la energı́a libre se puede escribir
como (ver ecuación (3.29))

V (φ, T ) = a2 (T )φ2 + a4 (T )φ4 = 41 (a − b2 φ2 )2 .



Las fases estables corresponden a ∂V /∂φ = 0, es decir φ∗ = ± a/b, con a > 0 y la
barrera de potencial en φb = 0. El parámetro que controla la transición de fase es a,
el valor crı́tico es a = 0. Hay dos fases estables si a > 0 y sólo una fase si a = 0.
La energı́a libre combina este potencial con una penalización debida a las fronteras
de fase que tiene su origen microscópico en la interacción entre las partı́culas A y B,
Z
F(φ) = (V + γ|∇φ|2 ) dx dy,

donde γ es una constante. Ahora de acuerdo a la ecuación (2.29), el potencial quı́mico


es
µ = ∂F/∂φ.
Esto corresponde con la intuición, como φ es una medidad del número de partı́culas,
y F es la energı́a de una configuración particular de φ, entonces el cambio en F con
respecto a φ cuantifica cómo cambia la energı́a cuando las partı́culas cambian de
posición, lo que se denomina potencial quı́mico.
Ahora, la ley de Fick establece que el flujo es proporcional al gradiente, es decir

J = −D∇µ,

con D la constante de difusión. Adicionalmente hay que considerar la ecuación de


continuidad
∂φ
+ ∇J = 0.
∂t
Lo que al substituir da
∂φ
= D∇2 µ.
∂t
Usando la definición el potencial quı́mico µ se obtiene la ecuación de Cahn-Hilliard
∂φ
= D∇2 [b4 φ3 − ab2 φ − γ∇2 φ]. (6.25)
∂t

180
6.8. Descomposición Espinodal

Semejanza Dinámica
Suponga que el sistema tiene escalas naturales de longitud λ y tiempo τ . Es decir,
que se puede adimensionalizar el sistema mediante t̂ = t/τ , x̂ = x/λ, y las derivadas

∂ ∂
= τ , y ∇nx̂ = λn ∇n .
∂ t̂ ∂t
Por tanto, la ecuación de Cahn-Hilliard se adimensionaliza a
" #
2
∂φ 2 Dτ ab 2 3 Dτ γ 2
= D∇x̂ (α φ − φ) − 4 ∇x̂ φ , (6.26)
∂ t̂ λ2 λ

con α = b/ a. De donde se ve que las escalas naturales son
γ
τ= ,
a2 b4 D
y r
1 γ
λ= ,
b a
y que la ecuación simplifica a

∂φ
= D∇2 [α2 φ3 − φ − ∇2 φ], (6.27)
∂t
donde de aquı́ en adelante para simplificar la notación no se continúa con el uso de .̂
y se sobre entiende que se trabaja con variables independientes adimensionales.
Dos conclusiones importantes se desprenden de lo anterior. Primero la escala de longi-
tud diverge en la transición de fase. Es decir λ → ∞ cuando a → 0. Esto corresponde
con la divergencia de la longitud de correlación para el modelo Ising. Lo segundo
es que la no-linealidad es más fuerte cerca de la transición de fase, α → ∞ cuando
a → 0.
Es posible calcular soluciones numéricas a la ecuación (6.27) para condiciones inicia-
les/borde apropiadas. Pero la aproximación lineal es muy esclarecedora.

Linealización
Lejos de la transición de fase, es decir cuando α  1, la siguiente aproximación lineal
a la ecuación (6.27)
∂φ
= −D∇2 [φ + ∇2 φ], (6.28)
∂t
es válida. La herramienta propia para estudiar este tipo de ecuaciones es el análisis de
Fourier (Kreyszig 2009, cáp. 11). Para ello φ, que es función del espacio x = (x1 , x2 )
y del tiempo t se va a expresar mediante la siguiente integral de Fourier
Z
φ(x, t) = Ak (t)e−ık·x dk,

181
6. Aplicaciones

p
donde k = |k| = k12 + k22 es la magnitud del vector k, el vector número de onda;
Ak es la componente k de la transformada de Fourier de φ. Las unidades de k son
inverso de longitud. Es el análogo espacial de la frecuencia angular ω; mientras que
la longitud de onda, λ = 2π/k, es el análogo del perı́odo T = 2π/ω. La terminologı́a
número de onda es aplicable a pesar de que la ecuación no es una ecuación de onda
porque usando la fórmula de Euler para el exponencial de un número complejo se ve
que e−ık·x es una función periódica en el espacio, con número de onda k. Por tanto,
la componente Ak se puede interpretar como la amplitud de φ a la escala espacial k.
Una de las propiedades de la transformada de Fourier que la hace potente para atacar
los problemas lineales es el principio de superposición de las componentes. Es el prin-
cipio de divide y vencerás. En particular las derivadas se pueden calcular fácilmente,
Z
∂φ
= Ȧk (t)e−ık·x dk,
∂t

donde la derivada total temporal de Ak se denota como A˙k . Igualmente en el espacio,


para n = 2, 4 se tiene,
Z
∇n φ(x, t) = Ak (t)(−ı)n k n e−ık·x dk.

Usando estas expresiones para las derivadas, la ecuación de Cahn-Hilliard linealizada,


ecuación (6.28), se obtiene una ecuación dinámica independiente para cada compo-
nente de Fourier,
A˙k = k 2 (1 − k 2 )Ak . (6.29)
Para cada k se tiene una ecuación lineal diferencial ordinaria desacoplada del resto.
La estabilidad depende del signo del coeficiente, en este caso del signo de 1 − k 2 . Este
es el resultado clásico de la descomposición espinodal, que establece que perturba-
ciones con escala k < 1 crecen exponencialmente
√ con el tiempo, siendo máxima la
velocidad de crecimiento para k = 1/ 2, mientras que aquellas con k > 1 decrecen
exponencialmente. La interpretación fı́sica es que variabilidad a longitudes de onda
corta (k > 1) desaparecen rápidamente, pero las variaciones a longitud de onda ma-
yor evolucionan más despacio. La Figura 6.14 ilustra esto. La Figura 6.14 ilustra la
semejanza dinámica.

Figura 6.14: Simulación de la cinética de la descomposición spinodal progresiva en


fases modelada con simulación Montercarlo. Cada cuadro corresponde de izquierda a
derecha a 20, 100, 400, 1000, 3000 y 5000 pasos de simulación. Modificada de Ursell
(2007)

182
6.9. Ejercicios

La solución al problema lineal se puede obtener usando el principio de superposición.


Cada componente en la ecuación (6.29) da origen a una solución exponencial.
Z
2 4
φ(x, t) = Ak (0)e(|k| −|k| )t e−ık·x dk,

donde Ak (0) es la transformada de Fourier de la condición inicial.

0.3
0.4
0.5
0

Log (factor escala)


-0.2
t -1/4
>7
!)?&

1 -0.4

-0.6
1 2 4
Log (tiempo)

Figura 6.15: Un ilustración de la invarianza de escala en la descomposición spinodal.


Se muestra la semejanza entre los cuadros 20, 400, 1000, y 3000. Debajo de cada
cuadro se indica el factor de escala y se adjunta también una gráfica Log-Log del
factor de escala contra el tiempo, donde se ve la relación potencial con exponente
≈ −1/4. Las imágenes escaladas se muestran embebidas en la figura original para
ilustrar la semejanza. Modificada de Ursell (2007)

6.9. Ejercicios

6.9.1 (Exclusión competitiva). Basado en Murray (2002, p. 115). En el siguiente mo-


delo de la competencia entre dos poblaciones N1 y N2 sólo la primera tiene capacidad
de carga.
 
N1 N2
Ṅ1 = r1 N1 1 − − b12 ,
K1 K1
 
N1
Ṅ2 = r2 N2 1 − b21 .
K2
Todos los parámetros son positivos. Escriba el modelo de forma adimensional, investi-
gue los puntos fijos y su estabilidad, haga un esquema de las trayectorias en el espacio
de fase. Muestre que independiente de los parámetros este modelo cumple el principio
de exclusión competitiva, es decir, que dos especies que compiten por el mismo recurso
no pueden coexistir de manera estable, si el resto de los factores ecológicos permanece
constante. Describa bajo cuales condiciones ecológicas N2 puede extinguirse.

183
6. Aplicaciones

6.9.2 (Competencia con Neandertal). Consulte algún modelo propuesto para la com-
petencia entre humanos y neandertales. Discuta si la diferencia de tasas de mortalidad
puede explicar la tasa de extinción de entre 5000 y 10000 años estimada por los pa-
leontólogos. Proponga un modelo alternativo, por ejemplo, considerando mestizaje.
6.9.3. El método de control de plagas mediante liberación de estériles se conoce por
sus siglas en inglés (SIRM). Una estrategia es mantener una población constante n
de insectos estériles. Un modelo simple para la población de insectos fértiles N (t) es
 
aN
Ṅ = N − b − kN (N + n).
N +n
Con todos los parámetros positivos. Discuta las bases del modelo. Determine un nivel
crı́tico nc que lleva a erradicar la peste. ¿Cómo serı́a el modelo si sólo se hace una
liberación?
6.9.4. Se ha encontrado que dependiendo de la temperatura del nido en el cual se
empollan los huevos se define el sexo de las crı́as. Simplificando, nidos en ciénagas
húmedas producen sólo hembras, en ciénagas secas la relación es 50 % y si el nido es
en terrenos secos se producen sólo hembras porque la temperatura es mayor. Consulte
un modelo para la distribución de sexos entre los tres tipos de zonas.
6.9.5 (Modelo Keynesiano para una economı́a nacional). Siguiendo la teorı́a Keyne-
siana sea I ≥ 0 el ingreso anual nacional, C ≥ 0 el consumo nacional, y G ≥ 0 el gasto
anual del gobierno. Los parámetros α y β están en el rango 1 < α < ∞, y 1 ≤ β < ∞.
Las ecuaciones del modelo son,
dI
= I˙ = I − αC, (6.30)
dt
dC
= Ċ = β(I − C − G). (6.31)
dt
Para cada uno de los tres casos siguientes encuentre los puntos fijos y estudie su
estabilidad. Ilustre en un diagrama de fase el campo vectorial y varias trayectorias.
Interprete el modelo y los resultados. Considere sólo soluciones en el primer cuadrante.

G constante Clasifique el punto de equilibrio de acuerdo con los parámetros α y β.


En particular considere el caso lı́mite β = 1.
G lineal Considere que el gasto del gobierno es proporcional al ingreso nacional,
G = G0 + kI,
con k > 0. Discuta las condiciones para un equilibrio. El equilibrio deja de
existir para k mayor que un valor crı́tico, kc . Discuta el comportamiento de la
economı́a para k > kc .
G cuadrático Considere que el gasto del gobierno depende cuadráticamente del in-
greso nacional,
G = G0 + kI 2 ,
con k > 0. Discuta las condiciones para dos, uno, o ningún equilibrio en función
de G0 . Discuta las implicaciones para la economı́a en cada caso.

184
6.9. Ejercicios

6.9.6 (Pesca). Considere el modelo para pesca dado por


 
N N
Ṅ = rN 1 − −H .
K A+N

Con nuevos parámetros H > 0 y A > 0 de la función de Monod. De una interpretación


al segundo término teniendo en cuenta que la dificultad de pescar aumenta cuando hay
escasez de peces. Escriba el sistema de forma adimensional con sólo dos parámetros
en la función de Monod y sin parámetros en la función logı́stica. Estudie los puntos
crı́ticos y las bifurcaciones en función de los parámetros.

185
Capı́tulo 7

Resiliencia

7.1. Definición
Resiliencia se define como la capacidad de un sistema de absorber perturbaciones sin
perder su estructura y funciones básicas (Walker y Salt 2006).
La respuesta de cualquier sistema a perturbaciones depende del contexto, sus cone-
xiones a diferentes escalas y su estado presente. Un ejemplo que se usa para ilustrar
la idea es el de un mesero en un barco. Suponga que está en un barco en puerto de
aguas tranquilas y quiere llevar de un extremo al otro un recipiente lleno de agua has-
ta el borde sin hacer regueros. Ahora imagine la misma tarea en un mar embravecido.
Desde la revolución del paleolı́tico y la invención de la agricultura y la ganaderı́a,
el problema del manejo ambiental se ha concebido como un asunto de optimización.
Parecido al caso de aguas tranquilas. Se ha asumido que es posible manejar las dife-
rentes componentes de los ecosistemas de manera aislada, encontrar un balance entre
oferta y demanda para cada componente y que el resto de los atributos del sistema
permanece fundamentalmente constante en el tiempo.
Pero los Ecosistemas son extremadamente dinámicos y se aplica mejor la analogı́a
del mar embravecido. Aparecen sorpresas permanentemente tales como tormentas,
epidemias o sequı́as. Lo que es óptimo en una circunstancia no lo es en otra, la
estructura y función del sistema cambia constantemente.

Tres causas de la insostenibilidad

a) En algunas ocasiones no hay opción, la escasez, la pobreza o la sobrepoblación


obligan a la sobreexplotación de los recursos
b) En otras ocasiones la declinación de los recursos ocurre voluntariamente, por
codicia, por incentivos perversos

187
7. Resiliencia

c) En otras ocasiones la causa es la falta de entendimiento sobre cómo funcionan


los ecosistemas y la aplicación de modelos inadecuados de explotación.
Sobre la codicia la siguiente frase de Mahatma Gandhi es muy diciente: “La natura-
leza provee suficiente para las necesidades, pero no para la codicia, de todos. (The
world has enough for everyone’s need, but not enough for everyone’s greed)”. Algunos
sugieren que la codicia se explica por la evolución en un mundo sin limitaciones, el
éxito dependı́a de la maximización de los resultados. El comportamiento y la cultura
de los humanos está fuertemente determinada por las urgencias del pasado evolutivo
(competencia, territorialidad, poder), sin los cuales no estarı́amos como especie en el
lugar que estamos. Tales antecedentes tienen mucho sentido cuando éramos un grupo
pequeño en un mundo infinito. Pero en el mundo moderno tal comportamiento está
produciendo consecuencias negativas sobre nosotros mismos y privará a las futuras
generaciones de las oportunidades que hemos disfrutado.
Un motor a menudo importante del desarrollo no-sostenible es la aplicación de mo-
delos inapropiados por desconocimiento del funcionamiento de los sistemas socio–
ambientales. Hay varios casos de fracasos incluso en ausencia de codicia y con ingentes
esfuerzos por la sostenibilidad. El desconocimiento no es sólo por cantidad, también
es por calidad.
El enfoque de este capı́tulo es en la última causa, la falta de entendimiento sobre
la complejidad de los sistemas. La primera causa, la pobreza, sólo se puede resolver
cuando se hayan atacado las otras dos. Sobre la segunda, la codicia, la mejor esperanza
está también en la filosofı́a de la resiliencia.

7.2. Cambio
Adoptar el cambio
El marco mental de la optimización apunta a un estado particular óptimo y a mante-
ner el sistema en tal estado. Para lograr tal resultado la gestión se apoya en modelos
que asumen, entre otros supuestos no reconocidos, que el cambio será incremental,
lineal y simple. Normalmente se ignoran las implicaciones de lo que ocurre a otras
escalas mayores y se desconoce los efectos sobre escalas menores. Se cree que estos
no pueden retroalimentar. Los modelos están construidos sobre los comportamien-
tos promedio, no tienen en cuenta de manera adecuada los eventos extremos y la no
linealidad (retroalimentaciones).
Las cosas cambian. Ignorar o resistir el cambio incrementa la vulnerabilidad y hace
perder oportunidades emergentes, limita las opciones. A veces el cambio es lento,
otras veces es abrupto. No somos buenos para reaccionar ante los cambios lentos, no
los percibimos o creemos que son inevitables. Los cambios abruptos nos sorprenden,
nos toman desprevenidos y sin preparación, aunque sı́ provocan reacción, a menudo
es tardı́a e inadecuada. El cambio no es ni bueno ni malo en sı́ mismo. Puede traer
consecuencias tanto favorables como desfavorables.
La definición de adoptar según la RAE es: “(1) Recibir como hijo, con los requisitos
y solemnidades que establecen las leyes, al que no lo es naturalmente. (2) Recibir,
haciéndolos propios, pareceres, métodos, doctrinas, ideologı́as, modas, etc., que han

188
7.3. Ciclos Adaptativos

sido creados por otras personas o comunidades. (3) Tomar resoluciones o acuerdos con
previo examen o deliberación. (4) Adquirir, recibir una configuración determinada”

Adaptarse al cambio
La definición de adaptar según la RAE es: “(1) Acomodar, ajustar algo a otra cosa.
(2) Hacer que un objeto o mecanismo desempeñe funciones distintas de aquellas para
las que fue construido. (3) Modificar una obra cientı́fica, literaria, musical, etc., para
que pueda difundirse entre público distinto de aquel al cual iba destinada o darle
una forma diferente de la original. (4) Dicho de una persona: Acomodarse, avenirse a
diversas circunstancias, condiciones, etc. (5) Dicho de un ser vivo: Acomodarse a las
condiciones de su entorno.”

Dos temas centrales


Un tema importante es el de los umbrales. Si un sistema cambia más allá de un cierto
valor se produce una transición, un cambio abrupto, un nuevo régimen. El otro tema
fundamental es el de los ciclos adaptativos. Los sistemas a menudo pasan por las
siguientes fases, aunque no siempre en ese orden: crecimiento rápido, conservación,
liberación y reorganización. Estos ciclos ocurren a diferentes escalas de tiempo y
espacio y de manera entrelazada, lo que es extremadamente importante.

7.3. Ciclos Adaptativos

Cómo cambian los sistemas


Algunas palabras usadas para describir el cambio son fases, ciclos, umbrales, diferen-
tes regı́menes, escalas, retroalimentación. Si no hay conciencia de un umbral es más
probable que se cruce y se caiga en un nuevo régimen no deseado. La resiliencia, que
se puede medir mediante la distancia a un umbral, es una caracterı́stica polifacéti-
ca de los sistemas socioambientales que cambian en el tiempo. ¿Cómo identificar y
promover la resiliencia? Es conveniente tener un modelo de cómo evolucionan los
sistemas.

Ciclos de la vida
Los sistemas siguen los ciclos de los seres vivos. Se nace crece, desarrolla, reproduce
y se muere También tienen ciclos las familias, las empresas, las sociedades, los ecosis-
temas. Los ciclos ocurren a diferentes escalas espaciales y temporales. Dependiendo
de la fase del ciclo, los procesos ocurren de manera diferente, a veces gradual, a veces
abruptamente. A veces hay sorpresas, hay ocasiones para la innovación. Después de
mucho observar los ecosistemas y las sociedades, L. H. Gunderson y Holling (2002)
encontraron un paradigma de los ciclos con 4 fases: crecimiento rápido, conserva-
ción, liberación y reorganización. En cada fase cambian las conexiones internas, la
flexibilidad y la resiliencia (ver figura 7.1).

189
7. Resiliencia

a K
s er vac ió
c on n

ani z aci
org ón
re
potencial

a
exp lo t ac
ió rg
ca
de s

r W
conectividad

Figura 7.1: Ciclo de Adaptación (Walker y Salt 2006)

Ciclos económicos
Aunque se ha popularizado el concepto de los ciclos desde la ecologı́a, el verdadero
origen es en la economı́a Schumpeter (1950) describió el capitalismo como una “tor-
menta perenne de destrucción creativa”. Con esas palabras se denominan las crisis
periódicas que rompen la estabilidad, pero liberan recursos para la innovación y la
reorganización.

Cuatro fases del ciclo adaptativo


Comprender el significado de las conexiones internas de un sistema, su capacidad
para responder a las perturbaciones y los cambios entre una fase y otra son elemen-
tos importantes del pensamiento sobre la resiliencia. Esta comprensión es también
importante para la gestión de los recursos naturales y la definición de polı́ticas, pues
hay momentos de mayor potencial de ingerir y otros de mayor dificultad. Las medidas
que funcionan en una fase no necesariamente funcionan en otra.

Ciclo Adaptación
Fase r, Crecimiento rápido
Especies o personas explotan las nuevas oportunidades. La denominación r viene de la
tasa máxima de crecimiento en la ecuación logı́stica. Las especies o actores (“actores
r”, o “estrategas r”) hacen uso de todos los recursos disponibles para explotar. Las
componentes del sistema están débilmente interconectadas en esta fase y el sistema
está débilmente regulado. Los “actores r” más exitosos son capaces de prosperar bajo

190
7.3. Ciclos Adaptativos

condiciones ambientales variables y tienden a operar en horizontes de tiempo muy


cortos (malezas, especies pioneras, innovadores, startups).

Fase K, Fase de Conservación


La transición a la fase K ocurre incrementalmente. En esta fase la energı́a y los mate-
riales se acumula gradualmente. Las conexiones entre las componentes se incrementan,
algunos de los actores cambian, pero al final de esta fase es cada vez más difı́cil que
entren nuevos actores. La ventaja competitiva cambia de oportunistas (se adaptan
bien a la variabilidad externa y a la incertidumbre) a especialistas que reducen el
impacto de la variabilidad mediante las relaciones que se refuerzan mutuamente. A
estos actores los denominan “actores o estrategas K”, viven más largo y son más
conservadores y eficientes en el uso de los recursos, actúan a amplias escalas y son
fuertemente competitivos. El sı́mbolo K viene de la capacidad de soporte en la ecua-
ción logı́stica. En negocios esta fase es de economı́as de escala, mayores eficiencias,
mayor productividad, menores costos unitarios, grandes ganancias en horizontes tem-
porales más largos. A medida que las interconexiones se refuerzan, los estados del
sistema son más regulados. Nuevos jugadores son excluidos. El futuro aparenta ser
predecible y determinado. En los ecosistemas el capital se acumula en formas poco
accesibles (troncos, materia orgánica muerta). En los sistemas económicos el capital
se acumula en edificios, maquinaria y capital humano. La tasa de crecimiento decrece,
el sistema es más rı́gido, la resiliencia decrece. Se disminuye la redundancia a favor
de la eficiencia. Aumenta la vulnerabilidad, el sistema es más estable y predecible,
pero sobre un rango más estrecho de condiciones.

Fase Ω, Fase de Liberación


La transición de la fase K a la fase Ω puede ocurrir en un instante. Mientras más
larga la fase de conservación menor la perturbación necesaria para acabarla. Una
perturbación que excede la resiliencia del sistema rompe la red de interacciones auto–
sostenidas. Los recursos que estaban altamente ligados se liberan en la medida que
las interacciones y controles se rompen. Estos recursos quedan disponibles para una
fase de reorganización. La pérdida de estructura continúa a medida que el capital
natural, social, económico se escapa del sistema. En los ecosistemas la perturbación
puede ser un incendio, una tormenta, una sequı́a, una epidemia. En economı́a puede
ser un invento, una crisis del mercado.

Fase α, Fase de Reorganización


En la fase Ω reina la incertidumbre y el caos, todas las opciones están abiertas. Esto
lleva rápidamente a una fase de reorganización y rejuvenecimiento. La novedad puede
florecer, pequeños eventos de azar tienen la oportunidad de influir poderosamente
en el futuro. La invención, experimentación y re–acomodación están en el orden del
dı́a. En ecosistemas pueden aparecer especies pioneras de cualquier parte, invasoras,
semillas guardadas. En economı́a o sistemas sociales nuevos grupos pueden tomar el
poder. Puede repetirse el ciclo, o el sistema puede cambiar de identidad

191
Bibliografı́a

Aki, K. (1981). ((A probabilistic synthesis of precursory phenomena)). En: Earthquake


Prediction: An International Review. Ed. por D. W. Simpson y P. G. Richards.
American Geophysical Union, Washington, págs. 566-574.
Allen, P. M. (2012). Cities and regions as self-organizing systems: models of comple-
xity. Routledge.
Andrade, R., H. Schellnhuber y M. Claussen (1998). ((Analysis of rainfall records:
possible relation to self-organized criticality)). En: Physica A: Statistical Mechanics
and its Applications 254.3, págs. 557-568.
Appleton, E. V. y B. Van der Pol (1921). ((On the form of free triode vibrations)). En:
Philosophical Magazine Series 6 42.248, págs. 201-220.
Arnold, V. I. (1973). Ordinary Differential Equations. The MIT Press, Cambrige
Massachusetts.
Arnold, V. I. (2012). Geometrical methods in the theory of ordinary differential equa-
tions. Vol. 250. Springer Science & Business Media.
Bak, P., C. Tang y K. Wiesenfeld (1987). ((Self-organized criticality: An explanation
of the 1/f noise)). En: Physical review letters 59.4, pág. 381.
Bak, P. (1996). How Nature Works: the science of self-organized criticality. 1.a ed.
Springer Verlag.
Bak, P., K. Christensen, L. Danon y T. Scanlon (2002). ((Unified scaling law for
earthquakes)). En: Physical Review Letters 88.17, pág. 178501.
Bak, P. y K. Sneppen (1993). ((Punctuated equilibrium and criticality in a simple
model of evolution)). En: Physical review letters 71.24, pág. 4083.
Bak, P., C. Tang y K. Wiesenfeld (1988). ((Self-organized criticality)). En: Physical
review A 38.1, pág. 364.
Barenblatt, G. I. (1996). Scaling, self-similarity, and intermediate asymptotics. Cam-
bridge Univ Pr.
Barenblatt, G. I. (2003). Scaling. Vol. 34. Cambridge University Press.
Beran, J. (1994). Statistics for Long-Memory Processes. Chapman y Hall, New York.
Bhattacharya, R. N., V. K. Gupta y E. C. Waymire (1983). ((The Hurst Effect under
Trends)). En: Jour. Appl. Probability.

193
Bibliografı́a

Biggs, R., G. D. Peterson y J. C. Rocha (2018). ((The Regime Shifts Database: a


framework for analyzing regime shifts in social-ecological systems)). En: Ecology
and Society 23.3.
Boettiger, C. y A. Hastings (2013). ((Tipping points: From patterns to predictions)).
En: Nature 493.7431, pág. 157.
Buck, J. (1988). ((Synchronous Rhythmic Flashing of Fireflies. II.)) English. En: The
Quarterly Review of Biology 63.3, págs. 265-289.
Buck, J. y E. Buck (1976). ((Synchronous fireflies.)) En: Scientific American 234.5,
págs. 74-85.
Buddemeier, R. W. y D. G. Fautin (1993). ((Coral bleaching as an adaptive mecha-
nism)). En: Bioscience, págs. 320-326.
Burridge, R. y L. Knopoff (1967). ((Model and theoretical seismicity)). En: Bulletin of
the seismological society of america 57.3, págs. 341-371.
Carpenter, S. R., H. A. Mooney, J. Agard, D. Capistrano, R. S. DeFries, S. Dı́az, T.
Dietz, A. K. Duraiappah, A. Oteng-Yeboah, H. M. Pereira y col. (2009). ((Science
for managing ecosystem services: Beyond the Millennium Ecosystem Assessment)).
En: Proceedings of the National Academy of Sciences 106.5, págs. 1305-1312.
Christensen, K., S. A. Di Collobiano, M. Hall y H. J. Jensen (2002). ((Tangled na-
ture: a model of evolutionary ecology)). En: Journal of theoretical Biology 216.1,
págs. 73-84.
Clark, C. W. (2013). ((Mathematics and Resource Management)). En: MAM, Mathe-
matics Awareness Month–April 2013, Mathematics of Sustainability.
Craig, G. y J. Mack (2013). ((A coarsening model for self-organization of tropical con-
vection)). En: Journal of Geophysical Research: Atmospheres 118.16, págs. 8761-8769.
Curie, P. (1895). ((Propriétés magnétiques des corps a diverses températures)). En:
Journal de Physique 4, págs. 197-263.
Darwin, C. (1859). The origin of species by means of natural selection. Murray.
Dill, K. A. y S. Bromberg (2003). Molecular driving forces: statistical thermodynamics
in chemistry and biology. Taylor & Francis.
Drijfhout, S., S. Bathiany, C. Beaulieu, V. Brovkin, M. Claussen, C. Huntingford,
M. Scheffer, G. Sgubin y D. Swingedouw (2015). ((Catalogue of abrupt shifts in
Intergovernmental Panel on Climate Change climate models)). En: Proceedings of
the National Academy of Sciences 112.43, E5777-E5786.
Einstein, A. (1949). Autobiographical notes. Ed. por P. A. Schilpp. Vol. 7. Open Court
Publishing Company.
Ellis, R. S. (2012). Entropy, large deviations, and statistical mechanics. Vol. 271.
Springer Science & Business Media.
Ermentrout, B. (1991). ((An adaptive model for synchrony in the firefly pteroptyx
malaccae)). En: Journal of Mathematical Biology 29.6, págs. 571-585.
Feller, W. F. (1968). An introduction to probability theory and its applications Vol. 1.
Third. Wiley, New York.
Feller, W. F. (1971). An introduction to probability theory and its applications, vol.
2. Wiley, New York.
Feynman, R. P., R. B. Leighton y M. L. Sands (1963). The Feynman lectures on
Physics: Mainly mechanics, radiation, and heat. Vol. 1. Addison Wesley.

194
Bibliografı́a

Fieguth, P. (2017). An Introduction to Complex Systems, Society, Ecology, and Non-


linear Dynamics. Springer International Publishing Switzerland, pág. 351.
Folke, C., S. Carpenter, B. Walker, M. Scheffer, T. Elmqvist, L. Gunderson y C. S.
Holling (2004). ((Regime shifts, resilience, and biodiversity in ecosystem manage-
ment)). En: Annu. Rev. Ecol. Evol. Syst. 35, págs. 557-581.
Franzke, C., T. Graves, N. W. Watkins, R. B. Gramacy y C. Hughes (2011). ((Ro-
bustness of Estimators of Long-Range Dependence and Self-Similarity under non-
Gaussianity)). En: Arxiv preprint arXiv:1101.5018.
Frette, V., K. Christensen, A. Malthe-Sorenssen, J. Feder y col. (1996). ((Avalanche
dynamics in a pile of rice)). En: Nature 379.6560, pág. 49.
Frigg, R. (2003). ((Self-organised criticality—what it is and what it isn’t)). En: Studies
In History and Philosophy of Science Part A 34.3, págs. 613-632.
Gallavotti, G. (1999). Statistical mechanics: A short treatise. Springer.
Gibbings, J. C. (2011). Dimensional analysis. Springer.
Gneiting, T. y M. Schlather (2004). ((Stochastic Models That Separate Fractal Dimen-
sion and the Hurst Effect)). En: SIAM Review, Society for Industrial and Applied
Mathematics 46.2, págs. 269-282.
Gordon, H. S. (1954). ((The Economic Theory of a Common-Property Resource: The
Fishery)). English. En: Journal of Political Economy 62.2, págs. 124-142.
Gould, S. J. y N. Eldredge (1977). ((Punctuated equilibria: the tempo and mode of
evolution reconsidered)). En: Paleobiology 3.02, págs. 115-151.
Graham, N. A. J., S. Jennings, M. A. MacNeil, D. Mouillot y S. K. Wilson (feb. de
2015). ((Predicting climate-driven regime shifts versus rebound potential in coral
reefs)). En: Nature 518.7537, págs. 94-97.
Grumbacher, S. K., K. C. McEwen, D. A. Halberson, D. T. Jacobs y J. Lindner
(1993). ((Self-Organized Criticality. An Experiment with Sandpiles)). En: American
Journal of Physics 61.4, págs. 329-335.
Gunderson, L. H. y C. S. Holling (2002). Panarchy: Understanding Transformations
in Human and Natural Systems. Island Press.
Gupta, V. K. y O. J. Mesa (2014). ((Horton laws for hydraulic–geometric variables and
their scaling exponents in self-similar Tokunaga river networks)). En: Nonlinear
Processes in Geophysics 21.5, págs. 1007-1025.
Gutenberg, B. y C. F. Richter (1944). ((Frequency of earthquakes in California)). En:
Bulletin of the Seismological Society of America 34.4, págs. 185-188.
Haken, H. (1983). Synergetics, an Introduction: Nonequilibrium Phase Transitions
and Self-Organization in Physics, Chemistry, and Biology. Third. Springer-verlag
Berlin.
Hardin, G. (1968). ((The Tragedy of Commons)). En: Science 162, págs. 1243, 1248.
Hastings, A. (2013). ((Multiple Stable States and Regime Shifts in Ecological Sys-
tems)). En: Mathematics TODAY, págs. 37-39.
Hastings, A. y D. B. Wysham (2010). ((Regime shifts in ecological systems can occur
with no warning)). En: Ecology letters 13.4, págs. 464-472.
Heneghan, C. y G. McDarby (nov. de 2000). ((Establishing the relation between de-
trended fluctuation analysis and power spectral density analysis for stochastic
processes)). En: Phys. Rev. E 62.5, págs. 6103-6110.
Hergarten, S. (2002). Self organized criticality in earth systems. Springer.

195
Bibliografı́a

Hergarten, S. y H. J. Neugebauer (1998). ((Self-organized criticality in a landslide


model)). En: Geophysical Research Letters 25.6, págs. 801-804.
Hirsch, M. W., S. Smale y R. L. Devaney (2004). Differential equations, dynamical
systems, and an introduction to chaos. Vol. 60. Academic Press.
Holland, J. H. (2014). Complexity: A Very Short Introduction. Oxford University
Press.
Holling, C. S. (1973). ((Resilience and stability of ecological systems)). En: Annual
review of Ecology and systematics 4, págs. 1-23.
Hurst, H. E. (1951). ((Long Term Storage Capacity of Reservoirs)). En: Trans. ASCE
116, págs. 776-808.
Huygens, C. (1888). Oeuvres complètes. Vol. 5. M. Nijhoff.
Ising, E. (1925). ((A contribution to the theory of ferromagnetism)). En: Z. Phys 31.1,
págs. 253-258.
Jaeger, H., C.-h. Liu y S. R. Nagel (1989). ((Relaxation at the angle of repose)). En:
Physical Review Letters 62.1, pág. 40.
Jaynes, E. T. (1957). ((Information theory and statistical mechanics)). En: Physical
review 106.4, pág. 620.
Jaynes, E. T. (1978). ((Where do we stand on maximum entropy?)) En: The maxi-
mum entropy formalism. Ed. por T. M. Levine RD. MIT Press, Cambridge, MA,
págs. 15-118.
Jaynes, E. T. (2003). Probability theory: the logic of science. Cambridge university
press.
Jensen, H. J. (1998). Self-organized criticality: emergent complex behavior in physical
and biological systems. Vol. 10. Cambridge university press.
Jensen, H. J. y E. Arcaute (2010). ((Complexity, collective effects, and modeling of
ecosystems: formation, function, and stability)). En: Annals of the New York Aca-
demy of Sciences 1195.s1, E19-E26.
Jost, J. (2006). Dynamical systems: examples of complex behaviour. Springer Science
& Business Media.
Kadanoff, L. P. (2000). Statistical Physics: statics, dynamics and renormalization.
World Scientific.
Kadanoff, L. P. (1999). ((Built upon sand: Theoretical ideas inspired by granular
flows)). En: Reviews of Modern Physics 71.1, pág. 435.
Kadanoff, L. P., S. R. Nagel, L. Wu y S.-m. Zhou (1989). ((Scaling and universality
in avalanches)). En: Physical Review A 39.12, pág. 6524.
Kleidon, A. y R. D. Lorenz (2004). Non-equilibrium thermodynamics and the produc-
tion of entropy: life, earth, and beyond. Springer Science & Business Media.
Koscielny-Bunde, E., J. W. Kantelhardt, P. Braun, A. Bunde y S. Havlin (2006).
((Long-term Persistence and Multifractality of River Runoff Records: Detrended
Fluctuation Studies)). En: Journal of Hydrology 322, págs. 120-137.
Kramers, H. A. y G. H. Wannier (1941). ((Statistics of the two-dimensional ferromag-
net. Part I and Part II)). En: Physical Review 60.3, págs. 252-262, 263-276.
Krebs, C. J. (1972). ((The experimental analysis of distribution and abundance)). En:
Ecology. New York: Harper and Row 1.1, pág. 1.
Kreyszig, E. (2009). Advanced Engineering Mathematics, 10th Eddition. 10th. Wiley.
Kuhn, T. S. (dic. de 1970a). Postscript.

196
Bibliografı́a

Kuhn, T. S. (1970b). The Structure of Scientific Revolutions. Chicago: University of


Chicago Press.
Laird, S. y H. J. Jensen (2006). ((The tangled nature model with inheritance and
constraint: evolutionary ecology restricted by a conserved resource)). En: ecological
complexity 3.3, págs. 253-262.
Lee, T.-D. y C.-N. Yang (1952). ((Statistical theory of equations of state and phase
transitions. II. Lattice gas and Ising model)). En: Physical Review 87.3, pág. 410.
Lenton, T. M., J. Rockström, O. Gaffney, S. Rahmstorf, K. Richardson, W. Steffen
y H. J. Schellnhuber (2019). ((Climate tipping points—too risky to bet against)).
En: Nature 575.
Lenz, W. (1920). ((Beitrag zum Verständnis der magnetischen Erscheinungen in festen
Körpern)). En: Physikalische Zeitschrift 21, págs. 613-615.
Lesne, A. y M. Laguës (2012). Scale invariance: From phase transitions to turbulence.
Springer Science & Business Media.
Levy, M. (2005). ((Social phase transitions)). En: Journal of Economic Behavior &
Organization 57.1, págs. 71-87.
Logan, J. D. (2004). Applied partial differential equations. Springer Verlag.
Lovelock, J. E. (1995). ((Geophysiology, the Science of Gaia)). En: Rev. of Geophys.
27, págs. 215-222.
Ludwig, D., D. D. Jones y C. S. Holling (1978). ((Qualitative analysis of insect out-
break systems: the spruce budworm and forest)). En: The Journal of Animal Eco-
logy 47.1, págs. 315-332.
Ma, Y.-P., I. Sudakov, C. Strong y K. M. Golden (jun. de 2019). ((Ising model for
melt ponds on Arctic sea ice)). En: New Journal of Physics 21.6, pág. 063029.
Malamud, B. D. y D. L. Turcotte (1999). ((Self-organized criticality applied to natural
hazards)). En: Natural Hazards 20.2, págs. 93-116.
Malthe-Sørenssen, A., J. Feder, K. Christensen, V. Frette y T. Jøssang (1999). ((Sur-
face fluctuations and correlations in a pile of rice)). En: Physical review letters
83.4, pág. 764.
Mandelbrot, B. B. (2002). Gaussian Self-Affinity and Fractals (Selecta Volume H).
Springer-Verlag.
Mandelbrot, B. B. y M. S. Taqqu (1979). ((Robust R/S analysis of long run serial
correlation)). En: Proc. 42nd Session ISI, págs. 69-99.
Mandelbrot, B. B. y J. R. Wallis (1968). ((Noah, Joseph, and Operational Hydrology)).
En: Water Res. Res. 4, págs. 909-918.
Mathias, J.-D., J. M. Anderies, J. Baggio, J. Hodbod, S. Huet, M. A. Janssen, M.
Milkoreit y M. Schoon (2020). ((exploring non-linear transition pathways in social-
ecological systems)). En: Scientific reports 10.1, págs. 1-12.
May, R. M. (1977). ((Thresholds and breakpoints in ecosystems with a multiplicity of
stable states)). En: Nature 269.5628, págs. 471-477.
May, R. M. y A. R. McLean (2007). Theoretical Ecology: principles and applications.
Oxford University Press, USA.
May, R. M. (2004). ((Uses and abuses of mathematics in biology)). En: Science 303.5659,
págs. 790-793.
Mesa, O. J. (2002). ((ENSO, rotación terrestre, volcanes y sismicidad.)) En: Dyna
69.136, págs. 41-61.

197
Bibliografı́a

Mesa, O. J. (2007). ¿Adónde va a caer este Globo? Universidad Nacional de Colombia,


Facultad de Minas.
Mesa, O. J. (2020). Fractales y Caos en Ingenierı́a, con Aplicaciones. Universidad
Nacional de Colombia.
Metropolis, N., A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller y E. Teller (1953).
((Equation of state calculations by fast computing machines)). En: The Journal of
Chemical Physics 21.6. Cited By (since 1996):13047, págs. 1087-1092.
Mirollo, R. E. y S. H. Strogatz (1990). ((Synchronization of Pulse-Coupled Biological
Oscillators)). En: SIAM Journal on Applied Mathematics 50.6, págs. 1645-1662.
eprint: http://dx.doi.org/10.1137/0150098.
Mitteldorf, J. y D. S. Wilson (2000). ((Population viscosity and the evolution of al-
truism)). En: Journal of theoretical biology 204.4, págs. 481-496.
Moran, P. A. P. (1964). ((On the range of cumulative sums)). En: Annals of the Institute
of Statistical Mathematics 16.1, págs. 109-112.
Muñoz, M. A. (jul. de 2018). ((Colloquium: Criticality and dynamical scaling in living
systems)). En: Rev. Mod. Phys. 90 (3), pág. 031001.
Murray, J. D. (2002). Mathematical Biology: I. An Introduction. 3.a ed. Vol. 1. Sprin-
ger.
Murray, J. D. (2008). Mathematical Biology: II. Spatial models and biomedical appli-
cations. Vol. 2. Springer.
Nagel, S. R. (1992). ((Instabilities in a sandpile)). En: Reviews of Modern Physics 64.1,
pág. 321.
Nettle, D. (1999). ((Is the rate of linguistic change constant?)) En: Lingua 108.2-3,
págs. 119-136.
Newell, G. F. y E. W. Montroll (abr. de 1953). ((On the Theory of the Ising Model of
Ferromagnetism)). En: Rev. Mod. Phys. 25 (2), págs. 353-389.
Nicolis, S. C. y J. L. Deneubourg (1999). ((Emerging patterns and food recruitment in
ants: an analytical study)). En: Journal of Theoretical Biology 198.4, págs. 575-592.
Noble, A. E., T. S. Rosenstock, P. H. Brown, J. Machta y A. Hastings (2018). ((Spatial
patterns of tree yield explained by endogenous forces through a correspondence
between the Ising model and ecology)). En: Proceedings of the National Academy
of Sciences 115.8, págs. 1825-1830. eprint: https://www.pnas.org/content/
115/8/1825.full.pdf.
Olami, Z., H. Feder y K. Christensen (1992). ((Self-organized criticality in a conti-
nuous, nonconservative cellular automaton modeling earthquakes)). En: Physical
Review Letters 68.8, pág. 1244.
Onsager, L. (1944). ((Crystal statistics. I. A two-dimensional model with an order-
disorder transition)). En: Physical Review 65.3-4, pág. 117.
Otto, I. M., J. F. Donges, R. Cremades, A. Bhowmik, R. J. Hewitt, W. Lucht, J.
Rockström, F. Allerberger, M. McCaffrey, S. S. Doe y col. (2020). ((Social tipping
dynamics for stabilizing Earth’s climate by 2050)). En: Proceedings of the National
Academy of Sciences 117.5, págs. 2354-2365.
Pearl, R. (1927). ((The growth of populations)). En: The Quarterly Review of Biology
2.4, págs. 532-548.

198
Bibliografı́a

Peierls, R. (1936). ((On Ising’s model of ferromagnetism)). En: Mathematical Procee-


dings of the Cambridge Philosophical Society. Vol. 32(3). Cambridge Univ Press,
págs. 477-481.
Percival, D. y A. Walden (1993). Spectral analysis for physical applications: multitaper
and conventional univariate techniques. Cambridge Univ Pr.
Pielou, E. C. (1969). An introduction to mathematical Ecology. Wiley-Interscience.
Pomeau, B. H. Y. y U. Frisch (1986). ((Lattice-gas automata for the Navier-Stokes
equation)). En: Phys. Rev. Lett 56.14, pág. 1505.
Rayleigh, L. (1945). Theory of Sound (1877). Macmillan, pág. 129.
Rocha, J. C., G. Peterson, Ö. Bodin y S. Levin (2018). ((Cascading regime shifts
within and across scales)). En: Science 362.6421, págs. 1379-1383.
Rocha, J. C., G. D. Peterson y R. Biggs (2015). ((Regime shifts in the Anthropocene:
drivers, risks, and resilience)). En: PLoS One 10.8, e0134639.
Ruelle, D. y G. Gallavotti (1978). Thermodynamic formalism. Vol. 112. Addison-
Wesley Reading.
Rundle, J. B., D. L. Turcotte, R. Shcherbakov, W. Klein y C. Sammis (2003). ((Sta-
tistical physics approach to understanding the multiscale dynamics of earthquake
fault systems)). En: Reviews of Geophysics 41.4. 1019, n/a-n/a.
Samorodnitsky, G. (2007). ((Long Range Dependence)). En: Foundations and Trends
in Stochastic Systems 1, págs. 163-257.
Scheffer, M. (2009). Critical transitions in nature and society. Princeton Univ Pr.
Scheffer, M., S. R. Carpenter, T. M. Lenton, J. Bascompte, W. Brock, V. Dakos, J.
van de Koppel, I. A. van de Leemput, S. A. Levin, E. H. van Nes, M. Pascual
y J. Vandermeer (2012). ((Anticipating Critical Transitions)). En: Science 338.6105,
págs. 344-348. eprint: http://www.sciencemag.org/content/338/6105/344.
full.pdf.
Scheffer, M., S. Carpenter, J. A. Foley, C. Folke y B. Walker (2001). ((Catastrophic
shifts in ecosystems)). En: Nature 413.6856, págs. 591-596.
Scheffer, M. y S. Rinaldi (2000). ((Minimal models of top-down control of phytoplank-
ton)). En: Freshwater Biology 45.2, págs. 265-283.
Scheffer, M. y S. R. Carpenter (2003). ((Catastrophic regime shifts in ecosystems: lin-
king theory to observation)). En: Trends in ecology & evolution 18.12, págs. 648-656.
Scheffer, M. y R. J. De Boer (1995). ((Implications of spatial heterogeneity for the
paradox of enrichment)). En: Ecology, págs. 2270-2277.
Scheffer, M., S. Szabo, A. Gragnani, E. H. Van Nes, S. Rinaldi, N. Kautsky, J.
Norberg, R. M. Roijackers y R. J. Franken (2003). ((Floating plant dominance
as a stable state)). En: Proceedings of the national academy of sciences 100.7,
págs. 4040-4045.
Schelling, T. C. (1971). ((Dynamic models of segregation)). En: Journal of mathema-
tical sociology 1.2, págs. 143-186.
Schrodinger, E. (1943). What is life? University Press: Cambridge.
Schumpeter, J. A. (1950). Capitalism, socialism, and democracy. Harper y Row.
Solé, R. V. (2011). Phase Transitions. Princeton University Press.
Sornette, D. (2003). Critical Phenomena in Natural Sciences. Berlin Heidelberg:
Springer Verlag.

199
Bibliografı́a

Sornette, D. y G. Ouillon (2012). ((Dragon-kings: Mechanisms, statistical methods


and empirical evidence)). En: The European Physical Journal Special Topics 205.1,
págs. 1-26.
Sornette, D. (2014). ((Physics and financial economics (1776–2014): puzzles, Ising and
agent-based models)). En: Reports on progress in physics 77.6, pág. 062001.
Stauffer, D. (2008). ((Social applications of two-dimensional Ising models)). En: Ame-
rican Journal of Physics 76.4, págs. 470-473.
Stauffer, D. y A. Aharony (1992). Introduction to percolation theory. 2nd. Taylor &
Francis.
Steffen, W., J. Rockström, K. Richardson, T. M. Lenton, C. Folke, D. Liverman,
C. P. Summerhayes, A. D. Barnosky, S. E. Cornell, M. Crucifix y col. (2018).
((Trajectories of the Earth System in the Anthropocene)). En: Proceedings of the
National Academy of Sciences 115.33, págs. 8252-8259.
Stirling, J. (1730). ((The Differential Method: A Treatise of the Summation and Inter-
polation of Infinite Series)). En: Methodus Differentialis: sive Tractatus de Sum-
matione et Interpolatione Serierum Infinitarum. Gul. Bowyer, London, english
translation by Holliday, J. 1749.
Strogatz, S. H. (1994). Nonlinear Dynamics and Chaos: with applications to physics,
biology, chemistry and engineering. Perseus Book, Reading, Massachusetts.
Strogatz, S. H. (2000). ((From Kuramoto to Crawford: exploring the onset of synchro-
nization in populations of coupled oscillators)). En: Physica D: Nonlinear Pheno-
mena 143.1, págs. 1-20.
Strogatz, S. H. (2014). Nonlinear Dynamics and Chaos: With Applications to Physics,
Biology, Chemistry, and Engineering. Second. Studies in Nonlinearity. Westview
Press.
Taylor, G. I. (1922). ((Diffusion by Continuous Movements)). En: Proc. London Math.
Soc. S2–20, págs. 196-212.
Touchette, H. (2009). ((The large deviation approach to statistical mechanics)). En:
Physics Reports 478.1, págs. 1-69.
Tsallis, C. (2009). Introduction to nonextensive statistical mechanics: approaching a
complex world. Springer Science & Business Media.
Turcotte, D. L. (1997). Fractals and chaos in geology and geophysics. Cambridge
university press.
Turcotte, D. L. (1999). ((Self-organized criticality)). En: Reports on progress in physics
62.10, pág. 1377.
Ursell, T. S. (oct. de 2007). Cahn-Hilliard Kinetics and Spinodal Decomposition in a
Diffuse System. Department of Applied Physics, California Institute of Technology
Pasadena, CA 91125.
Walker, B. y D. Salt (2006). Resilience Thinking: Sustaining Ecosystems and People
in a Changing World. Island Press.
Wilson, K. G. (1971a). ((Renormalization group and critical phenomena. I. Renor-
malization group and the Kadanoff scaling picture)). En: Physical Review B 4.9,
pág. 3174.
Wilson, K. G. (1971b). ((Renormalization group and strong interactions)). En: Physical
Review D 3.8, pág. 1818.

200
Bibliografı́a

Wilson, K. G. (1979). ((Problems in Physics with Many Scales of Length)). En: Scient.
Am 241, págs. 140-157.
Winfree, A. T. (1980). The geometry of biological time. Vol. 8. Biomathematics. Sprin-
ger Science & Business Media.
Wolfram, S. (1983). ((Statistical mechanics of cellular automata)). En: Reviews of Mo-
dern Physics 55.3, pág. 601.
Wolfram, S. (1986a). ((Cellular automaton fluids 1: Basic theory)). En: Journal of
Statistical Physics 45.3-4, págs. 471-526.
Wolfram, S. (1986b). Theory and applications of cellular automata. World scientific.
Wolfram, S. (2002). A new kind of science. Vol. 5. Wolfram media Champaign.
Yano, J.-I., C. Liu y M. W. Moncrieff (2012). ((Self-organized criticality and homeos-
tasis in atmospheric convective organization)). En: Journal of the Atmospheric
Sciences 69.12, págs. 3449-3462.
Yeomans, J. M. (1992). Statistical mechanics of phase transitions. Oxford University
Press.

201
Índice alfabético

Agard, John, vi Capistrano, Doris, vi


Aharony, Ammon, 86 Carpenter, S., vi
Aki, Keiiti, 91 Carpenter, S. R., vi
Allen, Peter M, 98 Carpenter, Stephen R, vi
Andrade, RFS, 98 Carpenter, Steve, vi
Appleton, E. V., 124 Christensen, K, 93
Arcaute, Elsa, 97 Christensen, K., 89, 97
Arnold, V. I., 133 Christensen, Kim, 89, 92, 93
Clark, Colin W., 160
Bak, P., 59, 96, 97 Claussen, Martin, vi, 98
Bak, Per, 2, 59, 89, 92, 93, 95 competencia, 156
Barenblatt, G. I., 61–63, 128 Cornell, Sarah E, vi
Barnosky, Anthony D, vi Craig, GC, 98
Bascompte, J., vi Crucifix, Michel, vi
Bathiany, Sebastian, vi Curie, Pierre, 37
Beaulieu, Claudie, vi
Beran, J., 84 Dakos, V., vi
Bhattacharya, R. N., 61, 81 Danon, Leon, 89, 92
Biggs, Reinette, vi Darwin, Charles, 95
Bodin, Örjan, vi De Boer, Rob J, 172
Boettiger, Carl, vi DeFries, Ruth S, vi
Braun, P., 85 Deneubourg, J. L., 164
Brock, W., vi Devaney, R. L., 133, 135, 136, 138
Bromberg, Sarina, 3, 10, 21, 42, 179 Di Collobiano, S. A, 97
Brovkin, Victor, vi Dietz, Thomas, vi
Brown, Patrick H., 57 Dill, Ken A, 3, 10, 21, 42, 179
Buck, E., 124 Drijfhout, Sybren, vi
Buck, J., 124 Duraiappah, Anantha K, vi
Buddemeier, Robert W, 173 Dı́az, Sandra, vi
Bunde, A., 85
Burridge, R, 89 ecuación logı́stica, 161

203
Índice alfabético

ecuación logı́stica, 105 Gupta, V. K., 61, 81


ecuaciones con rezago, 149 Gutenberg, Beno, 91, 92
Einstein, A., v
Eldredge, Niles, 95 Haken, H., 2, 10, 126
Ellis, R. S., 1 Halberson, D. A., 93
Elmqvist, Thomas, vi Hall, M., 97
encarrilamiento, 125 Hardin, Garrett, 160, 162
enfasamiento, 123 Hastings, Alan, vi, 57, 173, 174
epidemia, 129 Havlin, S., 85
Ermentrout, B., 124 Heneghan, C., 86
espacio de fase, 141 Hergarten, Stefan, 2, 60, 93, 97
espacio de fase cilı́ndrico, 147 hiperbólico, 145, 146
estabilidad estructural, 146 Hirsch, M. W., 133, 135, 136, 138
exclusión competitiva, 183 Holland, John H., v
exponencial de una matriz, 135 Holling, C. S., vi, 129, 189
Holling, Crawford Stanley, vi
Fautin, Daphne G, 173 Hughes, C., 84
Feder, H.J.S, 89 Huntingford, Chris, vi
Feder, J, 93 Hurst, H. E., 81
Feder, Jens, 93 Huygens, 123
Feller, W. F., 9, 65, 79, 80 Huygens, C., 123
Feynman, R. P., 3
Fieguth, Paul, 2, 69–73 Ising, Ernst, 37
Foley, J. A, vi Jacobs, D. T., 93
Folke, C., vi Jaeger, HM, 93
Folke, Carl, vi Jaynes, E. T., 1, 2, 10
Franken, Rob JM, 170–172 Jennings, Simon, 174
Franzke, C., 84 Jensen, Henrik Jeldtoft, 2, 60, 96, 97
Frette, V, 93 Jones, D. D., 129
Frette, Vidar, 93 Jost, J., 2
Frigg, Roman, 97 Jøssang, T, 93
Frisch, U., 48
Kadanoff, Leo P, 93
genericidad, 138 Kantelhardt, J. W., 85
Gibbings, J. C., 62 Kautsky, Nils, 170–172
Gneiting, T., 82, 83 Kleidon, Axel, 10
Golden, Kenneth M, 57 Klein, William, 91–93
Gordon, H. S., 160, 162, 163 Knopoff, Leon, 89
Gould, Stephen Jay, 95 Koppel, J. van de, vi
Gragnani, Alessandra, 170–172 Koscielny-Bunde, E., 85
Graham, Nicholas A. J., 174 Kramers, Hendrik A, 37
Gramacy, R. B., 84 Krebs, C. J., 105
Graves, T., 84 Kreyszig, Erwin, 181
Grumbacher, S. K., 93 Kuhn, Thomas Samuel, 168
Gunderson, L. H., 189
Gunderson, Lance, vi Laguës, Michel, 88, 95

204
Índice alfabético

Laird, Simon, 97 Nagel, Sidney R, 93


Lee, Tsung-Dao, 48 Neandertal, 184
Leemput, I. A. van de, vi Nes, E. H. van, vi
Leighton, R. B., 3 Nettle, Daniel, 57
Lenton, T. M., vi Neugebauer, Horst J, 93
Lenton, Timothy M, vi Nicolis, S. C., 164
Lenz, W., 37 Noble, Andrew E., 57
Lesne, Annick, 88, 95 Norberg, Jon, 170–172
Levin, S. A., vi nulclinas, 142
Levin, Simon, vi
Levy, Moshe, vi Olami, Z., 89
Lindner, J., 93 Onsager, Lars, 38
linealización, 145 oscilaciones de Josephson, 121
Liu, Changhai, 98 Oteng-Yeboah, Alfred, vi
Liu, Chu-heng, 93 Ouillon, G., 98
Liverman, Diana, vi
Logan, J. D., 63, 101 péndulo, 147
Lorenz, Ralph D, 10 péndulos sobre amortiguados, 121
Lotka-Volterra, 156 Pascual, M., vi
Lovelock, J. E., v Pearl, R., 105
luciérnagas, 123 Peierls, Rudolf, 37
Ludwig, D., 129 Percival, D.B., 85
Pereira, Henrique Miguel, vi
Ma, Yi-Ping, 57 Peterson, Garry, vi
Machta, Jonathan, 57 Peterson, Garry D, vi
Mack, JM, 98 Peterson, Garry D., vi
MacNeil, M. Aaron, 174 phase looking, 125
Malamud, Bruce D, 91 Pielou, E. C., 106
Malthe-Sorenssen, Anders, 93 Poincaré, 145
Malthe-Sørenssen, A, 93 Poincaré-Bendixson, 145
Mandelbrot, B. B., 83, 84 Pomeau, B Hasslacher Y, 48
May, R. M., vi, 106 punto de quiebre, 118
McDarby, G., 86 puntos fijos, 103
McLean, A. R., 106
McEwen, K. C., 93 Rayleigh, L., 124
Mesa, O. J., vii, 2, 60, 61, 92, 132, 133, Richardson, Katherine, vi
160 Richter, Charles F, 91, 92
Metropolis, N., 49 Rinaldi, S., 168
Mirollo, R. E., 124 Rinaldi, Sergio, 170–172
Mitteldorf, Joshua, 57 Rocha, Juan C, vi
Moncrieff, Mitchell W, 98 Rocha, Juan C., vi
Mooney, Harold A, vi Rocha, Juan Carlos, vi
Moran, P. A. P., 84 Rockström, Johan, vi
Mouillot, David, 174 Roijackers, Rudi MM, 170–172
Muñoz, Miguel A., 2, 99 Rosenbluth, A. W., 49
Murray, J. D., 106, 159, 176, 183 Rosenbluth, M. N., 49

205
Índice alfabético

Rosenstock, Todd S., 57 Van Nes, Egbert H, 170–172


Rundle, John B., 91–93 Vandermeer, J., vi

Salt, D., 2, 187, 190, 191, 193 Walden, A.T., 85


Sammis, Charles, 91–93 Walker, B., vi, 2, 187, 190, 191, 193
Samorodnitsky, G., 82–84 Walker, Brian, vi
Sands, M. L., 3 Wallis, J. R., 83
Scanlon, Tim, 89, 92 Wannier, Gregory H, 37
Scheffer, M., vi, 2, 166, 168–170 Watkins, N. W., 84
Scheffer, Marten, vi, 170–172 Waymire, E. C., 61, 81
Schelling, Thomas C, 57 Wiesenfeld, K., 59, 96, 97
Schellnhuber, HJ, 98 Wiesenfeld, Kurt, 93
Schlather, M., 82, 83 Wilson, David Sloan, 57
Schrodinger, Erwin, 42 Wilson, Kenneth G, 53
Schumpeter, J. A., 190 Wilson, Shaun K., 174
Sgubin, Giovanni, vi Winfree, Arthur T, v
Shcherbakov, Robert, 91–93 Wolfram, Stephen, 48
sincronización, 123 Wu, Lei, 93
Smale, S., 133, 135, 136, 138 Wysham, Derin B, vi
Sneppen, Kim, 95
Solé, R. V., vi, 33, 35, 163, 165 Yang, Chen-Ning, 48
Sornette, D., 2, 91, 98 Yano, Jun-Ichi, 98
Stauffer, Dietrich, 57, 86 Yeomans, Julia M, 2, 3, 28, 30–32, 34,
Steffen, Will, vi 36, 46, 51, 54–56
Stirling, J., 9
Strogatz, S. H., 101, 115, 124, 126, 127, Zhou, Su-min, 93
129, 133
Strong, Courtenay, 57
Sudakov, Ivan, 57
Summerhayes, Colin P, vi
Swingedouw, Didier, vi
Szabo, Sándor, 170–172

Tang, C., 59, 96, 97


Tang, Chao, 93
Taqqu, M. S., 84
Taylor, G. I., 81
Teller, A. H., 49
Teller, E., 49
teorema Hartman-Grobman, 146
Tsallis, Constantino, 2
Turcotte, Donald L, 88, 89, 91, 95
Turcotte, Donald L., 91–93

Ursell, T. S., 179, 182, 183

Van der Pol, B., 124

206

You might also like