You are on page 1of 84

FLUIDOS: APELLIDO DE LÍQUlDOS Y GASES

Autor: RAMÓN PERALTA-FABI

COMITÉ DE SELECCIÓN:
EDICIONES
PREFACIO
I. INTRODUCCIÓN
II. ¿QUE SON Y CÓMO LOS DESCRIBIMOS?
III .UNA "HISTORIA" DE LAS IDEAS
IV. GALAXIAS, HURACANES Y DESAGÜES
V. LA TURBULENCIA
VI. SUPERFLUIDOS
VII. EPÍLOGO
COLOFÓN
CONTRAPORTADA
COMITÉ DE SELECCIÓN:

Dr. Antonio Alonso

Dr. Juan Ramón de la Fuente

Dr. Jorge Flores

Dr. Leopoldo GarcíaColín

Dr. Tomás Garza

Dr. Gonzalo Halffter

Dr. Guillermo Haro †

Dr. Jaime Martuscelli

Dr. Héctor Nava Jaimes

Dr. Manuel Peimbert

Dr. Juan José Rivaud

Dr. Emilio Rosenblueth

Dr. José Sarukhán

Dr. Guillermo Soberón

Coordinadora Fundadora:

Física Alejandra Jaidar †

Coordinadora:

María del Carmen Farías


EDICIONES

Primera edición, 1993

Dibujos: Ramón Peralta Sierra

La Ciencia desde México es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también
sus derechos. Se publica con los auspicios de la Subsecretaría de Educación Superior e Investigación Científica de
la SEP y del Consejo Nacional de Ciencia y Tecnología.

D.R. © 1993 FONDO DE CULTURA ECONÓMICA, S. A. DE C. V.

Carretera Picacho Ajusco 227; 14200 México, D.F.

ISBN 968-16-4215-5

Impreso en México
PREFACIO

Este libro fue escrito con la intención de compartir la pasión por entender a los líquidos y gases. Así, aparecen
aspectos que finalmente entendemos y otros que siguen escabullendo nuestros afanes cotidianos. Están incluidos
algunos temas recurrentes a cualquier nota escrita sobre aguas y vientos y otros un tanto extraños y sorprendentes
que forman parte de la misma familia aristocrática de los fluidos. Muchos temas no aparecen debido a varias
limitaciones, entre las que se cuentan las del autor, pero que cumplen con el propósito de interesar al lector en
buscar lo que no está o en aclarar lo que aquí no se pudo.

Sin desearlo, y en forma casi irremediable, el texto incluye más del autor y de sus intereses que de las exquisitas
facetas que presentan los fluidos, tan comunes y especialmente corrientes. La esperanza es que alguna parte de la
lectura sea tan agradable como lo fue escribirla y que ninguna sea tan penosa como su redacción.

Agradezco a mi familia y a mis colegas, amigos y estudiantes por las interminables pláticas y sugerencias que
sirvieron para mejorar el contenido. En particular, agradezco a Rocío Chicharro y a la correctora de estilo, Laura
Pulido, por la lectura y comentarios constructivos que hicieron sobre la versión original; a Ramón Peralta Sierra le
debo las ilustraciones, la portada y la pasión por hacer lo que hago.
I. INTRODUCCIÓN

LA BELLEZA de un atardecer en el que las nubes se mezclan, cambian de forma y de color, crecen o se
desvanecen hasta quedar en nada, se multiplica y enriquece al descubrir los diversos y complejos procesos que se
conjugan para presentar el espectáculo. Lo mismo sucede al observar las olas que llegan a una playa, el fuego en
una hoguera o la corriente de un río que, pareciendo no cambiar y repetirse siempre, nunca son iguales; ésta es
parte de la magia de un fluido. La seducción viene de todas partes: de las gotas de lluvia que se estrellan en la
superficie del agua, de las variadas franjas y manchas de colores que vemos en una imagen de Júpiter, de las
hileras de pequeñas burbujas ascendentes que parecen salir de ningún lado en el seno de un vaso de cerveza, del
caprichoso ascenso de una columna de humo, de las maravillosas pompas de jabón y, observando con cuidado, de
todo lo que está a nuestro alrededor. Todas son manifestaciones de lo mismo: la dinámica de un fluido.

Los fluidos, como genéricamente llamamos a los líquidos y los gases, nos envuelven formando parte esencial de
nuestro medio ambiente. El agua y el aire son los más comunes y, como punto de referencia, los mantendremos en
mente como prototipos de un fluido. Su ubicuidad les confiere su importancia.

La experiencia humana con los fluidos se remonta más allá de los tiempos históricos. El manejo de los fluidos ha
estado íntimamente ligado al desarrollo de la sociedad. No es de sorprender entonces que desde los inicios de la
civilización la imagen del Universo incluyera a los fluidos como elementos primarios de su constitución; aire,
agua, fuego y tierra son la versión clásica y medieval de gas, líquido, plasma y sólido, o sucintamente, fluidos y
sólidos.

Como en la más apasionante novela de misterio, en la que el lector es guiado con información aparentemente
disímbola y escasa, los investigadores a través del tiempo han ido recogiendo y organizando datos sobre la
naturaleza. La guía es el experimento y la imagen que se va formando, como en un rompecabezas en tres
dimensiones, es aún fragmentada; hay ciertas piezas que embonan en grupos y algunos grupos de piezas que se
ensamblan entre sí. El caso de los fluidos, que siguen las mismas leyes de la mecánica que rige el movimiento de
los cuerpos celestes, es un ejemplo típico. Creemos tener casi todas unas unidas ya entre sí, otras desperdigadas y
a la espera de ser probadas. El reto de participar en el juego de comprender y explicar los fenómenos conocidos,
predecir nuevos o descubrir otros, sigue abierto. Es un juego colectivo en el que los participantes, que somos
todos, heredamos la experiencia de los anteriores y, tras ampliarla, la turnamos a los que siguen aumentando las
oportunidades. La solución o soluciones posibles nos eluden hasta ahora, como lo hace el agua con nuestros
esfuerzos por retenerla en las manos, escurriéndosenos entre los dedos.

Completar nuestra descripción y comprensión del comportamiento de los fluidos es, además de un fascinante
juego, una imperiosa necesidad por manejar nuestro entorno. El aire y el agua son parte esencial de la vida en la
forma que la conocemos. El transporte marítimo y aéreo depende de este conocimiento; también la agricultura,
que no puede ya lograrse si sólo se depende de un buen clima, sino de sistemas de riego, vastos y eficientes, que
permitan optimizar los recursos locales y suplir las deficiencias naturales. La predicción del clima y de sus más
violentas manifestaciones, como huracanes y tornados, es mucho más que una curiosidad académica (aunque
también lo es). Entender éstos y muchos otros problemas en los que los fluidos participan como protagonistas
principales, requiere de una labor creativa y de un trabajo sistemático y sostenido. Los resultados los demanda la
sociedad por razones culturales, estéticas y, especialmente, prácticas.

Del inmenso proyecto general de la física nos ocuparemos de la parte que estudia los fluidos desde el punto de
vista macroscópico, es decir, como los percibimos en forma más o menos directa a través de nuestros sentidos; la
alusión a su estructura atómica será hecha ocasionalmente y en forma lateral. La justificación de esta omisión será
discutida más adelante, aunque la conexión entre estos dos aspectos, uno macroscópico y continuo y el otro
microscópico y discreto, es de primordial importancia en cuanto al entendimiento último de un fluido. Esta
relación es el sujeto de estudio de la teoría cinética y de la mecánica estadística. Dentro del enfoque
macroscópico, el de la dinámica de fluidos, consideraremos sólo algunas de las partes del rompecabezas de
manera que pueda obtenerse un panorama sobre su comportamiento usual. Si bien es cierto que, dentro de la
teoría, los principios generales tienen todos la misma jerarquía, también es cierto que unos son más útiles que
otros para entender algunos aspectos de su comportamiento. Este hecho se refleja en las formas y circunstancias
en que fueron formulados. Unos fueron intuidos y usados mucho antes de ser explícitamente enunciados. Otros
fueron formulados casi en la forma en que los conocemos ahora, sin haberse apreciado su generalidad y sus
consecuencias.

Siendo que a través del tiempo, los grandes matemáticos y físicos, salvo raras excepciones, dedicaron parte de su
vida a estudiar los fluidos, no deja de sorprender la falta de atención que la historia de la ciencia ha puesto en la
génesis y desarrollo de sus brillantes ideas, ingeniosos diseños y espectaculares resultados; una de las excepciones
es la excelente obra de Enzo Levi (Levi, 1989). Gracias a los trabajos de aquellos pensadores, a quienes siempre
se recuerda con cierta nostalgia, gozamos de una visión panorámica del tema, aprendimos a plantear algunos de
los problemas y seguimos explorando los caminos por ellos señalados.
II. ¿QUE SON Y CÓMO LOS DESCRIBIMOS?

COMO en casi todas las novelas, todo resulta más comprensible si se comienza por aclarar de qué se trata, sin
echar a perder el final. Así, sería apropiado que, como con cualquier personaje principal de una novela decente
(cosa que el protagonista no tiene por qué serlo), tratemos de construir su imagen, esbozar su carácter, describir
sus pintorescas reacciones, sus variados comportamientos y su lenguaje; en fin, de mencionar todos aquellos
aspectos que lo hacen sujeto de escritura y, se esperaría, de lectura.

Como se verá más adelante, el objetivo se logra sólo parcialmente. Resulta que nuestro protagonista no es ni rubio
ni moreno, ni alto ni bajo, ni lo uno o lo otro; simple y sencillamente es difícil de acorralar con palabras y
escurridizo para manejar. Es más, después de que hablemos de su interesante estructura (digamos, sus raros
órganos internos, sus prominentes señas particulares, sus peculiaridades anatómicas y de algunas de sus
idiosincrasias y traumas infantiles), resultará que para algunos fines prácticos carece de importancia. Es como si,
tras describir minuciosamente el origen de una tormentosa secta a la que pertenece el medio hermano de la
heroína, ésta se cambiara de continente y pasara ahí el resto de sus apasionados o bucólicos días, sin relación
alguna con los inconfesables crímenes de la susodicha secta. Aun así, un biógrafo meticuloso no dejaría pasar la
oportunidad de abordar el mórbido efecto que podría haber causado en su carácter o en sus ocasionales delirios
nocturnos.

Advertidos de lo que sigue, mejor es empezar por el principio y entrar en materia, es decir, en fluidos.

II. 1. UNA INDEFINICIÓN PRECISA

La materia, es decir, todo lo que nos rodea y que percibimos a través de los sentidos, viene en tres presentaciones
aparentemente distintas y exclusivas: en sólido, en líquido o en gas. Una observación más cuidadosa nos llevaría a
pensar que esta clasificación es un tanto simplista y que debiera ampliarse, o cuando menos subdividirse. Así,
empezaríamos por organizar las cosas según su textura, color, abundancia, rigidez, etc., hasta llegar al punto en el
que cada material quede ubicado y etiquetado correctamente en el nuevo y exhaustivo esquema así elaborado.
Este enfoque tendría sus ventajas, pues dada una sustancia con un nombre debidamente asignado (como el
piridotín-3-glutaciclina-6-fosfomentasa; le antepongo el artículo "el" porque, de existir, debiera ser masculino),
bastaría con buscar en el compendio, por orden alfabético, para encontrar su descripción completa, tal vez una
ilustración y las referencias cruzadas a las otras sustancias que comparten una o más características.

En los términos arriba expuestos la tarea parece imposible, si no es que ridícula. Sin embargo, es ésta una de las
formas en que se ha procedido y los resultados son sorprendentes. Partiendo de la hipótesis, posteriormente
confirmada, de que todo está hecho de un conjunto reducido de elementos básicos que al combinarse, bajo ciertas
reglas y en diversas proporciones, da lugar a la impresionante variedad que vemos, los investigadores se dieron a
la tarea de aislarlos y caracterizarlos. Ahora contamos ya con obras que resumen el final de esta tarea
monumental, considerada una quimera a mediados del siglo XIX, que en su forma más sucinta es la tabla
periódica de los elementos de Mendeleev. A pesar de la importancia fundamental de este conocimiento, en cuanto
a nuestra comprensión del Universo se refiere, la clasificación no es suficiente para deducir las propiedades de los
compuestos que estos elementos forman, ni incluye todo lo que observamos (literalmente, la luz), ni explica cómo
un material dado responde y se comporta cuando permitimos a un agente externo influir sobre él. Esto último, el
comportamiento dinámico de la naturaleza, exige un tratamiento, un enfoque diferente, más general, universal si
es posible, que permita evitar el estudio detallado de cada material, lo que haría del programa científico una tarea
inaccesible.

Buscando características genéricas, comunes, y las razones para que éstas se manifiesten, llegamos al estudio de
la materia en sus diferentes estados de agregación (formas de presentación), que en última instancia hemos
reducido a sólidos y fluidos. Parecería ofensivo el tener que explicar lo que es y lo que no es un sólido. Sin
embargo, la separación no siempre es evidente, cuando no inadecuada, al presentar un mismo material con facetas
que lo identifican como uno y otro, simultáneamente. Por un lado, a casi todos los compuestos los podemos
observar en estado gaseoso, líquido o sólido, como al agua; dependiendo de la presión y temperatura a la que se
encuentre, será vapor, agua o hielo. Es posible, y el proceso no es nescesariamente complicado, que un gas pueda
licuarse sin cambio abrupto en su comportamiento, observándose una formación paulatina en el gas al ir
haciéndose cada vez más denso, hasta ser indistinguible de lo que consideramos líquido. Este hecho es el que nos
permite tratar a un mismo nivel, con los mismos criterios, es decir, en forma conjunta, a un gas y a un líquido.
Esto no sucede en el proceso de la solidificación de un fluido, o el proceso inverso en el que un sólido se licua o
evapora. Hay siempre un punto en el que ciertas propiedades cambian radicalmente al aparecer las dos fases: una
sólida y otra fluida, cada una con propiedades ópticas, elásticas, etc., muy distintas.

Supóngase que tenemos un medio homogéneo, es decir, un material cuya composición y propiedades son las
mismas en cada parte que lo forma. En cuanto al estado físico en el que se encuentra el sentido común (a veces
muy poco común) nos dice que si su carácter es etéreo, terso o escurridizo, el medio no es sólido. Si queremos
mantenerlo entre las manos y escapa, se trata de un fluido. Si el medio es sólido podemos retenerlo y es posible
deformarlo hasta cierto límite. Un fluido parece no presentar límite a las deformaciones que podemos imprimirle.
Estas ideas sueltas que forman parte de nuestra experiencia cotidiana son precisamente las bases para definir a un
fluido, si delimitamos un poco más los términos y conceptos incluidos. Aún así, veremos que la naturaleza se las
ingenia para exhibir ejemplos que escurren por nuestras definiciones sin dejarse atrapar.

"Un fluido es un material que fluye". Así, además de risa, la definición no da más que pena y sorprendería que
pudiera servir para caracterizar a una sustancia. Ahora, hay que precisar lo que es fluir. Para esto vamos a separar
en dos a las formas en que actúa una fuerza, que tampoco hemos definido, pero que puede entenderse como el
efecto de un agente externo; con buena voluntad y sentido común las cosas usualmente funcionan. Toda fuerza
(representada por la flecha en la figura II. 1), al actuar sobre una superficie, puede imaginarse formada de dos
partes, una normal o perpendicular a la superficie (N) y otra paralela o tangencial a ésta (T). Cada una de éstas,
llamadas componentes de la fuerza, tiene un efecto distinto sobre el material. La componente normal es la que
asociamos a la presión y tiende a comprimir o estirar, dependiendo de la dirección de la fuerza. La componente
tangencial produce un efecto de deslizamiento relativo entre los planos en que imaginamos estructurado al medio
y se le llama también fuerza cortante.

Figura II. 1. Fuerza y su descomposición en componentes normal (N) y tangencial (T).

Para ilustrar esta descomposición de las direcciones y efectos de una fuerza consideremos el siguiente ejemplo.
Imaginemos una esponja, de forma regular y pegada a dos vidrios planos en sus caras superior e inferior (Figura
II. 2(a)). Si aplicamos una fuerza puramente normal a cada uno de los vidrios (Figura II. 2(b)), la esponja se
comprime, reduciendo su volumen pero manteniendo su forma. Si ahora jalamos cada vidrio en dirección opuesta,
de modo que la separación entre ellos se mantenga constante, dando lugar a una fuerza de corte sobre la esponja,
ésta se deformará manteniendo su volumen (Figura II. 2(c)). Por lo general, una fuerza con una dirección
arbitraria produce una mezcla de ambos efectos, dependiendo de la proporción entre su componente normal y su
componente tangencial.
Figura II. 2. Esponja (a), fuerzas normales (b) y de corte (c).

Volviendo a nuestro problema original, consideremos un medio sujeto a fuerzas cortantes, como la esponja en el
caso (c). Un material que es sólido se deforma hasta cierto límite, rearreglando sus elementos estructurales
(átomos) hasta generar una fuerza igual en magnitud, opuesta en dirección a la aplicada, y así quedar en
equilibrio; en última instancia, los átomos ligados entre sí por fuerzas de origen electromagnético se ven
obligados a cambiar sus posiciones relativas hasta balancear exactamente la fuerza aplicada. La deformación se
detiene en el preciso momento en que esto se logra. Decimos que un material es elástico si al retirar las fuerzas
aplicadas recupera su forma inicial. Le llamamos plástico si no recupera su estado original y guarda cierta
memoria de las fuerzas que sufrió. Una sustancia que bajo la acción de una fuerza cortante, por pequeña que ésta
sea, se deforma sin límite se dice que fluye. ¡Un fluido es un material que fluye! Ahora ya no parece tan
tautológica la definición. Así, el mar bajo la acción del viento, que produce una fuerza cortante sobre su
superficie, se deforma sin límite, se mueve continuamente sin lograr frenar al viento por tenue que éste sea: la
deformación resultante es la que percibimos como oleaje, hipnotizando a unos y mareando a otros.

Parecería que con esto se ha logrado clasificar a todas las sustancias en dos grandes grupos. Sin embargo no es
así, lo cual hace el punto más interesante. Hay sustancias que tienen un comportamiento dual para las que nuestra
definición es inadecuada o insuficiente. Es tal la diversidad de sustancias que la tarea de completar y precisar una
sola definición es inútil.

A las rarezas las tratamos en forma especial, en subgrupos, según las circunstancias. Materiales tan familiares
como el vidrio, la pintura y el pavimento pertenecen a esta clase exótica de materiales. El vidrio, que se comporta
como sólido cuando lo estudiamos en un laboratorio (o cuando una pelota de béisbol es bateada en la dirección
equivocada y va a dar precisamente a...), resulta ser un fluido cuando los tiempos de observación son
suficientemente largos. Se puede ver en los emplomados de las viejas catedrales góticas que la parte inferior es
mucho más gruesa que la superior. La razón es que el vidrio ha fluido, por cientos de años bajo la acción de la
gravedad.

También hay sustancias que presentan comportamiento simultáneo de fluido y sólido. Su tratamiento requiere de
consideraciones particulares que caen en el área conocida como la reología. Materiales de este tipo, con
propiedades que genéricamente son llamadas viscoelásticas, son por lo general soluciones con gran cantidad de
partículas (polímeros) disueltas en ellas. Casos típicos son las resinas, los plásticos, múltiples derivados del
petróleo y diversos tipos de champú (el aire de la ciudad de México parecería un buen candidato).

II. 2. LOS ÁTOMOS Y LA VENTAJA DE IGNORARLOS

La concepción atomística de la naturaleza, según la cual todas las cosas estan constituidas por elementos
indivisibles e inmutables, se remonta al origen de nuestra civilización. Si bien no es sino hasta el siglo XVII que
esta imagen adquiere carácter científico, al empezar a ser fundamentada en la experimentación, es notable la
semejanza que hay entre las ideas básicas en sus primeras formas y las que hoy en día tenemos.

En la antigua Grecia es donde aparece no sólo la idea general del atomismo, sino las diversas formas que éste
adquiere. La existencia de los átomos y del vacío que los rodea, como una necesidad en la explicación de la
constitución del mundo, es planteada por razones filosóficas, manteniendo este carácter hasta el renacimiento
europeo.

Demócrito, en el siglo V, a.C., es sin duda el representante más importante del atomismo griego. Para él, la
naturaleza estaba formada de un número infinito de corpúsculos invisibles por su tamaño, que diferían entre sí
sólo en forma, dimensión y estado de movimiento. Comparte con Parménides la idea de un Universo
cualitativamente inmutable, pero difiere de éste en cuanto al aspecto cuantitativo, pues atribuye los cambios a la
multiplicidad de maneras en que estos átomos se combinan, manteniendo su naturaleza. Así, un cambio aparente
en calidad podía ser entendido, al menos en principio, como una variación en la cantidad de átomos que
participaban en el proceso.

En la misma época, Empédocles propone la idea de un Universo formado de cuatro elementos básicos, aire, agua,
tierra y fuego, que al mezclarse en distintas proporciones generan la inmensa variedad observada. Este modelo,
que domina el panorama a todo lo largo de la Edad Media, sin ser atomista en el sentido estricto, refleja la
necesidad de reducir a componentes primitivos a la naturaleza. Estas ideas, compartidas y desarrolladas por
Platón un siglo más tarde, y la concepción de su discípulo, Aristóteles, en torno a la desaparición de las partes al
formar un todo, impidieron el florecimiento y desarrollo del atomismo en la civilización helénica.

Cuando Tito Lucrecio Caro escribe su poema De rerum natura (Sobre la naturaleza de las cosas) en el siglo I,
a.C., el atomismo griego es incorporado a la cultura latina, enriquecido en el proceso por Epicuro, su defensor
en el siglo III, a.C. Durante los siguientes diecisiete siglos, crisol del renacimiento y etapa de gestación de los
principios del conocimiento experimental, las ideas filosóficas sobre este particular se mantienen casi invariables:
la materia no puede ser dividida sin límite y sus elementos constitutivos primitivos son inmutables, incontables en
número y finitos en su diversidad.

En las décadas alrededor de 1600, mientras Galileo Galilei y Francis Bacon establecen las bases del método
científico o experimental, Pierre Gassendi revive el atomismo clásico para una época mas madura. Daniel Sennert
y Robert Doyle, aceptando la idea atomista, le dan su verdadera dimensión al buscar su contenido en la
experimentación. Así, Boyle logra descartar en forma definitiva el sobresimplificado esquema de los cuatro
elementos. Un siglo más tarde, Antoine Laurent de Lavoisier desarrolla la metodología del análisis químico y
define en la práctica a los elementos químicos. La generación que le sigue establece los fundamentos de la teoría
atómica moderna, con la obra de John Dalton, al identificar elementos químicos con átomos y proponer las
formas en que éstos se combinan para formar compuestos.

El atomismo griego, la teoría atómica de Dalton y la idea contemporánea sobre la constitución de la materia,
comparten suficientes rasgos como para considerarlos un mismo proceso animal observado en su evolución a
través del tiempo; cada etapa muestra los cambios indispensables para alcanzar la madurez. Si bien los átomos,
concebidos como constituyentes últimos de la materia, han sido sustituidos por las partículas elementales, como el
electrón y el neutrino, se ha mantenido el atomismo que imaginara Demócrito. Por otro lado, se ha perdido el
carácter inmutable de aquellos átomos de Lucrecio y de Dalton; los nuevos átomos, en el verdadero sentido
etimológico del término, pueden combinarse para disolverse en luz (al reaccionar un electrón con un positrón) o
perder su identidad formando un todo (al combinarse un protón, un electrón y un neutrino para formar un
neutrón).

Esta búsqueda de la explicación última de la materia en términos de sus componentes más simples ha sido, y es,
un esfuerzo por alcanzar uno de los objetivos fundamentales de la física. Creemos tener una idea bastante cercana
y correcta sobre estos pequeños bloques universales con los que se construye todo lo que observamos. Otro es el
problema de cómo éstos se combinan para formar átomos, éstos a su vez formar moléculas y éstas agruparse para
conformar un elote, o un insecto rayado que almacena miel en hexágonos o, lo que resulta más sorprendente, dos
mamíferos que se comunican entre sí, uno pinto que ladra, y otro bípedo que lo cuida, circunnavega el planeta y
se asombra de todo, hasta de su mismo asombro.

No deja de llamar la atención que lo que damos ya como un hecho, la existencia de los átomos, sea en realidad
algo que no se puede intuir fácilmente. Nuestros sentidos son incapaces de percibirlos y lo que nos rodea parece
consistir de objetos, sólidos y fluidos, de aspecto terso y continuo. Es difícil imaginar que el humo de un cigarro
esté formado de moléculas relativamente complejas o que al aire que respiramos lo componen moléculas simples
separadas unas de otras millares de veces la distancia que caracteriza su tamaño. Para tener una idea de las
dimensiones atómicas tendríamos que imaginar todo amplificado, de manera que por ejemplo una manzana fuese
del tamaño de la Tierra. ¡Un átomo de la manzana sería entonces del tamaño de una canica! Si toda esta
concepción es cierta, y todo parece indicar que así es, la tarea de explicar, por ejemplo, el movimiento del agua al
salir de un tubo, en términos de átomos, parece equivalente a tratar de construir la Torre de Babel.

El problema de estudiar el movimiento individual de miríadas de partículas para luego predecir su


comportamiento conjunto es algo que no tiene que ver con la física; en la práctica el problema no puede ni
plantearse, mucho menos resolverse. Sería necesario aplicar las leyes básicas de los átomos, la mecánica
cuántica, a cada partícula, y conocer detalladamente todas las fuerzas que actúan sobre cada una, establecer sus
posiciones en algún momento y, con las matemáticas usuales, resolver simultáneamente el problema para todas.

En una gota de agua hay 100 000 000 000 000 000 (1017) moléculas de agua aproximadamente, ¡tantas como
segundos en la edad estimada del Universo!. Sería ridículo intentar escribir las ecuaciones y patético pensar en
resolverlas. Nos tomó siglos pasar de una idea filosófica a una concreta que nos permite explicar suficientes cosas
como para que su validez esté, por lo pronto, más allá de toda duda razonable. Ahora resulta que el asunto es tan
complicado, que la idea es algo enteramente inútil (al menos para estudiar chorros de agua).

La solución de este problema se encuentra en la complejidad del mismo. Suena paradójico, pero con un ejemplo
podemos intuir el argumento que siguieron quienes contribuyeron a esclarecer la solución.

Imaginemos un dado perfecto, cada arista de la misma longitud y cada ángulo de 90º. Supongamos ahora que el
dado se encuentra parado sobre un vértice, con el vértice diametralmente opuesto sobre una línea vertical, y que
nos preguntamos por la dirección en la que va a caer al soltarlo (Figura II.3). Si el lado es perfectamente
simétrico, ¡no cae! Se quedará así mientras no sea perturbado. Una corriente de aire o una vibración, por
imperceptibles que sean, harán que caiga el dado.

Figura II. 3. Equilibrio de un dado.

Una pequeña variación trae como consecuencia un efecto grande: la caída del dado. Los detalles de la
perturbación son casi imposibles de prever y por consiguiente la posición precisa del dado no se puede predecir.
Las fuentes que originan estas pequeñas variaciones son diversas, complicadas y difíciles de estimar. Un efecto es
siempre el mismo: el dado se cae. Si hacemos una serie de pruebas encontraremos que las direcciones en las que
cae están distribuidas sobre un círculo y que las caras que quedan hacia arriba son las tres opuestas al vértice de
abajo, apareciendo éstas con igual frecuencia, si el número de pruebas es suficientemente grande. Así, del
problema inicial, imposible de resolver, hemos podido encontrar varios aspectos claros y precisos de la solución,
quizá obvios o triviales en este caso, pero que nos dicen cosas concretas sobre la caída. En primer lugar sabemos
que cae; si esperamos lo suficiente, algo o alguien llegará a importunar la delicada paz del dado. Segundo, el dado
no tiene preferencias y cae en cualquier dirección. En tercer lugar, hay tres caras que se reparten por partes
iguales el derecho de aparecer arriba.

Este ejemplo ilustra los puntos claves que permiten estudiar la dinámica de un fluido, constituido de un número
extraordinario de átomos.

Nuestro sistema, el dado y sus alrededores, todo lo que rodea y afecta al dado, siguen ciertas leyes, las leyes de la
mecánica. La aplicación de estas leyes resulta tan complicada que no podemos resolver el problema en la forma
originalmente planteada, es decir, predecir en detalle el movimiento del sistema. Si cambiamos el enfoque
buscando ahora una descripción cualitativa, más general, es posible entonces responder en forma precisa algunos
aspectos de la caída de dados; aspectos de carácter más amplio que no dependen de los minuciosos y abrumadores
detalles del proceso. Para esto aceptamos a cambio describir el comportamiento más probable o promedio del
sistema, introduciendo un elemento esencialmente nuevo en nuestra descripción: la probabilidad. Esta
herramienta, una de las más poderosas que las matemáticas han generado, es ahora un ingrediente fundamental en
la física.

Podría pensarse que el precio de nuestra ignorancia o incapacidad es el de conformarse con una descripción más
burda, menos exacta, pero no es así. En realidad el problema inicial es irrelevante y en el fondo ni siquiera
interesa. Si en el ejemplo del dado pudiésemos resolver un caso en particular, haciendo uso de todo lo que
sabemos y una dosis de ingenio, tendríamos precisamente eso, un caso especial. Una pequeña variación y el
resultado sería muy distinto (otra dirección y otra cara). Este efecto, en el que un pequeño cambio en el estado
inicial produce un resultado final radicalmente distinto, ha introducido más de una sorpresa en nuestro estudio de
la naturaleza. Esto es particularmente cierto con los fluidos. Mucho más fructífera ha sido en cambio la búsqueda
del comportamiento global, promedio y genérico de un sistema.

No es raro escuchar que cuando se recurre al análisis estadístico o al uso de conceptos probabilísticos es debido a
nuestra incapacidad o ignorancia. Sin afirmar que esta posición es ridícula, sí es sólo una parte de la historia; a
veces irrelevante. Al promediar muchos detalles se obtiene una descripción completa. En el caso de los gases no
es necesario conocer muchos de los detalles atómicos para conocer su temperatura, presión y volumen. Esto es
característico del sistema, ¡no de quien lo observa! En todo caso, la tarea del científico es la de explicar cómo y
por qué sucede esta maravillosa contracción de la información. Encontrar qué cantidades o propiedades
microscópicas son irrelevantes para predecir el comportamiento que observamos es parte de la investigación en
curso, si bien contamos con respuestas exquisitas e indicaciones claras de cómo proceder en muchos casos.

La descripción macroscópica de un fluido, es decir, la definición de las cantidades que se usan para caracterizar su
estado y las leyes que determinan la variación temporal y espacial de éstas, tiene su fundamento en el
comportamiento (dinámica) de las partículas que lo forman. Esto ocurre de tal manera que, al actuar en concierto,
cada átomo o molécula pierde su identidad, heredando algunas de sus características a cantidades genéricas o
colectivas llamadas coeficientes de transporte, como la viscosidad y la conductividad térmica. Estas etiquetan al
fluido, distinguiéndolo de otro de composición diferente.

La teoría que establece la conexión entre este mundo microscópico de átomos y moléculas y el mundo de los
fluidos, de chorros y remolinos, es un activo proyecto de investigación en múltiples instituciones académicas en
casi todos los países, en particular en México. En el caso de fluidos poco densos, de los gases, la teoría fue
construida por James Clerk Maxwell y Ludwig Boltzmann a finales del siglo pasado y desarrollada a todo lo largo
del presente siglo; se conoce como la teoría cinética de los gases. El notable éxito logrado en el caso de los gases
confirma la viabilidad del programa que busca establecer esta conección en el caso de un fluido arbitrario y fuera
de equilibrio.

Desde un punto de vista más práctico, cualquier fluido como el agua o el aire forma una estructura continua y
suave al estudiarlo macroscópicamente, es decir en dimensiones mayores a, digamos, décimas de milímetro (0.1
mm = 10-4 m). En un volumen de un cubo de 0.1 mm de longitud por lado, de una millonésima de litro (10-12 m³),
hay 7.34 x 1015 (734 seguido de 13 ceros) moléculas de aire, a una temperatura de 27º C ¡y a presión atmosférica!
En este volumen, tan pequeño como parece, hay tal cantidad de moléculas que la presencia de unos millones de
más o de menos de éstas no afectan de manera apreciable ninguna cantidad medible, aun con los instrumentos
más precisos de que se dispone. Estos instrumentos miden cantidades promedio sobre un desorbitado número de
partículas, de manera independiente de éste.

En una verdadera escala microscópica los átomos ocupan una fracción muy pequeña del volumen que los
contiene, el espacio vacío entre unos y otros ¡es mayor al 99.999... %!, de modo que las propiedades del fluido
son muy irregulares, cambiando rápidamente de una región a otra debido al continuo movimiento de las
moléculas; no usamos pues esta microescala cuando lo que interesa es entender cómo se vacía un lavabo o se infla
un globo.

La hipótesis básica, que es válida para la teoría en todos los niveles, es la llamada hipótesis del continuo. Ésta
consiste en suponer que todas las cantidades necesarias para caracterizar a un fluido, como pueden ser su
temperatura, su velocidad, su densidad, etc., están bien definidas en cada punto del espacio y varían suavemente
de uno a otro, ignorándose así la naturaleza discreta, atómica, del fluido. Por un punto se sobreentiende entonces
un volumen muy pequeño, digamos una milésima del considerado en el párrafo anterior, en el que hay un número
tan grande de moléculas como para que el promedio de la velocidad no dependa de este número, pero lo
suficientemente pequeño como para que pueda verse como un punto por los instrumentos más sensibles y finos.

A partir de ahora dejaremos de lado a los átomos, pues a pesar de su importancia hemos encontrado la ventaja de
ignorarlos. Nuestras partículas de fluido tendrán el sentido que dimos a un punto en el fluido. A pesar de la
advertencia, volveremos a los átomos en el último capítulo, cuando nos dejemos sorprender por los superfluidos.

II. 3. APEROS: FRASCOS Y TUBOS, IDEAS, MATEMÁTICAS Y... FLUIDOS

El estudio de un fenómeno, o un grupo de ellos, se inicia con una serie de observaciones que permiten apreciar
cuáles son los aspectos más importantes, los que gobiernan el proceso. En el fondo, lo que se busca es la forma de
simplificar el análisis, aislando las causas que determinan el efecto principal e ignorando aquellas que
desempeñan un papel secundario. Establecer cuáles cantidades y la forma en que éstas contribuyen es una parte
medular del proceso de entendimiento. Encontrar las razones por las que se combinan de esa manera, usando los
principios o leyes correspondientes, es otra etapa igualmente difícil e importante. La última parte, la esencia
misma del conocimiento científico, es la predicción. Con base en el estudio previo debe ser posible anticipar el
resultado de nuevas observaciones al cambiar de diversas formas el arreglo inicial del fenómeno.

En el esquema anterior está implícito lo que se conoce como método científico. Lejos de ser un procedimiento
sistemático y consciente, que lo convertiría en una receta, hermosa, complicada y útil, pero al fin y al cabo una
secuencia de pasos bien definidos a seguir, los investigadores intuyen este procedimiento con base en una
tradición racional, participando en una o más de estas etapas, omitiendo algunas, ocasionalmente agregando otras
y ligados indisolublemente, conscientemente o no, a su entorno social. Lo que sí podemos extraer son algunos de
los elementos que parecen siempre estar presentes en una u otra forma en el quehacer científico y en especial en la
física; este problema, ciertamente abierto, es materia de la teoría del conocimiento, la epistemología, y ha sido
objeto de estudio y reflexión de filósofos e investigadores.

Un primer aspecto es la concepción filosófica que el observador tiene de la naturaleza y del conocimiento que
sobre ésta puede adquirir; aquella puede ser explícita o tácita. En este mismo nivel hay una serie de principios
filosóficos y de reglas lógicas que el investigador establece, usa y que, normalmente, van implícitas en su trabajo.
Así, su contribución diaria puede sobreentender un materialismo que da por hecho la existencia de un mundo
objetivo independiente de él, una convicción total en el principio de causalidad que justifica buscar el origen de
un efecto, o el uso irrestricto de la lógica clásica, que sin temor al abuso se omiten al discutir de política.

En la parte que toca a las observaciones mismas, empezamos por elaborar un modelo a priori (antes de empezar)
sobre el fenómeno al separarlo en partes, el sistema y sus alrededores, y asociarle una regularidad que nos asegure
que al repetirse el fenómeno podremos observar y medir lo mismo. Si un resultado no se puede reproducir, por lo
general pierde el interés científico, convirtiéndose en un hecho fortuito, objeto de un análisis de otra especie. El
llevar a cabo un experimento que "remede en todo" al anterior, tantas veces como sea necesario, es algo que sólo
puede lograrse en un laboratorio.

Así, con base en el ingenio, la minuciosidad sistemática, la intuición y la experiencia, como en cada etapa en la
dilucidación del fenómeno, se escogen las cantidades relevantes. Acto seguido se determina la forma de medirlas,
las posibles fuentes de error y se procede a su cuantificación, estableciendo la consistencia interna y la estadística
de los datos obtenidos.

El análisis siguiente consiste en asociar un símbolo a cada cantidad y precisar las posibles relaciones entre éstos,
es decir, la forma en que unos dependen de otros. Este proceso lleva a la elaboración de expresiones (fórmulas)
que vinculan a los símbolos entre sí, sintetizando grandes cantidades de datos. Las reglas para asociar números a
símbolos y para manipular y combinar estos últimos constituye el lenguaje que llamamos matemáticas.

En realidad, las matemáticas son una disciplina teórica que va más allá de un lenguaje o una herramienta, aunque
vistas como tales permiten, en manos educadas y hábiles, forjar una imagen abstracta, extremadamente útil y
especialmente bella del universo concreto que percibimos. Una virtud de las imágenes así logradas es su
capacidad de hablar, a quien las sabe oír, sobre lo que es posible y lo que es probable. ¡Cómo hubiesen
aprovechado algo semejante las sacerdotisas del oráculo de Delfos! No siendo de origen divino las predicciones
así logradas, como nunca lo fueron las pregonadas por las pitias en Delfos, siempre son sujetas de verificación, a
través de más experimentos. Basta con uno de éstos que no corresponda a lo esperado o predicho, para que sea
necesario modificar parte de las premisas usadas en la elaboración de la predicción, repitiéndose entonces el
proceso. Ha sucedido, por fortuna muy de vez en cuando, que las modificaciones necesarias han ido al mismo
fondo de los principios filosóficos.

La física funciona más o menos como lo hemos esbozado. Al construir una teoría se parte de algunos conceptos
primitivos que se dejan sin definir o se apela a la intuición para introducirlos, como la masa, el espacio y el
tiempo. Después, se definen cuidadosamente cantidades compuestas, como la densidad, la velocidad y la presión,
y acto seguido se postulan ciertas proposiciones (basadas en experimentos), los axiomas o leyes fundamentales,
como verdaderas y universales. Su inmensa virtud es que, ante la duda, basta con llevar a cabo un experimento
para constatar su validez. A partir de los axiomas se deducen entonces una serie de proposiciones o teoremas que,
posteriormente, llegan a ser consecuencias no triviales y lejanas de aquellos postulados originales. En muchos
casos los teoremas son formulados como conjeturas basadas en la intuición o como resultado de un experimento.
El reto en estas circunstancias es encontrar el procedimiento para deducirlo a partir de los axiomas: encontrar la
explicación completa del fenómeno a partir de las leyes fundamentales de la teoría.

El estudio de los fluidos, como parte de la física, ha seguido un camino semejante lleno de obstáculos salvados, de
anécdotas pintorescas, de errores patéticos, de experimentos notables y de teorías ingenuas. Cada faceta del
proceso desempeñó una parte importante para alcanzar el nivel que ahora tiene. En la dinámica de fluidos la
dificultad más grande ha radicado en la demostración de los teoremas; una enorme cantidad de resultados
experimentales y de fórmulas empíricas esperan ser deducidos de los principios básicos de la teoría. Esto
permitiría generalizarlos, arrojando luz sobre otros resultados experimentales aparentemente ajenos e igualmente
incomprendidos. No hay ninguna rama de la física que pueda considerarse cerrada y todas son objeto de
investigación activa; los fluidos no son una excepción. El problema de la turbulencia, que se menciona más
adelante, es uno de los grandes retos de la física teórica.

Para construir un aparato teórico que nos permita entender y explicar el movimiento de los fluidos y de los
objetos inmersos en ellos, lo cual observamos todos los días, es necesario introducir tres elementos como punto de
partida. El primero es el de los conceptos primitivos de masa, espacio y tiempo, el segundo es el constituido por
las cantidades (variables) que usamos para caracterizar y describir a un fluido cualquiera y el tercer elemento es el
marco de referencia adecuado para determinar estas variables.

En cuanto a los conceptos básicos las definiciones tal vez dejarán que desear y seguramente el lector podría
encontrar otras más adecuadas, pero por ahora no hacen falta. La masa es la cantidad de fluido que medimos con
una balanza. El espacio es el escenario que usamos para localizar o ubicar al fluido o a una parte de éste.
Imaginamos que existe un punto especial, que llamamos origen, y desde él medimos longitudes con una regla. El
tiempo será un parámetro que nos permita ordenar estados diferentes del fluido de acuerdo con su aparición en el
experimento; este ordenamiento lo establecemos en relación con el Sol o con un reloj. Si no hay cambios, o
estados distintos, el parámetro tiempo desaparecerá de la descripción. Si el fluido presenta comportamiento
electromagnético, a los elementos básicos debe agregarse la carga.

El segundo punto es más complicado y tiene que ver con cuántas y cuáles cantidades es necesario disponer para
contar con una descripción completa y exhaustiva de un fluido. Esta cuestión, que no está del todo libre de
controversia, especialmente cuando se trata de fluidos un tanto exóticos, ha ido resolviéndose a lo largo del
tiempo con base en la experiencia. Al quedar enunciadas las leyes en su forma actual se estableció cuántas y
cuáles variables, que llamaremos variables dependientes, son las mínimas para caracterizar el estado dinámico de
un fluido. Al espacio y al tiempo se les llama variables independientes. Antes de especificar qué variables
dependientes se usan para describir a un fluido consideremos ahora el punto que se refiere al marco en el que
éstas se definen. Para esto vamos a usar una analogía con la astronomía.
Al observar el cielo en una noche clara, con la ayuda de un telescopio, además de la reverencia que infunde su
extensión, profundidad y belleza, aparece la duda por saber en qué dirección fijar el instrumento. Si lo que
queremos es llevar a cabo una observación sistemática podríamos escoger entre dos posibilidades: una, enfocar un
objeto celeste y seguirlo en su trayectoria. Una vez determinada ésta, repetir el proceso con un segundo objeto y
así sucesivamente hasta tener una muestra representativa del movimiento de los objetos más brillantes o más
azules o lo que sea; la segunda posibilidad consiste en dejar fijo el telescopio, como una ventana al firmamento, y
observar los objetos que cruzan el campo visual, determinando su brillo, color, velocidad o belleza.
Posteriormente, cambiar la dirección del telescopio e iniciar de nuevo el proceso y, como en el caso anterior,
obtener un muestreo de los objetos celestes y de su comportamiento.

Al primer procedimiento se le conoce como descripción lagrangiana, en memoria de Louis Lagrange, uno de los
grandes genios de su tiempo, quien dio a la mecánica de Newton una estructura matemática que lo menos que
puede decirse es que su elegante belleza iguala su generalidad. La segunda opción es la descripción euleriana,
llamada así en honor a Leonhard Euler, el más prolífico matemático en su época, quien formuló la primera teoría
de los fluidos; parte de ella se mantiene en su forma original hasta la fecha.

Estas dos descripciones son usadas en física indistintamente, dependiendo de las circunstancias. Como
herramienta conceptual, sin embargo, la formulación euleriana conduce a lo que se llama una teoría de campo,
esquema que se emplea en la mayoría de las teorías modernas de la física.

Partir de una descripción lagrangiana supone identificar a una partícula de fluido, considerada como un
pequeñísimo volumen, y aplicarle las leyes de la mecánica. Si bien es difícil establecer esta identificación en la
práctica, conceptualmente es mucho más atractiva la idea de aplicar los principios de la física a un pedazo de
materia que se mueve, manteniendo su identidad como sistema, que aplicarlos a un punto por el que van pasando
distintas partes del fluido. En los textos modernos que tratan de este tema se hace precisamente esto; se empieza
con una descripción lagrangiana y, una vez introducidos los principios e hipótesis físicas necesarias, se traduce al
lenguaje euleriano, usando el diccionario (matemático) apropiado que toda lengua merece.

La formulación euleriana, en la que vamos observando diferentes puntos del espacio y estudiamos lo que ahí
sucede al transcurrir el tiempo, da lugar a una teoría de campos. La siguiente idea ilustra el contenido de la frase
anterior. En cada punto se hallan definidos ciertos atributos físicos del fluido, digamos densidad y velocidad. De
un sitio a otro las propiedades cambian de valor, como en la imagen de un paisaje varían las tonalidades de azul o
de verde. Además, con el paso del tiempo las propiedades van cambiando, al igual que sucede en los cambios de
las estaciones, cuando una planta nace, crece, florece y muere. Las causas para que cada uno de los cambios se dé
pueden ser diversas y lejanas; las apreciamos al estudiar no un sólo punto sino muchos, todos, si es posible.

Finalmente, para concluir con los preparativos que nos permitan entrar en el tema, vamos a introducir las
variables dependientes, los campos, que nos facilitan la descripción de diversos procesos y la discusión de los
principios subyacentes. Dividimos en dos clases a estas variables, los campos escalares y los campos vectoriales.

Los campos escalares son relativamente sencillos y los conocemos por la práctica que adquirimos al habitar
nuestro planeta. Su especificación en cada punto está dada por un número de acuerdo con una escala
universalmente aceptada. Una gráfica o una tabla de datos correspondientes cada uno a puntos distintos, nos da
toda la información espacial del campo. Si éste cambia con el tiempo se necesita una tabla para cada tiempo. Los
campos escalares usuales son la densidad, la temperatura y la presión, que representamos por ρ, T y p,
respectivamente.

La densidad nos da una medida relativa entre masa y volumen, es decir, entre la cantidad de materia y el espacio
que ocupa, y es una propiedad más o menos familiar. El oro es más denso que el merengue y éste más denso que
el aire, todos lo intuimos.

Es importante hacer notar que la densidad es una propiedad intensiva; es decir, no depende de la cantidad. Por
ejemplo, las densidades de un anillo y de un lingote, los dos de plata, son iguales, como lo es su color. Definida
como el cociente de la masa, que medimos con una balanza, y el volumen, que medimos con... ingenio, la
densidad es una propiedad que no depende de la forma del material, pero sí de la temperatura y la presión (no
definidas aún, pero cuyo significado sospechamos). Sus dimensiones son, obviamente, las del cociente
masa/volumen. Las unidades correspondientes son, por ejemplo, toneladas/litro, kilogramo/galón,
miligramo/kilómetro cúbico, etc. La convención usual es el gramo/centímetro cúbico, gr/cm³ (recordemos que 1
litro = 1 000 cm³ ). La tabla siguiente ilustra los valores de la densidad para algunos objetos.

Material Densidad (gr/cm3)

Hoyo negro ~ 1018


Núcleo atómico ~ 1014
Centro del Sol ~ 160 000
Otro sólido 19.3
Centro de la Tierra ~ 12
Agua 1
Hidrógeno líquido 0.07
Aire ambiente 0.0012
Aire a 300 km de altura ~ 10-14

~ aproximadamante

La temperatura, otra noción familiar, es un concepto primitivo que no podemos construir en términos de masa,
espacio y tiempo en una teoría macroscópica, pero que está asociado a la idea intuitiva del grado de calentamiento
de un cuerpo. Aquí nos contentaremos (indignando quizá a más de uno) con definirla como la propiedad que
medimos por medio de un termómetro, instrumento que todos conocemos en alguna versión y que hemos usado
alguna vez, posiblemente para evitar ir a la escuela. La escala tiene por unidades a los grados Kelvin (º K) y se
conoce como la escala absoluta de temperatura; cada º K es equivalente a un º C. De manera que la escala
Celsius, que se usa para asignar temperaturas al consomé de pollo o a un niño resfriado, marca las mismas
diferencias de temperatura que la escala absoluta, con la peculiaridad de que la mínima temperatura que es posible
alcanzar en la naturaleza es de 0º K (= -273.15º C). En el capítulo VI regresaremos a esta singular ley de la
naturaleza.

El otro campo escalar que usaremos es la presión y, como se dijo en la sección II. 1, está definida como la fuerza
normal que actúa sobre un área dada. Si la misma fuerza normal actúa sobre dos áreas distintas, la presión es
menor sobre el área mayor. Como ilustración imaginemos un objeto cuyo peso es suficiente como para que al
ponerlo encima de un huevo éste se aplaste sin remedio. Siempre podemos poner suficientes huevos como para
que el peso se reparta entre todos, de modo que la fuerza que recibe cada uno no exceda su "factor de
aplastamiento". Al distribuirse la fuerza sobre un área mayor, la presión es menor.
Figura II. 4. Presión: fuerza repartida en un área.

Por eso los cuchillos cortan, los picahielos pican y las palas palean con la eficiencia que lo hacen; ni se diga si
además el usuario sabe emplearlos.

Las dimensiones de presión son de fuerza/área y las unidades de mm-Hg); la equivalencia entre éstas es: 1 atm =
760 mmHg = 101,352 Pa. La presión de una atmósfera es igual al peso que una columna de mercurio de 76 cm de
altura ejerce sobre un cm², al nivel del mar. Es la misma que ejerce toda la columna de aire arriba de nuestra
cabeza. Esto lo demostró Evangelista Torricelli, discípulo predilecto y último de Galileo, usando el sencillo y
convincente dispositivo que aparece en la figura II. 5.

Figura II. 5. Tubo de Torricelli para determinar la presión atmosférica.

Un efecto semejante se observa con el agua, excepto que la columna es ¡de más de 10 m de altura!; por eso es más
sensato usar mercurio, pues siendo metal se mantiene líquido a temperatura ambiente. Curiosamente, fue René
Descartes, filósofo y matemático del siglo XVII, quien sugirió a Blaise Pascal el experimento para determinar
la forma en que cambia la presión atmosférica con la altura. El joven genio construyó entonces un barómetro,
como el de la figura II. 5, pero usó vino tinto en lugar del mercurio, ¡en una columna de 14 metros! Debió ser una
experiencia memorable...

En el caso de los campos vectoriales las cosas son un poco más complicadas e interesantes, como las personas.
Los vectores requieren para su especificación de algo más que un número: reclaman dirección. La velocidad es un
ejemplo característico, ya que no es suficiente dar un número, su magnitud, como 20 km/h; hace falta agregar la
información que establece en forma unívoca la dirección en la que se mueve el objeto en cuestión. En cada punto
y a cada tiempo es preciso dar tres datos, como por ejemplo la magnitud (el tamaño de a flecha que representa al
vector) y dos ángulos.

Convencionalmente se usan los ángulos θ y φ, definidos geométricamente como se ilustra en la figura II. 6. En
ésta, las líneas (ejes) x, y, z son mutuamente perpendiculares y al sistema de coordenadas así definido se le llama
cartesiano, en honor a Descartes, a pesar de no haber sido quien lo definió por primera vez.

Figura II. 6. Sistema de ejes cartesianos.

Cada vector es entonces representado por una tema de números que nos da, en el punto e instante
correspondientes, la magnitud y orientación locales del campo. Una representación frecuente de un campo
vectorial es a través de sus línea de campo, que para el caso de la velocidad en un fluido se llaman líneas de
corriente o de flujo. En cada punto de éstas el vector velocidad (cada flecha) es tangente. En donde las líneas de
corriente tienden a juntarse la velocidad es mayor que en aquellas donde parecen separarse. Si consideramos
flujos en dos dimensiones, como el flujo de una película delgada encima de una superficie, sólo necesitamos dos
cantidades, la magnitud y el ángulo con respecto a una dirección; esta última la escogemos con base en algún
capricho o conveniencia. En la figura II. 7 se ilustran estas curvas.
Figura II. 7. Flujo uniforme y lento alrededor de un cilindro circular. Nótese que es (casi) imposible
distinguir la dirección del flujo.

La velocidad, instantánea y local, la definimos como el cociente de la distancia recorrida y el intervalo de tiempo
que le toma recorrerla. La velocidad así definida puede cambiar de un punto a otro, o en un mismo punto con el
paso del tiempo. Los intervalos de tiempo que corresponderían a esta definición los supondremos tan pequeños
como sea posible medirlos en un experimento. En la práctica, lo que se acostumbra hacer es suspender en el
fluido partículas reflectoras de luz (hojuelas de aluminio) que al ser iluminadas son captadas por una cámara; la
exposición debe ser tan breve como para que las trazas dejadas en la película sean segmentos rectos. El tiempo de
exposición es el intervalo de tiempo y la longitud de la traza es la distancia recorrida. La hipótesis implícita es que
las partículas suspendidas en el fluido se mueven con éste sin alterar el flujo, de modo que las fotografías nos
revelan las líneas de corriente y las velocidades (Figura II. 8).

Figura II. 8. Visualización, por medio de trazadores, de flujo alrededor de un cilindro circular. La
velocidad del flujo es mayor que en la figura II. 7.

La fotografía muestra el flujo alrededor de un cilindro, como en la figura anterior; la diferencia estriba en que en
este caso la velocidad con la que llega el fluido (de derecha a izquierda) es mucho mayor.
Esta técnica de visualización, introducida a principios de siglo, es hoy en día un elaborado arreglo experimental
en el que intervienen todos los adelantos tecnológicos en óptica, electrónica, computación y diseño mecánico. El
procesado numérico de imágenes y datos, logrados a partir del análisis de luz láser, dispersada por esferas de
poliestireno de una micra de diámetro suspendidas en el fluido, nos permite estudiar minuciosamente flujos que
hace unas décadas no se imaginaban, en particular los flujos turbulentos, caóticos y complejos, que discutiremos
en el capítulo V.
III .UNA "HISTORIA" DE LAS IDEAS

LA FORMA en que fueron descubriéndose efectos, principios y leyes en muchos casos sólo puede imaginarse,
pues existe una laguna en cuanto a los protagonistas y sus condiciones sociales, económicas y culturales. La
humanidad ha vivido siempre con fluidos. Cómo y cuándo aprendió a usarlos sólo puede adivinarse. En el
presente libro no están todos los que fueron, aunque sí fueron todos los que están. Muchos nombres, fechas y
circunstancias aparecen más como guía cronológica que como reconocimiento del papel que desempeñaron en la
edificación de la actual teoría de los fluidos.

Una historia no es sólo una secuencia de nombres, fechas, hechos y las anécdotas que los conectan. Es más bien
una explicación e interpretación de éstos a partir de hipótesis fundamentadas y basadas en patrones globales del
comportamiento; en nuestro caso es la tarea de los profesionales del campo, los historiadores de la ciencia. Más
que evocar una historia, lo que haremos será una visita parcial a través del tiempo para recordar pasajes exquisitos
del desarrollo del pensamiento humano. Así, pasaremos por algunos aspectos que costaron mucho entender o
manejar, por ciertos puntos sencillos y prácticos que nos dejan sospechar las peculiaridades de un fluido y otros
más bien curiosos o simplemente divertidos, que aparecen distribuidos en el tiempo y en diferentes sitios, lo cual
les da una perspectiva que, al recordar las circunstancias culturales, políticas, sociales o económicas, permite
intuir la historia.

No es casual que los cambios y avances importantes que modificaron cualitativamente el conocimiento de la
dinámica de los fluidos se llevaran a cabo en forma paralela a los cambios sociales. Es importante subrayar aquí,
aun cuando quizá no pueda apreciarse en lo que sigue, que las etapas diversas de organización social, el
florecimiento de una cultura o el decaimiento de una civilización, se ven reflejadas en el desarrollo particular de
los fluidos. No puede entenderse éste si no es como una huella más de la actividad humana en su conjunto.

III. 1. SOBREVIVENCIA, MAGIA, NECESIDADES Y LUJOS

Hasta hace aproximadamente 100 000 años el hombre seguía tratando de acostumbrarse a vivir bajo los árboles.
El paso de recolector de frutos, que afortunadamente no hemos abandonado del todo, al del cazador, fue muy
largo y es difícil intuir siquiera cómo se llevó a cabo. En este paso inventó y descubrió múltiples utensilios que le
hicieron más fácil su existencia en un medio ajeno y hostil que luego dominó y, diríamos ahora, casi se acabó.
Inventó la rueda mucho después del vestido y descubrió el fuego antes que aquélla. Desarrolló armas para
subsistir, descubrió después el bronce y, hace unos 10 000 años, la agricultura. Probablemente aprendió a manejar
los fluidos en forma circunstancial en este proceso.

Los primeros que se estaban ahogando por humo dentro de una cueva sacaron al fuego a la intemperie o se
buscaron una cueva con el techo más alto, y aprendieron que el aire caliente sube, pero sin intuir en ello el
principio de la flotación. Los primeros navegantes tal vez surgieron de una poco afortunada pérdida de equilibrio
en la orilla de un río y del fortuito paso de un tronco en la vecindad inmediata. También podemos imaginar que, al
observar que ciertos objetos flotaban en un río, a más de uno se le ocurrió aprovechar el hecho para viajar río
abajo y, con suerte, al otro lado.

La evolución de un tronco a una canoa, de ésta a una balsa y de ésta a un medio de carga y transporte colectivo,
así como del mecanismo de propulsión de varas a remos y de éstos a velas, sólo podemos reconstruirlo usando el
sentido común y una fértil imaginación. Algo semejante puede decirse de las armas. El proceso que va desde
arrojar piedras y palos, que a más de una presa sólo debe haber irritado lo suficiente como para comerse al
cándido ancestro, hasta la invención del mazo y, mucho más tarde, hace unos 30 000 años, el arco y la flecha,
comprende múltiples pruebas e insólitas experiencias. Bajo la presión de la supervivencia el hombre aguzó el
ingenio para adaptarse y manejar su ambiente que, gústele o no, lo dominan los fluidos.

En esta etapa de la protohistoria, que abusivamente catalogamos de supervivencia, se hicieron obras notables
destinadas al riego. Las necesidades agrícolas de las culturas que florecieron en Mesopotamia y Egipto, al menos
4000 años a.C., llevaron a diseñar y construir presas y diques, cuyos restos aún pueden apreciarse en las márgenes
de los correspondientes ríos. Vestigios semejantes, de tiempos casi tan remotos, fueron descubiertos en las riberas
de ríos en la India y la China. La construcción de canales para riego, transporte y surtido de agua a las grandes
metrópolis de entonces confirma la relación directa entre el nivel de una civilización y la posesión de una
tecnología para mantenerla; en particular, la relación con el agua.

En forma paralela a las obras hidráulicas a gran escala se desarrollaron artefactos, instrumentos y curiosidades
asociadas al comportamiento de los fluidos. Es posible suponer que el ser humano intuía algunos principios
básicos, si consideramos su notable conocimiento empírico. El uso del fuelle, la jeringa y el sifón era frecuente,
como lo reflejan los legados pictóricos y estelas fragmentadas que se conservan, mismas que muestran la
existencia de la pipeta, la clepsidra, reloj de agua usado en Babilonia y posteriormente en Egipto, y el uso de los
vasos comunicantes. Hubiera sido difícil, muy difícil, llevar a cabo algunas obras de ingeniería sin algunos de
estos aparejos. El nivel de pisos y bóvedas seguramente se establecía, como aún hoy lo hacen los buenos
albañiles, usando el principio de los vasos comunicantes.

La clepsidra, perfeccionada y usada a través de la Edad Media, consistía en un recipiente con un orificio por el
que el agua goteaba a una velocidad constante. El nivel en el recipiente, al ir bajando, marcaba el tiempo en una
escala fija en las paredes. Esta idea sencilla, como tantas otras, fue desarrollada hasta alcanzar un alto grado de
complejidad técnica y artística.
Figura III. 1. Vasos comunicantes (a) y clepsidra (b).

El paso de la información en forma oral, de una generación a otra, hizo que gran parte de ella se perdiera en el
tiempo. Por otro lado, algunos instrumentos y tal vez sus principios se manejaban con el más meticuloso sigilo
por quienes detentaban el poder político o religioso, o ambos, como usualmente sucedía. Los portentos exhibidos
en los templos egipcios para mantener la fe, mostrar el beneplácito de los dioses o dejar ver la ira divina, se
lograban usando mecanismos hidráulicos ocultos, empleando aire o agua como vehículo; elevar objetos,
desplazarlos y, con ingenio, desaparecerlos, fue una práctica desarrollada en ciertas esferas no exclusivas a los
cultos a Ra. Que el saber trae consigo el poder no sólo fue explotado por quienes disfrutaban los médanos del
Nilo... Pero el secreto que rodeó a esa "tecnología" se quedó en el pasado y no podemos más que especular qué
tanto la entendían.

Desde el remoto y oscuro pasado hasta el florecimiento de la cultura helénica, el hombre acumuló un vasto
conocimiento práctico sobre el comportamiento de los fluidos. De los complejos sistemas de riego a las
elaboradas embarcaciones propulsadas por viento y de las aerodinámicas flechas y lanzas, al sifón y la clepsidra..

Las extensas guerras de conquista de Alejandro Magno permitieron a la civilización occidental enriquecerse con
el legado asiático. Alejandría sustituyó a Atenas y amalgamó la cultura de la época, resumiendo el conocimiento
previo en su legendaria biblioteca. No es de sorprender que ahí brillaran las artes y ciencias con Euclides,
Arquímedes y Ptolomeo, entre otros.

De las diez obras que se conocen de Arquímedes (287-212, a.C.) destacan sus dos volúmenes sobre la hidrostática
y la flotación. En la mejor tradición de la escuela de Euclides, con cuyos discípulos se educa, basa todo su análisis
en dos postulados sencillos y ciertamente correctos. A partir de éstos demuestra varios resultados que todavía
forman parte del cuerpo de los teoremas básicos de la hidrostática y la estabilidad de cuerpos que flotan. Uno de
ellos es el principio que lleva su nombre y establece que "si un sólido es parcial o totalmente inmerso en un
fluido, sufre una fuerza ascendente igual al peso del fluido desplazado". Este sencillo enunciado nos permite
entender un sinnúmero de fenómenos aparentemente disímbolos Veamos ahora tres de ellos: la flotación de un
barco, la flotación de globos meteorológicos de altura fija y la proporción de oro en un anillo de bodas.

El principio dice que las cosas flotan en un fluido, lo que implica que pesan menos. La reducción en peso es igual
al peso de una cantidad de líquido de volumen igual al del objeto sumergido. Consideremos un ejemplo.
Imaginemos un cubo de cuarzo de 1 cm³, se mide un centímetro por lado. Al vacío, encontramos que pesa 2.65 g.
Al sumergirlo en agua desplaza 1 cm³ de ésta. Al pesar esta cantidad de agua se halla que pesa 1 g. Por lo tanto,
en el agua, el peso de nuestro cubito de cuarzo es de 1.65 g.

¿Por qué flota un barco de acero?

Puesto que un metro cúbico de agua pesa una tonelada, para hacer flotar (reducir su peso a cero) a un barco de 1
000 toneladas es preciso que desplace 1 000 m³ de agua. Es decir que el volumen del barco, abajo de su línea de
flotación (Figura III.2), debe ser de, digamos, ¡un cubo de 10 m por lado! Si es más largo que ancho no tiene por
qué estar tan sumergido y será de menor calado. Criterios de estabilidad, también desarrollados por Arquímedes,
son algunos de los aspectos que determinan la forma más adecuada para el casco del barco, la parte sumergida.

Figura III. 2. Línea de flotación.

¿Cómo subir un globo a una altura predeterminada?

Un globo lleno de algún fluido menos pesado que el aire sufre una fuerza que lo hace ascender, por flotación.
Puesto que con la altura el aire es cada vez menos denso, más enrarecido, el globo subirá hasta la altura en que
ambos fluidos (el contenido en el globo y el aire externo desplazado) pesen lo mismo. Conociendo la forma en
que varía la densidad del aire con la altura es posible predeterminar la altura a la que un globo meteorológico
llegará y permanecerá, con sólo variar su volumen y contenido. Estos globos se emplean principalmente para
medir propiedades de la atmósfera como la presión, la temperatura, la humedad y los contaminantes (¡en la ciudad
de México éstos pueden medirse con un globo sobre la banqueta!).

Siendo el aire un fluido, todas las cosas sufren flotación y, me apena decirlo, ¡las personas son mas pesadas de lo
que creen!

Otro ejemplo está conectado a la leyenda según la cual Arquímedes descubrió la flotación. Hierón I, rey de
Siracusa (Sicilia), cuna y residencia de Arquímedes, deseaba saber si su corona contenía oro en la proporción
adecuada. La solución la encontró Arquímedes, se dice, al entrar en el agua de un baño público, del que salió
eufórico gritando "¡eureka!", rumbo a su casa, sin siquiera vestirse. Apenas llegó sumergió en agua pesos de oro y
plata iguales, determinando los desplazamientos de agua respectivos. Al comparar éstos con el desplazamiento
que generaba la corona determinó el porcentaje de cada metal por medio de una sencilla regla de tres. Con un
anillo de bodas el proceso es el mismo, aunque las consecuencias son más difíciles de prever...

El trabajo de Arquímedes en hidrostática es uno de los grandes logros de las matemáticas y mecánica griegas
(aunque él era tan griego como un latinoamericano español). "Es uno de los monumentos más espléndidos a su
genio [...] al que poco han podido agregar quienes le sucedieron", dijo Lagrange, casi 2 000 años después. Su
genio en las matemáticas lo pone en la categoría que solo comparte con Isaac Newton y Friederick Gauss.

La herencia que recibió Grecia para su notable desarrollo en todas las áreas le fue legada principalmente por
Mesopotamia y Egipto. Sobre ella construyó el partenón intelectual que conocemos. Por otro lado, las bases sobre
las que creció la cultura latina fueron tomadas e incorporadas intactas de los griegos. El imperio romano se
consolidó sin que Alejandría hubiese dejado de ser el emporio cultural del mundo occidental. Si Grecia es
recordada sobre todo por sus contribuciones en filosofía, artes y matemáticas, Roma buscó brillo en otras
direcciones y muy poco contribuyó al avance de las matemáticas y al conocimiento de los fluidos.

Los mil quinientos años subsecuentes fueron ricos en obras de gran importancia en torno al manejo de aguas.
Todavía pueden apreciarse los notables acueductos que los romanos sembraron en el orbe que dominaron. El
diseño y construcción de sistemas de aprovisionamiento de agua, de su distribución a través de grandes ciudades y
de los drenajes correspondientes, hablan del grado de desarrollo de la ingeniería hidráulica en el imperio. La
necesidad de resolver problemas prácticos impulsó ese desarrollo. El regado de inmensos jardines palaciegos y el
proveer de comodidades a sus ocupantes fue un ingrediente adicional. Poco o nada se logró sobre el
entendimiento y uso del agua y el viento. El intercambio con el mundo árabe, a través de las diversas guerras de
conquista y reconquista mutua, incluyendo las Cruzadas, permitió un flujo de ideas, invenciones y costumbres que
en el crisol del tiempo dieron luz a la deslumbrante explosión renacentista.

III. 2. DE LA METAFÍSICA A LA FÍSICA

Los diez siglos que siguen a la caída del Imperio romano y que gestan la aparición de una brillante era en la
historia de nuestra civilización, sirven para consolidar el sistema económico feudal y el poder de la iglesia
cristiana, asimilándose el legado filosófico griego. Este último aspecto llegó a su climax con la aristotelización
del cristianismo por Tomás de Aquino en el siglo XI. La incorporación de las matemáticas, la lógica, la
metafísica y la astronomía griegas a la enseñanza en las "universidades" medievales, que fundara Carlomagno en
el siglo VIII, llevó a la formulación de la educación escolástica basada en las siete artes liberales agrupadas de
la siguiente manera: el trivium (gramática, lógica y retórica) y el quadrivium o artes matemáticas (aritmética,
astronomía, geometría y música).

En el periodo que concluye con el siglo XIV destacan los procesos de crítica a la metafísica y mecánica
aristotélicas, representados por Juan Buridan en Francia (1300-1358) y Guillermo de Occam (1285-1349) en
Inglaterra. Esta etapa de revisión crítica fue el fruto de un proceso lento, laborioso y acumulativo de múltiples,
protagonistas, tiempos y lugares. Una consecuencia directa de esto es el nacimiento de las ciencias
experimentales.

En un siglo de notable eslendor sobresale un hombre que se destacó en todas y cada una de las diversas
actividades en las que estuvo interesado. Su universalidad sólo es igualada por su profundidad y calidad.
Leonardo da Vinci (1452-1519), en cuanto a la ciencia y a los fluidos se refiere, marca el siguiente paso después
de Arquímedes.

Como pocos de sus antecesores y contemporáneos, Leonardo subrayó en numerosas ocasiones la necesidad
ineludible de la observación y el experimento. Así lo mostró en sus bellos, meticulosos y copiosos dibujos; una
exquisita selección puede encontrarse en la publicaci ón del Códice Hammer (Hammer, 1972). Sus razones se
pueden leer en algunas de sus notas, por ejemplo: "Huid de la opinión de los especuladores, pues sus argumentos
no están sustentados en la experiencia [...] a diferencia de ellos, no puedo citar autoridades, pero, más importante
y digno, es argumentar con base en el experimento, maestro de sus maestros." Más tarde, discutiendo su método
de trabajo escribió: pero antes llevaré a cabo algunos experimentos, ya que es mi premisa empezar así y entonces
demostrar por qué los cuerpos se comportan de cierta manera. Este es el método que debe seguirse en la
investigación de los fenómenos naturales [...]".

De la gran cantidad de observaciones y experimentos que llevó a cabo sobre el comportamiento de los fluidos,
Leonardo obtuvo resultados cuantitativos y generalizaciones sorprendentes que no fueron apreciadas sino mucho
después, ¡algunas hasta el siglo XIX!

Encontró que el aire y el agua tienen un apellido común. Al comparar en forma sistemática los movimientos de
masas de aire (vientos) y agua (estanques, ríos y mares) intuyó, citándolo en forma recurrente, los elementos
comunes de su comportamiento.

Al observar el movimiento de aguas en ductos, canales y ríos, descubrió y formuló en forma cuantitativa uno de
los principios fundamentales en la mecánica de los fluidos: el principio de continuidad o de conservación de la
masa. Si bien es cierto que al menos desde la época de Arquímedes se sabía que el agua que entra por el extremo
de un tubo sale por el otro, la relación entre este hecho y la descarga era si acaso sospechada, aun por los
constructores romanos. La descarga es la cantidad de fluido que atraviesa una sección de un tubo o de un canal
por unidad de tiempo. Por ejemplo, el número de litros por segundo que pasa por cualquier parte de un tubo, cuya
sección sea variable, es siempre el mismo.

En las palabras de Leonardo: "En cada parte de un río, y en tiempos iguales, pasa la misma cantidad de agua,
independientemente de su ancho, profundidad, tortuosidad y pendiente. Cada masa de agua con igual área
superficial correrá tanto más rápido como poca profunda sea [...]" (ver Figura III. 3);"[...] en A el agua se mueve
más rápido que en B, tanto más como la profundidad de A cabe en B...".

Figura III. 3. Secciones de Leonardo da Vinci.

Este análisis básico y casi evidente, que eludió a sus predecesores, puede considerarse como la primera
formulación clara y cuantitativa de la ecuación de continuidad para el flujo estacionario (que no cambia con el
tiempo) de un fluido incompresible (de densidad constante). Este resultado, en términos más apropiados, que no
más comunes, establece que la velocidad es inversamente proporcional a la sección transversal.
Equivalentemente, el producto de la velocidad y el área, en cada sección, es constante. La generalización de este
resultado a la forma en que hoy se conoce tomó todavía 300 años mas.

Otros estudios de Leonardo versaron sobre el vuelo, la generación y propagación de ondas, el movimiento de
remolinos (vórtices) y el papel de éstos en los flujos complicados e irregulares que llamamos turbulentos. Estos
estudios de carácter cualitativo o puramente descriptivo influyeron en forma directa e indirecta en el desarrollo de
la hidráulica y la hidrodinámica, entendidas éstas como la parte práctica y teórica de la mecánica de fluidos,
respectivamente. La percepción visual de Leonardo fue la herramienta clave de su obra artística y científica, la
cual se aprecia en cada detalle de sus penetrantes y hermosas ilustraciones, y gracias a ella estableció una pauta en
la búsqueda del conocimiento.

Si la observación y la experimentación, entendidas como el registro meticuloso y pasivo, la primera, y la


ocurrencia intencional, repetitiva y controlada del fenómeno, la segunda, son elementos indispensables del
conocimiento científico, el uso de un lenguaje adecuado y la generalización deductiva o inductiva las
complementan y dan sentido.

A Galileo Galilei (1564-1642) es a quien, un siglo después, le toca completar el esqueleto del método científico,
pues transforma a la mecánica en una ciencia partiendo de una crítica constructiva de la metafísica escolástica.
Usando a la experimentación como guía, como lo hiciera Leonardo, introduce el lenguaje de las matemáticas para
formalizar y extender sus resultados, generalizar sus concepciones y sentar las bases de una nueva manera de
estudiar la naturaleza. Con metodología semejante a la de Arquímedes, Galileo habló a una época más madura; a
diferencia de Leonardo, no escribió "al revés" y fue leído y, desde luego, criticado por sus contemporáneos.

La contribución de Galileo a la dinámica de los fluidos fue profunda, aunque indirecta, al participar en la
fundamentación de la mecánica, de la física y de la ciencia misma. La astronomía fue la motivación de su trabajo
y la pasión de su vida. Afirmaba entender más de los cuerpos celestes que de los fluidos que observamos todos los
días...

Un aspecto decisivo en el paso de la especulación aristotélica a la ciencia posgalileana fue la introducción de la


observación como pilar y sustento de la razón. Para entender el mundo, la razón pura demostró su fracaso. Del
muy joven Leonardo al anciano Galileo se ve un cambio único en la historia. En estos doscientos años se lleva a
cabo el florecimiento resultante de los previos dos mil años de siembras y cuidados

III. 3. DEL HORROR AL VACÍO, AL AGUA SECA

Es claro que no puede culparse a Aristóteles del estancamiento intelectual que siguió a su muerte. Fue la
dogmatización de sus ideas y la exclusión de su actitud crítica y dinámica, que predicó y practicó, lo que casi
paralizó la evolución del conocimiento.

La concepción aristotélica en torno al vacío y la aceptación sin reservas de ésta dominaron hasta mediados del
siglo XVII. Según Aristóteles la naturaleza tiende a llenar todos los espacios con cualquier medio a su alcance,
siendo el vacío una imposibilidad física. La frase horror vacui vino a resumir esta creencia a través del tiempo, y
se llegaron a inventar sustancias como el éter, con propiedades inconmensurables, no factibles de ser medidas,
para "explicar" la presencia de espacios aparentemente vacíos.

La crítica, no es de sorprender, fue iniciada por Galileo. La generación que le sucedió la continuó y la resolvió.

El compañero inseparable de Galileo en los últimos tres meses de su vida fue Evangelista Torricelli (1608-1647).
Tras de extender algunos trabajos de aquél en dinámica de proyectiles y de generalizar en forma brillante parte de
la obra de Arquímedes, fue invitado a Florencia por el anciano Galileo para discutir y escribir sus últimas ideas.
Así, Torricelli se vio expuesto a muy variadas especulaciones y proposiciones que, en su desafortunadamente
breve carrera científica, desarrolló al suceder al maestro en su cátedra de matemáticas.

Torricelli se ocupó de diversos problemas en forma teórica y experimental. En el área de fluidos destacan sus
estudios sobre el flujo de chorros que salen por el orificio de un recipiente, su descubrimiento del principio del
barómetro de mercurio y su uso en el estudio de la presión atmosférica. Con estos trabajos logró, entre otras
cosas, acabar con el mito de la imposibilidad del vacío. Uno de sus experimentos consistió en demostrar la
existencia de la presión atmosférica y la forma de crear un vacío, usando un dispositivo como el que se muestra
en la figura II. 5. Una variación de éste se describe a continuación.

Es fácil convencerse de que la atmósfera ejerce una presión igual en todas direcciones. Se requiere un vaso, una
hoja de papel o de plástico, agua y una cubeta (para no salpicar todo, como sucede; cuando se intenta por primera
vez). Encima del vaso bien lleno de agua se pone el trozo de plástico, cuidando de que no quede en el aire entre
éste y el agua. El vaso puede invertirse lentamente sin que el agua se caiga, debido a que el aire empuja
constantemente contra el plástico (Figura III. 4(a)). Para que la demostración sea más contundente puede
sumergirse parcialmente el vaso invertido en una cubeta llena de agua y retirar el plástico; ¡el agua no se sale!
(Figura III. 4(b)). En este caso el aire empuja hacia abajo sobre la superficie horizontal del agua con la misma
presión que en el caso anterior lo hizo hacia arriba.
Figura III. 4. La presión atmosférica en la cocina.

Si el vaso mide más de 14 m de longitud (ji, ji), al realizar el experimento de la figura III. 4 (b), se saldría un poco
de agua, quedando lo que parece una burbuja en el vaso. Ahí, en realidad, hay un razonable vacío; de hecho hay
un gas (aire y vapor de agua) tan enrarecido como el que se encuentra a 200 km de altura sobre esta página
(suponiendo que no es usted astronauta en funciones). Usando mercurio, basta con una columna de más de 76 cm
de longitud para obtener un vacío equivalente; se ilustra en la figura II. 5, en el espacio de la parte superior del
tubo.

Blaise Pascal (1623-1662) fue quien, repitiendo y extendiendo los experimentos de Torricelli, dio una clara
explicación de las observaciones. Al darse cuenta de que los experimentos básicos podían ser explicados por igual
en términos de la presión atmosférica en vez de en términos de un parcial horror al vacío, llevó a cabo un
experimento de vacío dentro de otro vacío. De esta manera, al quitar la presión externa la altura de la columna de
mercurio debía reducirse a cero, y así lo demostró, desechando la segunda explicación. No satisfecho, repitió los
experimentos a diferentes alturas sobre el nivel del mar. Con ello probó que, si es la columna de aire que está
arriba del dispositivo la que hace que el mercurio suba en el tubo, entonces la altura de éste debía cambiar según
la cantidad de aire encima de él. Si a la naturaleza le daba horror el vacío, debía horrorizarle por igual ya fuera
arriba o abajo de una montaña. Con esto quedó abandonada en forma definitiva la concepción del horror vacui.

En el proceso de estudio de la presión atmosférica Pascal inventó la prensa hidráulica, descubriendo el principio
físico subyacente. Según éste la presión en un fluido actúa por igual en todas las direcciones; conocido como el
principio de Pascal, es uno de los dos axiomas fundamentales de la hidrostática. El otro es el principio de
Arquímedes. A los 31 años de edad y siendo una celebridad por sus variadas contribuciones en física y
matemáticas, Pascal se convirtió en asceta; dedicó sus últimos ocho años de vida a la teología con la misma
intensidad que dedicara antes a la ciencia.

Unos días antes del primer aniversario de la muerte de Galileo, en el pueblito inglés de Woolsthorpe, nació Isaac
Newton (1642-1728). Como Da Vinci en su época, la luz de Newton brilla por encima del estrellado cielo de sus
contemporáneos.

En agosto de 1665 la peste obliga a las autoridades a cerrar el Trinity College de Cambridge y Newton, cuatro
meses después de su graduación, se ve obligado a regresar a su aldea natal. Ahí, aislado por dos años, lleva a cabo
una hazaña sin paralelo en la historia del pensamiento humano. Lo que necesita y no sabe, lo inventa; lo que sabe
y no le sirve, lo generaliza o lo cambia sin pudor alguno; sobre lo que no entiende, medita, observa, hace
experimentos y propone hipótesis. Al final de este periodo ha cimentado sus tres contribuciones fundamentales: el
cálculo infinitesimal, la mecánica y la gravitación, y la teoría de la luz y los colores. Así, aquel joven común y
corriente que se fue, regresa convertido en el profundo pensador que sentaría las bases de la física y las
matemáticas de los siguientes siglos.

Característico de la revolución científica del siglo XVII, y en la mejor tradición cartesiana de la época, partió de
la base de un universo real cuyo comportamiento podía y debía ser explicado solamente en términos de sus
elementos y sus relaciones. Sobre esta base filosófica desarrolló la herramienta matemática requerida y formuló
las leyes de la mecánica. Su trabajo Philosophiae Naturalis Principia Mathematica, publicado hasta 1687, es,
además de su obra maestra, uno de los trabajos más importantes de toda la ciencia moderna.

La contribución de Newton a los fluidos fue múltiple y a niveles muy diferentes. Abarcó desde sus fundamentos,
en forma indirecta, hasta los meticulosos experimentos que llevó a cabo sobre vórtices (remolinos) y viscosidad
(fricción interna).

Desde el punto de vista general, el marco teórico, el aparato matemático y las leyes físicas que Newton estableció,
fueron, y siguen siendo, los ingredientes esenciales de la teoría de los fluidos. Estos elementos fueron una
aportación fundamental, aunque indirecta, para el establecimiento final de la teoría que realizó la notable
generación que le siguió, formada por Euler, dos de los Bernoulli, D'Alambert y Lagrange.

Su trabajo directamente conectado con fluidos comprende casi un tercio de los Principia. Esto resulta
sorprendente si no se toma en cuenta que Newton busca establecer una teoría alternativa, en contenido, forma y
consecuencias, a la cartesiana. Ésta, que domina el pensamiento de la época, era una imaginería mecánica verbal
sobre esferas y vórtices en movimiento en un medio etéreo que todo lo embebía.

La demoledora crítica de la cosmología cartesiana, que Newton presenta como preámbulo a su "sistema del
mundo", es a la vez un cuidadoso estudio del comportamiento de los fluidos. En éste destacan sus análisis teóricos
y experimentales sobre el movimiento de un vórtice y la naturaleza de la fricción interna de los fluidos,
apareciendo así la primera definición, estudio y cuantificación de lo que posteriormente se llamó la viscosidad de
un fluido. La incorporación de este resultado, de suma importancia en la dinámica de fluidos, no sucedió sino
hasta un siglo y medio después.

¡Cuántos hay todavía que, dedicados a los fluidos, no la entienden!

Salvo la revisión de las siguientes ediciones de sus obras, Newton dedicó el resto de su vida, que duraría aún más
de cuarenta años, a toda suerte de actividades relacionadas con la organización y administración pública y
académica. También, debido a su difícil personalidad, trabajó arduamente para hacerle la vida de cuadritos a más
de uno.

Gran parte del trabajo de Newton ha sido extendido, completado y reformulado en varias direcciones a través del
tiempo. En cuanto a los fluidos, algunos de los problemas que abordó siguen siendo objeto de numerosas
investigaciones; un problema tan aparentemente simple como el determinar el patrón de flujo que resulta del
movimiento de una esfera en un medio viscoso, continúa siendo un desafío en el campo de las matemáticas
aplicadas.

A la muerte de Newton, en plena ilustración, tres brillantes hombres empiezan a dominar, extender y perfeccionar
las herramientas analíticas nuevas y, al mismo tiempo, a explotar su utilidad en el campo fértil y abierto de los
fluidos. Daniel Bernoulli (1700-1782) y Leonhard Euler (1707-1783), formados en matemáticas por Johann
Bernoulli, padre del primero, elaboran una serie de trabajos que, junto con los desarrollados por Jean le Rond
d'Alambert (1717-1783), culminan con la formulación explícita de los principios generales y las ecuaciones
básicas de la mecánica de los fluidos.

Las contribuciones más importantes de Bernoulli aparecieron en el año de 1738 en su libro Hydrodynamica,
cuando se acuña el término. Entre ellas destaca el teorema que ahora lleva su nombre y que fue la primera
formulación del principio de la conservación de la energía para el caso de los fluidos. En su versión moderna,
cuya formulación general y correcta se debe a Euler, establece que la suma de tres cantidades es igual a una
constante:

A + B + C = constante;

los sumandos corresponden a tres formas particulares de energía. El primero tiene que ver con el estado de
movimiento, el segundo con la altura a la que se encuentra y el tercero con la presión. Si la suma de estas
cantidades ha de permanecer constante es preciso que al aumentar una de ellas, al menos una de las restantes se
vea disminuida en la proporción adecuada. Una restricción del teorema es que los efectos de fricción interna
(viscosidad) y de compresibilidad en el fluido sean despreciables, es decir, muy pequeños. Bernoulli, con el sólido
juicio de un científico de su estatura, además de subrayar la "maravillosa utilidad" de su teorema, advertía del
error que podría traer su abuso o el olvido de sus limitaciones, las cuales eran si acaso intuidas.

Más técnicamente, los términos que aparecen en el teorema de Bernoulli son la energía cinética (A), la energía
potencial (B) y la entalpía (C). A depende de la velocidad, A = ρv²/2 (ρ es la densidad y v la velocidad); B depende
del peso y su altura relativa, B = ρgz (g es la aceleración de la gravedad y z la altura relativa a un nivel de
referencia) y C depende de la presión, C = p, siendo p la presión.

Así, cuando una masa de agua desciende, disminuyendo la altura y por consiguiente el sumando B, la velocidad
aumenta de manera tal que el sumando A crece lo suficiente para balancear la suma. De igual modo, en un tubo
horizontal (Figura III. 5) en que el término B permanece fijo (z no cambia), la suma de A y C es la relevante.
Puesto que en cada sección del tubo (s1 y s2) la cantidad de fluido que pasa es la misma, en la región más estrecha
(s2) la velocidad debe ser mayor que en la más ancha (s1). De acuerdo con el teorema de Bernoulli, la presión es
menor en donde la velocidad es mayor, es decir, en la zona angosta.

Figura III. 5. Tubo que se estrecha.

La situación parece irse haciendo un tanto tediosa. Como difícilmente podría ponerse peor, le solicito seguir
leyendo un poco más para ver algunos casos en los que la aplicación del teorema es más interesante y que son
fáciles de comprobar en un centro de investigación bien equipado, por ejemplo una cocina.

Imagine un tubo vertical por el que sale un chorro de aire (Figura III. 6(a)), por ejemplo, el tubo de una aspiradora
casera conectado por la parte de atrás. Al poner una esfera ligera, digamos una pelota de pingpong, dentro del
chorro ascendente, ésta permanece ahí sin caer. La razón es que la presión del aire en el chorro (cuya velocidad es
grande) es menor que la del aire fuera de éste (con velocidad baja). Cuando la pelota empieza a salir de la
corriente, la presión exterior, mayor a la interior, la regresa al chorro. El otro efecto, superpuesto al anterior, es la
competencia entre el empuje del chorro, hacia arriba, y el peso de la esfera.

Un caso análogo es el de un pulverizador (Figura III. 6(b)). Cuando se sopla por un tubo (t) que termina en punta,
el aire aumenta su velocidad al llegar a la punta y en consecuencia pierde presión. En la boca del tubo (e) se
encuentra entonces aire cuya presión es menor a la que hay en su interior, que es la atmosférica y tiende a salir. La
superficie del líquido en el recipiente (s) tiene una presión igual a la atmosférica, excepto la parte contenida en
(e). Esto da lugar a que el líquido dentro del recipiente suba por el tubo. Al llegar a la salida, donde hay un chorro
de aire, es arrastrado por éste y se pulveriza formando gotas minúsculas.

Usando el mismo razonamiento anterior puede explicarse el hecho de que al suspender dos esferas ligeras
cercanas una de la otra y soplar en medio de ellas, se aproximen y choquen entre sí, como si apareciera una fuerza
de atracción (Figura III. 6 (c)).
Figura III. 6. Explicaciones "a los Bernoulli". (a) Pelota en un chorro, (b) pulverizador, (c) "atracción"
entre esferas.

Esta atracción aparente, debida a la distinta distribución espacial de presiones, que es sencilla de explicar
invocando el teorema de Bernoulli, es el origen de múltiples fenómenos que de otra manera parecen
incomprensibles. Entre ellos destaca la atracción entre automóviles y barcos que viajan paralelos. Cuando un
automóvil rebasa a un camión de grandes dimensiones, es necesario sostener el volante con cierta fuerza; si se
deja el volante libre, el automóvil se moverá hacia el camión (no es muy recomendable realizar este experimento).

Los capitanes de grandes barcos conocen este efecto; los que no, tienen ahora otra actividad de naturaleza
terrestre. Un caso conocido es el de los barcos Olympic y Hauk. El primero, un transatlántico de grandes
dimensiones, navegaba tranquilamente en mar abierto durante el mes de octubre de 1912. El segundo era un
acorazado, pequeño en relación al Olimpic, que navegaba con una velocidad mucho mayor y en forma paralela
(Figura III. 7(a)). Al encontrarse a una distancia de unos cien metros sucedió algo imprevisto, que no tuvo nada
que ver con saludos mutuos. El Hauk cambió de rumbo en forma intempestiva y se dirigió directo al Olympic, sin
que el timón sirviera para evitar la colisión (Figura III. 7(b)). La proa del acorazado se hundió en el casco del gran
buque, abriendo una aparatosa vía de agua. Al margen de la incapacidad del tribunal marítimo que juzgó el caso y
culpó al capitán del Olympic por no dar paso al acorazado, lo que ocurrió fue precisamente un caso de atracción
hidrodinámica. Entre los barcos se formó un "canal" por donde el agua pasó más rápido que en la región exterior,
esto en ambos barcos, que se consideran fijos (Figura III. 7(a)). La diferencia de presiones entre la zona interna y
la zona externa produjo una fuerza que se puso de manifiesto en el barco más pequeño.

Figura III. 7. (a) El Olympic alcanza al Hauk. (b) Resultado de la atracción hidrodinámica.

El teorema fue sólo una de las aportaciones de Bernoulli. El original enfoque que dio el planteamiento y solución
de diversos problemas fue de gran valor para el desarrollo de la naciente disciplina y constituyó un vigoroso
estímulo para las brillantes dotes de algunos de sus contemporáneos y amigos.

En 1755 aparecen, una tras otra, las obras clásicas de Euler sobre los fundamentos de la mecánica de los fluidos.
El genio matemático más notable del siglo había asimilado por completo la obra newtoniana y lo había plasmado
en un lenguaje mucho más elegante y preciso. Formuló las ecuaciones diferenciales de movimiento en su forma
general, deduciendo a partir de ellas los resultados previos ya conocidos, como el teorema de Bernoulli, dándoles
su verdadera dimensión y generalidad. Posteriormente, exploró un gran número de consecuencias y atacó
múltiples problemas de carácter práctico asociados a la maquinaria hidráulica, particularmente la turbina, la
resistencia sobre barcos y la propulsión.

La copiosa correspondencia entre Euler, D'Alambert y Lagrange, entre otros, permite entender el interés que
tenían las mejores mentes analíticas de la época por los problemas asociados a los fluidos. D'Alambert, que gozó
la cima de las matemáticas francesas, dedicó la segunda parte de su vida a estudios de carácter experimental.
Después de introducir diversos conceptos y métodos analíticos en sus dos obras básicas sobre fluidos, demostró lo
que se conoce como la paradoja de D'Alambert. Como consecuencia de las ecuaciones de Euler, que ignoraban la
existencia de la viscosidad, resultaba que la fuerza que sufre un obstáculo inmerso en una corriente era nula; es
decir, el objeto no era arrastrado por el flujo. Para D'Alambert era claro que este resultado matemático estaba en
franca contradicción con sus observaciones y que el problema debía estar en alguna de las premisas de la teoría.
En forma consistente subrayó la primacía que el experimento debía tener sobre la teoría. Argumentos diversos de
Euler y de Lagrange, para aclarar la paradoja, no pudieron convencerlo. La formulación matemática de la teoría
hacía imposible que a un fluido en movimiento se le pidiera adherirse a la superficie de un sólido en reposo.

Como consecuencia de haber ignorado la fricción interna de los fluidos se tenía el peculiar resultado de que los
fluidos no mojaban las paredes... ¡La hidrodinámica era el estudio del agua seca!
III. 4. EL SIGLO SINCRÉTICO

En los cien años comprendidos entre 1750 y 1850 se sentaron las bases teóricas y experimentales de la mecánica
de los fluidos. Ese siglo sirvió para resumir, ordenar y extender el conocimiento que sobre los fluidos se había
acumulado durante miles de años. Desde entonces hasta la fecha la tarea ha sido la de extraer de estos principios,
formulados en forma matemática, la información necesaria para poder entender y predecir el comportamiento de
los fluidos.

En la primera mitad de este notable periodo aparecieron, junto a las históricas obras de carácter teórico, una serie
de memorias clásicas de cuidadosos trabajos experimentales. Destacan el veneciano Giovanni Poleni (1683-
1781), el inglés John Smeaton (1724-1792) y la escuela francesa, en particular Henri de Pitot (1695-1771),
Antoine Chézy (1718-1798), Jean Charles de Borda (1733-1799), el mismo D'Alambert, Charles Bossut (1730-
1814) y Pierre Louis George DuBuat (1734-1809).

Es embarazoso limitar la lista de nombres y, más aún, no mencionar algunos de los detalles que hicieron de sus
contribuciones un párrafo hermoso en las páginas de la investigación. Así, con la frente baja y ofreciéndoles
nuestra admiración, diremos que sus esfuerzos y logros no fueron en vano. Los estudios que dejaron sobre la
fuerza de flujos sobre obstáculos, sobre la salida de fluidos a través de orificios, sobre el cauce de canales y ríos,
ondas y olas, máquinas hidráulicas de la más diversa índole y más, fueron el cimiento de las obras futuras. Sus
experimentos fueron nuevos y determinantes, como lo fue el análisis de los datos y su interpretación al usar
conceptos originales y más sencillos, abriendo así el panorama para las correctas e importantes generalizaciones
que establecieron.

El periodo de gestación asociado a los últimos cincuenta años del siglo XVIII no se limitó, desde luego y antes
bien al contrario, a los fluidos, a la parte académica o a la intelectual. La sociedad estaba fraguando una lucha
contra el hambre, contra la injusticia y por la libertad e igualdad. Así, se entiende la intensa actividad que se
aprecia en los fluidos; nada sorprende pues que Lagrange visitara a Voltaire a instancias de D'Alambert y que este
último dirigiera y participara en una extensa obra de coordinación y planeación de vías fluviales, navegación y
canalización en toda Francia.

La explosión revolucionaria francesa, la primera República, Robespierre y Danton, la aventura napoleónica, la


reinstauración de la República y tantos hechos, aparecen reflejados en todo. También en la revolución asociada a
los fluidos.

Con la segunda etapa, correspondiente a la primera mitad del siglo XIX, concluye el nacimiento de la mecánica
de los fluidos. Mucho se ha hecho desde entonces y mucho, seguramente mejor, habrá de hacerse en el futuro. La
criatura nació y creció, llegando a su infancia al empezar el último siglo del milenio. Veamos cómo acabó de
formarse y qué dones (y defectos) trajo al mundo. Para hablar de su madurez habrá que esperar, al menos, un
ratito.

Desde el punto de vista experimental, el siglo XIX se inició con una sólida tradición. Se contaba con una gran
variedad de técnicas y métodos muy confiables y, en consecuencia, de resultados razonablemente precisos, en
especial sobre la resistencia de obstáculos a un flujo. La hidráulica había avanzado en forma casi independiente de
la hidrodinámica teórica. En cierto sentido, caminaban por veredas distintas, aunque paralelas, compartiendo
problemas y perspectivas pero difiriendo en métodos, prioridades y lenguaje.

El consenso en torno a lo equivocado que era ignorar los efectos de la viscosidad se había alcanzado en la primera
década del naciente siglo. Sin duda, Newton y algunos de los que le siguieron se dieron cuenta de la necesidad de
incorporar el efecto y así lo comentaron en sus obras. Sin embargo, sus intentos para lograrlo fueron infructuosos.

En 1821 se presentó ante la Academia de Ciencias, en París, un trabajo de Claude Louis Marie Henri Navier
(1785-1836), ingeniero de formación y vocación. En éste se deducían las ecuaciones fundamentales de la
elasticidad, que hoy en día llevan su nombre, para describir el equilibrio y las vibraciones en un sólido. Estas
resultaban de un análisis puramente matemático en el que los átomos, entonces entes hipotéticos, se imaginaban
como partículas que interactuaban por medio de resortes. No sorprende que fuese Navier el primero en construir
un puente colgante a partir de un proyecto y de un cálculo; previamente las construcciones se hacían sobre bases
empíricas.
Un año después, Navier presentó una memoria en la que, guiado por una analogía formal con la teoría de la
elasticidad, deducía por primera vez las ecuaciones que incorporaban la viscosidad en la dinámica de un fluido.
Como caso especial, el fluido ideal o invícido (que no presenta fricción interna), recuperaba las ecuaciones de
Euler; en el caso general, las ecuaciones eran de una naturaleza esencialmente distinta. Desafortunadamente, la
deficiente interpretación que dio a sus resultados, al resolver ciertos casos, le impidió explorar su notable
contribución. Aun así, el agua, y todos los fluidos, ¡habían empezado a mojar!

Las ideas de Navier sobre la atracción y repulsión entre las moléculas, como origen de la viscosidad, fueron
seguidas y ampliadas por dos excelentes matemáticos de la época: Simeon Denis Poisson (1781-1840) y Agoustin
Lonis de Cauchy (1789-1857). El carácter especulativo de las hipótesis "microscópicas" que usaron le da a sus
trabajos en este particular un interés sólo histórico.

Siguiendo una argumentación totalmente distinta y en términos de conceptos puramente macroscópicos, evitando
todo lo relativo a la constitución última de un fluido, Jean Claude Barré de Saint Venant (1797-1886) dedujo las
mismas ecuaciones de Navier. Su trabajo publicado en 1843, contiene una deducción semejante a la que hoy en
día se sigue para obtener las ecuaciones; ese crédito nunca lo recibió. La fama de Saint Venant provino de sus
múltiples trabajos en elasticidad, ya que en hidrodinámica su nombre no fue asociado ni a las ecuaciones que
obtuvo, ni a diversos resultados que posteriormente fueron encontrados por otros investigadores, particularmente
de Inglaterra.

El Imperio británico, en plena expansión y en la víspera de su apogeo, fue el ámbito donde la teoría y los
experimentos alcanzaron la cumbre. Pasadas las guerras napoleónicas y con la República francesa en proceso de
consolidación, la hegemonía política pasa a la sede del imperio; el dominio académico también. Mientras se
consolidan, controlan y explotan las colonias africanas, americanas y asiáticas, que incluyen a cerca de la cuarta
parte de la población y superficie del planeta, las ciencias florecen otra vez, sobre la fértil tierra de una tradición
sólida y rica. Técnica y ciencia retroalimentan a la Revolución Industrial que, en estos cien años que hemos
considerado sincréticos, nace, madura y se extiende.

En ese empono económico y cultural brilla, con otros distinguidos científicos, George Gabriel Stokes (1819-
1903). Este matemático y físico irlandés, quien se educó y vivió en Cambridge casi toda su vida, fue el primero en
ocupar, después de Newton, la cátedra lucasiana de física y los puestos de secretario y presidenter de la Sociedad
Real de Física.

Entre sus numerosos trabajos, en muy diversos campos de las matemáticas; y la física teórica y experimental,
destacan los que versan sobre: la dinámica de los fluidos viscosos. En la parte que concierne a los fundamentos de
esta última, el joven Stokes llevó a cabo una elegante deducción de las ecuaciones que primero obtuviera Navier,
en una memoria presentada ante la Sociedad Real en 1845. Su razonamiento, análogo al de Saint Venant, fue
totalmente fenomenológico, eludiendo especulaciones en torno a la constitución microscópica de los fluidos.

Postulando como principios generales la conservación de la masa y el momento lineal (la segunda ley de
Newton), como lo hicieran antes Bernoulli y Euler, lleva a cabo un cuidadoso análisis de las fuerzas que puede
experimentar una pequeña parte de fluido. Fue importante la separación que hizo entre las fuerzas que dependen
de la masa de fluido en consideración, como el peso (atracción gravitacional), y las que dependen de la superficie
de la muestra, que son las responsables de la fricción (recordemos que los raspones los lucimos en la piel). Así,
Stokes construyó una expresión para estas últimas que era la generalización de los estudios que había hecho
Newton al respecto, ya casi olvidados con el tiempo.

El resultado clave fue encontrar que la fuerza de fricción de una parte de fluido sobre otra depende de la velocidad
con la que se mueve una respecto de la otra; en términos más técnicos, se diría que la fuerza de fricción, por
unidad de área, depende linealmente del gradiente de la velocidad (es decir, de la forma en que varía la velocidad
de un punto a otro); qué tan estrecha es esta relación lo determina un factor constante llamado el coeficiente de
viscosidad. A diferencia de Navier y de Saint Venant, Stokes analizó y resolvió las ecuaciones para algunos casos,
obteniendo los primeros resultados que podían ser contrapunteados exitosamente con los experimentos. Las
ecuaciones llevan ahora el nombre de Navier Stokes.

Sería difícil hallar a un científico cuyo nombre esté asociado a mas resultados que el de Stokes. En matemáticas
hay un importante teorema que lleva su nombre, en fluidos las ecuaciones básicas llevan su apellido, al igual que
una ley de movimiento para esferas y una paradoja; en óptica, unas líneas espectrales y el corrimiento de la
luminiscencia son sus hijas registradas y bautizadas.

Con el establecimiento de las ecuaciones básicas, el éxito de las primeras e importantes aplicaciones de ellas, el
gran cúmulo de precisas observaciones y el desarrollo de muy diversos métodos de investigación experimental y
analítica, la ciencia de los fluidos tomaba la forma que tiene tal y como hoy la conocemos. Los cimientos del
trabajo de las generaciones futuras estaban completos.

III .5. MATRIMONIO POR CONVENIENCIA

Una visión antropomórfica de la ciencia de los fluidos nos puede ayudar a entender la situación.

Se podría pensar que con las bases de la teoría bien establecidas, una sistemática educación daría a la criatura una
madurez de brillante productividad. Como suele suceder, lo que podía salir mal, salió mal. Apareció un problema
que hasta la fecha no ha sido resuelto satisfactoriamente: las matemáticas necesarias para resolver las recién
descubiertas ecuaciones (no lineales) no se habían desarrollado (¿inventado?, ¿descubierto?...). Así, al comenzar
la segunda parte del siglo XIX , los interesados en la hidrodinámica se encontraron con un problema claramente
planteado pero con insuficientes herramientas para resolverlo.

No es de sorprender que el mismo Stokes iniciara uno de los enfoques para abordar el problema. "Si no puedes
agarrar al toro por los cuernos, ¡corre!", dice un adagio azteca, y así lo hizo. Argumentado cuidadosamente,
simplificó las ecuaciones de manera que pudiera domesticarlas y sacarles provecho. Los resultados que obtuvo
por la aproximación tuvieron tal éxito que hoy en día se siguen explotando estas mismas ecuaciones que, desde
luego, también llevan su nombre. Su análisis del movimiento de una esfera en un líquido sigue siendo uno de los
resultados clásicos de la mecánica de fluidos; la expresión que relaciona a la fuerza que arrastra a la esfera con el
producto de la velocidad de la corriente, el radio de la esfera y la viscosidad del fluido, se conoce como la ley de
Stokes. La utilidad de un resultado tan "simple" como éste ha sido amplia y de la más diversa índole

Un problema representativo de los fluidos fue (y sigue siendo) el de establecer el flujo en tuberías. Por evidentes
razones prácticas había sido objeto de innumerables estudios teóricos y experimentales. Hasta que no se incorporó
el efecto de la viscosidad, la teoría correspondiente se había reducido a ejercicios pintorescos en matemáticas "no
aplicadas". Experimentalmente, fue el siglo XIX el que vio los primeros resultados correctos sobre el flujo en un
tubo, lo que no deja de llamar la atención por el uso que de acueductos, drenajes, fuentes y tuberías en general
había anteriormente.

Entre otros, destacan los trabajos de Gotthilf Heinrich Ludwig Hagen (1797-1884) y de Jean Louis Poiseuille
(1799-1869). El primero fue un distinguido ingeniero alemán cuyas contribuciones recibieron la injusticia de la
historia; nunca recibió el crédito por su trabajo. Poiseuille fue un médico interesado en la fisiología de aparato
cardiovascular que, para caracterizar el flujo sanguíneo, llevó a cabo cuidadosos experimentos en tuberías muy
delgadas (tubos capilares) para determinar la forma del flujo, la resistencia de éste y la descarga. De esta manera
estableció que la cantidad de líquido que pasa por un tubo cada segundo depende de la carga (la diferencia de
presiones por unidad de longitud) y de la cuarta potencia de su diámetro (el diámetro multiplicado por sí mismo
cuatro veces). Veinte años más tarde se desarrolló el primer análisis teórico que explicaba las observaciones de
Poiseuille. Franz Neumann (1798-1895) y Eduard Hagenbach (1833-1910), en forma independiente, obtuvieron
las expresiones para la forma (parabólica) del flujo y para la descarga, que se ajustaban bien a los datos
conocidos; Hagenbach, al citar sólo a Poiseuille sin mencionar a Hagen, inició la discriminación de su
compatriota.

Vale la pena hacer notar que el problema aún está lejos de resolverse. Una gran cantidad de trabajos
experimentales sobre el flujo en tuberías se sigue publicando en la bibliografía especializada; innumerables tablas
empíricas se han publicado para su uso en el diseño de sistemas de drenaje, plantas industriales de diferentes
características, etc., y complicadas relaciones entre parámetros del flujo siguen siendo elaboradas. Para las
condiciones que se dan en la práctica, el movimiento de un líquido es sumamente complicado y la teoría ha sido,
hasta la fecha, incapaz de dilucidar el problema. Las predicciones teóricas del siglo XIX, desde luego
aproximadas, han podido mejorarse muy poco.

Muchas contribuciones previas y subsecuentes a las de Navier y de Stokes merecerían un libro cada una. Sin
embargo, aquí el propósito ha sido el de delinear la forma en que se establecieron los principios básicos. Es
conveniente recalcar que la hidráulica, que escuetamente sería el manejo de los fluidos, gozó del mismo
vertiginoso avance que la hidrodinámica, su contraparte teórica. Aquí sólo hemos esbozado el crecimiento de esta
última. Sin embargo, el desarrollo paralelo de ambas, independiente hasta cierto punto, llevó a la pareja a la edad
del cortejo... Si bien se conocían desde la infancia, como suele suceder, hubo etapas en que se hablaban poco,
cuando no es que se odiaban, especialmente al obligarlos a estar juntos. Antes de entrar en la parte que concierne
al romance, vale la pena describir algunos rasgos de una de las partes comprometidas.

Por un lado, son notables las teorías de vórtices que desarrollaron Hermann Ludwig Ferdinand von Helmholtz
(1821-1894), Gustav Robert Kirchhoff (1824-1887) y William Thomson (1824-1907), más conocido por su título
nobiliario de lord Kelvin. Destacan también las obras de Joseph Boussinesq (1842-1929) y de John William Strutt
(1842-1919), el famoso lord Rayleigh. El primero de éstos desempeñó el papel que Fernando de Rojas diera a
Celestina; sus rigurosos estudios analíticos fueron siempre contrastados con los datos y las observaciones,
subrayando las virtudes de una relación duradera entre la hidráulica y la hidrodinámica. Rayleigh, versátil como
algunos de sus brillantes contemporáneos, abordó problemas que siguen siendo una muestra del claro pensar de
una exitosa generación de científicos; su teoría de la propagación del sonido es sólo un ejemplo.

Un protagonista singular de esta época es Osborne Reynolds (1842-1912). Estudiando casi los mismos problemas
que Boussinesq, cultivó el otro lado de la relación que nos ocupa, la hidráulica. Aun así, cada uno destacó en la
contraparte; Reynolds se sublimó en la hidrodinámica. Sus meticulosos trabajos experimentes eran delicadamente
contrapunteados con resultados analíticos; algo parecido a lo que Mozart hubiese logrado si en lugar de componer
su exquisita e insuperable música se hubiera concentrado en jugar con charcos y la teoría correspondiente. ¡De lo
que se perdieron los fluidos y lo que ganamos todos!

Reynolds, prototipo del profesor distraído, introdujo conceptos y métodos que siguen siendo aprovechados por
quienes nos ganamos el pan con los fluidos. Como "para muestra basta un botón", caracterizó la forma en que un
fluido pasa de un estado de movimiento laminar (regular) a uno turbulento (caótico), introduciendo, entre otras
cosas, un parámetro adimensional conocido ahora como el número de Reynolds.

La idea básica es como sigue. Una madre ingeniosa decide jugar en la cocina de su casa con unos popotes. A
pesar de las protestas de su familia, averigua cómo se mueve el jugo de mandarina en su "dispositivo
experimental" y, como es de suponerse publica un artículo sobre el tema. Meses más tarde y en otro país, en una
oficina con poca luz, un ingeniero del Departamento de Aguas debe rediseñar el sistema de drenaje de un barrio,
dentro del cual se encuentra su casa; es decir, le interesa que funcione. ¿Le sirve lo que escribió la susodicha
mamá? Ella trabajó con el jugo de un cítrico, tubos de plástico y una sana curiosidad; él debe hacerlo con... otros
materiales. Gracias a la dama y a Reynolds, el ingeniero puede evitar hacer pruebas costosas y, tal vez,
desagradables.

Supóngase que U es la velocidad media del fluido en un tubo, D el diámetro de éste y v la viscosidad del fluido.
Lo que Reynolds encontró fue que si el valor numérico del producto de U y D, dividido por v, es el mismo para
dos sistemas, aunque parezcan muy distintos, ¡el flujo será el mismo!. Cosas como el gasto, el carácter laminar o
turbulento, etc., serán iguales. Lo que tiene que hacer el ingeniero es ver si su sistema escala adecuadamente.

Si el diámetro de los tubos del drenaje es de 2 m y el de los popotes es de 0.5 cm, parecería no haber mucha
relación. Digamos que la viscosidad del jugo de mandarina es de aproximadamente .01 cp y la de lo que se mueve
en el drenaje es de cerca de 1 cp (unas cien veces más viscoso); cp es la abreviatura del centipoise (pronúnciese
"sentipuazz"), la unidad de medición de la viscosidad. Entonces, para que los números de Reynolds de cada caso
sean iguales, basta con que la velocidad del jugo en los popotes sea cuatro veces la del "fluido" en el drenaje.
Además de ser más barato el experimento casero, la vitamina C es mucho más saludable.

Es justamente en este hecho, el principio de semejanza, que está basado el modelado hidro y aerodinámico.
Cuando se hacen maquetas de muelles, de rompeolas, de aviones o de submarinos, además de divertirse, los
investigadores (ingenieros, físicos o matemáticos) se están ahorrando tiempo, esfuerzo y (a sus patrones) muchos
kilogramos de oro. Si el juguetito flota, el buque tanque de 100 000 toneladas también lo hará..., si es semejante.

Al iniciarse el siglo XX, el cortejo entre la hidrodinámica y la hidráulica parecía no tener futuro alguno; los
intereses comunes o bien se expresaban en lenguajes diferentes o parecían inútiles o muy complicados. Las obras
de Horace Lamb y de A. A. Flamant ilustran bien la situación; la primera cubre los aspectos teóricos y la otra los
experimentales, con poco material común. La hidrodinámica se interesaba principalmente en los flujos invícidos o
ideales, lateralmente en los flujos viscosos laminares y no hacía caso de los flujos turbulentos, siendo esta última
la característica más importante para la hidráulica. Así, las excelentes virtudes de una disciplina eran ignoradas
por la otra.

En estas condiciones, en 1904, se presentó un trabajo experimental, en un congreso de matemáticas, en la ciudad


de Heidelberg, Alemania. El autor, un brillante ingeniero llamado Ludwig Prandtl (1875-1953), iniciaba una
conspiración para unir a la caprichosa pareja. A raíz de esa participación, Prandtl fue invitado a trabajar y
colaborar en uno de los ambientes más estimulantes y fértiles para la investigación de que se tiene memoria. Con
ese trabajo, titulado Sobre el movimiento de fluidos con viscosidad pequeña, empezaba una profunda revolución
mecánica de fluidos.

El punto esencial de la contribución de Prandtl, elaborado en una secuencia de publicaciones a lo largo de una
década, y que sólo es parte de su variada obra acerca de los fluidos, fue el siguiente.

La dificultad era que la hidrodinámica, ese elegante aparato matemático que estudiaba sobre todo a los fluidos
ideales, describía muy bien una parte importante del movimiento real de los fluidos, como la forma de la estela
que deja tras de sí un objeto inmerso en una corriente. Por otra parte, predecía algunos casos claramente absurdos,
como la inexistencia del arrastre de la corriente sobre el objeto inmerso en ella, en franca contradicción con las
observaciones (y la experiencia de los ahogados en torrentes por todo el mundo).

La solución ahora parece mas o menos obvia, como siempre sucede con los problemas una vez resueltos. Si la
teoría de los fluidos ideales no podía describir correctamente el movimiento de los fluidos reales cerca de cuerpos
sólidos, debía haber una forma de tomar en cuenta los efectos de la viscosidad en la inmediata vecindad de las
paredes de éstos. Es decir, muy cerca de una superficie sólida debía existir una región, que Prandtl bautizó como
la capa límite, en la que dominaran los efectos viscosos; fuera de ella, la descripción del modelo de fluidos ideales
debía ser suficiente. De esta manera, el problema se reduce a simplificar las ecuaciones de Navier-Stokes lo
necesario como para poder resolverlas dentro de la capa límite; fuera de ésta, los resultados deben ser iguales a los
del caso ideal.

Y así, Prandtl quiso, pudo e hizo. Haciendo ver las bondades de cada parte y las desventajas del celibato para una
pareja tan potencialmente fértil, manipuló la situación y documentó (con teoría y experimentos) la conveniencia
de ese matrimonio. El amor llegará después —les decía— y a la pareja la dejó bien casada. La prole sigue
agradecida a Prandtl por las delicadas gestiones que hizo para abrir un horizonte que explorar, donde antes sólo
parecía haber una oscuridad abisal.

Las contribuciones sobresalientes de Prandtl no quedaron ahí, ni fue éste el último de los brillantes investigadores
en el tema; algunos de los que faltan, varias ideas y métodos, como las que abordan la turbulencia o el uso de las
computadoras, aparecerán más adelante.

Con este panorama de la historia de los fluidos, un tanto cubierto de nubes, pero con suficientes claros que dejan
entrever el hermoso paisaje, es mejor dejar a la mente descansar y a los ojos distraer. Es un buen momento para
detener la lectura, estirar las piernas y mirar a un fluido de frente. Luego, viendo agua, aire o fuego, murmurar en
silencio, (lo que no haríamos con un adolescente) "te voy entendiendo...".
IV. GALAXIAS, HURACANES Y DESAGÜES

Los movimientos con vorticidad son los más comunes en nuestro Universo. Desde el microscópico ámbito de los
átomos hasta el inconmensurable espacio del Cosmos, los vórtices hacen acto de presencia simultánea en casi
todos lados, es decir, ejecutan el portentoso acto de la ubicuidad. Y claro uno se pregunta ¿qué es la vorticidad?,
¿qué son los vórtices?, ¿cómo están relacionados estos conceptos?

Antes de intentar precisar ideas veamos algunos aspectos relacionados con ellas, siguiendo el adagio de "por sus
obras los conoceréis".

Empecemos usando como imagen prototipo de vórtice a nuestro remolino favorito. Como en el caso de los
fluidos, siempre es bueno tener un ejemplo sencillo en la mente; se sugería utilizar como prototipo al aire o el
agua. Los casos extravagantes también sirven, como las sales radiactivas fundidas o el caldo de cilantro con
ajonjolí, aunque pueden ser más apetitosos o dañinos que ilustrativos.

¿Quién no ha disfrutado al mirar las fotografías de una galaxia espiral o de la gran Mancha Roja de Júpiter?
¿Quién no ha sido atraído (o repelido) por las imágenes de un huracán o de un tornado? ¿Quién no ha visto un
remolino de polvo o el que forma el agua en un desagüe? La primera pregunta la contestaremos a continuación, la
segunda más adelante y la última queda de tarea.

Figura IV. 1. Galaxia espiral. Messier 81, en la Osa Mayor. Observatorio Hale.

Con respecto a los vórtices, de misterioso sólo tienen el mestizante efecto que da un buen espectáculo, lo que no
significa que sean triviales de entender, manejar o predecir. De hecho, son protagonistas de algunos de los
problemas más profundos de la física.
Figura IV. 2. La gran mancha Roja de Júpiter.

El interés por entender este truco giratorio que los alrededores practican sobre nosotros todo el tiempo no es,
desde luego, ni reciente ni morboso. Se manifiesta ya en las estelas asirias, los jeroglíficos egipcios, los mitos más
antiguos de las culturas nórdicas y las procupaciones de los griegos. Lo encontramos también en los glifos mayas,
en las grandes obras de la literatura universal, en los dibujos exquisitos de Leonardo da Vinci y en lo que nos
contó una tía de su niñez casi olvidada. Este interés nos nace al ver volar un papalote o un paraguas, al lavarnos
las manos, o cuando alguna vez jugamos con el agua de la orilla de un estanque prohibido. En los permitidos
también se ven, dicen.

No sorprende entonces que los vórtices hayan desempeñado un papel importante en la elaboración de los modelos
destinados a explicar el mundo y sus peculiaridades.

La primera teoría moderna del Universo se debe a Descartes, en el siglo XVIII. En ésta imaginaba un mar
infinito en el que los planetas, el Sol y las estrellas se movían influidos mutuamente por el efecto de los vórtices
que ellos mismos producían. El Sol, al girar, arrastraba a los planetas en un atractivo carrusel celeste. Newton, en
cambio, se concentró en estudiar a los fluidos para probar que, al rotar, no generaban el modelo de movimiento
observado, descartándose así, cien años después, el universo cartesiano de vórtices.

Uno de los últimos intentos por construir un universo dominado por los vórtices fue hecho por lord Kelvin, hacia
finales del siglo XIX. Al formular la atractiva teoría de nudos, que es motivo de un renovado interés para
describir, entre otras cosas, una parte de la dinámica de los plasmas, Kelvin intentó explicar la naturaleza atómica
y molecular con anillos de vorticidad; los anillos de humo son un buen ejemplo. De esta manera, los átomos y sus
compuestos eran interpretados como las diversas formas en que estos anillos podían combinarse, anudándose de
acuerdo con ciertas reglas; las ideas originales de Kelvin sufrieron el mismo fatal decaimiento que sufren todos
los vórtices.

Ya sea porque fueron mencionados en las epopeyas de Homero, en los andares por el Infierno de Dante o en las
Reflexiones de Goethe, o porque fueron ilustrados en las pinturas de Van Gogh y Tamayo, y porque son sugeridos
por los rollos de mar que se mueren en las playas o por el humo que sale a borbotones de una chimenea, los
vórtices siguen siendo un tema recurrente para quienes estudian la naturaleza, desde cualquiera de sus
enigmáticos ángulos.

IV .1. VÓRTICES Y VORTICIDAD

Donde hay un fluido en movimiento hay vorticidad y casi siempre vórtices; ahora que cuando hay vórtices,
siempre hay vorticidad. Sí, hay que aceptarlo, es un tanto oscuro pero se irá aclarando, como la ropa con las
lavadas.
Definir un vórtice no ha sido, hasta ahora, algo sencillo. Es más o menos claro que tiene que ver con el dar vueltas
en torno a un punto y que el giro debe estar referido a un movimiento colectivo, que comprende a más de un
objeto o partícula. Con estas ideas en mente podemos hacer la siguiente proposición: Un vórtice es el patrón que
se genera por el movimiento de rotación de muchas partículas alrededor de un punto común (no necesariamente
fijo en el espacio); recordando nuestro muy particular remolino o los ejemplos previos, la definición parece ser
suficiente. Sin embargo, si uno busca en la bibliografía especializada resulta que no hay consenso sobre el asunto;
no hay una definición clara y unívoca, ya no se diga matemática. Ingenieros, matemáticos o físicos, ni qué decir
de otros especialistas, difícilmente aceptarían nuestra propuesta y cada quien sacaría su ejemplo preferido para
mostrar la necesidad de ampliarla, recortarla o todo lo contrario. Más adelante veremos la importancia que tendría
el poder contar con ella. La definición que hemos dado es la suma de lo que todos intuimos más algunos detalles
adicionales. Eso sí, si el "remolino" que usted escogió no está correctamente descrito por la definición, por favor,
piense en otro.

¿Qué es la vorticidad? La respuesta aquí es más sencilla, pues todos están de acuerdo. En cambio, es algo más
abstracto y no tan evidente, ¡lo opuesto a los vórtices! El concepto fue introducido por Cauchy y por Stokes. La
vorticidad, para empezar, es un campo vectorial; es decir, su magnitud y dirección están definidas en cada punto
del espacio ocupado por el fluido. En cierto sentido, es una medida de la velocidad con la que rota cada partícula
de fluido.

Si imaginamos a una partícula de fluido con cierta forma, es fácil convencerse, y demostrar rigurosamente, que lo
más que le puede pasar es una de tres posibilidades: cambia de posición, trasladándose con la misma orientación y
forma; cambia su orientación, sin trasladarse o deformarse; se deforma, sin rotar o trasladarse. Cualquier otra cosa
puede explicarse como una combinación de estas tres acciones simples. La vorticidad es justamente lo que
caracteriza a la segunda transformación.

Para un fluido girando uniformemente alrededor de un punto, como lo haría una tornamesa, la vorticidad (que es
constante) es igual al doble del número de revoluciones por segundo y su dirección es perpendicular al plano de
giro, paralela al eje de rotación.

Aunque todos los vórtices tienen vorticidad, no siempre que hay vorticidad existe un vórtice. El flujo más sencillo
que ilustra este punto es el paralelo cortante (Figura IV .3). Se le llama así porque las partículas de fluido se
mueven paralelas unas a otras y porque las fuerzas, por unidad de área, son cortantes (capítulo II, figuras II. 1 y II.
2).

Figura IV. 3. Flujo cortante simple (paralelo cortante o de Couette plano).

En este flujo, también llamado de Couette plano, las partículas de fluido se mueven paralelas unas a otras; la
velocidad que llevan depende de la distancia que hay al fondo. Las líneas muestran las trayectorias y las flechas el
tamaño de la velocidad. Una partícula con extensión, por pequeña que sea, sentirá que la arrastran más por arriba
que por abajo (debido a la viscosidad) y tenderá a rotar. Si se calcula la vorticidad de este flujo se encuentra que
no es cero; su tamaño es igual a la velocidad de arriba dividida por la profundidad y su dirección es la de nuestro
dedo al señalar la figura. Nadie (esperamos) diría que hay remolinos (vórtices) ahí dentro.
Basta con observar con atención para descubrir vórtices en casi cualquier lado. Las "presentaciones" en que éstos
vienen son de lo más diversas; aparecen en gases, en líquidos y hasta con cuerpos sólidos y sus tamaños varían
entre las dimensiones cósmicas y las atómicas.

Para darnos una idea de las escalas de tamaño y velocidad que tienen estas ubicuas estructuras, veamos unos
ejemplos; algunos serán comentados con cierto detalle más adelante.

Vórtices Diámetro (en metros)

Rotaciones internas en el núcleo atómico 10-17


Vórtices cuantizados en helio líquido 10-8
Remolinos más chicos en un flujo turbulento 10-3
Vórtices en la estela de una ballena 1-10
Tornados y huracanes 10-105
Estructuras atmosféricas en planetas 107
Convección interior en las estrellas 109
Galaxias espirales 1020

En este cuadro, vemos que las estructuras vorticosas más grandes tienen dimensiones de miles de años-luz
(distancia que recorre la luz en un año; viaja a casi 300 000 km/seg) y las más pequeñas, en el interior de los
núcleos atómicos, son de un metro dividido por un 1 seguido de diecisiete ceros; las longitudes son en ambos
casos inimaginables...

Las velocidades de rotación varian dentro de un intervalo más chico. El límite superior siendo la velocidad de la
luz, la máxima alcanzable en el Universo, mayor a los 1 000 000 000 km/h.

IV. 2. TORBELLINOS CÓSMICOS

Dentro del inmenso foro que constituye el Universo, muy lejos de nosotros, hasta donde podemos percibir con
nuestros más potentes telescopios, hay objetos que parecen remolinos multicolores congelados en el espacio y el
tiempo. Formados por miles de millones de estrellas que se revuelven en torno a un centro demasiado luminoso
para desentrañarlo y entenderlo, descubrimos fantásticos vórtices de dimensiones inimaginables. De hecho, el
grupo de estrellas del que forma parte nuestra estrella más cercana, el Sol, es una de estas exquisitas y
arremolinadas estructuras.

Nuestra Galaxia, la Vía Láctea, es muy parecida a la que se ilustra en la figura IV. 1. Con un diámetro cercano a
los 70 000 años-luz, nuestro Sistema Solar se encuentra en una zona cercana a la orilla, como a 30 000 años- luz
del centro. Como un punto común y corriente, sin ninguna característica especial o privilegiada, el Sol gira
alrededor del centro de la galaxia, de modo que da una vuelta cada 250 millones de años. Por la distancia a la que
nos encontramos del centro, la velocidad efectiva de giro es de casi 1 000 000 km/h. Por algo Galileo dijo en voz
baja para sí, ante mentes inmóviles, "y sin embargo, se mueve". ¡Lo hubiese gritado de haber sabido la velocidad
de la Tierra en la Galaxia!

La estructura espiral de nuestra Galaxia es algo común en el Universo; se conocen cientos de ellas. Muchos
modelos para explicar la forma en que está distribuida la masa (las estrellas), la forma en que giran (más
rápidamente cerca del centro), etc., están sustentados en formulaciones hidrodinámicas. Es decir, se ignora que
están formados por partículas (estrellas) y se estudian como a los fluidos (continuos), con ecuaciones muy
semejantes.
Inmensas regiones de gases, millones de veces mayores que una galaxia como la nuestra, son estudiadas como
fluidos autogravitantes en los que la densidad fluctúa; de estas contracciones locales de materia se generan nuevas
estrellas y con ellas galaxias. De la manera en que la vorticidad puede estar distribuida y de cómo evoluciona es
posible inferir mecanismos que expliquen las formas de los cúmulos de estrellas, los gigantescos chorros de
materia que se observan con los radiotelescopios o la aparición de nuevas inhomogeneidades espaciales
(irregularidades en la densidad de materia).

Si confinamos nuestras observaciones sólo a nuestro Sistema Solar y vemos con atención a los planetas mayores,
desde luego que nos quedamos igual, pues no distinguimos más allá de puntitos luminosos. Ahora que si usamos
un telescopio o pedimos una fotografía de las enviadas por las recientes naves interplanetarias (Voyagers y
Vikings), nos sorprendemos por la maravillosa vida que presentan sus atmósferas. Secuencias de fotografías o
videos de Saturno, de Neptuno y especialmente de Júpiter ponen de manifiesto una bellísima estructura y una
intensa actividad. Aunque la complicada dinámica dista mucho de entenderse, los vórtices multicolores revelan
parte de los mecanismos en juego.

La gran Mancha Roja de Júpiter es sin lugar a dudas el vórtice más famoso y conspicuo del espacio exterior a
nuestro planeta. A 22° abajo del ecuador del planeta más grande del Sistema Solar se encuentra un gigantesco
remolino rojo. Si este monstruoso torbellino se encontrase en la Tierra estaría ubicado en la latitud de Río de
Janeiro (no es de sorprender que el remolino terrestre correspondiente lo formen los cariocas). Las dimensiones
de la Mancha Roja son de 22 000 km de largo por 11 000 km de ancho y va disminuyendo poco a poco con el
tiempo. Hace más de cien años, mientras Benito Juárez discutía las Leyes de Reforma, la Mancha Roja era del
doble del tamaño y, como aún sucede, podría contener a todos los planetas internos, desde Marte hasta Mercurio,
pasando por la Tierra. Su intenso color anaranjado, que varía entre el tenue crema sonrosado y el rojo carmín, se
debe a las complejas reacciones químicas que ocurren entre los gases que conforman su atmósfera.

Sin contar con la misma belleza o las grandiosas dimensiones que posee la Mancha Roja, remolinos
espectaculares se han observado en las superficies de Saturno, Neptuno y Urano. Como apocalípticas tormentas
sobre inexistentes habitantes, estos gigantescos vórtices aparecen, se extienden y se disipan para regocijo de los
astrofísicos planetarios. Sin embargo, los mecanismos que los engendran parecen ser muy distintos a los que
generan los grandes huracanes venusinos, terrestres y marcianos.

Júpiter es un planeta en el que las estaciones no existen. Su eje de rotación es casi perpendicular al plano de su
órbita y su temperatura varía muy poco entre los polos y el ecuador; la diferencia es de sólo tres grados
centígrados, que contrasta con la correspondiente diferencia de temperaturas en la Tierra (encuestas entre
peruanos y norfinlandeses así lo indican). Las estaciones se deben a que el eje de la Tierra está inclinado, no al
carácter elíptico de la órbita. De hecho, la órbita terrestre es casi circular; se requieren medidas muy precisas para
apreciar la excentricidad. Es decir, si dibujamos la órbita (elíptica) de la Tierra en una hoja como ésta, con nuestra
pluma favorita, la diferencia con un círculo seria menor que el grosor del trazo.

La circulación atmosférica norte-sur no la conocen ni los jovianos ni los saturninos. De aquí la existencia de
bandas o fajas paralelas al ecuador en los grandes planetas y la ausencia de éstas en los planetas más pequeños,
aunque más divertidos. Estas bandas son regiones de alta y baja presión, llamadas zonas y cinturones, que
corresponden a gigantescos chorros que se mueven en direcciones opuestas y en donde los vientos alcanzan
velocidades de 500 km/h. En las regiones entre unas y otras, que se encuentran alternadas, aparece toda suerte de
fenómenos exóticos; patrones regulares de vórtices que adornan miles de kilómetros, megavórtices como la
Mancha Roja y su hija blanca un poco más al sur, conjuntos bailables de vorticillos (de sólo unos cientos de
kilómetros) con ritmos y colores que no envidian ni a una pegajosa salsa ni al alegre vestuario de un carnaval.
Júpiter se inspira sin duda alguna en la imaginativa obra plástica de Niermann.

Otros factores relativamente comunes entre la Tierra, Venus y Marte son las velocidades de rotación, la
proporción entre superficie sólida y grosor de la atmósfera, las densidades atmosféricas y la diferencia entre la
energía que reciben y la que reflejan o emiten; todo esto muy distinto a lo que sucede en los grandes planetas
externos.

Por ejemplo, mientras que la Tierra emite la misma energía que recibe del Sol, Júpiter emite casi el doble de la
que recibe; aún guarda energía de su proceso de formación al contraerse gravitacionalmente al principio de los
tiempos. Desde la cuna fue más generoso que la Tierra. Siendo mucho mayor que nuestro planeta gira casi dos y
media veces más rápido. Además, de grandes consecuencias climáticas, en la atmósfera de Júpiter la densidad
depende sólo de la presión, o lo que es equivalente, las regiones con igual presión tienen la misma temperatura; se
dice entonces que es barotrópica. Esto no sucede en nuestra blanquiazul envoltura que llamamos baroclínica. Por
lo tanto, la dinámica atmosférica joviana es muy distinta a la terrestre (afortunadamente).

Los otros planetas mayores comparten con Júpiter algunas de sus vistosas características. Saturno presenta
además su extraordinario sistema de anillos. Fuera de su atmósfera exhibe uno de los vórtices más fantásticos que
se conocen, para no ser menos conspicuo que su hermano mayor. Como queriendo desafiar las leyes mecánicas
que conocemos, muestra millares de anillos concéntricos, regulares y notablemente planos. Salvo por algunas
irregularidades que transitan como fantasmas a lo ancho y largo de los anillos, la perfección del movimiento
vorticoso de millones de trozos de hielo nos sigue asombrando. Como seguramente le sucedió a Galileo cuando
descubrió sin entender la inverosímil estructura, las preguntas que se ocurren superan a las respuestas que
tenemos.

Los anillos, como casi todas las características que se han ido encontrando en nuestros planetas vecinos, no son
exclusivos de alguno en especial. Varios de ellos tienen bandas y anillos, algunos tienen superficies sólidas
complejas y atmósferas activas, otros tienen satélites naturales, etc. Así los planetas, como sucede con los
humanos y los animales en la granja de H. G. Wells, siendo todos iguales hay unos más iguales que otros y, sin
embargo, no existen dos completamente iguales.

Del vasto espacio cósmico a la vecindad del Sol, los movimientos giratorios, como gigantescos tiovivos, son más
la regla que la excepción. Nada parece moverse en línea recta. Nuestra galaxia gira, con muchas otras. En su
movimiento hacia la constelación de Lira, nuestra estrella local se revuelve en torno al misterioso centro de la Vía
Láctea; los planetas, que tanto estimulan la imaginación por los deseos de una inexistente compañía, rotan
alrededor del Sol y sobre sí mismos. Desde su tenue superficie hasta el inaccesible interior, cada planeta
manifiesta una agitada vida dominada por vórtices.

IV. 3. HURACANES Y LAVABOS

La Tierra, el único sitio habitado que conocemos, vista desde fuera parece una esfera azul con caprichosas
pinceladas blancas que cambian suavemente con el paso del tiempo. Con cada revolución parecen generarse de la
nada, se organizan y se desvanecen otra vez para recomenzar otra composición plástica. Un aspecto curioso del
espectáculo pictórico permanente es la tendencia a girar de estas móviles decoraciones. Bajo circunstancias
especiales, las hermosas espirales se estabilizan por un rato, se organizan hasta cubrir cientos de kilómetros y en
un recorrido aparentemente loco se convierten en fuentes de destrucción y, paradójicamente, de vida.

Huracán, que viene de la palabra furacán, y que escuchara Cristóbal Colón de los nativos durante su segundo
viaje, es el nombre más común que se da a los vórtices atmosféricos terrestres más grandes. Son tormentas
caracterizadas por vientos huracanados (mayores de 120 km/h) que, en trayectorias espirales, se mueven hacia un
centro común conocido como el ojo del huracán. En el hemisferio norte el giro es invariablemente ciclónico, es
decir, en contra de las manecillas del reloj, y en el hemisferio sur al contrario. Llamados también tifones y
ciclones, entre otros muchos nombres, se empezaron a registrar en forma regular a partir del descubrimiento de
América.

La historia de muchos de estos fenómenos usualmente va acompañada de tragedias. Vastas inundaciones,


numerosas embarcaciones desaparecidas, incalculables daños materiales e incontables pérdidas de vidas humanas
sellan los recuentos del paso de los huracanes.

Kamikazi, el viento divino, es el nombre que recibió el tifón que en 1281 acabó con las aspiraciones de Kublai
Khan para invadir el Japón. La flota completa, con más de 100 000 soldados chinos, mongoles y coreanos,
desapareció en la Bahía de Hakata, Japón.

En términos de vidas humanas, las mayores catástrofes registradas fueron en 1737, cerca de Calcuta, India; en
1881 en Haifong, Vietnam, y en 1970 en la Bahía de Bengala, Bangladesh; se estima que más de 300 000
personas perdieron la vida en cada caso. La presencia de intensas lluvias, de hasta decenas de centímetros en unas
horas, y de una marejada que supera los 10 m de altura, da lugar a las inundaciones que cobran la mayoría de las
víctimas.

Con una extensión que puede llegar a los 2 000 km de diámetro, los huracanes viajan con velocidades
relativamente bajas e irregulares que oscilan entre los 10 y los 50 km/h. La duración de un ciclón también es muy
variable, pues puede ser de unas horas hasta semanas, y recorrer distancias de hasta 2 000 km. Los vientos en la
espiral alcanzan velocidades cercanas a los 350 km/h en la vecindad del ojo, dentro del cual una calma
desconcertante aparece abruptamente; en unos minutos el viento pasa de una violencia feroz a una leve brisa. En
el ojo, cuyas dimensiones varían entre los 20 y los 100 km, la presión alcanza los valores más bajos que se hayan
registrado en la superficie de la Tierra.

El hecho de que transportan grandes cantidades de agua a través de varios grados de latitud y que se estima que
un huracán maduro transporta entre 2 000 y 4 000 millones de toneladas de aire por hora, los convierte en
elementos importantes para la circulación y transporte atmosféricos globales en la Tierra. El calor que llevan de
zonas tropicales a latitudes más frías y las lluvias que dejan a su paso son parte de los beneficios que traen
consigo.

Si bien se conocen los mecanismos básicos para su generación, propagación y decaimiento final, aún hay aspectos
poco claros que impiden una confiable predicción de estos fenomenales eventos atmosféricos.

En una acción internacional promovida por la ONU, con pocos precedentes, la década de los noventa ha
concentrado un gran esfuerzo científico para estudiar los huracanes. Una comisión multidisciplinaria presidida por
James Lighthill, uno de los notables hidrodinámicos del siglo, ha iniciado estudios de la más diversa índole para
esclarecer este tema cuanto sea posible. El propósito fundamental es hacer más eficientes las gigantescas
simulaciones numéricas que actualmente se llevan a cabo para poder predecir la aparición, intensidad, dirección y
duración de un ciclón. En 1991, la predicción de la evolución de un ciclón por una semana requería de un tiempo
de 75 horas de cómputo (usando la computadora más grande y rápida del mundo).

Figura IV. 4. Huracán sobre el Océano Pacífico (NASA, Apolo 9).

Uno de los problemas más grandes es la falta de datos meteorológicos suficientes y confiables para alimentar las
simulaciones numéricas que se hacen hoy en día en varios centros de investigación dedicados exclusivamente al
estudio de los huracanes.

Para tener una idea sobre los elementos que contribuyen a la formación, estructura y sostén de un huracán, es
necesario tomar en cuenta que todo lo vemos desde un carrusel, es decir, desde la giratoria superficie de la Tierra,
lo que complica un poco las cosas.

El primero en estudiar el movimiento de cuerpos desde un sistema de referencia que rota fue Gustave-Gaspard
Coriolis (1792-1843). En 1835, Coriolis publicó un trabajo en el que mostraba que si un objeto se mueve sobre
una superficie que gira, aparece una fuerza perpendicular a la dirección de su movimiento. Esta fuerza, conocida
ahora como la Fuerza de Coriolis , da lugar a una trayectoria curva, vista desde la superficie.

Para apreciar mejor el efecto vamos a imaginar la siguiente situación Un simpático joven tiene una pelota en la
mano y está parado en la parte interior de un tiovivo que gira; es el que recoge los boletos. Un niño da vueltas
sobre uno de los caballitos de la orilla (nada cambia si los caballos se sustituyen por otros mamíferos). La
hermana mayor del niño los observa girar desde la orilla, pues teme subirse. El joven se percata de la hermana al
verla pasar periódicamente y decide que la próxima vez que se encuentre cerca le va a lanzar la pelota al niño para
congraciarse con ella. Cuando los tres están alineados, lanza la pelota al niño y ésta va a caer en las manos de otra
sorprendida muchacha.

Analicemos lo ocurrido a los ruborizados jóvenes y al extrañado niño. Desde el punto de vista de este último y el
embobado joven, lo que ocurrió es que la pelota siguió una trayectoria extraña; en lugar de viajar en línea recta
entre los dos, una fuerza extraña pareció desviarla y fue a dar a las manos de una joven que iba pasando. Por su
parte, la hermana ve a la pelota seguir una trayectoria recta y directa a la otra joven, sintiéndose incómoda por
haber creído, como el niño, que era la futura poseedora de una pelota. Al niño sin pelota y al joven sin la hermana,
sólo les queda invocar la existencia de fuerzas extrañas o de agentes invisibles para explicarse el suceso.

Para los observadores en reposo, el movimiento de objetos es rectilíneo, a menos que alguna influencia bien
determinada los desvíe; así lo comprueban las dos muchachas, la que esperaba atrapar y la que, sin esperarlo, lo
hizo. Para los observadores en rotación, llamados acelerados, es necesario recurrir a fuerzas ocultas
("desocultadas" por Coriolis) para explicarse el movimiento de las cosas. En nuestra terrestre circunstancia,
rotando con el piso (la Tierra), recurrimos a la existencia de esta fuerza (inercial) para describir movimientos con
precisión.

En la Tierra, que rota hacia el este, un objeto que es lanzado de sur a norte seguirá una trayectoria curva; en lugar
de viajar directo al norte se deflectará hacia la derecha, en el hemisferio norte, y hacia la izquierda en el
hemisferio sur, abajo del ecuador. Por otra parte, la velocidad de giro depende de la latitud, siendo cada vez más
pequeña al acercarse a los polos y máxima en el ecuador; quien se encuentra más lejos del eje de rotación recorre
mayor distancia en menos tiempo (va más rápido), como saben los que han practicado las "coleadas". Así, la
magnitud de la fuerza de Coriolis depende del movimiento del objeto (su velocidad y la dirección de ésta), de la
rotación terrestre y de la latitud.

Con la guía de Coriolis podemos ahora resumir las condiciones que se requieren para la formación de los
huracanes.

Una es que la fuerza de Coriolis sea mayor que cierto valor mínimo. Como ésta es cero en el ecuador y empieza a
crecer con la latitud; los vórtices que nos ocupan se generan fuera de un cinturón de aproximadamente 7º de
latitud, al norte y al sur del ecuador (como de 1 300 km de ancho). La dirección del giro de los huracanes se debe
únicamente a esta fuerza. Dentro de esta banda los posibles huracanes son presa de la esquizofrenia, al no saber
en qué dirección girar, y prefieren no existir.

Otra condición necesaria es la presencia de una superficie extensa de agua, con una temperatura mínima de 27ºC,
que dé al aire circundante grandes cantidades de vapor para generar y mantener una tormenta tropical. Los meses
calientes del año son pues los más propicios.

Adicionalmente, se cree que una o mas de las siguientes condiciones necesita estar presente para disparar el
mecanismo de formación. La columna de aire sobre la zona inicial inestable (capaz de amplificar pequeños
cambios), la presión del aire cerca de la superficie del agua baja y las corrientes de aire, verticales y encontradas
(flujos de corte), muy pequeñas.

Bajo las circunstancias arriba descritas, la zona se encuentra en un estado tal que pequeñas perturbaciones pueden
amplificarse y dar lugar a movimientos de grandes masas de aire húmedo, especialmente si se presentan
corrientes horizontales (chorros) de aire. La convección resultante (movimiento de masas de aire) se hace
tumultuosa en un tiempo relativamente corto, reforzándose los vientos y permitiendo que el efecto de Coriolis
entre en juego para introducir una curvatura en la corriente, organizándose la estructura ciclónica.

Una vez iniciado el fenómeno se sostiene por periodos que van de unas horas hasta varias semanas, gracias al
mecanismo que describiremos esquemáticamente a continuación. En una zona de unos centenares de metros sobre
la superficie del agua, llamada capa de Ekman, el aire húmedo se mueve horizontalmente y en espiral hacia el
centro de giro. Al llegar cerca del ojo del huracán cambia abruptamente su dirección y asciende varios kilómetros
en una especie de chimenea hueca, que limita la zona del ojo. En este movimiento de subida, que no es otra cosa
que una consecuencia del principio de Arquímedes, el aire caliente se expande y se va enfriando. En
consecuencia, la humedad se condensa, liberándose energía (calor latente) en grandes cantidades. Las gotas de
agua condensada forman las torrenciales lluvias y la energía disponible es empleada en reforzar los vientos y
trasladar el ciclón.

Esta es la razón por la que se habla de una máquina térmica cuando se refiere uno al mecanismo físico que
mantiene a un huracán. Al llegar a tierra firme pierde su fuente más importante de energía y se debilita,
disipándose en cuantiosas lluvias.

La clave está pues en el hecho de que cuando el vapor de agua se condensa, juntándose en gotas, se libera energía.
Sabemos que para evaporar agua hay que darle energía, quemando gas o leña o haciéndola caer desde cierta altura
(como en las cataratas). Tláloc, el dios azteca de las lluvias, se las ingenia para usar la energía que se "suelta" en
el proceso inverso de la evaporación: la condensación.

De acuerdo con la Organización Mundial Meteorológica, las perturbaciones meteorológicas de baja presión se
clasifican con distintos nombres, dependiendo de su intensidad. En su estado inmaduro, con vientos ligeros en
rotación y con isobaras abiertas, se les llama perturbaciones tropicales. A la curva que resulta de unir los puntos
en donde la presión es la misma se le llama isobara; se dice que es abierta si no forma una curva parecida a un
círculo. Una depresión tropical es cuando los vientos en rotación han aumentado, sin exceder los 63 km/h, y
aparecen algunas isobaras cerradas en el mapa meteorológico. Se convierten en tormentas tropicales cuando los
vientos, claramente en rotación, son mayores a 63 km/h pero menores a 120 km/h y las isobaras son cerradas en
su mayoría. Se reserva el nombre de huracán para los casos en los que los vientos son superiores a este número
mágico de los 120 km/h. El verdadero bautizo ocurre cuando una depresión se convierte en una tormenta. En ese
momento se les pone un nombre (de mujer y de hombre, en forma alternada) por orden alfabético. Por ejemplo, el
primero puede ser Aspergencia, el segundo Bugambilio, y así sucesivamente hasta Zuperman; el siguiente será
Agapita y se vuelve a dar vuelta al alfabeto, dado que en promedio se producen cerca de 60 huracanes por año en
todo el mundo.

Otros grandes vórtices que se observan en la atmósfera son los tornados y las trombas, cuyos nombres son
bastante descriptivos, pues uno viene de tornar, regresar, y el otro es una variación de la palabra trompa. Basta
con ver la figura IV. 5, que muestra uno de cada tipo, para apreciar la originalidad de los apelativos

Figura IV. 5. (a) Tornado.


Figura IV. 5. (b) Tromba

Los tornados, raros en México, son extremadamente "populares" al norte del río Bravo y representan la amenaza
atmosférica más temida en el grupo local de galaxias. Los vientos más fuertes que se han registrado en la Tierra
están asociados a estos espeluznantes remolinos que, afortunadamente, sólo viven unas horas.

La descripcion siguiente, tomada de la obra inédita de un autor poco conocido, representa lo que ocurre cada año
en las planicies centrales de los EUA o de Australia y confirma las narraciones de múltiples testigos.

Las vacaciones de Pascua no podían ser mejores ni más apacibles. Sentado en la recién pintada veranda,
disfrutaba del sol primaveral del mediodía y gozaba del paisaje rural que sólo ofrece una casa de campo,
cómoda y rústica. Tres días de arreglos domésticos, destapando drenajes, reparando techos y limpiando la
apreciada herencia, eran recompensados con un merecido descanso. Valió la pena el viaje —me dije— y
empezaré con mis lecturas atrasadas más tarde.

Debí quedarme dormido varias horas porque las nubes parecían haber salido de la nada. Sin el cambio en la
luminosidad del día y la sensación incipiente de hambre y frío, hubiese jurado que sólo me había distraído
pensando en quienes no estaban conmigo. Habiéndome alejado de la civilización con toda intención pense
que todavía me encontraba bajo el sopor del sueño al escuchar el lejano murmullo que sólo hacen los trenes
de carga. Sin más motivación que la curiosidad por la persistencia y el paulatino aumento del murmullo,
presté más atención. Empecé a darme cuenta de que era más parecido al distante, aunque grave, zumbido de
un enjambre de abejas. Estando en el campo, desde luego, era una explicación más probable para el ruido.

El fresco que empezaba a sentir me obligó a levantarme de la agradable mecedora y, con un horizonte más
amplio para la vista, busqué la fuente de la creciente vibración. El cielo, ya nublado, se oscurecía hacia la
parte posterior de la casa, desde donde podría verse el rancho vecino, a unos tres kilómetros.

No tuve que dar la vuelta a la casa para ver que, más allá de la troje que sobresalía del resto de la granja de
mis fortuitos vecinos y partiendo de la orilla más oscura de las nubes, se extendía una columna que unía al
nubarrón con la superficie de la tierra. Con forma de embudo en su parte más alta y tan caprichosa y viva
como una culebra, parecía envolver en una bruma a la ancha zona de contacto.

Cuando yo era más joven, antes de que los adultos aceptaran que mis opiniones eran valiosas o de que yo
aceptara que en realidad no lo eran, una tía, notable por sus exageraciones y su ignorancia, describió sus
experiencias cuando un tornado, al que llamaba twister, pasó por el pueblo en el que había crecido.
Petrificado, como parecía estarlo en ese momento la zumbante columna, recordé la historia.

Después de unos minutos de incredulidad, percibí cómo se movía el extremo inferior del tornado y parecía
engullir todo a su paso. El horizonte, más claro, contrastaba con la serpenteante columna y con los rayos que
vestían de luz y sonido al diabólico espectáculo. Cuando pasó por las minúsculas estructuras de la granja, a
la que no pude dejar de mirar, como queriendo conservar los detalles que la guardarían en mi memoria como
algo que no imaginé, todo desapareció. La troje, la vieja carreta, el camino arbolado que recibía las cosechas
y todo lo que hacía familiar la escena fue borrado por el siniestro remolino. La diluida nube de despojos y
objetos irreconocibles que volaban cerca de la parte central de la columna eran la prueba de que la ranchería
de los vecinos había existido.

No me moví. Me quedé clavado al pasto, mojándome, sin poder quitar la vista del gigantesco remolino.
Nunca podré describir la inextricable mezcla de aprensión y admiración que me mantuvo paralizado durante
tantos y valiosos minutos. De ello no me arrrpiento. Vi a la naturaleza desentrañar sus fuerzas y volcarlas
con violencia sobre sí misma. Luego, como consciente de mi presencia irreverente, el tornado cambió su
dirección y se dirigió hacia mí con una velocidad vertiginosa.

Sin premeditación alguna corrí a mi automóvil y cerré las puertas en forma instintiva, como queriendo
impedir la entrada del viento, esperando la inexorable llegada del fin.

Minutos después, durante los segundos que tardó en suceder todo, fui testigo inerme de lo que Dante
describió en su Infierno. Voces graves y chillantes mezcladas con golpes secos y sordos, cegadoras luces
que hacían más fantasmagórico el espectáculo brevemente nocturno. Cientos de pequeños remolinos en
tumulto quitaron la transparencia al aire y, como desconectando la gravedad, hicieron volar todo alrededor y
cambiaron mi oasis personal en pandemónium. Aferrado al volante, miraba la casa que parecía resistir la
lluvia de objetos que caían sobre ella. Por un instante y en forma absurda, pensé en las reparaciones que
había hecho y en su nueva pintura. Como si fuera un castigo a mi pensamiento pusilánime, la casa explotó
como si se hubiese inflado hasta el límite sin querer distenderse. Deapareció entre los escombros dispersos
en el aire y me cerré al mundo externo apretando los ojos, los dientes y las manos.

Más tarde, acalambrado por la tensión inútil en los brazos y las piernas, abrí los ojos y frente de mí aparecía
la puesta de Sol más hermosa que había visto. El amplio e irreconocible paisaje sólo mostraba los signos del
abandono, como si despertara de un sueño de años. El automóvil, reorientado sin que recordara cómo,
apuntaba sobre un camino cubierto de ramas y tierra que me invitaba a partir. La tormenta y su furia se
habían desvanecido con la casa y su contenido. Esa tarde, durante el ocaso de un día desigual a los demás,
me senté a pensar sobre el miedo, la muerte y lo temporal de nuestros actos.

Cada detalle de la narración anterior tiene al menos una confirmación independiente. Los datos que siguen hacen
ver que no hay exageraciones en la tal vez imaginada descripción.

El 18 de rnarzo de 1925, un tornado quitó la vida a 689 personas, hirió a más de 2 000 y causó daños
incalculables en los estados de Missouri, Illinois e Indiana, en EUA. Durante las tres horas que hizo contacto con
la superficie, recorrió más de 300 km y se estima que los vientos llegaron a los 600 km/h. Entrada la tarde de un
domingo de ramos, el 11 de abril de 1965, se registraron 47 tornados que causaron uno de los más grandes
desastres de su tipo en los estados de Iowa, Wisconsin, Illinois, Indiana, Michigan y Ohio. Murieron 271
personas, se lesionaron más de 3 000 y los daños materiales fueron superiores a los trescientos millones de
dólares.

Es sorprendente la destrucción que deja a su paso un tornado. Se han reportado y confirmado casos insólitos:
varitas de paja incrustadas en postes de madera; una casa-escuela con 85 alumnos dentro fue demolida por
completo y, sin que ninguno de los alumnos perdiera la vida, fueron transportados 150 m; un tren con cinco
vagones, de más de 70 toneladas cada uno, fue levantado de la vía y uno de los vagones fue lanzado a cerca de 24
m de distancia.

La velocidad de traslación de un tornado típico es de 50 km/h, habiendo registros de hasta 112 km/h o de tornados
estacionarios. La dirección usual es de suroeste a noreste y, aunque el efecto de Coriolis es muy pequeño, el giro
más común es ciclónico. El ancho característico es de unos 100 m y su recorrido de unos 25 km, con grandes
desviaciones; el de 1925 tuvo un ancho ocasional de más de 1.5 km y su recorrido fue de 325 km. La velocidad de
rotación es típicamente de unos 400 km/h, con registros de hasta 800 km/h. La altura del embudo superior, que se
desvanece en la nube madre, alcanza entre 800 y 1 500 m.

El inevitable honor de máxima aparición de tornados le corresponde a EUA, con más de 650 por año; en 1965 se
registraron 898 tornados. Australia, con más de 100 eventos anuales ocupa el segundo lugar. En forma eventual
aparecen en casi todo el mundo. Sin que la estación del año o la hora del día (o la noche) tengan algo que ver con
sus apariciones, su frecuencia es ligeramente mayor durante los meses de mayo, junio y julio y entre las 3 y las 7
de la tarde. Sin embargo, nada garantiza que no se aparezcan repentinamente en la madrugada del 25 de
diciembre.

La mayor parte de las características de un tornado, como las distribuciones de velocidad y presión, son inferidas
de estudios teóricos y evaluaciones de ingeniería de daños. La rapidez y violencia del fenómeno han limitado
severamente la medición directa pues casi todos los instrumentos son destruidos. De la filmación de un tornado en
la ciudad de Dallas, EUA, en abril de 1957, se hicieron las primeras observaciones cuantitativas al seguir el
movimiento de escombros y de algunas zonas de su estructura. Hay registros esporádicos de caídas de presión de
hasta 200 milibares (20% abajo de la presión atmosférica normal) en tiempos de 30 segundos. Como
consecuencia hay un efecto de succión o explosión. Los techos son levantados y las paredes revientan hacia
afuera.

La circulación del aire en un tornado está esquematizada en la figura IV. 6. Superpuesto al movimiento horizontal
giratorio, presente en todo el tornado, el aire se mueve en dirección vertical; hacia abajo dentro delembudo y
hacia arriba en la parte exterior y en la región cercana al piso. En esta última, la capa de Ekman, el aire fluye en
forma espiral hacia el centro de la zona de contacto y ahí sube violentamente por fuera del tubo y el embudo.
Figura IV. 6. (a y b) Circulación en un tornado.

Para la formación de un tornado es necesario que exista una zona de flujos encontrados con suficiente vorticidad,
durante varias horas y en la escala de kilómetros. Estas condiciones se dan en los frentes fríos, donde chocan
masas de aire frío y caliente, en zonas de ráfagas, en la vecindad de huracanes y, con frecuencia, en las erupciones
volcánicas. A unos 5 km de altura, chorros encontrados se tuercen por la fuerza de Coriolis y el aire frío se
arremolina y hunde sobre la nube madre del tornado. Aquí el proceso semeja al vórtice que se genera en un
desagüe de lavabo. Hundimiento y circulación se organizan y acoplan, fortaleciendo al vórtice. En el fondo, en la
capa de Ekman, el fluido sólo puede ir hacia arriba al converger en una región reducida; conectado con el extremo
incipiente del tubo que sale del embudo, sirve para "amarrar" al tornado a la superficie de la Tierra.

Cuando un tornado pasa o se forma sobre una superficie de agua recibe el nombre de tromba o tromba marina.
Como los tornados, puede tener formas distintas y ocurre frecuentemente en grupos; se han visto hasta 15 trombas
simultáneamente. La intensidad de la tromba parece ser menor que la de sus hermanos terrestres, aunque los datos
son más escasos (no hay muchos habitantes humanos en las aguas). Siendo más débiles que los modelos
terrestres, pueden confundirse con remolinos común y corrientes.

Contrario a lo que se cree, las trombas no elevan el agua a grandes alturas, si acaso unos cuantos metros. La
estructura (Figura IV. 5 (b)), como la nube madre, está formada de vapor de agua dulce y gotas que resultan de la
condensación. En la parte inferior es usual ver una envoltura ancha de rocío que gira con el vórtice.

Una de las trombas más famosas fue vista por cientos de turistas bañistas y varios científicos en la costa de
Massachusetts, el 19 de agosto de 1896. Se estimó que su altura era de 1 km, el ancho de 250 m en la parte
superior, 150 m en la zona intermedia y 80 m en la base. La envoltura de rocío que rodeaba al vórtice en la base
era de 200 m de ancho y 120 m de altura. Desapareció y volvió a formarse tres veces, durando una media hora en
cada ocasión; el tamaño y la vida de ésta fueron mucho mayores que la generalidad. Aunque son un peligro para
embarcaciones pequeñas, hay pocas indicaciones confirmadas de que barcos de calado mediano o grande hayan
sido destruidos por uno de estos vórtices acuícolas. Lo que sí ha sucedido es que emigren a tierra con afanes
anfibios y causen destrucción y muerte.

Si bien aparecen en cualquier época del año y a cualquier hora, son más frecuentes entre mayo y octubre y, como
los violentos y pedestres parientes, les gusta el sonido del idioma inglés modificado; se ven seguido en las costas
estadounidenses y australianas. En Nueva Gales del Sur, Australia, se registró uno de más de 1 800 m de altura. El
Golfo de México es un buen lugar para espiarlos.

Otros vórtices comunes son los vórtices de marea, los vórtices de desagüe y los remolinos de tierra.

Los vórtices de marea resultan de las corrientes causadas por las mareas. Cuando la marea entrante alcanza las
aguas de la marea saliente, en estrechos que separan grandes masas de agua, se manifiestan estos temidos
enemigos de los navegantes. Esto explica por qué son protagonistas en leyendas y mitos de la antigüedad.

El más famoso de los vórtices de marea es sin duda Caribdis, que dio nombre temporal a estos vórtices. Descrito
por Homero en la Odisea, Caribdis fue el terror de los héroes que navegaban en el Mar Mediterráneo; otros, no
glorificados por las epopeyas homéricas, también le temieron y sucumbieron en él. No en vano Virgilio los
muestra a Dante en su paso por el Infierno.

El Estrecho de Messina, entre Sicilia y Calabria, al sur de Italia, separa los mares Jónico y Tirreno; el estrecho es
casi un canal que acaba abruptamente en el Tirreno. Varios elementos combinados lo convierten en el lugar ideal
para la malévola existencia de Caribdis. Los dos mares tienen mareas opuestas, y la alta de uno coincide con la
baja del otro; así, cuando uno va, el otro viene. Además, el mar Jónico tiene una temperatura menor y una
salinidad mayor que el Tirreno, lo cual hace que las aguas del Jónico sean más pesadas. Estas circunstancias
provocan una situación inestable y propicia, durante los cambios de marea, para la formación de intensos vórtices
verticales y horizontales. Para perfeccionar los maquiavélicos detalles, en la parte más angosta del Estrecho de
Messina, precisamente en la salida al Tirreno, el fondo marino tiene la menor profundidad (100 m). Del lado
norte, en el Tirreno, la profundidad es de 350 m, a 1 km de distancia de la salida del estrecho. Del lado sur, dentro
del canal y a la misma distancia de la salida, la profundidad es de 500 m. Ahí, justamente, acechó oculta la clásica
monstruosidad a los valientes argonautas.

Muchos ejemplos aparecen en la mitología de diversas civilizaciones. En el folklor noruego destaca el Maelstrom,
que inspirara miedo a los notables navegantes de los mares del norte y motivara el poema de Schiller y la novela
de Edgar Allan Poe El Maelstrom, situado en los estrechos de las islas Lofoten, en el Mar de Noruega, aparece
citado desde el siglo XVI en las primeras cartas de navegación de los fiordos. Otros casos conocidos son los
vórtices en St. Malo, en la costa francesa del Canal de la Mancha, el de Pentland Firth, entre la costa escocesa y la
Isla de Orkney y, los más grandes que hay, en los estrechos de Naruto, en el Mar de Japón. Estos últimos
presentan vórtices tales que la boca, la región con forma de campana invertida que ruge como una amenazante
catarata, es de más de 15 m de diámetro.

Los remolinos de tierra, que seguramente todos hemos visto, son como versiones miniatura de los tornados.
Tienen la forma de columnas o de conos invertidos y el movimiento del aire es giratorio, en cualquier dirección, y
ascendente. Cerca del piso la corriente es de forma espiral y es capaz de arrastrar toda clase de pequeños objetos,
incluyendo animales no muy grandes, como liebres.

La altura que alcanzan es entre 2 y 1 500 m, siendo característica la de 100 m. El diámetro oscila entre 1 y 50 m,
siendo el más común de 10 m. Es muy probable que alcancen valores mayores, lo cual permite a los pilotos de los
planeadores subir hasta 5 000 m usando las corrientes espirales ascendentes de estos remolinos, cuya vida es
mayor de lo que la evidencia visual indicaría; sólo cuando arrastran material como arena, polvo, humo, inclusive
nieve o fuego, es que son visibles. Hay registros de múltiples remolinos que duraron varias horas. Uno de los más
célebres fue seguido en las planicies saladas del estado de Utah, en EUA, de 800 m de altura, y viajó 65 km
durante 7 horas. Otro, en la orilla del desierto de Sonora, en México, se mantuvo estacionario y activo por un
lapso de cuatro horas.

Los de tamaño apreciable son visitantes frecuentes de los desiertos del mundo; cientos de informes sobre ellos
provienen de los desiertos de EUA, México, Sudán, Egipto, Arabia Saudita, Iraq y Etiopía; entre otros. Se cree
que las nubes de polvo que se observan en la atmósfera de Marte, nuestro enigmático y colorado vecino cósmico,
son debidas a grandes remolinos de tierra.

Usualmente, los remolinos de tierra resultan de la estratificación térmica del aire y aparecen en condiciones de
mucho calor y cielos despejados. No hay nubes madre que los acompañen y guíen por la vida, como es el caso de
los tornados y las trombas. Mientras que estos últimos son generados por el hundimiento del aire más pesado de
una nube con rotación, los remolinos en cuestión se forman muy cerca del piso, a partir de capas delgadas de aire
muy caliente.

En un día caluroso de verano, especialmente en las zonas desérticas, los primeros dos metros de aire sobre la
superficie elevan su temperatura por arriba de los 60º y, como el humo, la capa tiende a subir. Mientras la capa se
mantiene horizontal no puede ascender; cualquier alteración local dispara la inversión en ese sitio. Una
perturbación relativamente chica, como una leve brisa o el paso de un animal, rompe la inestable situación y se
inicia un movimiento de aire hacia arriba; el hueco que deja el aire que sube es llenado por el aire inferior
circundante en un flujo espiral. Una vez iniciado se va fortaleciendo el remolino, siendo la fuente de energía el
calor almacenado en la superficie del piso.

Seguramente más de un lector espera leer sobre su remolino preferido. Desde luego que hay otros tipos de
vórtices, pero aquí no es posible hablar de todos ellos; hay obras completas dedicadas al tema que no han logrado
agotarlo (Lugt, 1983). Veamos por encima al más trillado y estudiado, que no por eso deja de ser interesante ni
del todo entendido.

Los remolinos que vemos todos los días en el lavabo son los llamados vórtices de desagüe. Si uno le da rotación
con la mano al agua dentro de un lavabo o de un recipiente y permite que empiece a salir por un agujero situado
en la parte central del fondo, observará que se genera un remolino. La superficie libre del vórtice (la que está en
contacto con el aire) toma una forma que depende, entre otras cosas, de la cantidad de rotación que se le imprimió
al agua, de la profundidad del recipiente (el tirante) y del diámetro del agujero. Dos aspectos sobre este tipo de
vórtices han llamado la atención de investigadores durante siglos. Uno tiene que ver con la forma de la superficie
libre y otro, independiente, con el sentido de la rotación del vórtice.

Si la rotación no es muy grande o el tirante lo es, la superficie muestra sólo una pequeña concavidad (Figura
IV.7(a)). A mayor giro o menor tirante aparece un núcleo o centro de aire (Figura IV.7(b)). Cuando la columna de
aire alcanza el fondo (Figura IV.7(c)) se dice que el tirante toma su valor crítico y a partir de ese momento el
centro del vórtice se mantiene lleno de aire. La cantidad de líquido que sale por el desagüe se ve reducida por la
competencia del aire, razón por la cual el hecho se convierte en un problema de suma importancia desde el punto
de vista práctico. Las fallas en sistemas de enfriamiento en reactores nucleares, la pérdida de la eficiencia de
bombas, los desbordamientos de presas, los daños en turbinas y vibraciones son sólo algunos de los problemas
que se presentan. El reto teórico de predecir esta situación en una instalación dada o en el caso más sencillo sigue
abierto. Por ahora se maneja en forma empírica, sin que eso quiera decir que se sigue en la total oscuridad, hay
cierta penumbra.

Figura IV. 7. Superficie libre del vórtice de desagüe. De izquierda a derecha, (a) vórtice débil, (b) mediano
con núcleo de aire y (c) núcleo del vórtice llegando al desagüe.

Predecir la dirección del giro es más complicado de lo que podría creerse. En el hemisferio norte los huracanes,
sin excepción, giran contra las manecillas del reloj. Los tornados y las trombas, casi siempre, imitan a sus
mayores. Los remolinos de tierra no presentan patrón alguno, les da igual girar en un sentido que en el otro. Los
de desagüe son simple y sencillamente raros.

Es desafortunadamente común ver escrito en libros serios (¿?) que los vórtices en un lavabo hacen lo mismo que
los huracanes debido a la fuerza de Coriolis. Una cosa es clara, los autores no se tomaron la molestia de
confirmarlo al ir al baño. En la casa de un amigo hay dos lavabos que siempre hacen lo mismo, en uno el
remolino gira con el reloj y en el otro en sentido contrario. ¿Habrá algo místico en sus baños? La respuesta es que
tienen formas ligeramente distintas, aun siendo de la misma marca, y la llave que los llena está colocada un poco
diferente; el agua de cada llave también sale un poco diferente. Otra cosa que los autores no hicieron fue estimar
el tamaño de la fuerza de Coriolis sobre el agua en un lavabo; es tan ridículamente pequeña que igual (casi)
hubieran podido invocar la ubicación de Urano como la responsable de los giros.

Para ver el efecto de la rotación de la Tierra sobre la dirección del giro de un vórtice pequeño, como los de
desagüe, es preciso hace un experimento bajo condiciones cuidadosamente controladas. El primero de esta
naturaleza fue realizado a principios del siglo XX por Otto Turmlitz, en 1908, en Austria; su trabajo fue titulado
Una nueva prueba física de la rotación de la Tierra. La confirmación la llevó a cabo Ascher Shapiro, en 1961,
haciendo el experimento en Boston, EUA y en Sydney, Australia. Entre otros cuidados, el agua debía pasar varios
días en absoluto reposo.

En uno de los experimentos de Shapiro se observó un giro contrario al esperado. Principió como un giro igual a
los demás, después de un lapso de tiempo se fue reforzando, alcanzó un giro máximo y, a diferencia de los otros
casos, se fue debilitando hasta que, tras desaparecer, se invirtió en la última etapa. Estudiando el mismo
fenómeno, Merwin Sibulkin hizo dos observaciones, un año después. Una fue que si llenaba el recipiente con un
tubo inclinado de modo que girara en una dirección o en la otra, el efecto (como de memoria) persistía durante
mucho tiempo; el vórtice de desagüe seguía esa dirección al destapar el fondo. La otra observación fue que el
proceso de inversión del giro en la etapa final era común, independientemente del giro inicial, lo cual contradecía
a la aparentemente convincente explicación de Shapiro.

Experimentos posteriores de otros investigadores contribuyeron a oscurecer el mecanismo que determina el giro y
su dependencia de la profundidad. La situación es como sigue. Imaginemos un recipiente cilíndrico, lleno de
agua, con un agujero circular en el centro del fondo. El agua está inicialmente en reposo. Al destapar el agujero, el
agua empieza a moverse hacia el centro y hacia abajo. ¿Qué rompe la simetría del flujo e introduce una dirección
privilegiada de giro? ¿Qué da lugar al debilitamiento del vórtice, flujo estabilizador por excelencia, e invierte la
dirección cuando el tirante es muy pequeño (como del tamaño del agujero)? Muy probablemente la explicación
empieza por dos hechos que se suponen implícitamente en los estudios teóricos. Uno es que causas pequeñas
producen efectos igualmente pequeños y el otro es que sólo puede haber una solución a un problema con la
misma formulación. Como veremos en el siguiente capítulo, las últimas dos décadas nos han enseñado mucho
sobre estos dos aspectos. Lo cierto es que aun problemas tan aparentemente sencillos como algunos de los
mencionados en este libro, son motivo de la investigación intensa de científicos de diversas disciplinas, en
distintos países y por las razones más disímbolas. Es difícil no sentir curiosidad por describir y entender al vórtice
de desagüe que se muestra en la figura IV. 8.
Figura IV. 8. Fotografía del vórtice de desagüe.
V. LA TURBULENCIA

Aquí vamos a considerar algunas de las ideas mencionadas con anterioridad para esbozar lo que constituye uno de
los desafíos más grandes de la física, el problema de la turbulencia. El problema aparece en casi todas las ciencias
experimentales y, por su formulación, en las matemáticas. La "solución" a este problema ha eludido a
matemáticos, ingenieros y físicos por más años de los que el decoro permite aceptar. Los intentos de abordar el
problema han generado o estimulado ramas de las matemáticas, han introducido múltiples ideas en física y han
generado una gran variedad de métodos matemáticos y experimentales; todos de una utilidad notable en otras
disciplinas. Muchos científicos sobresalientes estudiaron el problema y luego prefirieron cambiar de tema para
lograr las contribuciones que los hicieron figurar en la historia. Por intentos no ha quedado, si bien las cosas no
están como al principio.

Al iniciarse la década de los años setenta se abrieron varias perspectivas teóricas y experimentales de muy diversa
índole. Cada una por separado parecía ser la adecuada para atacar en forma definitiva el problema. Cada una de
ellas inició una etapa de intenso, extenso y excitante trabajo en todo el mundo. Combinando ideas y métodos
recién desarrollados en las matemáticas, desde las muy abstractas como la topología diferencial, hasta las más
prácticas como el análisis numérico (aunado a la construcción de computadoras cada vez más grandes y veloces),
se revisaron experimentos clásicos desde una nueva perspectiva y se encontraron elementos que estaban a la
vista, pero que no se habían buscado o que simplemente se ignoraban invocando diversos argumentos. También,
nuevas técnicas experimentales y cuidadosas observaciones hicieron cambiar algunas ideas preconcebidas y el
enfoque teórico que sistemáticamente se había estado siguiendo. Así, se revisaron las teorías y repitieron
experimentos. Si bien cada una de las nuevas ideas y métodos, teóricos y experimentales, siguen en una
efervescente actividad, el optimismo inicial sobre la comprensión del fenómeno de la turbulencia ha ido
decayendo con el tiempo en vista de los exiguos resultados específicos. Muchas cosas han quedado más claras y
los horizontes por explorar se han abierto en forma sorprendente.

Algo claro e irreversible que sucedió a lo largo de este proceso, fue el inicio de un cambio en la actitud de la
mayoría de los físicos; en los que no se ha dado es porque no lo requerían o porque todavía no lo pueden aceptar.

El enfoque reduccionista de la ciencia, llevado a su culminación en la física, busca explicar todos los fenómenos
con base en un conjunto reducido de leyes fundamentales. Así, la materia se redujo, pasando por las moléculas y
los átomos, a las partículas elementales, los cuarks. De todas las fuerzas en la naturaleza, pasando por las
eléctricas, las magnéticas, las nucleares y las gravitacionales se llegó (casi) a una sola, la gravitacional - cuántica
(supersimétrica). Logrado esto, dirían (y aun dicen) pomposamente algunos, el resto es un problema de
aplicaciones; esta imagen va diluyéndose poco a poco ante los hechos y la humildad regresa al lugar de donde no
debió salir.

Todavía hace poco se decía que las leyes básicas habían sido encontradas en la primera mitad del siglo XX y que
con esto se cerraba una etapa gloriosa del pensamiento humano (algo parecido se pensaba hace cien años con la
mecánica newtoniana y el electromagnetismo de Maxwell). Aun suponiendo que conocemos estas leyes
fundamentales, en forma clara y precisa, lo que sería decepcionantemente pretencioso, algo ha cambiado. Se ha
puesto de manifiesto que esto no es suficiente y que para explicar el mundo se requiere mucho más.

El argumento es más o menos el siguiente. La dirección opuesta al reduccionismo, creciendo en grado de


complejidad, ha traído sorpresas que muy pocos preveían. A partir de casi cualquier punto en esta dirección
aparecen nuevos fenómenos, ricos y variados, con elementos ausentes en el nivel anterior, más sencillo; se
generan nuevas simetrías y emergen formas nuevas de organización. Si a un nivel de descripción parece sólo
haber desorden, al siguiente aparece orden en el caos, como en un acto de magia medieval donde los
encantamientos son las fuerzas ocultas que nos desafían a descubrirlas. El comportamiento de grupos de átomos o
moléculas parece tener poco que ver con sus elementos constituyentes, cúmulos de estos grupos tienen aún menos
memoria de sus elementos básicos. Estos cúmulos se autorganizan, duplican y evolucionan solos; confabulados en
grupos de cúmulos cada vez más grandes llegan a producir patrones de flujo cuya belleza adorna la superficie de
algunos planetas, a ladrar en las esquinas oscuras de colonias olvidadas o se atreven a construir máquinas que
empiezan a pensar sobre ellas mismas...
Comienza a verse claro que el buscar las leyes básicas de los constituyentes últimos de la materia es tan
fundamental como investigar las leyes que rigen los procesos que se dan con el aumento en la complejidad de los
sistemas. Casos característicos son los estudios sobre los mecanismos que dan lugar a la autorganización, a la
formación de patrones, a la aparición de simetrías o a la desaparición de éstas y al orden que nace cada día en lo
que sólo parece ser el caos...

Como siempre, cuando parece que se alcanza el horizonte, la naturaleza nos muestra que hay otro igualmente
lejano, nuevo, más rico que el imaginado, más estimulante para ser estudiado. La investigación fundamental sigue
tan abierta y hay tanto por hacer como lo había antes del descubrimiento de las leyes básicas. Los grandes pasos
que se han dado en el avance del conocimiento son sobre un camino que no tiene final. En el mejor de los casos,
el camino se volverá infinitamente autorreferente, como la espiral de Arquímedes o los conjuntos de Julia. Con
esta frase críptica podemos ahora regresar al asunto que nos reúne.

¿Cuál es el problema y qué sabemos de él?

Todos los flujos que se observan pueden clasificarse en dos grandes grupos, los laminares y los turbulentos. Los
casos más sencillos que ejemplifican a los primeros son el flujo uniforme, donde la velocidad del fluido es la
misma en todos lados, y el flujo de Couette plano, ilustrado en la figura IV. 3. Los hay más complicados, como
los que aparecen en las figuras II. 7, II. 8, IV. 2, IV. 4 y IV. 7. En todos estos el fluido se mueve en láminas y
parece obedecer reglas más o menos claras. Estudiando los flujos laminares es como se han entendido los
principios básicos que describen a los fluidos. Por otra parte, son los flujos turbulentos los que dominan el foro.

Cuando el movimiento de un fluido es irregular y complicado se dice que el flujo es turbulento. En la figura V.1
se muestra un chorro turbulento de agua; aunque muy familiar, la complicada estructura ilustra las características
de la turbulencia. Esta definición, como tantas otras en nuestro negocio, no parece muy precisa: podíamos haber
dejado el pudor a un lado y caracterizar simplemente a la turbulencia como el estado no- laminar. Ésta es parte de
la dificultad.

Figura V. I. Chorro turbulento de agua.

¿Cuándo es un flujo lo suficientemente complicado como para ser bautizado como turbulento? Como con el
estado mental de las personas, es relativamente fácil distinguir los casos extremos. A quienes están totalmente
desquiciados los confinamos a una habitación acolchonada, dejando fuera a los normales (¿?), pero siempre nos
preocupa distinguir la ubicación de la línea que separa los casos marginales. A los "fluidicistas" les pasa un poco
lo que a los psiquiatras (con la única ventaja de no ser sujetos de su propio estudio).
Una característica del estado turbulento es la completa irreproducibilidad de los detalles de un flujo; hay un
elemento aparentemente caótico que es inherente a este estado de movimiento. Al abrir completamente la llave de
un lavabo observamos un chorro de agua que cae, choca con el fondo del vertedero, se reúne con la que cayó
previamente y, moviéndose de manera irregular, se va por el desagüe. Si midiéramos algún parámetro del flujo
con mucha precisión, como la velocidad en el chorro encontraríamos que conforme transcurre el tiempo, tal
parámetro va cambiando de valor y da lugar a un patrón como el que se muestra en la figura V.2. Si después
medimos muchas veces, abriendo la llave de la misma forma, esperando el mismo tiempo y a la misma distancia
de la boca de la llave, el resultado será muy parecido al anterior, pero nunca igual.

Figura V. 2. Gráfica de la velocidd (vertical) contra el teimpo (horizontal). El valor medio de la velocidad
es vo.

No sólo la velocidad cambia en esta forma irregular. Casi todas las variables hacen lo mismo. Por ejemplo,
supongamos que se determina el gasto, que es la cantidad de agua que sale cada segundo, manteniendo todo fijo.
El resultado sería de -digamos- un litro cada diez segundos (100 ml/s), aproximadamente; a veces unos mililitros
más, a veces otros menos. Es decir, fluctúa alrededor de un valor promedio, el de 100ml/s. El asunto no tiene
remedio, siempre es así cuando el valor promedio de alguna cantidad excede de cierto valor, llamado crítico. Para
ciertos casos muy simples se ha logrado predecir razonablemente el valor crítico que debe alcanzar cierto
parámetro (usualmente el número de Reynolds) para que el flujo pase de un movimiento laminar a uno turbulento.
Es decir, que se pierda completamente la estabilidad del flujo (se vuelva un tanto loco). Por otra parte, el describir
estas fluctuaciones, que podemos observar y cuantificar, es uno de los aspectos más difíciles de abordar que tiene
el problema, ya que se trata de poderlos predecir, no sólo de medirlos; la medición es hoy en día un trabajo de
rutina en muchos laboratorios, si bien es necesaria una tecnología relativamente complicada.

Los cientos de trabajos que se publican sobre estudios teóricos y experimentales de la turbulencia, cada año y
desde hace muchas décadas, hacen que una reseña de los avances logrados se convierta en una obra de
volúmenes. El uso de las más variadas técnicas experimentales y matemáticas las hace, además, de difícil lectura
aun para los especialistas. Sin embargo, algunas de las ideas más viejas y más recientes, que comparten
elementos, nos permiten asomarnos a este mundo agitado y convulso que llamamos turbulencia.

V.1. LA LEY DE KOLMOGOROV

Lewis Fry Richardson (1881-1953), uno de los pioneros de la meteorogía moderna y miembro representativo de
la tradición científica inglesa, estudió la dinámica atmosférica y, desde luego, se enfrentó con la turbulencia,
siempre presente en el monumental laboratorio de la atmósfera. En un poema sencillo, que todavía se cita en los
textos, resumió lo que Da Vinci plasmó en sus lienzos al observar el fluir de las aguas y lo que los científicos
creen que sucede en un fluido excitado.
Big whorls have little whorls,
which feed on their velocity;
and little whorls have lesser whorls,
and so on to viscosity (in the molecular sense).

Vórtices grandes tienen vórtices más chicos,


nutridos por su velocidad.
Vórtices chicos tienen vórtices más chicos,
así hasta la viscosidad
(en el sentido molecular).

Dejando a un lado el adagio latino de "traductor, ¡traidor!", el contenido del verso expresa el proceso que parece
sufrir la energía que se le comunica a un fluido para mantenerlo en estado turbulento, el llamado modelo de la
cascada de energía.

Imaginemos un tanque con agua, a la que agitamos con una paleta de cierto tamaño (escala). Al mover la paleta se
producen vórtices de la misma escala. Observamos que estos vórtices migran y se desintegran, generándose en el
proceso otros vórtices de una escala menor. Este mecanismo se continúa de una escala a otra, hasta que la escala
es lo suficientemente pequeña como para que el movimiento de los vorticillos resultantes sea dominado por los
efectos de la fricción interna del fluido, la viscosidad. Ahí, los pequeños remolinos comienzan una etapa de
decaimiento, disipándose hasta desaparecer; la longitud típica de esta última escala es de fracciones de milímetro.

De acuerdo con estas ideas, la energía pasa de una escala a otra, como en una cascada en la que el agua cae de un
nivel a otro, perdiendo altura (energía potencial) pero ganando movimiento (energía cinética). En el fondo de las
escalas el movimiento se convierte en calor, disipándose la energía, y queda el fluido en reposo. En la medida en
que se siga agitando la paleta (inyectando energía al fluido) se podrán apreciar las estructuras en las distintas
escalas, siendo la más pequeña la más difícil de ver.

Por consiguiente el estudio de la dinámica de vórtices es uno de los más importantes en los trabajos de
turbulencia. El objetivo es entonces entender cómo se generan, cómo interaccionan entre sí, cómo se rompen y,
finalmente, cómo decaen. Algunas de las teorías más comunes abordan estos problemas desde diversos puntos de
vista, tratando de encontrar cantidades que se conserven en este proceso y estudiando la forma en que van
cambiando otras, al pasar a través de las distintas escalas.

Uno de los resultados más célebres en la teoría de la turbulencia se debe a Andrei Nikolayevich Kolmogorov
(1903-) y a A. M. Obukhov, quienes obtuvieron el mismo resultado, en forma independiente, en 1941. La
importancia de la expresión se debe a que es uno de los pocos resultados generales y cuantitativos y a que es
válida para todo flujo turbulento isotrópico y homogéneo. Que la turbulencia sea homogénea significa que se ve
igual si nos trasladamos a distintos puntos del fluido; que sea isotrópica quiere decir que parece igual si vemos en
cualquier dirección. Para que lo anterior sea (aproximadamente) cierto se requiere que la región en estudio se
encuentre lejos de objetos o de las paredes que contienen al fluido; se dice entonces que la turbulencia es
localmente isotrópica. Esta simplificación fue introducida por Geoffrey Ingram Taylor (1886-1975) en 1936.
Muchas ideas fundamentales en la dinámica de fluidos moderna fueron propuestas por Taylor en los profundos
trabajos que hizo a lo largo de su prolífica carrera científica.

Kolmogorov, quien era un distinguido matemático soviético, fundador de la teoría moderna de la probabilidad,
logró atraer la atención de numerosos colegas hacia la teoría de la turbulencia. Al ver la naturaleza física, más que
matemática, de la contribución de Kolmogorov, la mayoría optó por volver a sus intereses originales.

Curiosamente, el mismo resultado fue obtenido en 1948 por tres físicos del más alto nivel, en forma
independiente y por caminos diferentes. Werner Karl Heisenberg (1901-1976) y Karl Friedrich von Weizsacker
(1912), durante su detención en Inglaterra con otros científicos alemanes, y Lars Onsager (1903-1976), en los
EUA. Como ha sucedido en otros casos, la ley descubierta por estos investigadores debía llevar como nombre un
anagrama con sus iniciales, algo como wookh; afortunadamente no fue así.

La famosa expresión establece en forma cuantitativa varios aspectos relacionados con la cascada de energía
propuesta por Richardson. Para percibir la esencia del resultado seguiremos a Kolmogorov en su razonamiento.
Empezaremos por formular el resultado, que parece más un criptograma de la Guerra Fría que una descripción de
lo que puede pasarle a un fluido. Después, intentaremos descifrarlo.

La ley de los dos tercios de Kolmogorov, como se le conoce, afirma lo siguiente. En un flujo turbulento, la
autocorrelación de velocidades entre dos puntos separados por una distancia l, dentro del subintervalo inercial, es
igual a C( l) 2/3; C es una constante numérica universal y es el flujo promedio de la energía (por unidad de
masa). Todo indica que para entender el enunciado harían falta estudios serios de paleología. Realmente no es así,
es suficiente con algo de física y de matemáticas; para apreciar el sabor basta un poco de paciencia.

La cascada de energía "a la Richardson", sugiere la existencia de una serie de escalas a través de las cuales la
energía transita, hasta disiparse en calor. En la escala más grande, las estructuras (vórtices) llevan "impresa" la
forma en que fueron generadas. Chorros y estelas ejemplifican este hecho; cada uno parece estar estructurado de
manera muy distinta. A este nivel, son aspectos como la geometría del sistema los que definen el tamaño y la
forma de los vórtices portadores de la mayor parte de la energía. En el otro extremo, los vorticillos más pequeños
consumen toda la energía al disiparse por efecto directo de la viscosidad. En este proceso de cascada, en el que las
estructuras se van descomponiendo en otras más pequeñas, el flujo va perdiendo la memoria del mecanismo
generador de la turbulencia.

Con estas ideas en mente, Kolmogorov introduce su primera hipótesis. Propone la existencia de un intervalo de
escalas en el que el comportamiento turbulento es universal (olvidó sus orígenes...). Es decir, el flujo turbulento es
homogéneo, isotrópico y estacionario. Este último atributo indica que, en promedio, el estado no cambia con el
tiempo; la amnesia es permanente, digamos. Además, nos asegura el abstracto pensador, en este intervalo las
cosas no pueden depender más que de dos parámetros: el flujo de energía ( ) que se le inyecta al flujo para
mantenerlo agitado (algo así como el sufrimiento que experimenta el que mueve la paleta o sopla el chorro) y la
viscosidad (v), que caracteriza la disipación de la energía (el calentamiento del fluido).

Hecha esta suposición, recurre a algo muy ingenioso. Estima el tamaño de la escala máxima para la cual los
efectos de la fricción todavía desempeñan un papel. Al efecto demuestra que sólo hay una manera de combinar
los parámetros y v para que formen una longitud, ¡así de simple! (sólo con propósitos morbosos cito el
resultado: ( )-1/4 v3/4). La escala así determinada, que con suma originalidad fue bautizada de Kolmogorov, se
denota por η.

Entonces - se atreve a postular de nuevo- a escalas mayores que η no hay disipación, por lo que la viscosidad
debe ser una cantidad irrelevante. De esta manera, hay una zona de escalas (subintervalo) en la que v debe
desaparecer, quedando como el único parámetro importante. La energía inyectada para mantener la turbulencia
se va transfiriendo a escalas cada vez más chicas, hasta aparecer una envidiable amnesia. Sigue pasando a escalas
todavía más pequeñas, hasta que la viscosidad aparece en la escena, iniciando su destructivo papel, y luego el
final fatal, que a todo le llega. Como la energía sólo transita por estas escalas intermedias, al subintervalo se le
llama inercial, ¡como de paso!

Así, en la traducción de la ley de los dos tercios se aclara un poco lo de subintervalo inercial y el significado de .
Sigamos adelante con la interpretación.

En un flujo turbulento la velocidad cambia (fluctúa) en el tiempo y en el espacio. Es decir, al medir la velocidad
en un punto fijo del espacio, conforme transcurre el tiempo, se obtienen datos como los que se muestran en la
figura V.2. Un patrón semejante se obtiene si se mide la velocidad, simultáneamente, en varios puntos. Desde
luego, el promedio de la fluctuación es cero; igual aumenta que disminuye, o se mueve a uno u otro lado.

¿Qué tan independiente es el valor que tiene la velocidad en un punto del que tiene en otro punto o del valor que
tomó tiempo antes? La respuesta a esta pregunta se encuentra en la autocorrelación de las velocidades, espacial o
temporal, respectivamente. Nos dice cómo están (cor)relacionados los valores de la velocidad (el prefijo auto
indica que es la correlación de una cantidad dada consigo misma). Si los puntos están muy cercanos, es de
esperarse que exista alguna conexión entre los valores de la velocidad, mientras que si están muy separados
probablemente no tendrán relación alguna. En lenguaje técnico se dice que la autocorrelación de las velocidades
decae con la distancia. Por ejemplo, mi autocorrelación temporal de memoria es de corto alcance; hay quienes
aseguran que no pasa mucho tiempo para que mis recuerdos sean cada vez más vagos...

Regresando a la ley de los dos tercios, podemos resumirla de la siguiente manera. Primero, existe una escala a
partir de la cual el movimiento turbulento es independiente de la forma en que se generó. Segundo, para dos
puntos en el fluido separados por una distancia l, las velocidades están relacionadas. Tercero, si la escala de l es
suficientemente grande, los efectos disipativos (la viscosidad) no desempeñan un papel determinante. Cuarto, la
relación entre las velocidades (su producto) depende, a lo más, de y de la distancia l. Al recapitular hemos
introducido dos puntos adicionales. Uno, que la autocorrelación está definida como el promedio del producto;
aunque es importante este punto, no es necesario entrar en más detalles. El otro consiste en proponer la
dependencia exclusiva en y l. Si l está en el subintervalo inercial, cualquier cantidad dependerá sólo de , como
parámetro característico del flujo.

El último ingrediente para obtener el resultado de Kolmogorov es el argumento dimensional. Nuevarnente, la


única forma de combinar y l para que formen el producto de dos velocidades (una autocorrelación) es... ¡la
escala de Kolmogorov! El factor restante sólo puede ser un número (sin dimensiones, igual para los que miden en
pies, que para los civilizados que miden en metros) y, no sabiendo cuánto valía, le llamó C. Los experimentos
indican que su valor es cercano a 0.5.

Los intentos por extender las ideas de Kolmogorov, Obukhov, Heisenberg, Von Weizsäcker y Onsager han sido
hasta ahora infructuosos. Las extensiones han requerido de aparatos matemáticos formidables y en ellas el
esfuerzo realizado contrasta con los escasos resultados o lo poco significativo que son. Una de ellas fue
desarrollada por Robert H. Kraichnan, durante los años cincuenta y sesenta, con técnicas importadas de la teoría
cuántica del campo, desarrolladas para el tratamiento de fenómenos relacionados con las partículas elementales.

En un contexto distinto aparecieron los enfoques de la siguiente década, la de los setenta. Las ideas de estructuras
coherentes, de atractores extraños y de fractales generaron un frenesí que todavía no acaba, aunque el optimismo
inicial ha disminuido. Aún es prematuro hacer una evaluación justa de la repercusión de las ideas actuales sobre el
problema de la turbulencia; todavía hay muchas esperanzas y es posible que alguien sepa combinarlas en las
proporciones adecuadas para dar el siguiente gran paso. Con la sobriedad y la madurez que sólo vienen con el
tiempo se podrá apreciar la perspectiva con más objetividad. Veamos en qué consisten algunas de estas ideas.

V.2. ESTRUCTURAS COHERENTES

La tecnología usada en la investigación experimental se ha mantenido en constante desarrollo a través del tiempo.
Una parte considerable de la llamada tecnología de punta ha sido el fruto de las necesidades específicas de la
investigación en diversos campos de la física; tristemente, han sido las aplicaciones a la industria de la violencia
las que han sido argumentadas para justificarla y el motor para su desarrollo.

El uso de computadoras cada vez más grandes y veloces, de electrónica cada vez más rápida y versátil, de sondas
mecánicas, ópticas y acústicas más complejas y delicadas han dado lugar a una revolución en la forma de hacer
experimentos en las ciencias naturales. Los laboratorios dedicados al estudio de la turbulencia no son la
excepción, es más, son un excelente ejemplo. No sería exagerado afirmar que, por ejemplo, el desarrollo de
computadoras cada vez más grandes ha tenido como principal promotora a la dinámica de fluidos. Sin embargo,
aún no existe un problema de turbulencia que se pueda solucionar con la computadora más grande disponible,
aunque ya se empiezan a acercar...

Al iniciarse la era de la electrónica moderna, acoplada a sistemas de adquisición de datos y técnicas de medición y
visualización, basadas en la óptica de láseres, se llevaron a cabo algunas observaciones que influyeron
decisivamente en la investigación de la turbulencia. Curiosamente, éstas se realizaron con métodos ópticos
sencillos que se venían usando por décadas. El descubrimiento central fue que la mayoría de los flujos turbulentos
no son tan irregulares como se creía; dentro del evidente caos hay cierto orden en el movimiento del fluido. Al
azar, aparecen estructuras con características bien definidas estadísticamente: la distribución de sus escalas, sus
tiempos de vida (periodos), etcétera.
Estos sorprendentes resultados dieron lugar a una reconsideración profunda de los experimentos que se venían
realizando. Una calificación más cuidadosa de la estructura espacial de cada flujo turbulento se hizo necesaria
para llegar a entender las observaciones (Figura V. 1).

Nuevamente se repitieron experimentos y se formularon otros para delinear las propiedades de estas formas
semiordenadas que parecían pulular entre el caos. La explosión en la capacidad de cómputo, que todavía no
acaba, vino a dar mayores posibilidades a este nuevo giro experimental. Las medidas más extensas que se hacían
con anterioridad eran autocorrelaciones de la velocidad, lo que daba lugar a que, al observar en dos puntos
distintos y promediar el resultado, se borraran estas estructuras; las medidas tendían a registrar estados distintos
de estas estructuras que poco tenían de relación unas con otras. Al promediar entre pulpos y niños se obtienen
seres que en promedio tienen seis apéndices; este dato promedio no parecería ser muy útil a un observador
externo. Así, la forma de medir y sobre todo, de analizar los datos, sufrió un cambio de fondo.

Un huracán que se mueve en el Océano Atlántico, visto desde un satélite orbital a 300 km de distancia, parece una
estructura (vórtice) perfectamente organizada, regular, que se mueve lentamente. Para el capitán de una nave
camaronera y para sus asustados tripulantes, que lo ven en una escala de metros, o decenas de éstos, parece un
infierno húmedo e irregular que varía violentamente de un lugar a otro y de un instante al siguiente. Ni lo ven
muy organizado (excepto para ahogarlos) ni lo ven variar lentamente. Esta estructura coherente, vista por el
astronauta, está conformada por miles de vórtices más pequeños en plena algarabía, que sufre el argonauta.

En la figura V.3 se ilustra una de las primeras fotografías que exhibían estas estructuras coherentes. En ésta se
pone de manifiesto una estructura bidimensional de vórtices sobre la que hay superpuesta una complicada trama
de vorticillos (la turbulencia). El flujo corresponde a lo que se llama la capa de mezclado. Dos fluidos, uno arriba
y otro abajo, se mueven de derecha a izquierda con velocidades distintas. En este caso se trata de nitrógeno
(arriba) y de una mezcla de helio y argón (abajo). Las velocidades son de 1 000 cm/s y de 380 cm/s,
respectivamente, y la presión es de 8 atmósferas. La fotografía fue tomada por el grupo de Anatol Roshko, en la
década de los setenta, usando un método que podríamos llamar sombragrafía.

Figura V. 3. Estructuras coherentes en un flujo turbulento; capa de mezclado.

El procedimiento para obtener estas fotografías es relativamente sencillo y el fenómeno que lo genera es muy
común. Quien ha visto una fogata o un montón de brasas encendidas, recordará que las imágenes que se ven del
otro lado parecen bailar; sobre un fondo claro y uniforme pueden verse ciertas sombras irregulares, como ondas
de calor. El efecto es producido por las variaciones que sufre la dirección de la luz al pasar por regiones con
temperaturas distintas. Al aumentar la temperatura del aire, éste se expande, cambia su densidad y tiende a
moverse hacia arriba. La luz que va pasando, tan rápido que ni se entera que se mueve el aire, modifica su
dirección al pasar de un medio más denso a otro menos denso; decimos que cambia el índice de refracción. Las
zonas de diferente densidad, irregulares en forma, generan un patrón tembloroso de imágenes. En el flujo en
cuestión, cada uno de los fluidos tiene un índice de refracción distinto y deja pasar a la luz de diferente manera.
Así, en la región de mezclado turbulento hay una complicada combinación de ambos índices de refracción y la luz
sigue estas variaciones. Al poner una pantalla del otro lado del flujo se pueden ver los patrones resultantes (una
criatura con una cámara fotográfica de plástico puede hacer el resto).

Es interesante notar que destacados investigadores habían estudiado este flujo y habían determinado todo lo que
entonces se consideraba necesario para caracterizar sus propiedades estadísticas. Descubrir la existencia,
persistencia y evolución de estas estructuras, en lo que parecía un flujo sin orden alguno, fue una verdadera
revelación.

La caracterización de estructuras coherentes sigue siendo el gran tema de actualidad en la investigación


experimental. La parte teórica se encuentra todavía en sus inicios, cosa no del todo rara en este churrigueresco
problema. Los intentos por elaborar una explicación cuantitativa de estos fenómenos siguen desafiando a la
imaginación y al colmillo de la comunidad científica que se interesa en el problema. Las dificultades se inician
desde la forma de definir matemáticamente a estas criaturas que viven en el caos. Si recordamos que la definición
de un vórtice sencillo nos elude todavía, no es de sorprender que este asunto le quite el sueño a más de uno.

Hay la sospecha fuerte de que una de las mejores formas de acorralar a las elusivas estructuras coherentes es
estudiar el problema en términos de la vorticidad, y los enfoques teóricos se mueven en esta dirección. De esta
manera, los experimentales tratan de medir la vorticidad y los teóricos de ver cómo se distribuye en el espacio y el
tiempo. Aquí, de nuevo, los investigadores depositan sus esperanzas en las computadoras. Los experimentales,
para la adquisición, manejo y análisis de grandes cantidades de datos; sin ellas, este trabajo tomaría cientos de
miles de años, de todos aquellos que trabajan en el tema, ¡para un solo caso! A los teóricos les pasa algo
semejante. Para todos se ha convertido en la herramienta indispensable y la fuente de inspiración para muchos
estudios, desde las simulaciones directas de flujos sobresimplificados hasta el terreno de juego para los
experimentos pensados.

El estado actual de esta situación es todavía nebuloso (¡turbulento!), si bien hay múltiples ideas cualitativas sobre
el papel que desempeñan las estructuras coherentes. Estas ideas platicadas son el motor del trabajo experimental y
teórico que se puede consultar en la bibliografía especializada. La forma de plantear matemáticamente lo que
sugiere la intuición y la información acumulada es parte de la tarea para llevar a casa.

El problema continúa abierto y ofrece la posibilidad de ganarse el pan cotidiano a muchos curiosos y necesitados
de la ciencia y el conocimiento, ya sea motivados por razones prácticas o estéticas.

V.3. ATRACTORES EXTRAÑOS Y CAOS

Una serie de revolucionarias ideas y de descubrimientos paralelos a los anteriormente descritos, independientes,
diferentes y aparentemente desconectados, pero sobre el mismo problema general de la turbulencia, ocurrieron en
la misma prolífica década en que se descubrieron las estructuras coherentes. Describiremos sólo una parte, pero
no tocaremos las sugerentes ideas e importantes teorías como las de Mitchel Feigenbaum, Benoit Mandelbrot,
Pierre Manneville e Yves Pomeau.

Uno de los antecedentes fue el descubrimiento hecho por otro meteorólogo, Edward N. Lorenz, en 1963. Estaba
interesado en comprender ciertos aspectos de la atmósfera terrestre con el propósito de avanzar en los métodos
para la predicción del tiempo. Con esto en mente elaboró un modelo muy sencillo para estudiar lo que le pasa a un
fluido sometido a una diferencia de temperaturas en presencia del campo gravitacional, conocido como el
problema de Rayleigh- Bénard. A partir de las ecuaciones básicas de la mecánica de fluidos, las de Navier-
Stokes, introdujo varias hipótesis para reducir las ecuaciones a lo que en su opinión aún tenía elementos
suficientes para generar una dinámica interesante. Luego, procedió a resolverlo en forma numérica. Cuál no sería
su sorpresa al encontrar que, para ciertos valores de los parámetros que caracterizaban al problema, la solución
mostraba un comportamiento errático. Curiosamente, no tiró a la basura los resultados.

¿Cómo era posible que el resultado de una ecuación, compuesta por términos bien definidos y perfectamente
regulares, diera lugar a un comportamiento no determinista? Otros, seguramente, hubieran descartado los
resultados y pensado que había algo equivocado con el método de solución o con la computadora misma. Para
Lorenz había algo nuevo y profundo en lo que acababa de encontrar; había descubierto a los atractores extraños.
Pasaron varios años para que la comunidad cientifica se percatara de la enorme importancia de su hallazgo. Baste
decir que gracias a su trabajo, ahora sabemos que nunca podremos predecir el tiempo más allá de siete días. Si
oímos que se espera buen clima para la semana próxima, podemos asegurar que es precisamente eso, una
esperanza.

A la impredictibilidad del clima a largo plazo se le ha dado por llamar el efecto mariposa. La razón para este
nombre proviene del hecho de que una pequeña diferencia en las condiciones iniciales digamos, hoy dará lugar a
una profunda diferencia a lo que puede estar ocurriendo tiempo después. El efecto de la imperceptible variación
irá creciendo con el tiempo, acumulándose poco a poco, como una avalancha; para exagerar el punto, se dice que
el aleteo de una mariposa modificará el clima en unos meses. Desde luego, aquí nos referimos a la predicción
detallada de las condiciones meteorológicas después de unos días. Características burdas o promediadas sobre
muchos eventos y muchos años no se verán modificadas en forma sustancial por estos pequeños mariposeos; la
erupción de un volcán o la desmesurada producción de contaminantes en alguna región hipotética del planeta, no
estarían incluidos entre estos últimos. La temporada de lluvias será igual, si por ello entendemos que es parecida a
la temporada del béisbol; no tienen fechas fijas y los caprichos de los protagonistas respectivos siempre están
presentes.

¿Qué es un atractor extraño? Veamos primero qué son los no extraños, por extraños (o triviales) que parezcan.

Si estiramos un resorte con una canica de cada lado y lo soltamos dentro del agua, observaremos que empieza a
oscilar y que poco a poco se va parando. Si hacemos la misma prueba fuera del agua, en el aire sucio que algunos
respiran, sucede lo mismo, aunque el amortiguamiento será mucho menor y se tardará más en detenerse. Decimos
que la disipación es menor en este caso. Si lo pudiéramos hacer en el vacío, tardaría más en detenerse; habríamos
reducido aún más la fricción. Al cambiar el material del que está hecho el resorte por uno más elástico (más caro),
la disipación podría reducirse aún más. A pesar de que nunca podríamos quitar la fricción (disipación) por
completo, podríamos ver que cada vez tarda más en detenerse. En condiciones ideales se quedaría oscilando ad
infinitum. Estas observaciones ilustran el punto siguiente.

El estado final de un resorte (oscilador) es el reposo total o la oscilación perenne. ¡Pues que trivialidad!, decimos
todos. La ventaja del ejemplo, que no es el único, es que todo puede hacerse con un lenguaje matemático preciso
y entonces puede demostrarse que los movimientos posibles tienden (son atraídos) a un punto, el del reposo. Este
estado final es un atractor y su dimensión es cero.

En el espacio en el que viven estos movimientos, que llamamos variedades, hay diferentes tipos de atractores:
puntos (como en el caso de osciladores con fricción), curvas (como en el caso de los osciladores no amortiguados,
de dimensión uno), superficies (de dimensión dos), etc.; objetos más o menos simples. Antes de Lorenz se creía
que todos eran de este tipo y fue entonces que aparecieron los extraños, que resultaron ser cosas (variedades)
conocidas, aunque eran consideradas como curiosidades matemáticas sin conexión alguna con el mundo real.
Baste decir que su dimensión no es ningun número entero (si no serán raros).

Para poder imaginar a los atractores extraños es conveniente mencionar una de sus principales características, la
de ser autosemejantes, lo cual en este caso significa que mientras más le vemos menos enseña, o que enseña lo
mismo (por algo son extraños). Un objeto autosemejante que puede ilustrar (¿confundir?) la autosemejanza y que
tiene una dimensión fraccionaria (fractal), es lo que se conoce como el conjunto de Cantor y se construye de la
siguiente manera.

Consideremos el segmento de recta del cero al uno (Figura V.4). Lo dividimos en tres partes iguales y quitamos la
del centro (segundo renglón de la Figura V.4). Ahora, a cada segmento restante lo dividimos en tres y volvemos a
quitar los tramos centrales (tercer renglón). Luego repetimos este proceso hasta el cansancio y... le seguimos ad
nauseam. El resultado es algo que tiene la propiedad de que si lo vemos parece una serie de puntitos con cierta
distribución espacial que no alcanzamos a distinguir claramente. Si tomamos una parte y la amplificamos cien
veces digamos se ve una serie de puntitos con cierta distancia... ¡exactamente igual! No importa cuánto o
cuantas veces amplifiquemos, ¡siempre se verá igual!
Figura V. 4. Conjunto de Cantor.

Un atractor extraño, llamado de Henón-Heiles en honor a sus descubridores en un modelo astrofísico, se muestra
en la figura V.5. Se han hecho varias amplificaciones que exhiben parte de su estructura. En el problema
correspondiente, todos los movimientos son atraídos por el atractor.

Figura V. 5. (a) Atractor de Henón Heiles. Forma general.


Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (a).

Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (b).

En 1971, David Rouelle y Floris Takens propusieron una nueva teoría de la turbulencia basados en el
descubrimiento de Lorenz. En 1978 Rouelle y Takens, en colaboración con Steven Newhouse, publicaron una
importante extensión a la teoría y es la versión que ahora se maneja. La propuesta ha permitido cambiar el marco
conceptual desde el que contemplamos el problema de la turbulencia, aunque su utilidad práctica para describir la
turbulencia totalmente desarrollada se ve tan cercana como la colonización de la galaxia más cercana; es cosa de
tiempo, un tanto largo, desde luego. El resultado fue una verdadera explosión de trabajos teóricos y
experimentales sobre el tema, abriéndose por completo un área de investigación que se había circunscrito a los
iniciados en matemáticas relativamente complejas.

¿Cuál era el dogma aceptado?

Lev Davidov Landau (1908-1968), tal vez el más brillante físico soviético, famoso por sus profundos trabajos en
la más variada gama de temas de la física, publicó en 1944 un célebre artículo. En éste propuso un modelo sobre
la forma en que se genera la turbulencia en todos los flujos. En forma esquemática, la idea era que si en cierto
flujo se iba aumentando el parámetro básico, como el número de Reynolds, el estado de movimiento cambiaría
con el tiempo a otro de naturaleza un poco mas complicada. Al seguir aumentando el parámetro de nuevo
ocurriría un cambio en la estructura del flujo, y así sucesivamente. A la larga decía, el flujo es lo suficientemente
complicado como para que se vea turbulento.

Por ejemplo, en el flujo alrededor de un cilindro, inicialmente laminar (Figura II. 7 y II. 8), se observa que al
aumentar la velocidad con la que llega el fluido se transforma en otro flujo, también laminar, con más estructura.
A mayor velocidad los vórtices posteriores se desprenden y aparece una estela hermosa y compleja, difícil de
describir matemáticamente (Figura V.6). Al continuar el proceso la estela se va complicando hasta verse
completamente turbulenta.

Figura V. 6. Estela detrás de un cilindro circular en flujo uniforme. La velocidad del flujo es mayor que en
los casos de las figuras II. 7. Y II. 8.

La teoría de Landau, de carácter esencialmente cualitativo, prevaleció hasta la década de los setenta. Hoy en día
tiene sólo valor histórico; sin embargo, motivó numerosos trabajos para estudiar estas transiciones y sirvió para
desarrollar diversos métodos matemáticos para atacar el problema. Lo anterior, que parecía perfectamente
plausible, fue modificado por Rouelle y Takens; su teoría, construida sobre bases conceptuales y matemáticas más
sólidas también es, por lo pronto, de carácter cualitativo. Vencer las dificultades para utilizarla en forma explícita
para hacer predicciones concretas es un proyecto a futuro. Si bien la teoría parece sumamente abstracta
(matemática), las ideas físicas pueden verse con relativa sencillez. Estas pueden resumirse en dos principales.

El primer resultado sobre el que está construida la teoría es la demostración de que las ecuaciones de Navier-
Stokes tienen dependencia sensible en las condiciones iniciales. Esto quiere decir, en términos normales, que todo
lo que le pasa a un fluido depende de los detalles de su estado inicial. Más directo, que los fluidos tienen muy
buena memoria cuando se les excita demasiado. Lo que hacen depende de cómo empezaron.

Esto explica por qué cada vez que se empieza un flujo dentro de un túnel de viento, por ejemplo, se observan
patrones muy diferentes. Sucede que nunca podemos repetir un experimento exactamente en la misma forma;
siempre partimos de un estado muy parecido, pero no del mismo. Todo tiene que ver con la forma en que un
movimiento va a evolucionar; la contaminación del aire en el túnel, la deformación nocturna del dispositivo
mecánico y, podría argumentarse, el humor del investigador. Ernst Mach (1838-1916), uno de los profundos
pensadores sobre el quehacer científico, hubiera estado fascinado por tal resultado; el llamado principio de Mach,
en pocas palabras, postula la influencia de cada parte del Universo sobre el resto. Esto, "aunque usted no lo crea",
le ocurre a los queridos fluidos; algo así tenía que andar pasando.

De hecho, desde el siglo XIX, James Clerk Maxwell fue explícito al respecto cuando decía: "Es una doctrina
metafísica que de las mismas causas se siguen los mismos efectos... Pero es poco útil en un mundo como éste, en
el que las mismas causas nunca se repiten y nada ocurre dos veces..." Luego agregaba: "[....] el axioma físico
análogo es que de causas semejantes se siguen efectos semejantes. Ahora hemos pasado de la igualdad a la
semejanza, de la certeza absoluta a la burda aproximación [...]; cuando sucede, el curso de los acontecimientos es
estable. Hay fenómenos más complicados en los que ocurren inestabilidades [...] que aumentan rápidamente con
el número de variables relacionadas". Con la intuición que lo llevó al Olimpo de la ciencia, concluía: "[...] el
estudio de las singularidades y las inestabilidades, más que el de las cosas continuas y estables, tal vez elimine el
prejuicio en favor del determinismo [...]."

La segunda parte de la receta para cocinar la teoría de Rouell-Takens-Newhouse está ligada muy de cerca con el
punto anterior. El meollo del asunto radica en que las ecuaciones de Navier-Stokes tienen atractores, como casi
todas las ecuaciones, pero que resultan ser de los extraños; esto sucede en el espacio (variedad) en el que se
encuentran sus posibles soluciones. Así, el movimiento de un fluido se va transformando en otros al ir cambiando
el número de Reynolds, a la Landau. Pero, y aquí es donde cambian las cosas, al ocurrir el tercer cambio es muy
probable que el flujo sea turbulento. Matemáticamente se dice que la solución que describe el tercer estado de
movimiento está cerca de un atractor extraño. En estas condiciones las cosas se van a ver por demás extrañas (o
sea turbulentas). Veamos un poco más de cerca la razón.

Digamos que la forma del atractor es la que se ilustra en la figura V.5. El estado inicial del fluido corresponde a
un punto cualquiera en el papel de la gráfica; el punto escogido podría describir un movimiento regular y sencillo
que no cambia en el tiempo.

Ahora cambiamos el número de Reynolds (abrimos más la llave, digamos) lo suficiente como para que el estado
de movimiento cambie a otro estado (cambiamos de punto en la gráfica). Si está lejos del atractor, desde luego
que será atraído a él. Repetimos el proceso y... se acerca al atractor (como en las novelas de terror). La siguiente
ocasión en que repetimos la operación el movimiento cambia, muy probablemente, a uno turbulento. Visto en la
gráfica, el punto se acercó tanto que empieza a moverse sobre la curva ilustrada; va cambiando en el tiempo.
Como sólo lo podemos ver cada cierto tiempo (con la vista, menos de treinta veces cada segundo), parecerá
brincar de un lugar a otro, sin ton ni son, siendo que en realidad se mueve sobre el atractor que se muestra.

Cuando parece que el estado es uno que se registró anteriormente, en realidad es uno parecido que se encuentra en
otra parte de la curva; en una amplificación parecería estar en una de las líneas adyacentes. En realidad no es ni
curva ni superficie..., es un atractor extraño.

Al publicarse la teoría, los investigadores pensaron que las cosas eran demasiado abstractas como para tener
conexión alguna con los experimentos. Después de todo, a pesar de que los autores tenían un reconocido
prestigio, se trataba de matemáticas muy complicadas. Al irse traduciendo la teoría al lenguaje de los interesados
en el tema, se vio que había formas de poner a prueba algunas de las afirmaciones de la teoría.

Varios investigadores se dieron a la tarea de reexaminar, con las nuevas ideas, algunos flujos conocidos; unos
años después, Jerry Golub y Harry Swinney, experimentales reconocidos en el campo de los superfluidos, habían
logrado demostrar que había un flujo que seguía el camino que insinuaba la teoría. Reinterpretando observaciones
anteriores, encontraron que tras de un par de cambios, el flujo perdía la brújula y su estabilidad; en su locura
exhibía la turbulencia en forma descarada y de la manera esperada.

Los experimentos consistieron en estudiar los patrones de flujo que ocurren cuando se pone agua entre dos
cilindros concéntricos y uno de éstos se pone a girar (Figura V.7(a)). Este arreglo se conoce como el flujo de
Couette-Taylor, recordando a quien lo estudió por primera vez y a quien mejor lo hizo, respectivamente. Lo que
ocurre en este sencillo arreglo es sorprendente.
Figura V. 7. (a) Flujo de Couette- Taylor. Diagrama del arreglo experimental.

Al ir aumentando la velocidad con la que gira el cilindro interior, con el cilindro exterior fijo, se llega a un valor
para el cual el fluido deja de dar vueltas en órbitas circulares alrededor del cilindro. Ahora se mueve siguiendo
una trayectoria que -puede decirse- está enrollada en la superficie de una dona contenida entre los cilindros.
Observando el sistema se aprecian estas donas, bautizadas celdas de Taylor, a todo lo largo del cilindro exterior
(Figura V.7(b)); ésta es la primera transición. El patrón se hace visible cuando se agregan al agua partículas
pequeñas.

Figura V. 7. (b) Flujo de Couette- Taylor. Celdas de Taylor.

Al seguir aumentando la velocidad de giro aparece un patrón de celdas de Taylor moduladas. Como si distintas
partes de las donas quisieran ir hacia arriba y parte hacia abajo; una especie de onda congelada se superpone a las
celdas de Taylor. Esta segunda transición se puede apreciar en la figura V.7(c). Luego, se viene abajo el
espectáculo y hace su aparición la turbulencia.

Figura V. 7. (c) Flujo de Couette- Taylor. Celdas de Taylor moduladas.

Un movimiento caótico alrededor del cilindro es lo único que sobrevive del flujo (Figura V.7(d)).

Figura V. 7. (d) Flujo de Couette- Taylor. Régimen turbulento.

Como lo indica la nueva teoría, después de un par de transiciones aparece la turbulencia. Desechada la teoría de
Landau, heredó el foro la nueva prima donna (excepto que ahora no está sola...); pero al igual que con los
aplaudidos artistas, deportistas, etc., su tiempo dura en tanto llegan los nuevos.

Como dijera hace unos años Uriel Frisch, destacado físico contemporáneo: "Yo creo que tenemos un
conocimiento peor sobre lo que sucede en un milímetro cúbico de agua, que sobre lo que ocurre en el interior del
núcleo atómico." Sabiendo que se refería al problema de la turbulencia, como prototipo de esta ignorancia crasa
que cargamos sobre los hombros, no puede uno menos que compartir su visión.
Una anécdota sobre este punto la debemos a Sir Horace Lamb (1849-1934), destacado investigador inglés en el
campo de la mecánica de fluidos. En un homenaje internacional que se le brindó al cumplir los ochenta años, en
1929, declaró lo siguiente: "Cuando muera, espero ir al cielo. Ahí, espero ser iluminado sobre la solución de dos
problemas, la electrodinámica cuántica y la turbulencia. Sobre el primero, soy muy optimista..." En cuanto al
segundo esperamos que Lamb haya ido al cielo. Seguramente así sabrá la respuesta del primero. Cabe agregar que
el primero fue resuelto por uno de los grandes físicos de este siglo, Richard P. Feynman (1918-1988), por lo que
le fue otorgado el premio Nobel en 1965. En palabras de Feynman: "la turbulencia es el último problema
importante por resolver de la física clásica."
VI. SUPERFLUIDOS

EN LA naturaleza hay 92 átomos diferentes y más de una docena de átomos que han sido creados artificialmente
por el hombre (y la mujer). Estos elementos son los ladrillos básicos que componen a la extraordinaria variedad
de objetos que forman el Universo. Sin excepción, todo está construido con este relativamente pequeño conjunto
de "dados para armar". Las ratas de drenaje, las estrellas, los diamantes y las verrugas, la Luna, las flores
silvestres, los elefantes y la ruinas incas, todos están compuestos por grupos de átomos que se combinan en
complejas proporciones. Después de todo, Demócrito, hace casi 7000 años, tenía una idea bastante cercana a la
que ahora tenemos. sólo le faltaba la evidencia empírica para sustentar sus extraordinarias especulaciones.

Aun sabiendo que todos los colores son combinaciones de sólo tres ingredientes primarios, el rojo, el azul y el
amarillo, no deja de sorprender la gama cromática que percibimos. ¡Qué espectáculo disfrutaríamos si contásemos
con noventa colores primarios! Así, la pasmosa riqueza en la diversidad de objetos y comportamientos contrasta
con la sobria sencillez de sus pequeñísimos componentes.

El más ligero de los elementos naturales es el hidrógeno y el más pesado el uranio, criterio usado para ordenarlos
por número en la Tabla Periódica. Después del hidrógeno sigue el helio, que es un poco más complicado en
estructura y es el más estable e inerte de todos los elementos, lo que sugeriría un comportamiento poco
interesante. Pero, como veremos más adelante, es notablemente extravagante.

Todos los elementos están formados por tres tipos de partículas distintas: electrones (con carga eléctrica
negativa), protones (con carga eléctrica positiva) y neutrones (sin carga); los protones y los neutrones son más de
mil veces más pesados que los electrones. La diferencia entre un elemento y otro es sólo la cantidad de electrones
que tienen, que siempre es igual a la de los protones, lo cual asegura la neutralidad eléctrica de los átomos. Los
llamados isótopos son variedades de un mismo elemento que difieren en el número de neutrones que, junto a los
protones, se encuentran en el núcleo.

El hidrógeno es la sencilla unión de un electrón con un protón, mientras el uranio U238 tiene 92 electrones en
movimiento alrededor de un núcleo con 238 partículas, entre protones y neutrones. Hinchado así, no es
sorprendente que frecuentemente arroje cosas (partículas-α, que son núcleos de helio, por ejemplo) y se
transforme con el paso del tiempo en otro elemento, como el plomo (Pb206); ésta es la radiactividad.

Hay dos isótopos del helio en la naturaleza llamados 4He y 3He (helio cuatro y helio tres). Ambos tienen dos
electrones y la diferencia está en el número de componentes del núcleo; además de los dos protones, el helio
cuatro tiene dos neutrones y el tres tiene sólo uno, por lo que el 3He es más ligero. Por ser el más abundante en la
naturaleza y por ser el protagonista principal de lo que sigue nos referiremos al 4He como helio.

Como paréntesis aclaratorio (que puede contribuir a la confusión), es conveniente mencionar que en realidad hay
algunas "cosas" adicionales aparte de los átomos. La luz, por ejemplo, nada tiene que ver con los átomos; está
hecha de fotones. Además, hay otros entes exóticos que pululan el Cosmos, como los neutrinos, los muones, los
cuarks, los positrones y antipartículas varias.

¿Qué son en realidad los átomos, los electrones, los neutrinos y demás objetos microscópicos? La teoría
correspondiente, que llamamos genéricamente mecánica cuántica, y cuyo idioma natural es el de las matemáticas,
nos dice claramente qué son y qué hacen. Permite hacer predicciones notables sobre los eventos más probables,
los valores esperados para velocidades, masas, energías, fuerzas, vidas y milagros de estas peculiares criaturas.

La falta de un diccionario adecuado para traducir los conceptos cuánticos al lenguaje que recibimos con la leche
después de nacer, complica las cosas cuando discuten los físicos entre sí y las hace casi incomprensibles cuando
éstos hacen aclaraciones a los demás. La respuesta no es sencilla y es preciso hacer juegos malabares intelectuales
para explicarlos con un lenguaje poco apropiado para ello. ¿Son partículas pequeñas, como canicas de
dimensiones invisibles, o son ondas, como las que vemos siempre en la superficie del mar? Partícula, onda, canica
y mar, son palabras que inventamos para referirnos a objetos que todos conocemos y percibimos a través de los
sentidos. Nuestro lenguaje cotidiano tiene esta virtud. Si algo es difícil de describir, lo presentamos para ser visto,
olido, oído, sentido y saboreado, cuando es sensato o necesario hacerlo. El problema se inicia cuando tratamos de
describir o explicar algo que no se ha visto directamente o se comporta esencialmente diferente a todo lo que
estamos acostumbrados a percibir.

Bajo ciertas condiciones, la evidencia experimental, siempre indirecta, sugiere que el objeto se porta como un
balín indestructible y entonces decimos que es una partícula. En otras circunstancias se comporta como la onda
superficial en un estanque y decimos que es una onda. Recordando lo que dijimos primero y pretendiendo acabar
con la aparente confusión, empleamos el término onda-partícula, sin ser ni lo uno ni lo otro y siendo ambos a la
vez. Así son estas minúsculas entidades.

Su comportamiento muestra que los conceptos de onda y de partícula, cada uno, son insuficientes para
describirlos y que son sólo analogías para poder expresar algo en un lenguaje apto para describir lo que sucede en
muchos, muchísimos átomos. Las matemáticas no tienen esta limitación.

Lo curioso es que a fuerza de hablar, experimentar y pensar en ellas, la familiaridad hace creer que se entienden
fácilmente y que cualquiera puede apreciar sus peculiaridades cuando se intenta describirlas. Se habla de
propiedades que poseen como el espín, el color, el encanto y la extrañeza, por citar algunos. Los nombres, salvo
el primero, son poco afortunados pues se refieren a atributos que conocemos pero que nada tienen que ver con lo
que representan en el caso de estos entes cuánticos; el primero, para quienes no usamos el inglés todo el tiempo,
tiene la ventaja de ser una nueva palabra para representar algo igualmente novedoso. De haber llamado a estas
propiedades la grisca, el cotro o la ruspela, sin el prejuicio de un contenido dado, se estaría más preparado a
asimilar un concepto ajeno a la experiencia cotidiana.

Otro elemento totalmente novedoso que forma parte esencial de la mecánica cuántica es la relación que hay entre
el objeto bajo estudio y el observador. A diferencia de lo que sucede al estudiar otro tipo de sistemas, no tan
pequeños, en los que el objeto de estudio tiene un comportamiento independiente del observador, los sistemas
cuánticos sufren las acciones del investigador y modifican su comportamiento detallado en forma impredecible.

Al estudiar un electrón, por ejemplo, es inevitable afectarlo en forma incontrolada. Para estudiar su movimiento
hay que "iluminarlo" para "tomarle una película" y determinar gracias a ella su velocidad. Sin embargo, cuando
intentamos iluminar al electrón, este se desvía al chocar con el primer fotón (la onda-partícula que constituye la
luz), impidiéndonos saber qué velocidad llevaba; al llegar la luz, mostrándonos en qué sitio se encontraba,
desaparece la posibilidad se saber a dónde iba. Es decir, posiciones y velocidades son cantidades incompatibles.
La precisión en la determinación de una es a costa de la otra. Este tipo de efectos trae como consecuencia la
existencia de límites naturales ineludibles en la precisión con la que es posible determinar ciertas cantidades,
simultáneamente. Estas limitaciones tienen el carácter de leyes fundamentales y forman parte de los postulados
básicos de la mecánica cuántica. Se conocen como las relaciones de incertidumbre de Heisenberg.

VI. 1. EL HELIO Y EL FRÍO

El helio fue descubierto como uno de los componentes de la atmósfera solar, de donde viene su nombre (del
griego helios, Sol), en la segunda mitad del siglo XIX por P. Janssen y J. N. Lockyer, independientemente. Casi
veinte años más tarde se encontró en la Tierra disuelto en minerales y un poco después en mezclas de gases
naturales; al separarlo siempre se obtenía helio en su fase gaseosa.

El primer derivado de las reacciones nucleares que ocurren en el interior de las estrellas es el helio. Las enormes
presiones que existen en el interior de las estrellas dan como resultado que se fusionen los átomos de hidrógeno,
formando helio, liberándose así enormes cantidades de energía. El hidrógeno es el "combustible" más usado por
las estrellas para iluminar el cielo (de noche solamente, claro). Agotado el hidrógeno se siguen con el helio,
formando átomos cada vez más pesados, que a la larga se combinan para formar moléculas y éstas, agrupadas en
cúmulos, forman partículas que a la larga se autorganizan y mugen en medio de verdes pastizales.

Decir que somos polvo de estrellas, además de una frase poética saturada de meloso romanticismo, es una
afirmación científica literal.

Descubrir cada elemento, para después caracterizarlo y conocer sus propiedades más distintivas, fue un proceso
arduo y tedioso que tomó muchos siglos. Tras de lograr purificar una cantidad razonable de cada uno se procedía,
entre otras cosas, a determinar las condiciones bajo las cuales el elemento se encontraba en las fases sólida,
líquida o gaseosa. Se aprendió que bajando la temperatura de un gas se convertía en líquido y que enfriándolo más
el líquido se solidificaba. Así empezó el desarrollo de la tecnología de bajas temperaturas.

Contar con un sibil (sitio fresco o frío para guardar comida o pieles), ciertamente era común desde tiempo
inmemorial, por lo que sorprende que no fuera sino hasta el siglo XVIII cuando se desarrollaran los primeros
procesos para enfriar artificialmente. De hecho, la primera máquina para producir hielo se construyó hasta 1755
por William Cullen. Sin embargo, fue el interés por licuar a todos los gases el que motivó el desarrollo de
métodos para producir temperaturas cada vez más bajas.

Para reducir la temperatura de un gas se utilizan dos hechos sencillos. Uno es el conocido efecto de que al poner
en contacto dos cuerpos a diferente temperatura, alcanzan una temperatura intermedia, enfriándose el más caliente
y calentándose el más frío. El otro hecho consiste en que si un gas se expande rápidamente, disminuye su presión
y baja su temperatura. La combinación alternada en forma ingeniosa de estos hechos y la adecuada selección de
gases produce la receta para enfriar lo que sea y tanto como se desee (casi).

Recordemos que la temperatura más baja que es posible alcanzar en el Universo es la de cero grados Kelvin (0ºK)
o el cero absoluto. En la escala práctica de temperatura, de grados centígrados o Celsius (ºC), que es la que se usa
para calentar el horno, decidir si es necesario un suéter o si el catarro se convirtió en gripe, el límite natural
inferior corresponde a -273.15ºC. Para pasar una temperatura en grados Celsius a la escala absoluta de grados
Kelvin basta con restarle 273.15.

Es bueno mencionar que, de acuerdo con una de las leyes de la física (la llamada tercera ley de la termodinámica),
NO es posible alcanzar la temperatura de 0ºK en un proceso que comprenda un número finito de pasos. En otras
palabras (más tontas desde luego), habría que vivir un tiempo infinito para manipular una sustancia y enfriarla
hasta el cero absoluto. (Véase García- Colín, L. S.)

La licuefacción de gases se inicia propiamente en el siglo XIX. Uno de los genios experimentales de todos los
tiempos, el científico inglés Michael Faraday (1791-1867), entre muchas de sus investigaciones logró licuar por
primera vez varios gases hacia finales de 1822. A pesar de haber logrado temperaturas tan bajas como 110º C bajo
cero y del éxito que obtuvo en la condensación del amoniaco, el cloro y el bióxido de carbono, no pudo hacer lo
mismo con el hidrógeno, el oxígeno y el nitrógeno. Junto con el monóxido de carbono, éstos fueron llamados los
gases permanentes, ante los múltiples intentos infructuosos por licuarlos.

Con técnicas cada vez más refinadas, el último cuarto del siglo XIX vio por fin la licuefacción de los reacios
gases comunes que constituyen nuestra atmósfera. Entre 1883 y 1885, en Cracovia, Polonia, S. V. Wroblewski y
K. S. Olzewski lograron finalmente licuar oxígeno, nitrógeno y monóxido de carbono. El 10 de mayo de 1898, en
Londres, Inglaterra, J. Dewar licuó el hidrógeno. El siglo XIX terminaba y ya se habían alcanzado temperaturas
de 15ºK (casi 260ºC bajo cero) y la licuefacción de todos los gases, excepto el helio.

Al iniciarse el siglo XX, el helio se empezaba a obtener en cantidades apenas suficientes para ser estudiado en
laboratorios muy especializados. A las temperaturas más bajas que entonces se podían producir (8ºK), el helio
sólo podía mantenerse en forma de gas, lo que había generado una verdadera carrera internacional para poder
lograr su licuefacción. Varios grupos de científicos de mucho prestigio trabajaron intensamente para lograr este
objetivo. Finalmente, el 10 de julio de 1908, Heike Kamerlingh-Onnes (1853-1926) logró enfriar helio hasta
licuarlo, en Leyden, Holanda. La temperatura que requirió alcanzar fue menor que 4ºK (-269ºC), y se encontró
que la temperatura de ebullición del helio es de 4.2ºK. Con esa fecha podría darse la fe de bautismo a la criogenia
(del griego kryos, frío y gennao, engendrar, generar frío), el estudio de las bajas temperaturas. Kamerlingh-Onnes
fue honrado con el premio Nobel, en 1913, por haber producido temperaturas tan bajas y por los consecuentes
descubrimientos sobre el comportamiento de la materia en estas condiciones.

Durante las siguientes décadas, hasta principios de 1940, se logró ir bajando aún más la temperatura hasta llegar a
unas décimas por abajo de 1ºK, en el intento por solidificar el helio líquido. En este proceso se descubrieron una
serie de hechos y de fenómenos sin paralelo en la naturaleza, que se creían exclusivos, hasta mediados de 1986,
de los sistemas fríos (los verdaderamente fríos).

Tres años después de haber licuado el hio, Kamerlingh-Onnes descubrió el fenómeno de la superconductividad.
Estudiando cómo disminuía la resistencia eléctrica de algunos materiales al disminuir la temperatura, lo cual era
bien sabido, se sorprendió al encontrar que el mercurio puro perdía su resistencia por completo y en forma
abrupta al pasar a una temperatura inferior a los 4.12ºK (véase Magaña, F.). Se había encontrado la primera
manifestación macroscópica del comportamiento cuántico de la materia.

Sin entrar en los detalles de este descubrimiento y de sus valiosas consecuencias, baste decir que para 1940 se
conocían 17 elementos puros y casi una centena de compuestos que presentaban este comportamiento; todos con
temperaturas inferiores a los 10ºK y en estado sólido. La explicación del fenómeno, que por muchos años resistió
los esfuerzos de los físicos teóricos más notables del siglo, fue dada hasta 1957 por John Bardeen (1908-1991), J.
Robert Schrieffer (1931-) y Leon Cooper (1930-). Por esta teoría, conocida como BCS, recibieron el premio
Nobel de Física en 1972. Para Bardeen fue el segundo premio Nobel; el primero lo compartió con William
Shockley (1910-) y Walter Houser Brattain (1902-) en 1956, por sus trabajos sobre semiconductores y el
descubrimiento del transistor.

A partir de 1986, cuando J. Georg Bednorz y K. Alex Müller descubrieron superconductores con temperaturas
mucho más altas que las usuales, en los laboratorios de IBM en Suiza, se inició una etapa de investigación que
produjo más de 20 000 publicaciones en cinco años. Tomando en cuenta que, de superconductores con
temperaturas inferiores a los 20º K, se habían descubierto unos con temperaturas cercanas a los 90º K, las
posibilidades tecnológicas y económicas presagiaban un inusitado interés. Lo que no se esperaba era la explosión
bibliográfica de dudosa calidad, que parece (y es) absurda, en vista de los escasos resultados realmente novedosos
o valiosos que se han obtenido desde entonces. La fiebre inicial afortunadamente bajó, sin que hubiese subido la
temperatura de los superconductores calientes y sin que se tenga un buen indicio de la teoría correcta, aunque
cada vez hay más investigadores dedicados al tema de lo que la sensatez sugiere. Claro que, después de todo, hay
un premio Nobel en juego.

En resumen, no se sabe cómo producir superconductores con temperaturas mayores a los 125º K, el máximo
registrado y confirmado a finales de 1991, y no parece haber indicios de una teoría que los explique.

Todo parece indicar que la teoría BCS y sus más directas extensiones no son aplicables a estos complicados
compuestos. Parte del problema es que la desproporcionada cantidad de papel dedicada a presentar resultados
sobre estos materiales incluye un gran número de trabajos, teóricos y experimentales, contradictorios. Es posible,
si bien es poco probable, que los elementos básicos de la nueva teoría se encuentren sepultados en algún vehículo
de información científica, como el "Acta de erudición de Macondo". Habría que revisar parte de las publicaciones
existentes y leer u oír críticamente las supuestamente ingeniosas teorías que se pregonan casi todos los meses
explicando el fenómeno. Ya dirá el siglo XXI.

Por lo pronto, el siglo que acaba vio al ser humano producir las más bajas temperaturas del Universo. En los
primeros instantes de la Gran Explosión que dio origen al Universo, hace más de quince mil millones de años, las
temperaturas fueron tan altas que son difícilmente imaginables y tal vez nunca puedan ser alcanzadas ni con los
más grandes aceleradores de partículas. Sin embargo, el extraordinario proceso de enfriamiento que se inició con
ese violento amanecer, no ha logrado producir temperaturas más bajas que los 3º K que constituyen la llamada
radiación de fondo, vestigio arqueológico del nacimiento cósmico.

VI. 2. UN FLUIDO IDEAL QUE SÍ EXISTE

Como sucede con los materiales superconductores, el helio presenta un comportamiento insólito cuando su
temperatura es suficientemente baja, es decir, cuando se encuentra en la fase líquida. Otra vez, la naturaleza nos
muestra su extraña cara cuántica. La superfluidez, como ahora se le llama al fenómeno que en forma exclusiva
presenta el helio líquido, en cualquiera de sus variedades, fue descubierta 30 años después de la
superconductividad y explicada 20 años antes.

Una vez licuado el helio, la siguiente meta fue solidificarlo, cosa que nunca se pudo lograr a presión atmosférica.
En la década de los veinte se construyó la curva de coexistencia líquido-sólido. Esto quiere decir que se
encontraron los valores de la presión y la temperatura a los que el helio líquido se solidifica. A presiones altas se
logró licuar y solidificar al gusto del investigador. Por ejemplo, en 1930, se determinó que el helio gaseoso se
solidifica a una temperatura de 42º K si la presión es de 5 800 atmósferas, y que si ésta es menor de 25 atmósferas
el helio jamás pasa a la fase sólida, aun a cero absoluto (sí se pudiese alcanzar); esto es lo que se llama un
resultado asintótico o límite.

Con diversos colaboradores, W. H. Keesom continuó la tradición holandesa de Kammerlingh-Onnes, en Leyden,


trabajando a presión atmosférica con helio líquido y encontró que al seguir bajando la temperatura y llegar a 2.3º
K, aparecía una nueva fase líquida del helio. Así, el gélido líquido que se producía del gas a 4.2º K fue
rebautizado como helio I y a la nueva fase se le llamó helio II; a la temperatura en que ocurría la transformación
(temperatura de transición) se le conoce ahora como el punto λ (lambda).

Posteriormente, en el punto λ se fueron descubriendo cambios bruscos en una serie de propiedades como la
viscosidad, la tensión superficial, la velocidad del sonido y la conductividad térmica. Esta última es la habilidad o
eficiencia que tiene un material de conducir el calor; las maderas y los plásticos tienen baja conductividad
térmica, mientras que en los metales esta conductividad es alta. Todo parecía indicar que el helio II era el sistema
más eficiente en la naturaleza para conducir el calor y que un fenómeno análogo a la superconductividad hacía su
debut.

El helio, además de ser el único fluido que permanece como tal en el cero absoluto, hace trucos igualmente únicos
cuando se encuentra con el disfraz de helio II.

Se había observado que el helio II burbujeaba como cualquier otro líquido cuando se encuentra en ebullición. Al
llegar al punto λ el efecto desaparecía y quedaba una superficie en total reposo; había que agitar el sistema para
convencerse de que aún se encontraba ahí. Al descubrir que era capaz de conducir el calor 200 veces más rápido
que el cobre se pudo explicar el hecho anterior: la eficiencia de la conducción es tal que lleva el calor de las
paredes a la superficie del líquido sin necesidad de aspavientos, como el burbujeo que los otros líquidos
requieren, incluido el helio I. La dificultad era que no había forma de entender cómo podía conducir tan rápido;
daba al traste con las ideas comunes y corrientes. Estas se salvaron a costa de ideas aún más exóticas.

El 7 de diciembre de 1940, la Revista de Física de la URSS recibió un artículo de Pyotr L. Kapitza (1894-1984),
investigador y director del Instituto de Problemas Físicos de Moscú, en el que se presentaban los resultados de
una meticulosa serie de experimentos en los que se exhibían fenómenos nuevos y se reinterpretaban otros
conocidos, desde una perspectiva no considerada hasta ese momento. Tres años antes, Kapitza había presentado la
sugerencia de que más que un notable cambio en la conductividad térmica, se trataba de una radical e inesperada
caída en la viscosidad del fluido. Su famoso trabajo, publicado en 1941, introducía las ideas de superfluidez.

Para demostrar que no era una extraordinaria conductividad térmica la que adquiría el helio II, y que era la
aparición de corrientes lo que hacía eficiente el proceso, tuvo que demostrar que se trataba de un superfluido y así
lo llamó.

Para medir la viscosidad, que es la oposición que presentan los fluidos a moverse (por fricción interna), es común
utilizar tubos capilares angostos y medir el flujo resultante. Al no ser aplicables los métodos tradicionales,
Kapitza tuvo que diseñar un sistema como el que se muestra en la figura VI.1. El helio, para pasar al recipiente
externo, debe fluir hacia abajo y pasar entre dos placas de vidrio muy pulidas y separadas entre sí una distancia
menor a una micra (¡una millonésima de metro!). Mientras que el flujo era casi imperceptible a temperaturas por
arriba del punto λ, por abajo de éste el helio II pasaba a gran velocidad, igualándose rápidamente los niveles.
Figura VI. 1. Helio II y flujo en capilares.

La conclusión del experimento fue que el helio II tenía una viscosidad menor que ¡una diezmilésima de la que
tiene el hidrógeno gaseoso! Kapitza sugirió que no tenía viscosidad alguna, y que reflejaba un comportamiento
igual al de un fluido ideal, "aunque usted no lo crea". Como veremos en la siguiente sección, la teoría de Landau
permitió elaborar una explicación a éste y otros hechos raros.

Otra de las pintorescas manifestaciones de la superfluidez es la habilidad de escabullirse a través de una película
que se arrastra por las paredes. La figura VI.2 ilustra el curioso fenómeno. Se había observado que si se ponía
helio II en un recipiente con un pared divisora, con el paso del tiempo y en forma espontánea se igualaban los
niveles de cada lado. En la Universidad de Oxford, Londres, John G. Daunt y Kurt Mendelssohn demostraron
experimentalmente que se formaba una película ultradelgada (de 200 milmillonésimas de metro) por la que el
helio II fluía libremente con velocidades cercanas a los 50 cm/s. En la figura VI.2(c) el helio II llega a vaciar el
recipiente de arriba. Aunque otros fluidos que mojan el material del recipiente que los contiene también crean
estas películas, como el agua en un recipiente de vidrio muy limpio, el movimiento que ocurre es mucho más
lento y pronto se detiene por la viscosidad.

Figura VI. 2. Flujo de Helio en las películas delgadas (a y b) El helio II se las ingenia para igualar los
niveles; (c) vaciado espontáneo de un recipiente.

Paradójicamente, en experimentos independientes realizados para determinar la viscosidad del helio II, se
encontró que al introducir un pequeño cilindro dentro del líquido y haciéndolo rotar, se registraba una (débil)
fuerza de fricción que se oponía a la rotación. Cada uno de los experimentos, con capilares y cilindros rotantes,
fue repetido con los mismos resultados. A veces sí y a veces no, según la forma de medirla, el helio II tenía
viscosidad. Esta aparente contradicción también fue explicada por la teoría correspondiente.

El efecto fuente es uno de los espectáculos circenses más sorprendentes que nos proporciona el helio II, si bien
téoricamente no es tan interesante y el mismo Kapitza lo diseñó sólo para apoyar la imagen de superfluido que iba
desarrollando. Si se ponen dos recipientes con helio II conectados por un capilar muy delgado, los niveles se
igualan (esto, desde luego, lo hacen hasta los ponches navideños). Sin embargo, si se varía la temperatura (o la
presión) de uno de los lados, se produce un flujo por el capilar que da lugar a un cambio en la presión (o la
temperatura) del otro lado, por lo que también se le llama efecto termomecánico. Para demostrar que un flujo de
calor llevaba aparejado un movimiento rápido del fluido, Kapitza hizo algo semejante a lo que se presenta en la
figura VI. 3. iluminando la parte inferior del tubo que contiene helio II, comunicándole calor de esta manera, ¡se
produce un chorro permanente!

Figura VI. 3. Efecto fuente en el Helio II.

La perplejidad de Kapitza debe haber ido en aumento con cada portentoso truco que observaba. También
buscando demostrar que el eficiente transporte de calor era el resultado de la superfluidez del helio II, llevó a cabo
el siguiente experimento. En la salida de un recipiente con helio II, que conectaba con otro igual, puso una
pequeña propela o rehilete con el propósito de detectar la salida de fluido. Al iluminar una de las caras del
recipiente (pintada de negro para que absorbiera calor) para subir su temperatura, las aspas empezaron a dar
vueltas y el helio II salió hacia el recipiente más frío. Con esto confirmaba, fuera de toda duda, que el flujo de
calor incluía cierto tipo de movimiento del helio II. Lo que sí no esperaba es que, aun cuando salía helio II del
recipiente, el nivel permaneciera igual, ¡manteniéndose lleno!

Los experimentos de Kapitza, así como la reinterpretación que dio a los que hicieron sus antecesores, demostraron
la existencia del fenómeno de la superfluidez. Pero, ¿cómo ocurría?, ¿qué la producía?, ¿cuál era el mecanismo?
¿Cómo podría explicarse la de un fluido sin viscosidad que en ocasiones parece tenerla y que al salir de un frasco
lo mantiene lleno?

La respuesta la dio Lev D. Landau en 1941, de quien hablamos en el capítulo anterior, recibiendo el premio Nobel
por ello en 1962. Antes de que pasara un año de la publicación de los resultados experimentales sobre la
superfluidez, el brillante colega de Kapitza elaboró una teoría cuántica, comprensible sólo por los especialistas,
que además predecía varios efectos posteriormente, confirmados. Sin embargo, como varias preguntas quedaron
sin respuesta, la teoría de Landau fue modificándose y extendiéndose para abordar y explicar los problemas
pendientes, hasta alcanzar la forma casi completa que ahora posee y que a su vez ha sido confirmada por muchos
experimentos.

Antes de traducir la teoría básica de Landau al lenguaje común, que será más bien una especie de alegoría, por lo
raro que es el mundo microscópico, haremos una breve digresión.

Es difícil resistir la tentación de comentar sobre la adjudicación de los premios Nobel. A Landau se le dio más de
veinte años después de su contribución principal, aunque lo merecía de todas formas por sus brillantes y diversas
contribuciones en casi todas las ramas de la física. A Kapitza hasta 1978 se le otorgó este premio, mientras que lo
recibieron otros que hicieron menos. Sus trabajos, involuntariamente realizados en la URSS, hubiesen sido mucho
más reconocidos si hubiera permanecido en Inglaterra. Muchos científicos destacados, tanto como los que sí
recibieron el Nobel, nunca fueron premiados.

Siendo el honor más reconocido internacionalmente, la componente geopolítica siempre ha estado presente, por lo
cual se han hecho graves omisiones o asignaciones desproporcionadas. Aun cuando los premios Nobel de la Paz
son los más controvertidos (pues incluso se han otorgado a promotores de la guerra), los premios Nobel de Física
y otras actividades científicas se han dado a investigadores que, si bien han hecho trabajos notables, lo recibieron
por razones ajenas a los criterios básicos que uno supone determinarían la asignación. La nacionalidad del
candidato, la situación política del momento y el hecho de si está o no a la moda el tema de trabajo parecen
desempeñar un papel poco afortunado aunque importante. En física, todos los honrados por el codiciado galardón
lo han merecido (en ocasiones hasta han sido los mejores).

VI. 3. MEZCLAS CUÁNTICAS

El elemento que llamamos helio, como ya vimos, viene en dos presentaciones isotópicas, el helio tres y el helio
cuatro. A su vez, cuando este último se encuentra en la fase líquida recibe el nombre de helio I, si su temperatura
está por encima del punto λ, y helio II cuando está por debajo. Ahí no acaba la cosa.

De acuerdo con la teoría de Landau, el helio II está formado por una mezcla de dos fluidos, conocidos como la
componente normal y la componente superfluida. En el punto λ todo el helio II es normal y conforme va
disminuyendo la temperatura empieza a crearse la componente superfluida hasta que, a cero grados Kelvin, todo
el helio II es superfluido. En cierto sentido, la parte normal es la que tiene temperatura y la superfluida siempre
esta en el cero absoluto. De esta manera, si compramos unos litros de helio y los enfriamos a 1º K, tendremos un
líquido en el que una pequeña parte es helio tres y la parte restante es helio cuatro, el que a su vez, hallándose en
su forma de helio II, tiene una parte normal a 1º K y una superfluida a 0º K (ésta es la parte fácil).

No hay que perder de vista que en realidad se trata de un solo fluido hecho de los mismos átomos y que la imagen
de una mezcla es una analogía para interpretar "hechos consumados". Lo que sucede es que, al igual que la gente,
los átomos van cambiando su comportamiento conforme baja la temperatura. A nadie le llama la atención que al
poner agua en un congelador se convierta en hielo, aun sabiendo que está constituido por las mismas moléculas de
agua (H2O); de algún modo, lo que sucede es que sólo se han organizado de otra manera.

Según la teoría, el helio II presenta dos tipos de movimientos simultáneos e independientes, el del superfluido y el
del normal. Mientras que para caracterizar un flujo común y corriente basta con determinar la velocidad en cada
punto, para este pintoresco líquido hay que hallar dos velocidades en cada punto, la de cada componente de la
mezcla. Se advirtió que sería un tanto raro y ahora es claro que no es nada intuitivo (excepto por el hecho de que
las personas raras son frías).

Las diferencias más notables entre las componentes de la mezcla son las siguientes. La componente superfluida
no tiene viscosidad, se mueve sin problema alguno por cualquier rendija (capilar o capa delgada), y no transporta
calor. Es el fluido ideal con el que soñaron los físicos y desearían utilizar los ingenieros. Por su lado, la
componente normal es la que tiene todos los defectos, empezando por ser real. Se mueve sobre —¿dentro?— un
fondo ideal absolutamente helado que no lo afecta y transporta calor en forma muy eficiente.

Con estas ideas en mente, es posible poner en claro algunos de los experimentos descritos anteriormente.
Empecemos con el último, donde un rehilete indicaba la salida de fluido sin que bajara el nivel del recipiente. La
razón por la que la pequeña propela gira, indicando un flujo de salida del recipiente, es que la componente normal
es la que transporta calor al recipiente más frío. Al salir ejerce una fuerza sobre las aspas como resultado de su
viscosidad. A cambio, la componente superfluida se mueve en la dirección contraria, sin oposición alguna y sin
ejercer fuerza sobre la propela, manteniendo el nivel del recipieite a la misma altura. No habiendo un flujo neto de
helio II, al compensarse exactamente los movimientos opuestos de las componentes normal y superfluida, el nivel
permanece fijo.

En el caso presentado en la figura VI. 1, es la componente superfluida la que se escapa tranquilamente por el
minúsculo capilar, mientras la componente normal sale muy lentamente y a duras penas. La viscosidad medida
por este procedimiento es la del superfluido, que es cero. En el caso del cilindro rotante, es la componente normal
la que entra en acción y la que manifiesta su viscosidad, que desde luego no es cero. Con esto la teoría de Landau
lograba explicar cualitativa y cuantitativamente las observaciones que de otra manera parecían paradójicas o
contradictonas.

La explicación de las peculiares películas delgadas por las que escapa de recipientes el helio II y la del efecto
termomecánico (fuente), ilustradas en las figuras VI. 2 y VI. 3, son ahora más fácil de entender.

En las delgadas capas que forma el helio II, como cualquier fluido que moja el recipiente que lo contiene, es la
componente superfluida la que puede moverse libremente y a gran velocidad; la componente normal, mucho más
lenta, también se escabulle, lubricada por su envidiable compañera. De esta manera sale hasta vaciar el lugar que
ocupaba o igualar el nivel exterior.

En el caso del efecto termomecánico la comprensión del fenómeno está basada en el hecho de que la componente
superfluida no transporta calor y se mantiene a una temperatura cero. Se tienen dos recipientes con helio II a la
misma temperatura y conectados por un capilar. Al aplicar una presión a uno de los lados, es la componente
superfluida la que se mueve rápidamente hacia el otro lado. Al salir el fluido más frío genera una baja en la
temperatura del recipiente en el que entra. En mediciones directas se comprobó que el fluido saliente estaba más
frío que el que se quedaba. Sin el modelo de los dos fluidos sería inexplicable que un fluido salga más frío que el
del recipiente de donde se saca. El proceso complementario, en el que una diferencia de temperaturas genera una
diferencia de presiones, manifestado teatralmente por el efecto fuente, tiene la misma explicación.

Es inevitable confesar que hay muchos fenómenos relacionados con la superfluidez que no hemos mencionado.
Sólo para entreabrir un poco más la puerta de este fascinante mundo de los fluidos cuánticos, traeremos a cuento
algunos hechos adicionales.

Bajo condiciones especiales hacen su aparición pequeños vórtices que se acomodan en hexágonos o se entrelazan
como madejas irrecuperables de estambre. Estos remolinos, que siguen sus propias leyes cuánticas, tienen
dimensiones atómicas y formas de girar que vagamente recuerdan a un tornado. Su demostrada existencia,
predicha por Lars Onsager a finales de los cuarenta y desarrollada posteriormente por Richard P. Feynman,
permitió explicar múltiples observaciones hechas en superfluidos. Entre otras, la respuesta que tienen cuando son
forzados a rotar, el comportamiento de partículas cargadas (iones) que se organizan alrededor de vórtices
arreglados en hexágonos, etcétera.

En calidad de misterio final de un tema vasto, que sigue siendo objeto de profundas investigaciones,
mencionaremos a las cuasipartículas que viven en los superfluidos, los fonones y los rotones, y la propagación de
cuatro diferentes sonidos. En el agua y en el aire (afortunadamente) se propaga el sonido con una velocidad
característica. En el helio II también se propaga el sonido y el segundo sonido y el tercer sonido y el cuarto sonido
(es reconfortante no tener que platicar en un medio superfluido).

Así, para sorpresa de casi todos los investigadores, al menos por un rato, en 1972 se descubrió otro superfluido, el
helio tres. Aun cuando nos podría parecer que se trataba casi de la misma cosa, resulta que las teorías existentes
(Landau y continuadores) no podían aplicarse directamente. Con un nuevo fluido cuántico y las posibilidades de
mezclarlo con el otro, el estudio de estas peculiares y únicas formas de materia se convirtió en uno de los temas
centrales de investigación en la física de bajas temperaturas, salvo por la referida fiebre de los superconductores
calientes.

El helio tres es más raro en la naturaleza y juntar una cantidad razonable cuesta mucho más trabajo y, desde
luego, dinero. Como era de esperarse, licuarlo iba a ser posible sólo a bajas temperaturas y su comportamiento
estaría descrito por las leyes cuánticas; después de todo es hermano mellizo del helio cuatro, pero no gemelo. Sus
características individuales lo hacen interesante para quien estudia asuntos tan disímbolos como las estrellas de
neutrones o la superconductividad. Véamos brevemente la razón.

Las partículas elementales (como los cuarks), las un tanto menos primarias (como el neutrón), los átomos, las
moléculas y demás entes que constituyen lo que es, están divididos por la mecánica cuántica en dos grandes
grupos fundamentalmente distintos, los fermiones y los bosones. Los nombres honran a dos notables físicos del
siglo XX, Enrico Fermi (1901-1954) y Satyendra Nath Bose (1894-1974), quienes de manera independiente
resolvieron problemas en los que esta diferencia era esencial.

Se mencionó que una de las características cuánticas que etiquetan a las partículas es el espín. En nuestro
pintoresco lenguaje de palanganas y tornillos, el espín puede imaginarse como un particular modo de giro que se
mide en múltiplos de la unidad fundamental de momento angular o giro: (hache barra). Esta cantidad es una de
las constantes físicas universales, la constante de Planck (h) dividida por 2π, y su presencia es la firma de los
sucesos cuánticos. La existencia de fue predicha por Max Planck (1858-1947) en sus revolucionarios estudios
sobre la radiación del calor, que a la postre dieran génesis a toda la teoría cuántica.

Los fermiones, entre los que se encuentran los constituyentes del átomo (electrones, protones y neutrones), tienen
espín semientero y los bosones, como, los fotones y los piones, lo tienen entero. Por ejemplo, el electrón es
fermion por tener espín 1/2 (y momento angular /2), mientras que el fotón es un bosón al tener espín 1 (con
momento angular ). Cuando se combinan varias partículas para formar un objeto más complicado, basta con
sumar los espines de cada componente para saber si tiene carácter bosónico o fermiónico. En el caso que nos
ocupa, el 3He está formado por dos protones, dos electrones y un neutrón, lo que trae como consecuencia que sea
un fermión; el 4He es un bosón debido al neutrón adicional que tiene.

De acuerdo con una de las leyes cuánticas, llamada el principio de exclusión de Pauli, los fermiones se acomodan
(donde sea que lo hagan) de manera que no hay dos en el mismo estado, mientras que los bosones pueden
amontonarse en el mismo lugar sin restricción alguna. La consecuencia es que los comportamientos son muy
distintos, especialmente a muy bajas temperaturas. La temperatura de transición superfluida para el 3He es 1 000
veces menor que la del 4He. A esta temperatura, con los átomos casi quietos, se pone de manifiesto una ligera
atracción que produce el apareamiento de parejas de átomos, como si orbitaran uno alrededor del otro. Estas
parejas, llamadas pares de Cooper, son bosones que resultan de la combinación de dos fermiones. Ya como
bosones, la situación cambia y como en el caso del 4He las cosas pueden superfluir.

Curiosamente, al pasar por la temperatura de transición superfluida, aparecen dos tipos de superfluido, el 3He-A y
el 3He-B. Estos nuevos fluidos tienen la inesperada característica de tener textura, lo cual no adorna al otro
superfluido conocido, el helio II. La razón para que aparezca esta singular característica es que los pares de
Cooper pueden ser alineados por la presencia de agentes externos, como campos magnéticos o superficies, en
forma parecida a los cristales líquidos.

Sin entrar en detalles de lo que es un cristal líquido, casi todos hemos visto las gracias que hacen estos materiales;
en los relojes y demás aparatos electrónicos modernos, que tienen lo que se llama carátula digital, hemos visto
cómo aparecen y desaparecen zonas oscuras. Ahí hay un cristal líquido y lo que ocurre es que al hacer pasar una
pequeña corriente a través de ellos se calientan, pasan por una transición y se orientan cambiando de color y
textura. Algo análogo pasa con las variedades A y B de 3He superfluido. Los vórtices que aparecen en estos
medios son verdaderamente extravagantes, más que los del 4He, y son los responsables (casi siempre) de la
textura que tienen.

Las teorías existentes sugieren la posibilidad de mezclas de estos helios superfluidos de hasta tres componentes y
los comportamientos serían igualmente ajenos a toda intuición. Las temperaturas para lograr estas combinaciones
de fluidos raros, cercanas a la milmillonésima parte de un grado Kelvin, son por ahora inalcanzables, aunque los
"criogenicistas" van acercándose.

Como siempre sucede, hay más por decir y hacer que lo dicho y hecho. Este vago y extraño mundo que hemos
esbozado de los superfluidos es más para sugerir un panorama que para describir un paisaje. Ciertamente hay
otros comportamientos igualmente interesantes que se han descubierto (con sus correspondientes explicaciones
teóricas) además de los que aquí hemos tratado. También, lo que es igualmente importante, sigue completamente
abierta la puerta para hacer, descubrir y explicar.

La pasión por buscar caminos nuevos en las artes y las ciencias es insaciable, sus fuentes son inagotables.
VII. EPÍLOGO

"DE LA VISTA NACE EL AMOR", dice un refrán que nos deja pensando sobre lo que sucede después de que
nació. Pasada la primera impresión, el trato y el conocimiento enriquecen (o matan) la relación hasta convertirla
en algo real, objeto de cuidados y atenciones (o fuente de obsesiones y peculiares melodramas). Difícilmente nos
contentamos con esa "vista" inicial y buscamos más de cerca para completar lo que dejó entrever alguno de
nuestros sentidos. Esa cara, esa figura o esa voz, sin perder su encanto, son siempre insuficientes.

¿Por qué hacer igual con los atardeceres exquisitos de apastelados cielos, con las mágicas nubes que crecen
tomando formas que sólo llevamos en la mente, con las hipnotizantes flamas que calientan la piel, la pupila y el
alma, con las columnas de humo que desatan la imaginación al disiparse en nada o con las olas que traen
recuerdos y espumas de otras playas?

La poesía que puede inspirar la vista de un ocaso tornasol no se pierde si apreciamos los mecanismos diminutos y
ocultos que dan lugar al maravilloso espectáculo.

Un mar embravecido sobrecoge a cualquier marino, por experimentado que sea, de la misma manera que un
zumbante tornado impresiona al meteorólogo que busca predecirlo. Ambos aprenden y actúan al ver lo que otros
sólo sufren con terror.

Al estudiar más allá de lo que se ve por encima, literalmente bajo la superficie, se descubre un universo adicional
que únicamente puede hacer más delicioso el momento, como con las personas. Ciertamente, no vamos a perder
el saludable miedo a un huracán, ni la inspiración que despiertan las rojas brasas de una hoguera.

Para apreciar una ópera, basta con sentarse a escucharla. Si además de escuchar la música y las voces, vemos la
escenografía y el vestuario o ponemos nuestra atención en los bailes y la actuación, la opulencia del "espectáculo
sin límites" se pone en evidencia. Sin embargo, esto es sólo el principio. Si conocemos la historia que une cada
una de las partes entre sí, la obra toma una dimensión diferente. Si leemos el libreto, podemos paladear los
diálogos llenos de poesía, drama y comedia, descubriendo la universalidad de las pasiones humanas, de las
ilusiones y los desamores y la dulzura que hay en la ingenuidad de cada adolescente. Así, agregando la música, se
realzan esas emociones hasta tocar las fibras íntimas del corazón de quienes sienten o piensan. Descubrir los
sutiles movimientos de escena, los cambios de tono en un aria o el contrapunto de un cuarteto, exquisito y
dramático, jamás disminuirá la belleza del momento.

Lo mismo pasa con el universo que nos rodea. Cada parte encierra una complejidad que sigue sorprendiéndonos.
Nuestra capacidad de asombro está más desarrollada que nunca antes en la historia. Lo menos que nos merecemos
es la oportunidad de ver más allá de lo que ven las miríadas de especies con las que compartimos el mundo.

A quienes leyeron este libro les correspondería escribir un epílogo. En realidad hay mucho, muchísimo más que
decir de lo que aquí aparece. Así, al final, la convicción de no haber hecho referencia a tantas cosas importantes o
interesantes me deja un poco apenado. Sin embargo, si la lectura despertó el interés por averiguar un poco más
sobre los fluidos, habré logrado mi propósito. Si además cada quien encontró una novedad o aclaró un concepto o
disfrutó de alguna parte, el esquizofrénico sufrimiento y placer que están detrás de cada línea habrán valido
totalmente la pena.
COLOFÓN

Este libro se terminó de imprimir y enucadernar en el mes de febrero de 1994 en Impresora y Encuadernadora
Progreso, S.A. de C.V. (IEPSA), Calz. de San Lorenzo 244, 09830 México, D. F. Se tiraron 10 000 ejemplares.

La Ciencia desde México es coordinada editorialmente por MARCO ANTONIO PULIDO y MARÍA DEL
CARMEN FARÍAS.
CONTRAPORTADA

La violencia de un tornado en las planicies de Australia, las penetrantes observaciones de Leonardo da Vinci, el
comportamiento exótico de un superfluido en las inmediaciones del cero absoluto, los invisibles átomos y la
ventaja de ignorarlos, las olas, los humos y el tornasol de los atardeceres son parte de los temas que cubre casi
cualquier reflexión sobre los fluidos; con frecuencia es sólo en forma implícita, pero ahí están. Este libro no es la
excepción.

La magia de un fluido nos hipnotiza cuando vemos arder una fogata, cuando miramos las burbujas dentro de una
cerveza o cuando se forman dragones en las nubes que luego se disipan en nada. ¿Por qué querría uno entender lo
que hace un fluido, cortando la imaginación o esterilizando la poesía? Por la misma razón que un enamorado
quiere más que el recuerdo de una voz o una mirada.

Los fluidos, que nos envuelven todo el teimpo, producen su espectáculo maravilloso cada día y, si lo sabemos
pedir, cada vez que los deseamos. La belleza o la dificultad estriba en que mientras mejor creemos conocerlos,
mas fácil escurren entre nuestras teorías y nuestros dedos.

Ramón Perala-Fabi es doctor en Ciencias (Física) por la Facultad de Ciencias de UNAM. Se desempeña
actualmente como profesor titular de carrera y coordinador del Laboratorio en el Departamento de Física de la
Facultad de Ciencias de la UNAM. También es investigador nacional. Su campo de estudio es la dinámica de
fluidos y la mecánica estadística.