You are on page 1of 41

EL ERROR DE KANT

El texto que sigue a continuación es un extracto de la tesis doctoral de Alfonso E. de la
Fuente Ruiz (2015), relativo a ciertas cuestiones filosóficas que en ella se tratan, y, en
particular, a las que se relacionan con la doctrina kantiana.
El objetivo es que cualquier lector, incluso no versado en formalismos rigurosos, pueda
extraer algo útil del presente documento, saltando a las porciones de texto, o citas literarias,
que más le interesen. Por tanto, querido/a lector/a, si encuentras un escollo tal como una
ecuación, o concepto que no entiendas de primeras, omítelo sin miramientos, y continúa
leyendo. Te garantizo que, haciéndolo así, obtendrás la ansiada recompensa intelectual.

El objeto de la tesis (este documento es solo un extracto) es la exposición de la ciencia
algorítmica, en línea con el paradigma expresado por Niklaus Wirth en su vademécum
“Algoritmos + Estructuras de Datos = Programas”,1 y con la Filosofía Neopragmática.2
=+=
The goal of this thesis (this document is just an excerpt) is the dissemination of algorithmic
science, in line with the paradigm expressed by Niklaus Wirth in his vade mecum
“Algorithms + Data Structures = Programs”,3 and with Neo-Pragmatist Philosophy.4
Más detalles en: /Further details at:
http://alfonsoycia.blogspot.com.es/2015/11/introduccion-y-conclusiones-de-mi-tesis.html

1

Véase [Wirth, 1975]
En la línea expresada, no por metafísicos tales como Immanuel Kant, o por pragmáticos clásicos
como Heidegger, sino, antes bien, por la de John Stuart Mill (“Filosofía Continental” Europea). Por
tanto, alineada con el positivismo lógico de Rudolf Carnap, Alfred J. Ayer, y el Círculo de Viena [v.
Chamorro 2009], y, en cierto sentido moderado, con el pensamiento de Noam Chomsky. También
expresa influencia notable de B. Russell, la escuela matemática clásica de Göttingen (esp. Hilbert), y la
moderna disciplina de Ingeniería del Conocimiento.
3
V. [Wirth, 1975]
4
In the line expressed, not by metaphysicians such as Immanuel Kant, or by pragmatists like
Heidegger, but rather by that of John Stuart Mill (European “Continental Philosophy”). Therefore,
aligned with the logical positivism of Rudolf Carnap, Alfred J. Ayer, and the Vienna Circle [v. Chamorro
2009], and, in some moderate sense, with Noam Chomsky’s thought. It also expresses noticeable
influence from B. Russell, Göttingen’s classical mathematics school (sp. Hilbert), and the modern
discipline of Knowledge Engineering.
2

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

La búsqueda de la certidumbre

¿Cómo se explica que muchas personas sean incapaces de un trabajo de esta naturaleza, o sea, sean
incapaces de entender las matemáticas? Esto es lo que Poincaré examina, señalando muy claramente
que la verdadera razón radica en el sentido que debe darse a la palabra “entender”:
“Entender la demostración de un teorema, ¿consiste en examinar sucesivamente cada uno de los
silogismos que la componen, asegurándose de que son válidos y conforme a las reglas del juego?... Para
algunos, sí: una vez hecho esto dicen que han entendido la demostración.
Para la mayoría, no. Casi todos son mucho más precisos; no se conforman con saber únicamente que
todos los silogismos de la demostración son correctos, sino que desean saber por qué ellos se engranan
en el orden establecido y no en otro. Mientras estos engranajes les parezcan engendrados por capricho
y no por una inteligencia consciente del fin al que desea llegar, no creen haber entendido la
demostración.
Sin duda ellos mismos no son conscientes de lo que piden y no pueden formular su deseo, pero si no se
les da satisfacción, sienten vagamente que les falta algo”.5

Carl Friedrich Gauss,6 uno de los matemáticos más grandes de todos los tiempos, ya puso de
manifiesto en el siglo XIX7 el papel determinante de la curvatura, al ser el primero en darse
cuenta de que era más conveniente pensar en las superficies como objetos que se pueden
dotar localmente de dos coordenadas, y no como subconjuntos del espacio cuyas
coordenadas verifican una determinada relación o como fronteras de sólidos. Un logro
importante de Gauss fue la demostración de que la curvatura depende de la métrica, y no de
la forma en que la superficie se dobla dentro del espacio tridimensional.8 Los trabajos de
Gauss servirían posteriormente a Riemann para que construyera su geometría diferencial ndimensional. ¿Pero qué significa que aparezcan números irracionales en todos estos
diámetros?
En realidad, se simboliza una restricción que aparentemente tiene la physis, es decir, la
sustancia del mundo físico entendida en sentido filosófico. La aparición de un número
irracional al realizar una operación como un doblez, indica que ésta operación nunca podrá
ser ejecutada de modo perfecto en la práctica, sino solamente por medios teóricos.

5

Jacques Hadamard: “Psicología de la invención en el campo matemático” sección VII: “Las diversas
clases de inteligencias matemáticas” pp. 175 y ss., ESPASA-CALPE S.A.
6
J. Carl Friedrich Gauss (1777-1855) prodigio en matemáticas, física y astronomía, que lideró la
vanguardia en geometría de superficies curvadas y demostró en 1799 el Teorema Fundamental del
álgebra (“Toda función polinómica racional entera de grado 𝑛 tiene 𝑛 raíces en ℂ, contando 𝑛 veces
cada cero de orden 𝑛”), véanse p.ej: [Baule 1949 pp. 664-666] y antes [Rey Pastor 1924, pp. 14 y ss.].
Gauss fue además maestro de Cantor, tutor de B. Riemann (cuya tesis dirigió), en la universidad de
Göttingen, donde desarrolló su carrera. Además construyó el primer telégrafo electromagnético en
1833. Notas biográficas en: [Dunham prolog. Sanz 2006, pp. 199-208] y [Muñoz 2009 pp. 23-27]
7
Véase: “Disquisitiones generales circa superficies curvas” (1828) de C. F. Gauss.
8
Santiago Fdez. Fdez. afirma en [Fdez. 2004, pp. 194-195] lo siguiente sobre Gauss: “Entre sus
resultados más importantes figura el famoso Theorema Egregium en el que establece la invariancia
del valor de la curvatura de Gauss, así como el Teorema Integral de Gauss-Bonet que relaciona el valor
de la curvatura de la superficie con la curvatura geodésica, y que a la postre se ha convertido en el
recurso más importante de la teoría global de superficies.” Véase una descripción formal del teorema
egregio de Gauss en [Baule 1949 pp. 768-779]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

1

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
¿No sería posible abandonar totalmente la idea de los números irracionales, y trabajar
solamente con los racionales, puesto que aquéllos parecen ser siempre el resultado de
cálculos, y nunca el de una medición directa?
Rudolf Carnap respondía a esta cuestión, desde su “Fundamentación lógica de la física”
publicada a mediados del s. XX, con su estilo característico, tan didáctico y directo:
“Ciertamente esto es posible, pero sería un cambio revolucionario. Por ejemplo, ya no
podríamos trabajar con ecuaciones diferenciales, pues tales ecuaciones requieren el continuo
de números reales.
Los físicos aún no han encontrado razones suficientemente importantes para introducir
tal cambio. Es cierto que la física cuántica apunta una tendencia a la utilización de
magnitudes discretas. La carga eléctrica, por ejemplo, solo se mide en cantidades que son
múltiplos de una carga eléctrica mínima. Si tomamos esta carga mínima como unidad, todos
los valores de cargas eléctricas son números enteros. La mecánica cuántica aún no se basa
totalmente en magnitudes discretas, pero hay una parte tan grande de ella que es discreta,
que algunos físicos han comenzado a especular acerca de la posibilidad de que todas las
magnitudes físicas, inclusive las de espacio y tiempo, sean discretas. Se trata solamente de
una especulación, aunque sumamente interesante.”

Efectivamente, hoy día las unidades indivisibles de tiempo y distancia (a la distancia de
Planck), se manejan con soltura en el contexto de la física subatómica.9

Ruptura de la regularidad
La imposibilidad práctica de representar números irracionales en registros digitales finitos ha
dado lugar a los Sistemas Computerizados Algebraicos,10 una evolución de las máquinas
algebraicas de Torres Quevedo,11 que permiten soslayar las inexactitudes derivadas del
redondeo, truncamiento y aproximación, mediante el uso de representaciones
informatizadas, puramente algebraicas, en la memoria de un ordenador.
Por pequeña que sea una inexactitud, puede conducir a un error muy grande en los cálculos
al realizar una iteración de aproximaciones, o al realizar futuras operaciones con el dato.

9

“Átomo” etimológicamente significa: “aquello que no se puede dividir”, un concepto heredado del
filósofo Demócrito, tras el que se esconden las antinomias kantianas del infinito [Heisenberg 1985
pp. 88-90, 142]. De ahí la imposibilidad de realizar particiones ad infinitum, pues, aunque se haya
progresado en la descripción del interior del átomo, seguimos topando con una plétora de partículas
fundamentales (electrones, quarks, fotones, bosones,…) que parecen indivisibles a su vez.
10
“Computer Algebra System” o “CAS”. Véase, entre otros: Maple, yaCAS.
11
Leonardo Torres Quevedo (1852-1936) destacado ingeniero, matemático e inventor español
conocido por sus diseños de globos aerostáticos dirigibles, transbordadores (como el Spanish Aerocar
sito en las cataratas del Niágara, aún en operación), telekinos (primeros sistemas de radiocontrol con
teleguiado por ondas herztianas), y autómatas ajedrecistas.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

2

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Pueden también conducir a
resultados totalmente
erróneos, difíciles de detectar,
y que es sencillo pasar por
alto.
Estos problemas, derivados de
la arquitectura clásica de los
computadores, son más
frecuentes de lo que pudiera
parecer.
Así p.ej: en la figura contigua,
el cálculo con radicales de la
parte superior arroja una
solución errónea.12
Un ejemplo muy notorio13 de que una creencia no es lo mismo que una demostración, lo
constituyen las integrales de Borwein,14 que ofrecen una sorprendente muestra de ruptura
de la regularidad.
Éste es el caso de la integración de
la función “seno cardinal”
desnormalizada, de la figura
contigua, que corresponde a: 𝑠𝑖𝑛𝑐
(𝑥) = sin⁡(𝑥)⁄𝑥
En la formulación de la página
siguiente15 se observa la integración
sucesiva de ciertos productos de
fracciones impares, generados
regularmente con dicha función.
Como puede apreciarse, la regularidad se desbarata exactamente a partir del término con el
divisor 15, lo cual resulta sorprendente, porque todos los productos anteriores arrojan
exactamente el mismo resultado, esto es: 𝜋⁄2 (90 grados sexagesimales, o un cuarto de
vuelta en la circunferencia).

12

Corresponde a un resultado erróneo (que debiera ser: 0) obtenido con la calculadora científica de
Microsoft Windows. Extraído de la presentación [Roanes Lozano 2009] y de otras notas de las
lecciones del mismo profesor, en la Universidad Complutense de Madrid.
13
Otro caso célebre fue el de el error o “bug” FDIV, que incluyeron algunos microprocesadores Intel®
Pentium en 1994, y cuyo coste rondó los 500 millones de dólares.
14
Véase [D. Borwein & J. M. Borwein p. 14] http://www.thebigquestions.com/borweinintegrals.pdf y
http://gaussianos.com/el-curioso-caso-de-las-integrales-de-borwein/
15
Las figuras se adaptaron desde: http://mathworld.wolfram.com/SincFunction.html y:
http://themathkid.tumblr.com/post/129108152980/borwein-integrals-really-math-really

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

3

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Algo similar ocurre al tratar de establecer una cota, llamada 𝑆𝑘1 o “número de Skewes”, a la
cantidad de números primos 𝜋(𝑥)⁡menores que la integral logarítmica 𝑙𝑖(𝑥)⁡de un número 𝑥
dado. La mejor estimación actual16 tiene en torno a 300 dígitos, pero es en cualquier caso,
mayor que 1017 , un número enorme.
Los sistemas modernos de álgebra computerizada permiten trabajar de un modo
cualitativamente distinto al de los lenguajes de programación usuales, al permitir almacenar
representaciones simbólicas sin necesidad de asignar valores aproximados, permitiendo de
modo muy sencillo el calcular derivadas, integrar o resolver polinomios, entre otras muchas
funciones. Dentro de esta tesis se incorporan también algunos resultados17 obtenidos con
estos sistemas a fin de avanzar en la comprensión de ciertas cuestiones, particularmente en
lo referido a optimización global.
Son resultados matemáticos, como los anteriores, los que cuestionan severamente las
aproximaciones filosófico-matemáticas frecuentistas, que están basadas únicamente en la
experiencia previa, tal como la visión kantiana del mundo. Este asunto se discutirá en la
próxima sección.

16

Véanse: http://mathworld.wolfram.com/SkewesNumber.html y [Platt & Trudgian 2014]
Véanse por ejemplo las figuras anteriores de esta misma sección, o de la denominada “Los
problemas del espacio curvo”, generados con Maplesoft Maple® v17.
17

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

4

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Juicio, razón y probabilidad
Conviene conocer por qué Lobachevski,18 y tantos otros, se opusieron con tanto empeño a la
doctrina kantiana de que el ser humano nace con una serie de conocimientos a priori al
nacer. Es aquí donde entra precisamente la “Crítica a la razón pura” de Kant,19
suministrando (y cuestionando) una herramienta del pensamiento matemático, tal vez la
única, que nos permite pasar de un círculo a su diámetro rectilíneo, de un perímetro a su
diagonal correspondiente, o de un número racional a uno irracional. Y es precisamente
aquélla herramienta teórica, la que nos permite construir la sucesión ilimitada que genera la
inacabable ristra de dígitos de 𝜋, o la de los números primos: el juicio sintético a priori.
Kant entendía por a priori20 el tipo de conocimiento que es independiente de la experiencia,
pero dependiente en un sentido genético o psicológico. Sin experiencia no habría
conocimiento de ningún tipo, pero ciertas clases de conocimiento reciben un apoyo de la
experiencia exterior, que en el conocimiento apriorístico no se da.
Durante mucho tiempo se pensó que todo juicio a priori equivalía a un juicio analítico, y que
todo juicio a posterior equivalía a un juicio sintético. Un juicio analítico no supone nada más
que las relaciones de significación entre los términos, tal como: ”todos los perros son
animales”. Un juicio sintético va más allá de los significados y tiene un contenido fáctico, tal
como: “la Luna orbita en torno a la Tierra”. Para emitir un juicio analítico a priori no es
necesario recurrir a la experiencia. Ni siquiera es necesario que existan perros, sino
solamente “la idea de perro”.
Para aclarar estos conceptos, Kant propone el siguiente ejemplo:
“«La recta es la distancia más corta entre dos puntos»
En este juicio, el predicado no está contenido en la noción del sujeto: en el concepto de línea
recta no entra para nada el concepto de distancia. Es por tanto un juicio sintético, luego no es
analítico. Tampoco es un juicio a posteriori, ya que se refiere a una verdad sin tener que medir
distancias entre dos puntos, sin necesidad de recurrir a ninguna experiencia comprobatoria. Es
estrictamente universal y necesario, carece de posibles excepciones. Es por tanto a priori.”

La cuestión fundamental es: si la línea divisoria entre lo a priori y lo a posteriori coincide con
la línea entre lo analítico y lo sintético. Kant sostenía que no,21 y se refería a los axiomas
euclídeos, diciendo que no era posible imaginar un modo en que no se cumplieran. Esta
18

Nikolai Ivanovich Lobachevski (1792-1856) fue un matemático ruso que ejerció largo tiempo y
desde temprana edad como rector de la Universidad de Kazán, donde desarrolló su “geometría
imaginaria” o “hiperbólica” como parte de lo que sería la obra de su vida: una “Pangeometría18” que
generalizaría la geometría existente. Es célebre su cita: “No hay rama de la matemática, por abstracta
que sea, que no pueda aplicarse algún día a los fenómenos del mundo real.”
19
I. Kant (1724-1804): Eminente filósofo religioso, epítome de la Ilustración, que impartió clases de
física y matemáticas en la Universidad de Königsberg. Habiéndose propuesto demostrar el carácter
científico de estas disciplinas, formuló los juicios sintéticos a priori, de los que razona que son
universales y necesarios, pero sin estar contenidos en la experiencia.
20
Carnap dixit. En general, la locución “a priori” se interpreta como “con anterioridad” o “previo”,
siendo antónimo de “a posteriori”. Existen otras interpretaciones, en función del empirismo y la
analiticidad de un enunciado, como la de [J. Ayer 1984 pp. 20-32 y cap. 4]
21
Puede encontrarse una definición kantiana de los juicios analíticos y de los sintéticos, junto con sus
correspondientes enmiendas, en [J. Ayer 1984 pp. 91-93]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

5

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
visión se convirtió rápidamente en el pensamiento oficial de la civilización occidental,
condicionando, y en cierto modo restringiendo, el desarrollo de la geometría.
En efecto, el filósofo Martin Heidegger también coincidía con la visión de que lo perfecto era
anterior, y precedía a lo imperfecto, pues había indicado en su tratado sobre los principios
elementales de la doctrina kantiana, lo siguiente:
“El modo del movimiento y el lugar del cuerpo se determinan según su naturaleza, Para toda
caracterización y medición de los movimientos, la tierra es el centro. La piedra que cae se mueve hacia
el centro; el fuego que sube se aleja del centro. En ambos casos el movimiento es un movimiento
recto. Pero los astros, todo el cielo, se mueven «περί τò μέσnν» alrededor del centro; su movimiento
es [circular].
El movimiento circular y el movimiento rectilíneo son los movimientos simples; a su vez, de
entre ambos, el movimiento circular es el primordial, es decir, el que tiene el rango más alto, ya que lo
perfecto precede a lo imperfecto. Al movimiento de los cuerpos pertenece su lugar. En el movimiento
circular el cuerpo tiene su lugar en el movimiento mismo. Por eso, este movimiento es el que dura
siempre, el que existe verdaderamente, mientras que en el movimiento rectilíneo el lugar se distancia
de otro lugar solamente en una dirección, de modo que en este segundo lugar el movimiento llega a
su fin. […]
El movimiento más puro, en el sentido del cambio de lugar, es el movimiento circular;
contiene en cierto modo el lugar en él mismo. Un cuerpo que se mueve de tal manera se mueve
perfectamente; esto vale para todos los cuerpos celestes. Frente a ellos el movimiento terrestre es
siempre rectilíneo, o mezclado, o también forzado, es decir, es siempre imperfecto. […]
Hay que buscar la causa del movimiento continuo. Según la concepción derivada de
Aristóteles, la causa, en los movimientos naturales, está en la naturaleza del cuerpo mismo, en su
esencia, es decir, en su ser más propio. A esto corresponde también un principio de la escolástica
posterior: «operari (agere) sequitur ese»: el modo del movimiento (como operatividad) sigue el
modo del ser.”

El juicio sintético a priori en sentido kantiano, se interpreta en cierto modo como una
contradicción de facto, pues la sinteticidad contradice el apriorismo, ya que una síntesis se
obtiene tras un proceso experimental, mientras que esta misma posterioridad queda
contradicha por la necesidad de efectuar el juicio, sin haber concluido un proceso de examen
exhaustivo (caso por caso). Esta imposibilidad radica en la consideración de un conjunto que
genere una sucesión ilimitada de elementos, lo que impide examinar exhaustivamente cada
uno de los elementos generados, y hace imprescindible la realización de un “salto de fe”
desde lo finito hasta lo infinito. De ahí que a Kant y algunos de sus sucesores (como Hegel,
Fichte o Heidegger) se les tachara, no sin razón, por su oscurantismo deliberado.22

22

Especialmente por los positivistas como B. Russell, R. Carnap o A. J. Ayer [cfr. infr.] así como por
otros empiristas, el mismo K. Marx, o el neopragmático Habermas [cfr. infr.], que a su vez fue
criticado por von Hayek en base a las consecuencias morales (esto es, el dilema de si: “el fin justifica
los medios”). Drucker también señala un tanto categóricamente que “toda decisión efectiva es, en
todos los casos, un criterio basado en opiniones contrarias, más bien que un consenso sobre hechos”
[Drucker 1973 p. 33]. Respecto al oscurantismo matemático, véase también [Pérez Sanz, 2002-2008].
Conviene señalar también que Heidegger (1889-1976) fue también muy criticado por su asociación
con el régimen de la Alemania nazi, con lo que una cuestión puramente filosófica se tornó en política,
como tan a menudo sucede, pero una política que además condujo a una Guerra Mundial.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

6

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Es tal, pues, el salto conceptual que se realiza en ciertas progresiones aritméticas (aditivas) y
geométricas (multiplicativas), tanto sobre las series23 de tipo sumatorio como en
productorios o exponenciatorios, y en general, de cualquier operación aritmética iterable.
Con carácter general, se refiere a las operaciones que puedan definirse como reiteración24
indefinida de una operación determinada (esto es, cuando el intervalo de iteración [𝑎, 𝑏]
contiene infinitos elementos), o que involucran algún tipo de límite.
El concepto de límite,25 que ya se ha adelantado, puede definirse26 como sigue:
“Sea 𝑓(𝑛) cualquier función de 𝑛. Se dice que 𝑓(𝑛) tiende a un límite 𝑎 cuando 𝑛
tiende a infinito si 𝑓(𝑛) es “casi igual” que 𝑎 cuando 𝑛 es grande.”
Se entiende que el valor 𝑎 puede tomar diversos valores impropios como los del infinito
convencional (∞), positivo (+∞) o negativo (-∞), o un valor cualquiera entre los números
reales, o un cociente e incluso otro límite.27 Con mayor precisión, puede definirse así:
“Se dice que la función 𝑓(𝑛) tiende al límite 𝑎, cuando 𝑛 tiende a infinito, si para
todo número real positivo 𝛿, independientemente de lo pequeño que sea,⁡𝑓(𝑛) dista de 𝑎 en
una cantidad menor que 𝛿, para todos los valores de 𝑛 suficientemente grandes.”
Si 𝑓(𝑛) tiende al límite 𝑎 cuando 𝑛 tiende a infinito, se escribe:
lim 𝑓(𝑛) = 𝑎 𝑛

→∞

Y adicionalmente, sobre la recta de los números reales, se puede especificar que a un
determinado límite se tiende desde algún extremo lateral, habitualmente el derecho ‘+’ o el
izquierdo ‘-‘, a lo que se llama límite lateral: 𝐼𝑧𝑞𝑢𝑖𝑒𝑟𝑑𝑎
:⁡ lim− 𝑓(𝑥) = 𝑏 𝑥
→𝑎 𝐷𝑒𝑟𝑒𝑐

ℎ𝑎:⁡ lim+ 𝑓(𝑥) = 𝑏 𝑥
→𝑎

−𝛿 < 𝑥 − 𝑎 < 0
} ∀𝜀 > 0, ∃𝛿 > 0⁡| {
} ⇒ |𝑓(𝑥) − 𝑏| < 𝜀
0<𝑥−𝑎 <𝛿

En funciones multivariables (y dimensiones superiores) puedan describirse límites
direccionales,28 como el superior, inferior, trasero, delantero, o en general, límites sucesivos
o reiterados, en la dirección de un vector de coordenadas arbitrarias, que sea tangente a
una curva definida en el punto, o siguiendo un camino, formado, p.ej. por una curva,
superficie, o volumen.

23

Véanse los recordatorios sobre series telescópicas, p.ej. en [Brassard & Bratley 1997, pp. 39-44]
Esta reiteración en el sentido de Poincaré como “repetición de una acción desde que la misma es
posible” también puede interpretarse como un método de extrapolación (o proyección) en sentido
Newtoniano, por adición de elementos exteriores a una función, que haya sido dada por puntos
aislados (correspondientes a observaciones empíricas). Véase [Baule 1949 pág. 234]
25
Para un estudio en profundidad sobre diversas conceptualizaciones de límite funcional, véase
[Blázquez, Gatica y Ortega 2009]
26
De acuerdo con la definición de [Brassard & Bratley 1997, pp. 35-36]. Véase también [Baule 1949
pp. 4 y ss., 112 y ss.]
27
Más detalles en los desarrollos del marqués de L’Hôpital (1661-1731), sobre el análisis de los
infinitésimos para el entendimiento de las líneas curvas. Véase p.ej: [Granero 1996 pp. 149-154]
28
Véase [Granero 1996 secc. 9.6]
24

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

7

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Fue precisamente Riemann quien, en 1854, precisa el concepto de “integral”, y determina
cuándo las “sumas de Riemann” de una función acotada en un compacto (o conjunto
acotado y cerrado) tienden hacia un límite finito al tender a cero la norma de la partición.
En cierta forma, también se involucra el límite en las sucesivas definiciones de integral del
cálculo diferencial (como la debida a B. Riemann), por cuanto que una derivada implica el
“troceo” de una función en infinitas partes infinitesimalmente pequeñas, o su integración a
fin de reconstruir la deriva funcional.
∑ 𝑓(𝑥̅ ) 𝑖

∏ 𝑓(𝑥̅ )

⁡⇛ lim 𝑓(𝑥̅ ) 𝑖 𝑥

̅ →𝑥̅0 𝑏

∫ 𝑓(𝑥̅ )𝑑𝑥 𝑎

}

Rigurosamente, una integral no es más que el límite de una suma cuyo número de sumandos
aumenta indefinidamente, al tiempo que tiende a cero el valor de cada uno de ellos. De
hecho, las integrales impropias requieren de un paso al límite para su cálculo, al toparse con
una discontinuidad.29
De cierto modo, este salto filosófico a la infinitud, involucra un experimento puramente
estadístico sobre la experiencia humana, en que es del todo relevante el conocimiento del
lugar del que se proviene, a fin de asumir la continuidad del argumento.30 Es por ello que la
validez de un razonamiento sintético a priori tal, queda inevitablemente supeditada al
concepto de confianza estadística, lo que supone una contradicción de los principios
irrenunciables del razonamiento lógico, que trata de demostrar un razonamiento sin dejar
lugar a dudas.
Tampoco la geometría describe las propiedades del espacio físico, tal como postulaba31 Sir
Alfred J. Ayer,32 uno de los seguidores intelectuales de Carnap:
“Podemos sentirnos inclinados a aceptar la hipótesis de Kant, de que el espacio es la forma
de intuición de nuestro sentido exterior, una forma impuesta por nosotros a la substancia de la
sensación, como la única explicación posible de nuestro conocimiento a priori de estas proposiciones
sintéticas. Pero, aunque la concepción de que la geometría pura se interesaba por el espacio físico, era

29

Véase p.ej: [Baule 1949 pp. 140 y ss.] Además, el signo de integración ‘∫’ que procede del de summa
(suma) ‘Σ’, fue propuesto por Leibniz en una carta a Henry Oldenburg, secretario de la Royal Society,
escrita en 1675: «Será útil –sugería él- escribir ∫ en lugar de omm», símbolo éste último que se usaba
entonces para denotar la integración. [Vizmanos y Anzola 1995 pág. 360]
30
Un razonamiento similar fue expresado por [Friedman 1976] respecto a la naturaleza de los
estudios en Economía, durante su discurso de aceptación del premio Nobel.
31
V. [J. Ayer 1984 pp. 97-99]
32
Sir Alfred Jules Ayer (1910-1989) filósofo humanista inglés promotor del empirismo lógico (al que
distingue del positivismo). Se relacionó con el Círculo de Viena y se opuso frontalmente a Heidegger.
Desarrolló un nuevo concepto de agnosticismo y anticipó, en sus investigaciones sobre la consciencia,
el Test de Turing [de Frutos 2012 pp. 687-691], para confrontar una inteligencia artificial interpelativa
“fuerte” o “general” (‘AGI’: “Artificial General Intelligence”). Sus aportaciones incluyen el principio de
verificación empírica, como oposición a metafísica y tautología.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

8

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
bastante aceptable en el tiempo de Kant, cuando la única geometría conocida era la de Euclides, la
ulterior invención de geometrías no euclidianas ha demostrado que era errónea.
Ahora vemos que los axiomas de una geometría son definiciones solamente, y que los
teoremas de una geometría son, simplemente, las consecuencias lógicas de estas definiciones.33 En sí
misma, una geometría no trata del espacio físico; no puede decirse que, en sí misma, trate «de» nada.
Pero nosotros podemos utilizar una geometría para razonar acerca del espacio físico. Es decir, una vez
que hemos dado a los axiomas una interpretación física, podemos proceder a aplicar los teoremas, a
los objetos que satisfacen los axiomas.
El que una geometría pueda ser aplicada al mundo físico real o no, es una cuestión empírica
que cae fuera del propósito de la geometría misma. Por lo tanto, no tiene sentido preguntar cuáles de
las diversas geometrías conocidas por nosotros son falsas, y cuáles son verdaderas. En la medida en
que estén libres de contradicción, son todas verdaderas. Lo que podemos preguntarnos es cuál de ellas
es más útil, en una ocasión dada, cuál de ellas puede ser aplicada más fácilmente y más
fructuosamente, a una situación empírica real […]”

Se debía el error de Kant, que señalaran algunos matemáticos como Lobachevski, Gauss y
Riemann, a no darse cuenta de que existen dos tipos de geometría esencialmente distintos:
la geometría física y la geometría matemática. El hecho de que pudiera diseñarse una
geometría no euclídea muy exótica, no implicaba que el universo automáticamente fuera a
adoptar semejante geometría. En este sentido, Einstein afirmaba:34
“Los teoremas de las matemáticas carecen de certidumbre en la medida en que se refieren a
la realidad física. Y en la medida en que poseen certeza, no se refieren a la realidad.”

Traducido al lenguaje kantiano, esto significa que, en la medida en que los juicios no son
sintéticos, son apriorísticos, y que en la medida en que son a priori, no son sintéticos.
El enfoque empírico (a posteriori) para seleccionar un método de resolución, consiste en
programar las técnicas competidoras, e ir probándolas en distintos casos registrados de
forma estadística, con ayuda generalmente de un ordenador. Por el contrario, el enfoque
teórico (a priori), que es el consistente en determinar matemáticamente los axiomas y
modelos que más se ajustan al caso experimental, así como la cantidad de recursos
necesarios (tales como tiempo de cálculo y espacio de memoria) para cada uno de los
algoritmos, como función del tamaño 𝑛 de los casos considerados.
Se entiende pues, que las hipótesis científicas son normas que rigen nuestra expectación de
la experiencia futura, en base a un cálculo matemático de probabilidades.35 Así entendidos,
los sucesos siempre se pueden representar como conjuntos. El importante teorema de
Stone asegura la existencia de la representación en términos conjuntistas, cuando afirma:

33

Aquí Fred Ayer cita a Poincaré en [Ciencia e Hipótesis Parte II, cap. III]
Conferencia “Geometría y Matemáticas” (Geometrie und Erfahrung, Berlín, 1921). Traducida al
inglés e incluida en: “Sidelights on Relativity” (New York, Dutton: 1923). Einstein partía de la hipótesis
de que el pensamiento humano es independiente de la experiencia, en línea con el Funcionalismo
filosófico [cfr. infr.], lo que contrasta con los avances propiciados por Turing y la teoría de Redes
Neuronales. Sobre aplicaciones de las redes neuronales en campos diversos véanse p. ej: [Pacheco et
al. – V ASEPUMA], [Man, Tang y Kwong 1999 cap. 7] y [Gurney 2001]
35
[J. Ayer 1984 pp. 118-120]
34

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

9

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
“Toda álgebra de Boole, y en concreto toda álgebra de sucesos, es isomorfa a un
álgebra de conjuntos.”36
El concepto de probabilidad fue formalizado en 1933 por el modelo axiomático de
Kolmogorov,37 apoyándose en la idea de considerar un “espacio probabilístico” como un tipo
particular de métrica en que el conjunto total tiene una medida igual a la unidad,
concretándolo en tres elementos:38
-

-

-

Un conjunto Ω, conocido como “espacio muestral”, que representa el conjunto de
todos los posibles resultados de un experimento aleatorio, llamados “sucesos
elementales”
Una σ-álgebra39 de subconjuntos de Ω, cuyos elementos se denominan “sucesos”,
denotada por 𝐴, que generalmente coincide con ℘(Ω), es decir, la clase formada por
todos los subconjuntos o “partes”40 del espacio muestral.
Una aplicación, abreviada como 𝑃 por “probabilidad”, definida sobre las partes 𝐴 del
espacio muestral, con valores en el intervalo [0,1], verificando que 𝑃(Ω) = 1

Además, la función de probabilidad es numeralmente aditiva, es decir:

(∀i∀j⁡|⁡i ≠ j) ∧ (∀{𝐴𝑛 } ⊂ A|⁡𝐴𝑖 ⋂𝐴𝑖 = ∅):

P (⋃ 𝐴𝑛 ) = ∑ 𝑃(𝐴𝑛 ) 𝑛
=1 𝑛

=1

O bien, que la probabilidad de toda unión de todos los posibles subconjuntos disjuntos
diferentes, del espacio muestral, corresponde a la suma de las probabilidades de cada uno
de estos subconjuntos. Por ejemplo, al tirar un dado normal de 6 caras, si la probabilidad de
que salga un 1 es de 1/6, y la probabilidad de que salga un 2 es también de 1/6, entonces la
probabilidad de que salga un 1 o un 2, es la suma. Es decir: 1/6 + 1/6 = 2/6 = 1/3.
Estos modelos serían extendidos más tarde por uno de los alumnos de Kolmogorov, Yakov G.
Sinaí, quien recientemente obtuvo el premio Abel por su teoría de billares, la cual sirve para
modelizar el comportamiento de las moléculas de un gas en un espacio cerrado.41

36

En concreto, se demuestra la existencia de un homomorfismo inyectivo, entre el álgebra de sucesos
dada, y las partes de la familia de sucesos que se han verificado, lo que define para cada resultado, lo
que se llama una “prueba” o verificación de la experiencia. Véase [Renyi 1976] y [cfr. supr: “Boole”]
37
Andrei Nikolayevich Kolmogorov (1903-1987) enseñó matemáticas en la Universidad de Moscú y
construyó la axiomática para el cálculo de probabilidades al considerar la relación entre el concepto
de frecuencia relativa de un suceso y su probabilidad, cuando el número de pruebas es muy grande.
Kolmogorov formuló además las hipótesis en que se basa la teoría de la turbulencia. En 1955 recibió
el premio Lenin, máximo galardón que se concedía en la antigua U.R.S.S.
38
Adaptado desde [Sánchez 2010 pp. 146-150]
39
Una σ-álgebra de Borel engendra familias de conjuntos como p.ej. los conjuntos abiertos o
cerrados, los intervalos abiertos, semiabiertos y cerrados, o los de tipo (∞, 𝑥], ∀𝑥 ∈ ℝ.
40
Así, p. ej: dado un conjunto 𝐴 = {𝑎, 𝑏, 𝑐}, el conjunto de sus partes (sin repetición de elementos en
función del orden de selección) es: ℘(𝐴) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}.
41
Hipótesis ergódica de Boltzmann, sobre el comportamiento Newtoniano subyacente a la mecánica
microscópica de las partículas. Véase referencia en [Szász 2014], y un modelo diseñado para
computación paralela sobre GPUs en: [Astorino, Becerra y Quarteroni 2012]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

10

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Alfred J. Ayer interpretaba el concepto de probabilidad de modo sutilmente diferente
cuando la aplicaba a una proposición lógica:42
“Al referirnos a la probabilidad de una proposición, no estamos refiriéndonos, como a veces
se supone, a una relación lógica, imposible de analizar, entre aquélla y otras proposiciones. Hablando
en líneas generales, todo lo que expresamos al decir que una observación aumenta la probabilidad de
una proposición es que aumenta nuestra confianza en ella […] Y de un modo semejante, decir de una
observación que disminuye la probabilidad de una proposición, equivale a decir que disminuye nuestro
deseo de incluir la proposición en el sistema de hipótesis aceptadas que nos sirven de guías para el
futuro. […]
Decir que una observación aumenta la probabilidad de una hipótesis, no siempre equivale a
decir que aumenta el grado de confianza con que realmente mantenemos la hipótesis. […] a veces se
comenten errores en cuanto a la probabilidad de una proposición: puede creerse más o menos
probable de lo que realmente es.”43

Como es bien sabido, la inferencia
estadística basada en la probabilidad se
proyecta necesariamente sobre un
intervalo de confianza y sobre su
complementario: el “intervalo de
desconfianza” (asociado a la probabilidad
de error: 𝑃𝜖 sobre un error aleatorio44 𝛼,
cuyas longitudes, aunque infinitesimales,
nunca serán nulas.
La consecuencia es que continuará existiendo un cierto “género de duda45” en todo juicio
sintético a priori, ya que la probabilidad de error nunca será nula a priori sin haber
examinado individual y exhaustivamente todos los elementos del universo de discurso. De
ahí la posibilidad de manipulación interesada de los datos, para arribar a conclusiones
preestablecidas, que sugería Benjamín Disraeli al decir:

42

[J. Ayer 1984 pp. 120-122]
Esta última objeción está en la base del teorema NFL [cfr. infr.]
44
Imagen extraída de Wikipedia.org.
45
Identificable con la “duda epistemológica”, sin la cual no existiría la razón cartesiana. De acuerdo
con el lingüista y matemático Noam Chomsky, la incertidumbre está dividida en problemas
(tentativamente solubles) y misterios (indescifrables). La incertidumbre se puede tratar
sistemáticamente con técnicas de lógica borrosa [cfr. infr.], y con las derivadas del teorema de
Dempster-Shafer sobre un marco de discernimiento (o conjunto finito de hipótesis mutuamente
excluyentes y exhaustivas). La irresolubilidad se trata con respecto a un campo [cfr. infr: “problema
de Delfos”]. Por su parte, a la descifrabilidad se le da tratamiento en criptografía.
El descubrimiento de los números de Loiuville, ha permitido la demostración de la imposibilidad de
resolver varios antiguos problemas de geometría que sólo permiten utilizar regla y compás. El más
conocido de ellos es el de la “cuadratura del círculo” o “rectificación de la circunferencia” [v.:
“problema de Delfos”], y su irresolubilidad radica (resumidamente) en que π es un número
transcendente. Como se sabe, el cardinal de los planos de un poliedro es finito, de donde emerge la
relación de este problema con la duplicación del cubo (llamado “problema del oráculo de Delfos”, en
griego “Δήλος”) y con la cuadratura del círculo, en [Rey Pastor 1924, pp. 133,138] y [Puig Adam 1958,
Tomo II, pp. 285 y ss.]. El problema de Delfos era irresoluble con regla y compás (excluyendo el
3
tramposo método Neusis) porque la constante délfica (o “pitánea”) √2 no es un número euclídeo,
por lo cual se requiere resolver la ecuación cúbica 𝑥 3 = 𝑎 ⋅ 𝑏 ⋅ 𝑐.
43

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

11

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
“There are three kinds of lies: lies, damned lies, and statistics.”46

De hecho, a medida que aumenta la cantidad de elementos de un conjunto de experiencias
personales, la probabilidad de uno cualquiera de ellos, suponiéndolos equiprobables, tiende
a cero. Este razonamiento conduce al concepto de incertidumbre, que se estudiará a
continuación.

Inducción y sinteticidad: la superación de un modelo
De las disquisiciones kantianas sobre los juicios cartesianos, y la consecuente negación del
quinto postulado euclídeo, surgiría una nueva cuestión, tal y como mostraría
impecablemente Kurt Gödel,47 para frustración de Hilbert. Y es que no todos los juicios
sintéticos a priori son correctos, y además no tenemos forma de saber cuáles lo son, y cuáles
no lo son. No hay forma de discernir este punto, ni aún teniendo la certeza de que algunos
juicios sí sean correctos, salvo que sea de forma empírica, por la experiencia. Esto implica
que “pueden darse ejemplos de proposiciones verdaderas por su contenido, pero
indemostrables en el sistema formal de las matemáticas clásicas”, ya que una cosa es la
veracidad, y otra muy distinta la demostrabilidad.48
Gödel aritmetizó las matemáticas, demostrando en 1931 que, si la Teoría de la Aritmética es
consistente, no es posible demostrar su no-contradicción, utilizando el lenguaje de la
Aritmética. Así llegó a formular sus teoremas de incompletitud, que junto con el problema
del continuo cayeron como una bomba en la comunidad filosófico-matemática de la primera
mitad del siglo XX.
Javier Fresán, en su biografía de Gödel, refiere lo siguiente en alusión a este asunto:
“La negación del quinto axioma de los Elementos había hecho posible el desarrollo de las
geometrías no euclídeas. Desde varios siglos antes, el postulado de las paralelas no parecía tan
autoevidente como los demás, pues involucraba regiones infinitamente lejanas del espacio. Muchos
matemáticos trataron de demostrarlo partiendo del resto de axiomas, pero resultó ser independiente
de la geometría absoluta, ya que, extendiendo los cuatro primeros axiomas de Euclides, con la
negación del quinto postulado, se obtenían teorías consistentes –como la geometría riemanniana,
cuyo modelo más sencillo es una esfera, si identificamos los puntos con puntos de sus superficie, y las
rectas con círculos máximos.49 Lobachevski logró demostrar que, si la geometría hiperbólica era
consistente, también lo era la euclídea, y Klein y Beltrami establecieron la implicación en el sentido
46

“Existen tres tipos de mentiras: las mentiras normales, las mentiras podridas, y las estadísticas”.
Atribuida por Mark Twain en su autobiografía de 1924. Via [Ratcliffe II 2001 pág. 264 statistics.5]
47
Kurt Gödel, matemático checo nacido en la actual ciudad de Brno en 1906. Véase también la
sección “Más allá del infinito”, en este mismo capítulo (de la tesis completa).
48
Nótese que, en inglés, los términos demostrabilidad (“provability”) y probabilidad (“probability”)
difieren en tan solo media letra, aunque estos dos conceptos también presentan ciertas diferencias.
Según [Oxford Dictionary & Thesaurus], el uso de “to prove” en participio pasado, es bastante
infrecuente, salvo en ciertas expresiones como “proven ability” (“habilidad probada”). No obstante,
su uso es estándar en Inglés-Americano e Inglés-Escocés.
49
O “geodésicas” (cfr. supr.) Poincaré y una cohorte de topólogos tratarían más tarde el asunto de las
geodésicas sobre otras figuras esféricas de distinto género, como el toro, con sorprendentes
resultados [cfr. infr: “singularidades”].

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

12

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
contrario: si la geometría euclídea era consistente, también lo era la no euclídea. Así, los nuevos
sistemas axiomáticos eran consistentes, si y sólo si lo era el clásico, y todo dependía de la coherencia
de la teoría de los números reales; se trata, por tanto, de una consistencia relativa (equiconsistencia)
[…]
El segundo teorema de incompletitud, que el propio Gödel consideraba un «corolario
sorprendente» del primer teorema, establece que éstas pruebas absolutas de la consistencia de un
sistema, en ningún caso pueden ser realizadas dentro de la teoría cuya coherencia se pretende
demostrar50. […]
Gödel terminaba su artículo señalando que el segundo teorema de incompletitud: «de ningún
modo contradice la proposición formalista de Hilbert, pues ésta presupone sólo la existencia de una
prueba de consistencia llevada a cabo por medios finitarios, y sería concebible que existiesen
demostraciones finitas, que no pudieran representarse en 𝒫»”.51

Se introdujeron pues en el discurso las clases de problemas polinómicos y problemas
deterministas, que se explican en otro apartado.
El uso de métodos finitos52 excluiría la “inducción completa“ o “principio de recurrencia”,
aquélla que decía que: “si se da para el caso n, y dado n para n+1, entonces es válida para
todos los casos…”,53 puesto que si ésta deja de ser un juicio sintético a priori, se ataca
directamente el concepto de los “conjuntos finitos” (concepto éste desarrollado durante la
primera mitad del siglo XX).
Fue entonces cuando Zermelo54 formuló con Fraenkel su teoría de conjuntos y sistema
axiomático asociado. Este sistema incluye el axioma de elección [cfr. infr.] que afirma que,
dado cualquier conjunto ‘x’ de conjuntos no vacíos, existe una función que asigna, a cada
elemento de ‘x’, uno de sus propios elementos. El teorema de Zermelo establece que existe
una “buena ordenación” para todo conjunto, que es aquélla capaz de definir un primer
elemento y una serie de sucesores hasta que se terminan todos.

50

Véase una definición formal en:[Ivorra 2013 sección 7.2] 𝒫
es la clase de algoritmos “eficientes” que se pueden resolver en tiempo de orden polinomial
Ο(𝑝(𝑛)) en función del tamaño ‘n’ de casos del problema. Véase a este respecto la sección
correspondiente, para una breve discusión de la complejidad computacional y el determinismo en
este mismo capítulo (de la tesis completa).
52
A menudo “finito” y “finitario” se utilizan indistintamente, aunque si bien el primer término es más
sencillo y popular, es preferible el segundo, para evitar las connotaciones de “delgadez” en castellano.
Estos métodos pueden en realidad resultar bastante “gruesos”, tal como atestigua el volumen de
cualquier manual de cálculo.
53
Más formalmente: Para el objetivo de demostrar la propiedad 𝑝⁡∀𝑛 ∈ ℕ: 𝑆𝑖
⁡{𝑝(1) − 𝑐𝑖𝑒𝑟𝑡𝑜} ∧ {[𝑆𝑖⁡𝑝(𝑛 − 1) → 𝑝(𝑛)] − 𝑐𝑖𝑒𝑟𝑡𝑜} → {𝑝(𝑛) − 𝑐𝑖𝑒𝑟𝑡𝑜}
donde 𝑝(1) corresponde a la propiedad 𝑝 del primer elemento del subconjunto de ℕ.
Además, se conoce como inducción fuerte al siguiente razonamiento:
{𝑝(1) − 𝑐𝑖𝑒𝑟𝑡𝑜} ∧ {𝑝(𝑖) − 𝑐𝑖𝑒𝑟𝑡𝑜⁡𝑝𝑎𝑟𝑎⁡𝑡𝑜𝑑𝑜⁡𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜⁡𝑖⁡𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟⁡𝑎⁡𝑘} → {𝑝(𝑘) − 𝑐𝑖𝑒𝑟𝑡𝑜}
Véase un estudio formal del método de inducción, p.ej. en [Ferrando y Gregori 1994 pp. 12-15]
54
Ernst Zermelo (1871-1953). El axioma de elección es contradicho por la paradoja de Banach-Tarski
que muestra cómo obtener dos bolas de radio 1 en ℝ3 a partir de una sola. Para una introducción
accesible y amena véase p.ej: [di Tada 2006 pp. 153 y ss.], [Bagaria 2012 pp. 369-372] o [Durán 2009
pp. 281-283]
51

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

13

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Haciendo uso de la inducción matemática, Peano por su parte formuló el conjunto de los
números enteros no negativos en su obra “Formulario Mathematico” basándose en tres
términos: “cero”, “número” y “sucesor”, con la siguiente formulación:




Cero es un número.
Para todo número 𝑛, su sucesor: 𝜎(𝑛) = 𝑛 + 1, es un número.
No hay número 𝑛 con 𝜎(𝑛) = 0.
Si 𝜎(𝑚) = 𝜎(𝑛), entonces 𝑚 = 𝑛.
Si 𝐴 es un conjunto de números tal que 0 ∈ 𝐴 y además ∀𝑛 ∈ 𝐴: 𝜎(𝑛) ∈ 𝐴, entonces 𝐴
es el conjunto de los números enteros no negativos.

Para Zermelo,55 la sucesión de los números naturales no es más que una sucesión de
conjuntos finitos donde el primero es un conjunto unitario, como es p. ej. el conjunto vacío:
‘∅’. Con lo cual, los primeros números: (0) 1, 2, 3, 4,… se podrían escribir como conjuntos
puros o hereditariamente finitos,56 sobre el conjunto vacío, de la siguiente forma,
{∅}, {∅, {∅}}, {∅, {∅}, {{∅}}, {∅, {∅}}},…
De modo que cada número entero puede definirse como el conjunto de todos los conjuntos
anteriores.57 O de modo alternativo, como:
{∅}, {{∅}}, {{{∅}}} , {{{{∅}}}},…
Lo que sería, en base monaria, equivalente a la base 10 convencional (con diez símbolos, del
‘0’ al ‘9’), o a la base binaria (con solo dos símbolos, ‘0’ y ‘1’), pero empleando un símbolo
solamente, bien sea el uno, o bien el cero:
1,11,111,1111, … 𝑜
:
0,00,000,0000, …
Quedaría así introducido el concepto de “longitud de una cadena de entrada”, que se utilizó
posteriormente en las teorías de Alan Turing [cfr. infr.],58 las cuales, a su vez, serían
extendidas gracias al concepto de conjunto difuso [cfr. infr.]
Se entró pues en un bucle, al tenerse que los números naturales se definían por inducción
completa, y la inducción completa se definía como aquélla que daba origen a los números
naturales.

55

Según Javier Fresán, en la biografía ya referida [cfr. supr.]
Véase [Ivorra 2013, pág. 218] y también [pp. 341 y ss.] En general, si 𝐸 es un conjunto con 𝑛
elementos, ℘(𝐸) tiene 2𝑛 elementos. Recuérdese que ℘(∅) = {∅} ≠ ∅. Por tanto:
℘ (℘(℘(∅))) = ℘({{∅}, ∅}) = {∅, {∅}, {{∅}}, {∅, {∅}}}
56

57

La teoría informal de conjuntos fue ampliada con la alternativa provista por la teoría de tipos, en
respuesta a la paradoja relatada en el año 1902 por Bertrand Russell a Frege, en la que un conjunto
(predicado lógico) puede contenerse a sí mismo [véase la sección sobre recurrencia]. Todo ello devino
en la teoría canónica actual de conjuntos de Zermelo-Fraenkel (‘ZFC’).
58
Alan Mathison Turing (1912-1954) nacido en Paddington, Londres. Uno de los padres fundadores de
la informática moderna. Diseñó la formalización lógica de las máquinas y autómatas que llevan su
nombre. Véase una biografía en torno a su obra p.ej. en [de Frutos 2012]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

14

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
“¿Cómo, si son tautológicas, puede haber en la matemática y en la lógica la
posibilidad de invención y descubrimiento?”

Esto se preguntaba J. Ayer,59 siguiendo el razonamiento de Poincaré.
“Su propia teoría consiste en que el sentido de invención y descubrimiento en
matemática pertenece a ella en virtud de que lo que es verdadero para el número 1, y
verdadero para n+1 cuando es verdadero para n, es un principio sintético a priori. En efecto,
es a priori, pero no es sintético. Es un principio definidor de los números naturales, que sirve
para distinguirlos de números tales como los números cardinales infinitos, a los cuales no
puede aplicarse.60
Además, debemos recordar que pueden hacerse descubrimientos no sólo en la
aritmética, sino también en la geometría y en la lógica formal, en las cuales no se hace uso
alguno de la inducción matemática.”

Tenía que haber algo más para superar este conflicto. En 1936, Gerhard Gentzen (19091945) obtuvo la primera demostración de la consistencia de la aritmética clásica, usando
recursos lógicos de inducción transfinita. A él se debe el símbolo ′∀′ (“para todo” o “para
cada”), que se utiliza como cuantificador universal. Ésta es la demostración que Gödel probó
que no podía realizarse dentro de la Aritmética, por lo que hubo que salir fuera de ella, para
poder mirarla con la necesaria perspectiva.
La consistencia implica que, del conjunto de axiomas en que se sustenta, no se puede
deducir simultáneamente un teorema y su negación. En los teoremas de incompletitud de
Gödel es relativamente sencillo61 observar que se necesita la hipótesis de recursividad [cfr.
infr.]. Así pues, se puede concluir que el conjunto de las afirmaciones verdaderas sobre
números naturales no es recursivo o, dicho de otro modo, que no existe ningún algoritmo
para determinar si una determinada afirmación sobre los números naturales es verdadera o
falsa. Es una cuestión abierta si se puede aceptar éste método de demostración sin
objeciones, y aunque no se ha probado, es posible que, el añadido de nuevos axiomas, obre
el mismo resultado sobre la aritmética transfinita, y que no sea posible probar su
consistencia dentro de sí misma, entrando en uno de esos bucles que hacen progresar a la
ciencia.
Así, existen otros teoremas posteriores que parecen más o menos humorísticos, pero no lo
son tanto, como el “teorema del punto gordo”. Éste dice, simplificadamente, que la cantidad
de líneas paralelas que puedan trazarse sobre un punto exterior a una recta depende de lo
gordo que sea el punto. La significación de este teorema ha dado lugar al concepto de
“dimensiones enrolladas” que se asienta en la base de la teoría de supercuerdas y teoría ‘M’,
con las que se están tratando de extender una serie de concepciones cosmológicas, aunque
no exista todavía sobre aquéllas teorías un consenso científico generalizado.62
59

Véase [J. Ayer 1984 pp. 101-103]
Aquí J. Ayer citaba a Bertrand Russell: [“Introduction to Mathematical Philosophy” cap. III, p.27]
61
Considerando las extensiones aritméticas de Peano. Véase [Ivorra 2013 pp. 186 y ss.] La conclusión
se conoce como “Teorema de Tarski sobre indefinibilidad de la verdad”.
62
Hay diversas variantes que en general definen sobre el espacio físico unas membranas, o “branas”,
con un número elevado de dimensiones (10 u 11), que incluyen las más corrientes de altura, anchura
y fondo, más una serie de dimensiones minúsculas “enrolladas”, en las que entran conceptos
nomográficos [cfr. supr.] y topológicos, como la teoría supersimétrica de Yang-Mills o las variedades
algebraicas continuas de Calabi-Yau (que son variedades simplécticas formalmente definidas sobre
60

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

15

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Gödel continuó trabajando sobre posibles extensiones del método finitario en las que
pudiera demostrarse la coherencia de 𝒫. Aseveraciones muy peregrinas se han realizado al
respecto de las conclusiones Gödelianas, pero no parece fuera de lugar que implique la
«dificultad [que no necesariamente imposibilidad] de discernir la locura del genio», tal como
asevera Fresán. 63
En efecto, en el contexto del análisis estadísticos de conglomerados (“cluster analysis”),64
existen técnicas de desarrollo relativamente reciente, en las que la discriminación de
pertenencia de los puntos de una nube de datos, a una u otra clase, se realiza mediante
criterios “democráticos” en que los vecinos de un dato “votan”65 sobre su adherencia a ésta
o aquélla categoría. Puesto que, de la imposibilidad de realizar el paso al límite por
exhaución, se deriva la existencia de un intervalo de desconfianza no nulo, cabe la
posibilidad de que «un habitante de un pueblo de locos sea el único cuerdo». Véase por
ejemplo que bien podría ser que todos los locos sostuvieran, sin demostración alguna, que
dos más dos suman cinco el tercer viernes de cada mes, lo cual evidentemente no haría que
la naturaleza se doblegara ante su dictamen, pues repetir una mentira cien veces (la “ilusión
de cordura”) no la convierte en verdad.66
Esta conclusión constituye uno de los principales problemas del uso de métodos
democráticos (sin menosprecio de todas sus innegables ventajas) en la toma de decisiones
operativas, e inclusive políticas,67 y en los estudios estadísticos de análisis discriminante por
métodos similares. En particular cuando la cantidad de “votantes” es reducida respecto al
tamaño del universo de discurso, se reduce la confianza estadística en los resultados del
modelo. Milton y Rose Friedman68 también plantean sus críticas en este sentido desde una
perspectiva liberal de la Economía, cuando afirman que:69
“Cuanto más pequeña sea la magnitud del Estado y más restringidas sus funciones,
menos probable es que sus actuaciones reflejen los intereses generales y más que reflejen
intereses privados. […Si] los gobernados conocen y pueden controlar a quienes les gobiernan,
el orden del día es suficientemente pequeño, de modo que todo el mundo pueda estar
una métrica de Kähler-Einstein). Véanse p. ej: [S. Hawking 2002] [Toppan 2002], las investigaciones de
Vicente Muñoz en el CSIC, y una introducción a membranas vibrantes, basada en EDP, en [Baule 1949
pp. 583-588]
63
Cabe aquí la discusión de hasta qué punto la descripción estadística del concepto de consenso es
descriptiva, o si puede llegar a ser prescriptiva. Véase [Berthier sobre Habermas]
El modelo de la verdad consensual tiene dos principales inconvenientes:
1) Una sola voz discordante puede bloquear el consensus gentium.
2) Es de difícil comprobación si existe consenso, puesto que la cantidad de voces puede ser muy
numerosa, y su recuento, poco práctico. Por ello, es difícil (en sentido 𝒩𝒫) determinar si existe
consenso, ya que se desemboca en una nueva determinación de consenso sobre si existe consenso, lo
que implica un bucle recursivo [cfr. infr: red de control basada en “flags”]
64
Véase p.ej: [De la Fuente 06/2009]
65
Para un estudio matemático detallado sobre los sistemas de voto, véase [Mora 2010]. Para una
introducción a la matemática electoral, véase [Antonio Pérez Sanz, “Más por menos” ep. 10].
66
“Repetir una mentira hasta convertirla en una verdad” fue una máxima Göebbelsiana, del
ministerio de propaganda del III Reich, en la Alemania nazi de mediados del siglo XX.
67
Véase p.ej: [Mateo, Jiménez y Ríos-Insúa 2008]
68
Milton Friedman, adalid del libre mercado, ganó el premio Nobel de Economía en 1976.
69
[Friedman 1980 pp. 407 y ss.]. En [íd. pág. 410] afirmaba: “Lo que se ha venido en llamar una
«puerta giratoria» se ha desarrollado entre el Estado y las empresas. […] Prolifera la legislación
relativa a los conflictos de intereses, pero como máximo sólo elimina los abusos más evidentes”.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

16

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
razonablemente bien informado respecto a las cuestiones, tanto grandes como pequeñas. A
medida que el alcance y la función del Estado aumentan, sea debido al hecho de que actúa
sobre un área y una población mayor, o bien porque realiza una variedad más amplia de
funciones, la conexión entre los gobernados y sus dirigentes se atenúa […]
La burocracia necesaria para administrar la actuación del Estado crece y se interpone cada
vez más entre la ciudadanía y los representantes que ésta escoge. Se convierte tanto en un
vehículo en el que los intereses especiales pueden alcanzar sus objetivos como en un
importante interés especial en sí mismo.”70

Este tipo de modelos71 junto con su problemática asociada (como es el caso de la burocracia,
o “gobernar desde el despacho -bureau- , sin contacto con la calle”, lo que implica una
sobrecarga de cómputo social), y sus implicaciones y relaciones con otras áreas de
conocimiento, se comentan brevemente más adelante, en este mismo capítulo.
Carnap decía también, al final de su “Fundamentación lógica de la física”, en cuanto al
problema relacionado, del indeterminismo, presente en la física cuántica:
“Si sabemos exactamente dónde está una partícula, las componentes de su cantidad
de movimiento se hacen brumosas. Y si sabemos exactamente cuál es su cantidad de
movimiento, no podemos ubicar exactamente su posición […]
La teoría cuántica establece un límite insuperable. Por esta razón, creo que se corre
menor riesgo de provocar malentendidos si decimos que la estructura de causalidad –la
estructura de las leyes- de la física moderna, es fundamentalmente diferente de la que
prevaleció desde la época de Newton hasta fines del siglo XIX.
El determinismo en sentido clásico ha sido abandonado.”

Algunos físicos como Planck quedaron espantados por sus descubrimientos experimentales,
en que se revelaba que la emisión y absorción de radiación no es un proceso continuo, sino
que se produce en unidades indivisibles, que darían origen al concepto de los “paquetes de
ondas” o “cuantos”.
Poincaré escribirá en “Ciencia y método” que los cuatro primeros axiomas de la geometría
no bastan para definir completamente la distancia, y que la distancia será a partir de
entonces, por definición, entre todas las magnitudes que satisfacen los demás axiomas,
aquella que es tal que el quinto postulado de Euclides sea verdadero. En sus palabras:
“Los axiomas geométricos no son, pues, ni juicios sintéticos a priori, ni hechos
experimentales.”

Finalmente, afirmó también que el espacio físico real es amorfo, una variedad algebraica
continua,72 que carece de una métrica intrínseca. Por tanto al espacio real se le pueden
70

Y prosigue, más adelante: “Los creadores de la Constitución nos han enseñado un camino mejor por
el que avanzar: mediante un acuerdo general. Deberíamos adoptar leyes «autodenegantes» [y
derogatorias] que limitaran los objetivos que intentamos conseguir a través de los canales políticos.
No tendríamos que considerar cada caso en particular, sino establecer unas normas amplias que
delimiten lo que el Estado puede hacer.” [Friedman 1980, pág. 413]
71
Véanse p.ej. una revisión de los métodos de reparto de escaños en [F. R. Fernández 2009. secc. 4].
72
Una variedad algebraica (“manifold”) es la generalización n-dimensional de los conceptos de curva
y superficie. El mismo principio de incertidumbre de Heisenberg se deriva de la interpretación del

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

17

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
aplicar muchas métricas diferentes, lo mismo que ocurrirá con el número de dimensiones
que le atribuya en cada caso.
El gran matemático español Julio Rey Pastor redactó un artículo en clave de divulgación
donde lo expresaba de la siguiente manera:73
“En la geometría proyectiva, la rigidez de los ángulos desaparece, también la
del paralelismo, pero la rigidez de las rectas subsiste todavía. En la topología se suprime
toda rigidez.
Si se nos permite materializar la idea, diremos que el espacio métrico, tanto el
euclídeo como los no-euclídeos, es un espacio indeformable, paralelográmico; el de la
geometría proyectiva es un tejido de rectas entremezcladas; el espacio topológico es un
espacio amorfo, un espacio gelatinoso.”

Rey Pastor fue responsable, en primera persona, de la difusión de la topología en España
durante la primera mitad del siglo XX, en base a su proselitismo del célebre “programa de
Erlangen” (“Vergleichende Betrachtungen über neuere geometrische Forschungen”) que
propuso Félix Klein en 1872 para dar solución a los problemas geométricos de su tiempo.
La utilización posterior durante el s. XX de métodos matemático-lógicos rigurosos
[cfr: ”Rigorismo”] para estudiar los fundamentos de la ciencia matemática, en línea con el
programa de Hilbert,74 devino en el campo conocido como “teoría de la demostración”,
“metalógica”, o “metamatemáticas”, con el que actualmente se tratan problemas de
demostración automatizada de teoremas.75

Lógica multivaluada
Para cerrar este bloque, conviene realizar un apunte para recordar que la lógica bivaluada
no es la única que es posible emplear en la resolución de problemas.
Durante el siglo XX, Reichenbach76 propuso complementar la lógica tradicional bivaluada por
una lógica ternaria con tres posibles valores de verdad: {verdadero, falso, indeterminado},
reemplazando el principio del tercero excluido (por el que todo enunciado es o bien

teorema fundamental de Lie, al considerar la infinitud dimensional de espacios vectoriales. A este
respecto véanse los comentarios de las secciones siguientes, sobre álgebras y grupos de Lie. Los
grupos de Lie (como el espacio euclídeo ℝ𝑛 , el toro que describe el movimiento de un péndulo doble,
o una larga serie de matrices reales y complejas) son variedades diferenciables “suaves”, en el sentido
de que tienen derivadas de cualquier orden en todos sus puntos.
73
Véase [Español 2013 pág. 342], así como otros de los detallados artículos del mismo autor sobre la
figura de Rey Pastor.
74
Véase la nota sobre el “Entscheidungsproblem” en la sección “Inducción y sinteticidad”.
75
Véase la sección de aplicaciones prácticas dedicada a este menester.
76
Hans Reichenbach (1891-1953) filósofo empirista adscrito al positivismo lógico, fundador del
“círculo berlinés”. Describió la fundamentación lógica del tiempo y la mecánica cuántica. En 1920
publicó su libro “The Theory of Relativity and A Priori Knowledge” donde criticaba la noción Kantiana
de apriorismo.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

18

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
verdadero o falso, sin ninguna otra alternativa) con el principio del “cuarto excluido”. Ello
implicó introducir nuevas conectivas lógicas y redefinir las clásicas (∧,∨, ⇒, ¬, …) con tablas
de valores de verdad más complicadas que las binarias, siguiendo los sistemas de leyes de
De Morgan.
Del estudio de la función del continuo [cfr. supr.] y la teoría de conjuntos, se desprendió la
definición de conjuntos cerrados no acotados77 que, en el fondo, trata de la topología de
orden en los ordinales.
Algunos progresos posteriores en el campo de la lógica incluyen las interpretaciones
recursivas de Herbrand78 sobre una base formada por cláusulas, la lógica n-aria o lógica
multivaluada de Łukasiewicz, en que se utilizan funciones lógicas de aridad superior a 2 (e
incluso infinitamente multivaluadas y también lógicas no monótonas), así como uno de sus
derivados: la lógica difusa (también: “lógica borrosa”, “lógica heurística”, o “fuzzy logic” en
inglés).
La formulación en 1953 de la integral de Choquet propulsó el desarrollo de la teoría de la
probabilidad imprecisa, permitiendo calcular la utilidad esperada79 de un suceso incierto.
Esto condujo directamente a la lógica difusa, que utiliza modelos matemáticos para
representar nociones subjetivas, como caliente/tibio/frío, relacionadas entre sí por un
sistema de retroalimentación.
La teoría de la lógica difusa fue formulada en 1965 por el ingeniero y matemático Lofti A.
Zadeh80 junto con Dieter Klaua, aunque Łukasiewicz y Tarski ya la introdujeron en 1920 como
un tipo de lógica infinitaria. Se utiliza en Inteligencia artificial para la resolución de
problemas81 relacionados especialmente con82 sistemas de control de procesos industriales
complejos,83 compresión de datos,84 corrección de errores de transmisión de datos, y

77

Véase [Ivorra 2013, cap. XV]
Jacques Herbrand (1908-1931) precoz matemático francés que desarrolló la teoría de la
demostración y las funciones generalmente recursivas. Murió en un accidente de alpinismo.
79
Véase una descripción formal sobre la hipótesis de la “utilidad esperada” en [Machina 2008] y las
reflexiones friedmanitas de [Milton y Savage 1948] y [Milton y Savage 1952]. Este concepto tan
intrínsecamente ligado a las dinámicas evolutivas y a la teoría de juegos se desarrolla en otra sección.
80
Ingeniero electrónico oriundo de Bakú, en Azerbaiyán (1921-) que recibió el premio de Tecnologías
de la Información y la Comunicación, de la fundación BBVA: “Fronteras del Conocimiento” 2012.
81
Algunas aplicaciones incluyen a los sistemas expertos, de aire acondicionado, de pilotaje
automático de helicópteros teledirigidos por radiocontrol, autoenfoque en cámaras digitales, e
incluso frigoríficos o lavadoras. También se ha aplicado con éxito a la minería de datos, p.ej. para la
reducción de reglas en tablas de decisión, véase [Adams et al. 2003]. Además, la lógica multivaluada
se ha generalizado para los oráculos [Luis M. Pardo 2012 Parte I, secc. 4.4] que hacen uso de la
transformada de Fourier cuántica, incluyendo los algoritmos de Grover y Deutsch-Jozsa; véase: [Yale
Fan 2007]
82
Véase p. ej: [Lakhmi et al. 1998] para aplicaciones industriales de Sistemas Borrosos, GA y NN.
83
Véase el diseño formal de un controlador basado en lógica difusa y sus aplicaciones a sistemas de
bombeo y campos colectores de energía solar (Almería) en [Man, Tang y Kwong 1999 secc. 7.2].
84
Junto con la transformada de Fourier y la teoría de “ondículas” (“wavelets”) que forma la base del
sistema estándar de compresión JPEG. El análisis de Fourier se utiliza para descomponer una señal
arbitraria en una serie de componentes periódicas; v. [Almira 2009, pp. 111 y ss.]. Por el contrario, el
análisis de ondículas permite descomponer una señal en componentes localizadas en los dominios del
tiempo y la frecuencia, por lo que son idóneas cuando la señal no es periódica (como puede ser el
caso de una fotografía digital). Véase por ejemplo la obra de Ingrid Daubechies, quien junto a David
78

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

19

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
sistemas de decisión en general. El primer microprocesador que funcionó con lógica borrosa
fue fabricado en 1985 por AT&T Bell, la principal compañía telefónica de los Estados Unidos
de América.
Asimismo Zadeh definió “conjuntos borrosos” (como p.ej: un grupo social) en que la
pertenencia de un elemento no está del todo clara,85 porque está parcialmente in/definida.
Esto equivale a decir que un conjunto borroso
puede contener elementos de forma
solamente parcial. Esta posibilidad se mide
mediante una función de pertenencia 𝜇(𝑥)
que asigna a cada elemento un valor real
contenido entre 0 (ausencia total) y 1
(pertenencia total).86
Es posible establecer esperanza estadística y medidas entrópicas87 sobre la propagación de
la incertidumbre que se deriva de la pertenencia parcial de los elementos a un conjunto. De
modo análogo se definieron con posterioridad “números difusos” e “intervalos difusos” y se
dio una definición axiomática88 de la credibilidad entendida como una métrica conjuntista.
Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos,
con la ventaja de ser mucho más rápidos, generalmente robustos, y tolerantes a
imprecisiones y ruidos en los datos de entrada. Así, se han diseñado sistemas de inteligencia
artificial basados en agentes89 difusos (“fuzzy agents”),90 en el sentido de que sus reglas y
bases de conocimiento son difusas (definidas en valores borrosos, o con funciones de
pertenencia parcial), así como también su comportamiento es difuso en función de la
evaluación borrosa de sus percepciones, acciones y decisiones.
Entre otras fronteras de la lógica se encuentra en lugar preponderante la “lógica Ω” de
Woodin [cfr. supr.], que vendría a falsar la Hipótesis del Continuo, junto con su ampliación
estructural para englobar a todos los grandes cardinales [cfr. supr.] conocidos hasta la
fecha.91
Mumford recibió el premio “Fronteras del Conocimiento 2012” en Ciencias Básicas, otorgado por la
Fundación BBVA.
85
Véase la descripción formal: [Ferrando y Gregori 1994, cap. 8] y el artículo originario: [Zadeh 1965].
86
Se emplea la letra ‘m’ griega: 𝜇 (‘mu’) para indicar el concepto de pertenencia (“membership”)
como función de medida de la eficiencia de un conjunto de operaciones, donde la optimización se
realiza sobre polinomios multivaluados (p. ej: en aplicaciones de la integral de Choquet a medidas
difusas, sobre grupos coalicionales); véanse [Adams 2007, 2015]. La figura procede de:
http://es.mathworks.com/help/fuzzy/foundations-of-fuzzy-logic.html (traducción propia)
87
Como harían, entre otros, Gray, Shannon y Wiener: [cfr. infr: “entropía”], [Munuera y Tena 1997].
88
Véase p.ej. el trabajo de Buchnan & Shortlife (1975) sobre el diagnóstico de enfermedades
infecciosas y su tratamiento. O el intento de conseguir un tratamiento sistemático de la
incertidumbre (no ad hoc, como InterLISP-EMYCIN et al) de Dempster & Shafer (1967-1976) sobre un
marco de discernimiento dotado de métricas de credibilidad y plausibilidad.
89
Un agente inteligente es un sistema informático capaz de realizar acciones flexibles autónomas
para alcanzar una serie de objetivos situados dentro de un entorno. Un agente recibe percepciones
del entorno y actúa sobre éste para modificarlo, en un ciclo de realimentación sistémica.
90
Véase p.ej: [Fougères 2012]
91
Más detalles y referencias adicionales en [Bagaria 2012, pp. 386-381] Los conjuntos borrosos
(“fuzzy sets”) son un superconjunto de los conjuntos bivaluados clásicos (“crisp sets”)

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

20

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Investigación Operativa: Medidas discretas y teoría de grafos

“Civilisation advances by extending the number of
important operations which can be performed
without thinking about them.”

“La Civilización avanza, a medida que se amplía la
cantidad de operaciones importantes que pueden
realizarse sin pensar en ellas.”

Cita de Alfred North Whitehead en su libro “An introduction to Mathematics”. 92

Los orígenes de la “Investigación Operativa” (‘IO’, o bien ‘OR’ del inglés “Operations
Research”, u “Operational Research” en británico) como parte de la matemática aplicada93
son muy antiguos,94 ya que todas las sociedades organizadas siempre se han planteado
cuestiones de optimización en el uso de los recursos y la planificación de actividades. No
obstante, el concepto de IO aparece formalmente95 en 1934, en el marco de investigaciones
conjuntas entre militares y científicos civiles, sobre la planificación de operaciones militares
de vuelo, motivados por el almirantazgo británico durante la II Guerra Mundial.
Al considerar ciertas distancias longitudinales sobre modelos que del universo natural se
construyan, se pueden describir una serie de paradojas que obligan a exponer ciertas
disquisiciones. De igual manera, la Teoría de Grafos ha probado sobradamente su utilidad a
la hora de construir y analizar algoritmos programáticos, en especial en cuanto al estudio de
su complejidad.
En una sección anterior, la intuición lógica meditaba sobre la physis preguntándose por la
posibilidad de introducir un “espacio discreto” que operara “a saltos” entre estados
separados, tal como existen saltos entre los números naturales si se niega la existencia
efectiva del continuo, o si simplemente de desprecia, en aras de la simplificación, como si
fuera un efecto estadísticamente inapreciable.
En otra sección (de la tesis completa) también se ha introducido ya brevemente el concepto
de “grafo”, como una estructura con aristas y nodos, que puede presentar bucles. A un grafo
que no permite bucles reflexivos ni aristas múltiples se le denomina “grafo simple”, mientras
que a uno sin esta segunda restricción se le denomina “multigrafo” [cfr. infr.] o
“pseudografo”.
La teoría de grafos utiliza objetos sencillos, como son los vértices y las aristas, y su origen se
sitúa cronológicamente en la solución dada por Leonhard Euler en 1736 al problema de los
puentes de Königsberg (ver figura de la página siguiente).96

92

Véase: [ https://archive.org/details/introductiontoma00whitiala ]. A. N. Whitehead (1861-1947),
fue un gran matemático y filósofo inglés, autor, junto con B. Russell, de los “Principia Mathematica”
(1910-13), como fundamento riguroso de la lógica axiomática y de sus reglas de inferencia.
93
También: “Ingeniería Matemática” según nomenclatura de la Universidad Complutense de Madrid.
94
Véase un breve resumen introductorio en: http://www.phpsimplex.com/historia.htm y algo más
detallado en: [Pacheco, Septiembre de 2015, pp. 13-18].
95
Según [Salazar 2001, pp. 8-12]
96
Extraída de [Bollée y Aymond, 04/2006, pp. 3-6]. Otras muestras en [De la Fuente 09/2015 - Prezi]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

21

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Esta ciudad de la antigua Prusia,
llamada hoy día Kaliningrado, y
perteneciente a Rusia,97 es
conocida como la ciudad del
filósofo Immanuel Kant. Su
universidad lideró las matemáticas
durante la segunda mitad del siglo
XIX, junto con la de Göttingen.
Königsberg se situaba a orillas del
río Pregel, abierta al mar Báltico, y
encajonada entre Polonia y
Lituania. Contaba con siete
puentes que unían las dos orillas
con dos islas centrales, una de ellas
llamada Kneiphof, y la otra
correspondiente a la parte
intermedia de la bifurcación del
río.
Allí se planteó el problema de:
“Si sería posible trazar una
ruta que cruzara cada puente una
única vez, regresando al punto de
partida.”

Leonhard Euler, uno de los matemáticos más importantes de todos los tiempos, fue un niño
prodigio procedente de Basilea, en Suiza, que al crecer ensanchó las fronteras del
conocimiento matemático en todos los campos, con su magnífica obra, que fue además
excepcionalmente voluminosa. Solamente las seis docenas de volúmenes de sus Opera
Omnia que se han publicado hasta hoy, ocupan unas 25000 páginas, y cargar con la
colección entera requiere una carretilla.98 Su calidad científica es igualmente excepcional y
buena parte de ella forma parte de los temarios de Matemáticas en instituciones educativas
por todo el mundo.
Pensando que podía tratarse de un problema de la “geometría posicional“ de Leibniz,99
Euler atacó el problema de los puentes, y en 1736 publicó la solución en la Academia de
Ciencias de San Petersburgo. Explicó la imposibilidad de encontrar tal camino, empleando

97

Pasaje extraído y ampliado desde [Muñoz 2009 pp. 18-19] y [Sánchez 2010]. Véase también la
conferencia del propio autor en Medialab-Prado [De la Fuente 2009]: Recorrido horizontal por el
“estado del arte” de la visualización digital
98
Véase [Dunham 1999 pp. 271-273]. Para una aproximación a la vida y obra de Euler, se recomienda
leer la biografía [Dunham 1999] prologado por Antonio Pérez Sanz. También será de interés para
cualquier interesado en los orígenes de los temarios matemáticos de Enseñanza Secundaria (K-12).
99
La “geometría posicional” es un antepasado de la topología. Véase a este respecto una introducción
breve y accesible a la topología en [Muñoz 2009 pp. 43-48] conteniendo los comentarios de Euler que
relacionan el estudio de Leibniz en el s. XVII con su resolución del problema de los puentes de
Königsberg. Allí además se indica que fue J. Listing, profesor de Riemann en Göttingen y alumno de
Gauss, quien utilizó primero el término “topología” en 1836.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

22

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
para ello un ingenioso gráfico (véase figura), donde cada nodo correspondía a una masa de
tierra, y cada arista a uno de los puentes de la ciudad.

Como cada puente debía unir dos orillas, desde entonces se conoce a un cierto tipo de
grafos como “grafos eulerianos”, si cada nodo tiene grado par y son conexos. No obstante, el
grafo correspondiente a los puentes de Königsberg no era euleriano, porque había varios
nodos a los que llegaban varios puentes: en concreto, a una de las islas centrales llegaban
tres puentes, y a la otra cinco, mientras que en cada orilla reposaban tres, respectivamente.
Euler concluyó que, si no se podía cruzar por la misma arista más de una vez, mientras que
hubiese un número impar de rutas a elegir, se podría entrar y salir, pero tarde o temprano
se quedaba uno sin puente para regresar. Posteriormente generalizó los resultados
obtenidos, introduciendo el concepto de circuito, y encontrando un enunciado similar para
el caso de que el grafo considerado tuviera un número arbitrario de componentes conexas.
Esta formulación de Euler se convirtió en una prolífica teoría topológica, que ampliaron
otros muchos después como Hamilton [cfr. infr.], De Morgan, Kirchhoff o Cayley, hasta que
Kuratowski caracterizó los grafos planares en 1930, y Denes König publicó el primer libro
sobre teoría de grafos de que se tiene constancia, en 1936. Actualmente se enseña en los
tratados sobre geometría discreta, como los que se utilizan en ingeniería informática y de
telecomunicaciones, por sus interesantes aplicaciones en redes de computadores y
codificación de programas.

Logística y fractalidad
“[Kant] se propone una tarea posible y justificada. Lo que la logística realiza es, por supuesto, cualquier
cosa menos lógica, es decir, una reflexión sobre el λόγος [el enunciado, o “logos”]. La lógica matemática no es ni
siquiera una lógica de la matemática, en el sentido de determinar o poder determinar en general la esencia del
pensamiento matemático y de la verdad matemática. La logística es más bien sólo una matemática aplicada a
proposiciones y formas de proposiciones.”100

Con esta aseveración tan categórica (y un tanto estrecha) calificaba Heidegger a la Logística,
entendida desde el punto de vista filosófico. El término “logística” ya se empleaba en
tiempos de Viète [cfr. supr.], aunque en sus inicios poco o nada tenía que ver con
desplazamientos ni transportes.

100

Cita de Heidegger [cfr. supr.] en “La pregunta por la cosa”

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

23

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Con todo lo anteriormente descrito, la longitud de la línea curva o recta, sea cual sea,
siempre será constante cuando se defina sobre una geometría “convencional”. Gauss ya
determinó, con su teorema egregio, que la forma de medir determina la distancia en un
espacio,101 en modo parecido a cómo Carnap explicaba la dualidad prevalente en el mundo
de la physis.102 Pero hasta Riemann, las métricas que se utilizaban eran suaves y regulares.
Rey Pastor señaló, en un artículo103 sobre la equivalencia de poliedros [cfr. infr.], que:
“conviene generalizar el concepto de polígono admitiendo como tales los que tienen dos o
más lados consecutivos en línea recta; […] Análogamente, si en las aristas de un poliedro se
intercalan nuevos vértices, resulta otro con el mismo número de caras, pero mayor número
de aristas y de vértices, […] Asimismo se pueden intercalar vértices en las caras, uniéndolas
con vértices de éstas”

Y así ad infinitum en un proceso iterativo.
Años después de los teoremas de Cantor y la revolución einsteiniana, Benôit Mandelbrot
daría a conocer, en su compendio de la “geometría fractal”, la existencia de ciertas curvas104
que variaban su longitud en función de la escala de medida, y que además eran ubicuas en la
naturaleza.
En el famoso artículo “¿Cuánto mide la
costa de Bretaña?”, que refiere Mandelbrot,
el matemático británico Lewis Fry
Richardson consideraba la siguiente
paradoja, en su intento de establecer una
correlación entre la aparición de guerras y la
frontera que separa a varias naciones (con
conclusiones algo simplistas,105 pero
implicaciones de gran transcendencia)106
Ahí se parte del hecho observable de que una costa o frontera (no rectilínea) entre dos
regiones cualesquiera es demasiado irregular para ser medida directamente leyendo en un
catálogo de longitudes de curvas geométricas sencillas.

101

Véase [Baule 1949 pág. 775]
Este dualismo ontológico tendría reflejos varias áreas teóricas que se comentan a lo largo del
texto, tales como la dualidad onda-corpúsculo, la dualidad en cohomología, o los teoremas de
dualidad de Von Neumann para Programación Lineal. Fue tratado también en la teoría de juegos de
Nash, y antes por Norbert Wiener, quien, en sus estudios sobre Cibernética, se refería a los sistemas
de adversarios duales como “demonios maniqueos”.
103
La reseña proviene de [Español 2913, pág. 356]
104
Anteriormente, fue Gaston M. Julia (1893-1978), matemático franco-argelino quien formuló, junto
con Pierre Fatou, la clase de conjuntos fractales que llevan su nombre, generados mediante la
iteración de funciones racionales.
105
Richardson (1881-1953) llegó en aquél artículo a la conclusión, posiblemente motivada desde una
posición política (al haber vivido las Grandes Guerras del s. XX), de que el número de guerras de un
país era proporcional al número de países con que limita. Trabajó en la predicción meteorológica por
métodos numéricos y aportó ideas profundas y duraderas sobre la turbulencia.
106
Véase anexo sobre el modelo de carrera armamentística de Richardson, conteniendo un ejemplo
que modela mediante Ecuaciones Diferenciales el factor de “miedo mutuo” entre dos naciones
oponentes.
102

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

24

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
La causa es que al observar una bahía o península bajo una escala más detallada, se revela
un proceso subyacente que opera en cascada autosemejante [cfr. infr: “similaridad”], por el
cual se hacen visibles las sub-bahías y sub-penínsulas y así sucesivamente, hasta llegar a
promontorios del tamaño de un grano de arena y más allá incluso sobre su rugoso (y
cambiante) contorno, con lo que estos nuevos accidentes geométricos contribuyen a
modificar la longitud medida.
El conocido “registro de Richardson” puso de manifiesto hace ya mucho tiempo que existían
diferencias notables en las longitudes de las fronteras comunes entre España y Portugal (987
frente a 1214 Km), siendo ésta una de las más rugosas del estudio.107 La diferencia del 20%
en estos datos se puede explicar suponiendo que los escalímetros de medida difieren en un
factor 2, lo que parece verosímil pues, siendo éste un factor cuadrático, se implican escalas
diferentes en proporción 1:100 (102).
El escritor Jorge Luis Borges se refirió a este asunto, desde su prosa matematicista:
“Las invenciones de la filosofía no son menos fantásticas que las del arte: Josiah Royce, 108 en
el primer volumen de la obra The World and the Individual (1899), ha formulado la siguiente:
«Imaginemos que una porción del suelo de Inglaterra ha sido nivelada perfectamente y que
en ella traza un cartógrafo un mapa de Inglaterra. La obra es perfecta; no hay detalle del
suelo de Inglaterra, por diminuto que sea, que no esté registrado en el mapa; todo tiene ahí
su correspondencia. Ese mapa, en tal caso, debe contener un mapa del mapa, que debe
contener un mapa del mapa del mapa, y así hasta lo infinito.»
¿Por qué nos inquieta que el mapa esté incluido en el mapa, y las mil y una noches en el libro
de Las mil y una noches? ¿Por qué nos inquieta que Don Quijote sea lector del Quijote, y
Hamlet, espectador de Hamlet? Creo haber dado con la causa: tales inversiones sugieren que
si los caracteres de una ficción pueden ser lectores o espectadores, nosotros, sus lectores o
espectadores, podemos ser ficticios. En 1833, Carlyle observó que la historia universal es un
infinito libro sagrado que todos los hombres escriben y leen y tratan de entender, y en el que
también escriben.”109

El efecto de la geometría fractal sobre los mapas ha sido y será motivo de continuas
disputas históricas por las fronteras de los territorios y ha dado lugar a una fértil teoría
matemática de las fractales que se ha demostrado extremadamente útil en campos tan
diversos como la metalurgia, el arte, los tratamientos de medicina oncológica, o la bolsa de
valores. En efecto, las cotizaciones o precios de títulos en la bolsa de valores presentan
irregularidades similares, a medida que se fracciona la unidad monetaria, lo que ha
impulsado a cotas increíbles el campo financiero del comercio de alta frecuencia (‘HFT’:
“High Frequency Trading”).

107

El propio Richardson, estimó, con una escala menor, una longitud de 1925 kilómetros.
(1855-1916) Filósofo de EE.UU. devoto del idealismo objetivo, el cual sugiere, con Platón,
Descartes o Kant, que al contrario que el idealismo subjetivo de Leibniz o Hegel, las ideas tienen
existencia independiente de la mente del sujeto (quien sólo puede aprenderlas o descubrirlas
mediante la experiencia), y que en cierto modo existe un único sujeto perceptor, que forma parte de
la propia realidad percibida.
109
“Otras inquisiciones – Magias parciales del Quijote” (Antología ensayística, 1952). Véase también:
[“Josiah Royce for the XXIst century – Riddles and resolutions” por Gary L. Cesarz, pp. 63-83]
108

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

25

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Decidibilidad, medición y recurrencia
Tal como se expone en otra sección, el teorema de Cantor establece que el cardinal de un
conjunto es estrictamente menor que el del conjunto de sus partes, con lo cual ℵ0 ≠ ℵ1 y
además ℵ0 < ℵ1 no existiendo cardinal alguno entre uno cardinal transfinito y el siguiente.
Así, uno de los grandes descubrimientos de Cantor consistió en probar que el cardinal
transfinito de los números reales excede al de los naturales, es decir, que el cardinal de ℝ es
estrictamente mayor que el de ℕ, es decir, que: 𝐶𝑎𝑟𝑑
(ℕ) = ℵ0 < ℵ1 = 𝐶𝑎𝑟𝑑(ℝ)
Esto implica que no existe ninguna potencia intermedia, es decir, que no existe ningún
conjunto con más elementos que el conjunto de los números naturales y menos elementos
que el conjunto de los números reales. De hecho demostró que ni tan siquiera los números
reales contenidos en el intervalo abierto (0,1) pueden ponerse en correspondencia
biunívoca con los números naturales. Dicho en otras palabras, que hay más elementos
(números reales) entre el cero y el uno, que en el conjunto de todos los números naturales.
De ello se sigue, necesariamente, que al menos uno de esos puntos del intervalo,
representado en una base entera arbitraria, tenga que tener infinitas cifras, como es el caso
de ′𝜋 ′ , ′𝑒 ′ 𝑜⁡′√2′. Nótese que la afirmación contraria no es cierta, pues existen números con
infinitas cifras que no son irracionales, como es, por ejemplo, el caso de un tercio

representado en base diez: 1⁄3 = 0.33333
A los trabajos de Gödel le sucedieron los del prematuramente fallecido Alan Turing que, con
sus “máquinas algorítmicas”, y en el palmarés junto a von Neumann y otros genios, daría
origen a la revolución subsiguiente de la ingeniería informática durante la segunda mitad del
s. XX.
El tema de la tesis de Turing era “Hasta qué punto podría ser posible superar las limitaciones
del teorema de incompletitud a base de añadir nuevos axiomas a la aritmética”, pero según
explica Jesús Mosterín: durante el desarrollo de su trabajo, Turing se convence de que:
“No basta con añadir un axioma ad hoc para decidir automáticamente la sentencia
indecidible, porque en el sistema axiomático así ampliado se puede construir otra sentencia
indecidible por el mismo procedimiento”.

Tampoco es suficiente con añadir una cantidad finita de axiomas; en todo caso, habría que
extender el sistema con un número infinito. De nuevo, según palabras de Javier Fresán en la
biografía de Gödel, éste apostillaría:
“La obra de Turing proporciona un análisis del concepto de «procedimiento mecánico»
(«algoritmo», “procedimiento computacional» o «procedimiento combinatorio finito»). Se ha probado
que este concepto es equivalente al de la «máquina de Turing» [cfr. supr.] Puede definirse un sistema
formal, simplemente, como un procedimiento mecánico para producir filas de signos, llamadas
«fórmulas deducibles».”

Los términos “deducible” y “decidible” a menudo se confunden, si bien la deducibilidad
implica un razonamiento que concluya, mientras que, por el contrario, la decidibilidad
implica el ejercicio de una toma de decisiones.
Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

26

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Es claro que una decisión acostumbra a seguir a un razonamiento que la precede, aunque no
todo razonamiento implica una decisión subsiguiente. Las decisiones, en un contexto de
estudio de los grados de libertad del albedrío (o arbitrio), están asociadas al concepto de
ente consciente.110
En lógica, el término decidible implica la existencia de un método efectivo para determinar si
un objeto es miembro de un conjunto según unas fórmulas. Habitualmente se entiende un
sistema lógico como decidible si existe un algoritmo propio, esto es, que siga un número
finito de pasos para decidir la validez de una fórmula. Por tanto, una secuencia de pasos
programáticos que involucre la entrada en un bucle infinito no se considera propiamente un
algoritmo. Si el problema que afronta y completa con éxito un algoritmo (decidible) es la
deducción de cierto postulado lógico, o fórmula, se dice que dicha fórmula es deducible.
Cerca del final de su vida y tras recibir su doctorado honoris causa por la universidad
Rockefeller, Gödel preguntó, en un acto de homenaje a von Neumann, y en clara referencia
a la obra de Turing si “no habría algo de paradójico en la idea de una máquina que conociese
su programa completamente”. Este fue el comienzo de los avances de las técnicas
heurísticas, de y la inteligencia artificial computerizada.
A pesar de que no se sabe demostrar que no haya algoritmos eficientes para los problemas 𝒩𝒫
-completos, existen problemas que, siendo intrínsecamente difíciles, se pueden resolver
en teoría. Pero también se puede demostrar que ningún algoritmo puede resolverlos en la
práctica, cuando los casos son de tamaño moderado. Ni siquiera, admitiendo que se
requiera un tiempo comparable a la edad del Universo (estimada en 14.0001000.000 años), y
tantos bits de almacenamiento como partículas elementales hay en el Cosmos [Stockmeyer
& Chandra 1979]. Es lo que se denomina como la “maldición de la dimensionalidad” [cfr.
infr.], que deriva del elevado número combinatorio de posibilidades del espacio de
búsqueda.
Estos problemas son del género decidible al existir un algoritmo que los resuelve, pero su
utilidad en la implementación práctica es evidentemente muy escasa. No obstante, su
estudio ayuda en gran medida a mejorar el conocimiento disponible sobre el resto de
problemas.
También existe, y se ha definido, una clase de problemas que no se pueden resolver
mediante algoritmo alguno, sean cuales fuesen los recursos disponibles,111 denominados

110

Marvin Minsky obtuvo en 2014 el premio “Fronteras del conocimiento” en la categoría de
Tecnologías de la Información y las Comunicaciones, por sus estudios sobre la simulación
computerizada de la consciencia (entendida como repertorio disponible de información integrada),
entre otros muchos galardones anteriores. Su propuesta es el estudio de la emergencia de la
consciencia de abajo a arriba, comenzando por tratar de modelar mentes sencillas, como las de los
insectos. Véase su ensayo “A society of mind” sobre la visión de que el cerebro humano es una
“máquina hecha de carne”. Después de todo, si algún conocimiento a priori kantiano recibe el ser
humano, sin duda ha de estar imbricado en las conexiones neuronales y nerviosas, por medio de la
herencia genética. Para una serie de referencias sobre el conocimiento artificial y la consciencia,
véase también la obra filosófica de Alberto Dou [de Guzmán Ozámiz 2009 pág. 247].
111
Léase Turing (1936) para una discusión acerca de problemas indecidibles (“Entscheidungsproblem”
en alemán), además de Gardner & Bennet (1979) sobre las “apuestas omega” (Ω-bids), o Hopcroft &
Ullman (1979), para una introducción a la Teoría de Autómatas y Lenguajes Formales, y también
Noam Chomsky sobre este mismo tema, p.ej: en [Kelley cap. 5.5 y ss., 6]

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

27

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
problemas indecidibles, que son aquellos para los que es imposible construir un algoritmo
propio,112 es decir, sin bucles infinitos,113 en que el programa queda atrapado, y del que le
resulta imposible escapar, para dar respuesta a una cuestión binaria (de “sí” o “no”).
Conteniendo a las clases de problemas tanto
decidibles como indecidibles, se encuentra la
superclase de problemas reconocibles
(“recognizable”), que son aquéllos que se
pueden definir formalmente como problemas.
Serían, pues, indecidibles, los que se
encuentran más allá de lo decidible, p.ej. tal vez
aquéllos que enlazan entre sí las constantes
irracionales, a un nivel fundamental.
Plausiblemente, la clase de problemas
irreconocibles se subdivide a su vez en otras
subclases, de modo análogo a la de sus
complementarios, aunque no se ha investigado
mucho en esta área por motivos obvios.
Volviendo a los problemas indecidibles, y sin pretender definirlos ahora estrictamente,114 sí
se presenta el concepto de bucle, que se define formalmente115 como: “cualquier arista o
arco cuyos extremos coinciden en un mismo vértice”
Se apuntan tres variantes, representadas en la imagen contigua sobre los diagramas
llamados “grafos” de los que antes se suministró una definición [cfr. supr.]
Si un nodo retorna a sí mismo sin mediar ningún
otro, se dice que es un bucle reflexivo (“selfloop”), o monario. Si media un único nodo, se dice
binario, y así sucesivamente hasta el caso n-ario,116
en que pueden mediar, otros nodos intermedios,
que no necesariamente tengan que formar bucles
entre sí. No obstante, por lo general se considera
como bucle propio, solamente el caso reflexivo.

112

Se encuentran algunos ejemplos en el décimo problema de Hilbert, o en “la hormiga de Langton”
sobre autómatas celulares [cfr.: “Conway”]. Un problema indecidible sencillo de enunciar es el
problema de la mortalidad de matrices 3 ⋅ 3: “Dada una lista finita de 𝑛 ⋅ 𝑛 matrices 𝑀1 , 𝑀2 … 𝑀𝑘
¿existe algún producto (en cualquier orden, incluyendo repeticiones) 𝑀𝑖1 ⋅ 𝑀𝑖2 … 𝑀𝑖𝑙 = 𝟎?”. El caso de
la mortalidad de matrices 1 ⋅ 1 es, obviamente, decidible, y el de matrices 2⋅ 2 aún se desconoce.
113
El bucle infinito más simple de formular, en pseudocódigo de lenguaje de programación ‘C’, sería
quizás: “while(1): fork()”. Este programa se bifurca indefinidamente hasta llenar toda la
memoria disponible, momento en que el intérprete de código se cuelga, o bien lanza un aviso de
excepción condicional (que se haya situado previamente para prevenir esta eventualidad).
114
La decidibilidad se relaciona, pero no se identifica estrictamente, con la resolubilidad [cfr. supr:
“problema de Delfos”], pues un problema decidible puede ser irresoluble sobre un campo algebraico.
115
Véase [Ferrando y Gregori 1994, pág. 185]
116
En el gráfico, realmente participan n-1 nodos, descontando el origen. Alternativamente, suele
etiquetarse el primer nodo como “nodo 0”, especialmente al tratar con casos binarios. Véase el
concepto de “bucle extraño” introducido por Douglas Hofstadter.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

28

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Si todos los nodos fueran reflexivos monarios, entonces la relación de conectividad sería
también reflexiva. Formalmente: dado un conjunto 𝑉 y una relación binaria117 ℛ definida
como la conectividad, entre dos elementos nodales de 𝑉, mediante una arista, se dice que la
relación ℛ es reflexiva si, y solo si, para todo 𝑣 ∈ 𝑉 se verifica que 𝑣ℛ𝑣 (“𝑣 está relacionado
con 𝑣 mediante la relación ℛ”), o bien, que ∀𝑣 ∈ 𝑉: (𝑣, 𝑣) ∈ ℛ. Lógicamente, la relación
binaria ℛ se puede definir también para caminos que involucren una o más aristas, o para
conjuntos de origen – destino, con más de un elemento (subgrafos [cfr. infr.]).
Se da la posibilidad, por tanto, de que un mismo nodo pueda tener más de un bucle, por
medio de dos o más aristas, y análogamente para los casos de orden superior. Además, es
posible establecer ciertas analogías entre los bucles en un grafo, y los bucles en un programa
informático [cfr. supr.], e inclusive para los bucles anidados.
Junto con estos diagramas, se definen: tanto las funciones iterativas que repiten una serie
de pasos un número definido de veces, como las funciones recursivas118 que son parte de su
propio proceso de definición (pues se invocan a sí mismas).119
Un ejemplo arquetípico es el cómputo del factorial de un número natural (𝑛!) Éste puede
implementarse tanto de forma iterativa, como recursiva, llamando a la propia función en
cada ejecución, y pasándole como parámetro 𝑛 − 1 hasta llegar a la unidad, del siguiente
modo:
F:=1; // Variable para almacenar el valor del factorial de ‘n’
For i=n, i-1, i>1 do // Iterar descendentemente sobre ‘i’
{F:=F*i}; // Multiplicar F por el valor de i

En efecto, al terminar el algoritmo, el valor F almacenará el factorial de 𝑛: 𝑛!
Pero este algoritmo iterativo también puede implementarse de modo recursivo de la
siguiente forma:120
Define proc factorial(n):F {
If n>1
then { F := F * factorial(n-1) }
Else { F := 1 }
Return(F)
}

De esta manera, no existe ningún bucle, sino la propia recursión de un procedimiento
funcional que se llama a sí mismo, pasándose como parámetro su propio argumento,
decrementado en una unidad, salvo cuando se haya alcanzado ya la condición de parada.

117

Recuérdese que las relaciones pueden contar con diferentes grados de aridad: ℛ es monaria si
solo relaciona un elemento 𝑝∗ , es binaria si relaciona dos, y es n-aria si relaciona más de dos:
{𝑥1 , … , 𝑥𝑛 /ℛ(𝑥1 , … , 𝑥𝑛 )}
118
Véase [Wirth 1975, cap. 3] y una definición formal del teorema de recursión finita en [Ferrando y
Gregori 1994 cap. 5.5]
119
Véase una definición formal en [Ivorra 2013, pp. 128 y ss.]
120
La cláusula “Define” sirve para definir una función, indicando su argumento entre paréntesis, y
su valor de retorno tras los dos puntos. La cláusula “If” implica una comparación condicional, que,
caso de ser verdadera, ejecuta el bloque tras “then”, y caso de ser falsa, ejecuta el bloque tras
“else”. La cláusula “Return” devuelve el valor entre paréntesis como resultado de la función.
Nótese que el valor de n deberá ser siempre un entero positivo, por lo que un programa de aplicación
real debería efectuar una comprobación de tipos antes de realizar operaciones, entre otros detalles
que se omiten en aras de la sinteticidad.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

29

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
En cada ejecución, devuelve el producto 𝑛 ∗ (𝑛 − 1)! salvo cuando se alcanza la unidad. Al
terminar el algoritmo, el valor F almacenará el factorial de 𝑛, que es 𝑛!
Turing demostró121 que las funciones recursivas son exactamente las calculables por un
algoritmo, para lo cual definió sus máquinas abstractas, que son básicamente un modelo
teórico de ordenación con infinita memoria disponible.122
De modo análogo, pueden definirse conjuntos recursivos.123 Así, se demuestra que el
conjunto vacío ∅ es un conjunto recursivo, porque su función característica es nula, y
también es recursivo cualquier subconjunto finito de los números naturales ℕ.
Existen diversas maneras de atacar este tipo de problemas, lo que en general requiere la
“poda” de los bucles, su “reducción”124 a iteraciones simples, o bien el establecimiento de
algún género de “ciclo virtuoso” de convergencia estable hacia la solución, junto con una
condición de parada. En concreto, existe una técnica muy potente para resolver, de forma
semiautomática, ciertas clases de recurrencias, denominada la “búsqueda de la ecuación
característica”,125 que se basa en la localización de regularidades [cfr. supr.] y, en ocasiones,
la realización de cambios de variable. La ecuación característica es aquella que anula el
polinomio característico, es decir, el determinante:
|𝑨 − 𝜆𝑰| = |𝑨| + (−1)𝑛−1 (∑ 𝑛 𝑎𝑖

,𝑖 ) 𝜆𝑛−1 + (−1)𝑛 𝜆𝑛 = 0 𝑖

=1

Donde los valores propios son las raíces de la ecuación característica.126
Por su parte, la reducción gaussiana permite modificar un sistema sin alterar el conjunto de
soluciones, mediante operaciones algebraicas sobre matrices, mientras que el teorema de
Hermite facilita los cambios de base.
Entre las estrategias resolutivas de borrado, en lógica formal, para conjuntos con un número
elevado de cláusulas, se cuenta la eliminación de tautologías, subsunciones, literales
unitarios, literales puros y por eliminación por escisión.127 Según el contexto de problema,
121

Prueba conocida como “Tesis de Church-Turing”, véase [Ivorra 2013, cap. V], [Luis M. Pardo 2012
Parte I secc. 2] y un breve resumen en [de Frutos 2012 pág. 681]. E.S. Santos introdujo en 1970 el
concepto de máquina difusa de Turing [cfr. infr: “lógica difusa”]. Es una cuestión abierta la extensión a
lógica difusa de los teoremas de Gödel y la tesis de Church. Para este fin, se puede requerir la
extensión de las nociones de gramática difusa (véase: Wiedermann)
122
Puede encontrarse una definición formal en [Ivorra 2013 sección 5.6]
123
Véase [Ferrando y Gregori 1994, pp. 183-184, 194-195]
124
[cfr. infr: “reductibilidad”]. Véanse también las técnicas de minimización de autómatas finitos.
125
Véase el teorema de Cayley-Hamilton, además de: [Brassard & Bratley 1997, pp. 132 y ss.] en base
a Knuth (uno de los padres fundadores del análisis algorítmico y la informática teórica moderna) et
al., y algún tratado de Álgebra Lineal, p.ej: [Anzola y Caruncho 1982] o alguno de Gilbert Strang (ed.
Addison-Wesley).
126
Para más detalles sobre la convergencia de distribuciones y sobre la convergencia en probabilidad,
véase [Ríos 1951]
127
P.ej: la eliminación de cuantificadores existenciales puede efectuarse mediante un algoritmo de
Skolemización, que traduce una forma normal conjunta prenexa a la forma normal de Skolem. Ésta
eliminación es un algoritmo indecidible (recursivamente enumerable, pero no recursivo) en teoría
elemental de números; véase [Luis M. Pardo 2012 Parte I, secc. 4.3]. Thoralf Albert Skolem (18871963) fue un matemático noruego que presidió la sociedad matemática de su país, y redefinió los
axiomas de Zermelo para la teoría de conjuntos. Algunos de sus resultados conducirían a demostrar la
completitud de la lógica de primer orden, prueba dada por Gödel en 1930.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

30

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
otras técnicas128 involucran la perturbación ligera de algunas restricciones, la elección
aleatoria (de modo que la probabilidad de ciclado se anule), o el uso de la regla de Bland que
implica elegir siempre los índices menores entre los candidatos, para evitar la degeneración.
Finalmente, también se han desarrollado métodos para garantizar la convergencia
algorítmica (esto es, que concluya en un número finito de iteraciones), como los basados en
el criterio de Bolzano-Weierstrass129 o en los círculos de Gershgorin. Así como para acelerar
la convergencia, como los basados en el algoritmo épsilon (𝜀) de Wynn, que a su vez
generaliza en procedimiento ∆2 de Aitken.130
Carnap, a quien ya se citaba con anterioridad, encontraba la siguiente solución de
refinamiento sucesivo, aplicaba a su metáfora del mundo físico para establecer una métrica
recursiva:
“Así, pareciera que hay dos magnitudes, la longitud y la temperatura, cada una de las cuales
depende de la otra en cuanto a su definición. Parece haber un círculo vicioso; pero en realidad no lo
hay.
Una solución es la siguiente. Primero, introducimos el concepto de longitud sin considerar el
factor de corrección para la dilatación térmica. Este concepto no nos permite realizar mediciones de
gran precisión, pero es bastante satisfactorio si ésta no se requiere. Por ejemplo, si se usa una vara de
hierro para la medición, la dilatación térmica es tan pequeña, en condiciones normales, que las
mediciones serán bastante precisas. De este modo, obtenemos un primer concepto L 1 de longitud
espacial. Ahora podemos utilizar este concepto para la construcción de un termómetro. Con ayuda de
la vara de hierro, marcamos una escala a lo largo del tubo que contiene el líquido de prueba. Puesto
que podemos construir una escala con bastante precisión, también obtenemos bastante precisión al
medir la temperatura con esta escala. De tal modo, introducimos nuestro primer concepto de
temperatura, T1. Luego podemos utilizar T1 para establecer un concepto refinado de longitud, L 2. Lo
hacemos introduciendo T1 en las reglas para definir la longitud. Disponemos ahora del concepto
refinado de longitud L2 (corregido para la dilatación térmica de la vara de hierro), para construir una
escala más precisa destinada a nuestro termómetro. Esto conduce, claro está, a T 2 que es un concepto
refinado de la temperatura.
En el caso de la longitud y la temperatura, el procedimiento que acabamos de describir refina
ambos conceptos, hasta el punto en el cual los errores son sumamente pequeños. En otros casos,
puede ser necesario ir y volver varias veces, antes de que los sucesivos refinamientos conduzcan a
mediciones suficientemente precisas para nuestros propósitos. Debe admitirse que nunca llegamos a
un método absolutamente perfecto131 para medir uno u otro concepto. Pero podemos decir que,
cuanto más repetimos este procedimiento –comenzando con dos conceptos toscos y luego refinando
cada uno de ellos con ayuda del otro- tanto más precisas serán nuestras mediciones. Mediante esta
técnica de aproximaciones sucesivas escapamos de lo que parece ser, al principio, un círculo vicioso.”

En cierto sentido matemático, Carnap jugaba aquí con el concepto de sucesión contractiva,
definida como sigue:
128

Véase [Salazar 2001 pp. 148-151]
Dada la existencia de al menos un punto de acumulación en todo conjunto infinito y acotado, se
deduce que toda sucesión acotada con un único punto de acumulación es convergente. Véase
[Granero 1996 secc. 4.2.10] Este criterio se generaliza con el de Cauchy, véase [íd. secc. 6.4] y se
complementa con otros como el del cociente de D’Alembert, el proporcional de Raabe, el logarítmico
o el integral. Dirichlet y Abel también profundizaron en este asunto [íd. secc. 7.8.2-7.12.2]
130
Más detalles en [Abellanas y Galindo pp. 72 y ss.]
131
Coincide así con Descartes [cfr. infr.]
129

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

31

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Una sucesión {𝑎𝑛 } es contractiva, con constante de contracción 𝑘 ∈ (0,1) si se verifica que:
|𝑎𝑛−2 − 𝑎𝑛−1 | ≤ 𝑘 ⋅ |𝑎𝑛−1 − 𝑎𝑛 |
Tras esta elucubración, Carnap afronta a continuación el “problema de la medida”,132
referido a la posibilidad de metrizar o no ciertos espacios, con lo que roza ya terrenos de la
semiótica al afirmar que:
“La especificación de un procedimiento de medición no siempre nos revela todo el significado
de un concepto”.133

Riemann fue más allá, al afirmar que:
“La forma de medir la distancia determina la naturaleza de un espacio”.134

Podría argumentarse que aquí opera el principio antrópico, por cuanto la perspectiva de
todo lo que el ser humano es capaz de percibir, está condicionada por su propia sustancia
perceptiva. Desde el punto de vista de Turing: la mente del ser humano es finita, y nos está
vedado conocer lo que nuestra mente no está capacitada para comprender. Por este motivo,
la mejor alternativa que nos queda es la perpetuación del conocimiento de un ente a otro,
por medio del refinamiento sucesivo de conceptos, su divulgación, y su transferencia a las
generaciones venideras. Eso, suponiendo que exista realmente algún ente exterior a nuestra
propia consciencia,135 tal y como se preguntaba Descartes.
El método de Carnap de medidas sucesivas, presentado anteriormente, omitía la posibilidad
de que, en uno de los pasos de refinamiento, se topara con un principio fundamental que
eliminara la independencia entre un par de “magnitudes conjugadas”, con respecto a las
cuales, fuera imposible, en principio, medir ambas al mismo tiempo con gran precisión. Se
refiere a magnitudes tales como: longitud vs. temperatura, o como cantidad de movimiento
vs. posición [cfr. supr: “Planck”]; o en definitiva, como 𝒫⁡𝑣𝑠. 𝒩𝒫.
Esto es lo que Henri Poincaré indica también, cuando, al final de su ensayo sobre “Los
principios de la mecánica”, sugiere la inconveniencia de deducir nuevas leyes
alborotadamente, 136 pues toda ley puede descomponerse en un principio y en otra ley, y así
sucesivamente, lo que no es conveniente en términos de “economía del pensamiento”.137

132

Véase una introducción en perspectiva desde la teoría de conjuntos, en [Bagaria 2012 pág. 372]
Esta es una idea también compartida por von Hayek respecto al “valor del dinero” [von Hayek 1985
pp. 69-70] en base a W. S. Jevons en su texto “Money and the mechanism of exchange (1875)” y que
se resume en la máxima: «Tan solo un necio confunde valor y precio».
134
Consúltese la definición sobre el “intervalo de Minkowski entre dos hechos definidos”.
135
O bien, como apuntaba Habermas, que el paradigma de la consciencia sea incorrecto si se rechaza
la dimensión intersubjetiva, asumiendo como principio la separación ontológica entre un sujeto
cognoscente y el objeto cognoscible. Formulando su teoría de la Verdad Consensual Intersubjetiva,
Habermas (Premio Príncipe de Asturias de Ciencias Sociales en 2003) pretendía superar el
interbloqueo antitético entre el positivismo y el metafisicismo, por el método de la tríada dialéctica.
136
Un principio que comparte Herbert Spencer desde el Reino Unido, en un área de pensamiento
bastante diferente. Hayek iba aún un paso más allá, p.ej. en su discusión sobre la Ley de Gresham
sobre la calidad competitiva del dinero y las divisas [Von Hayek 1985 pp. 39 y ss.]. Recuérdese
además, que Poincaré fue un hombre de Estado, como revela el hecho de que su primo Raymond
llegara a Jefe de Gobierno y Presidente de la República Francesa durante la I Guerra Mundial. [Véase
también la sección sobre el teorema NFL, y en particular lo referido a la navaja de Occam]
137
Javier de Lorenzo dixit en su semblanza de Poincaré [de Lorenzo 2009 pp: 188-194]
133

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

32

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Según él mismo, si todas las leyes se hubieran transformado en principios, dice: “no habría
quedado nada de la ciencia”, pues: “la ciencia es un sistema de relaciones”.138
También Einstein se expresó en esta línea cuando dijo que:
“El gran objetivo de la ciencia [es] cubrir la mayor cantidad de hechos empíricos por
deducción lógica, empleando para ello la menor cantidad posible de hipótesis o axiomas.”139

Hadamard seguirá los trabajos de Poincaré para estudiar el “problema de la dependencia
sensitiva a las condiciones iniciales”,140 que evolucionaría más tarde en lo que hoy se conoce
como la teoría del caos determinista.141
Para el desarrollo fundamental de estas teorías fue necesario definir el concepto de
“invariante integral” en sistemas hamiltonianos, que fue fundamental para que se
demostrara el teorema de recurrencia.
Sir Isaac Newton expresaba el problema de la recurrencia con estas palabras:142
“He aquí un hecho que no he podido demostrar rigurosamente, pero que sin embargo me
parece muy verosímil:
Dadas las ecuaciones […] y una solución particular cualquiera de estas ecuaciones,
siempre se puede encontrar una solución periódica (cuyo periodo puede ser, en verdad, muy
largo), tal que la diferencia entre las dos soluciones sea tan pequeña como se quiera.
Además, lo que hace a esas soluciones tan valiosas es que son, por así decir, la única brecha
por donde podemos intentar penetrar en un lugar reputado hasta aquí como inabordable.”

Así, el teorema de recurrencia demuestra que un sistema dinámico volverá a pasar por un
punto muy próximo a su configuración original; no una, sino una infinidad de veces. Es decir,
que si se cae un huevo al suelo y se rompe, bastará con esperar el tiempo suficiente para
que exactamente el mismo huevo se reconstruya ante un teórico observador eterno.
Este efecto es parecido al que opera en la física einsteiniana sobre un rayo de luz (entendido
como fotón sin masa), que una vez emitido, y si no encuentra obstáculos, volverá al punto
de partida desde la misma dirección pero en sentido opuesto. Tras un tiempo muy largo, se
sobreentiende. Boltzmann, en respuesta a las críticas que formuló Zermelo a sus principios
de la termodinámica, calculó que el periodo temporal necesario para que cosa tal ocurriera
debía ser más largo que la edad del Universo, con lo que daba el problema por zanjado.143
Claro que, de nuevo, el principio de “observador eterno” desmonta el razonamiento, pues al
ser no dinámico, sino estático, y externo al sistema, a fin de poder observar (y recordar lo
observado) se erigiría un objeto inmóvil capaz de confrontar una fuerza irresistible durante
un tiempo indefinido, lo que da al traste con el supuesto de dinamicidad sistémica.

138

“Le valeur de la science” por Henri Poincaré. Flammarion (1948), pp. 266.
Atribuida por [Barnett 1948]
140
Véase: [”Poincaré and the three body problem” de Barrow-Green, Am. Math. Soc. (Junio de 1997)]
141
Véase un repaso sobre la emergencia de caos en [Ibáñez, Pumariño y Rodríguez 2009]
142
“Nuevos métodos de la mecánica celeste”, Tomo I, párrafo 36 (1892); de nuevo, en referencia de
Javier Fresán.
143
Cfr. supr.: [Stockmeyer & Chandra 1979]
139

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

33

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Después de todo, el concepto de “memoria” está indefectiblemente unido al de recurrencia,
como muestra el hecho de que las memorias electrónicas biestables se construyan con
bucles de realimentación sobre circuitos eléctricos. A fin de mantener la corrección de la
información digital que almacenan en su interior, éstos son refrescados periódicamente
mediante un pulso eléctrico disparado por un cierto tipo de reloj, que está programado en
función de los tiempos experimentales de descarga. La descarga que acontece cuando falla
el reloj o la potencia, o por motivos externos que corrompan la información grabada
electromagnéticamente, es pues en cierto modo análoga al “olvido” en términos
epistemológicos. La fractalidad del circuito tiene también mucho que decir respecto a la
medida de estos plazos de descarga, pues al parecer, a mayor fractalidad, mayor recuerdo, y
con más precisión se mantiene éste, lo que está muy relacionado con la autosemejanza
funcional. Más aún, existen sofisticados modelos sobre redes neuronales,144 como la Teoría
de Resonancia Adaptativa (‘ART’)145 que implementa mecanismos online para el “recuerdo
memorístico inteligente”, con capacidad auto-organizativa y sin supervisión.
Al ser online,146 no diferencia entre la etapa de aprendizaje y la de funcionamiento, aunque
es bastante sensible al ruido o distorsión de los datos de entrada, dado el carácter
destructivo de la regla de aprendizaje. El ART se basa en el “Dilema de la estabilidad y
plasticidad del aprendizaje” de S. Grossberg, y en os desarrollos de Carpenter y otros de sus
colaboradores.
Por medio de las “Leyes de los grandes números”147 enunciadas por Jakob Bernouilli y Borel,
se sabe que la precisión que puede alcanzar un experimento cualquiera148 será mayor
cuanto más grande sea el tamaño muestral.149 El límite de realimentación en la cantidad de
datos recogidos, respecto al total del universo estadístico (lo que es análogo al concepto de
“experiencia”), está en la cantidad de particiones del conjunto de las instancias recogidas
(de orden radical) que se pueden realizar, sin distorsionar los resultados. Así, la ley débil de
los grandes números permite acotar el error 𝜀 en la estimación 𝑝̂ de un parámetro 𝑝,

144

Muy escuetamente puede resumirse aquí el campo de la computación neuronal, cuyos modelos
inferenciales multiprocesador permitieron unir la IA simbólica (más cercana a la physis) y la
conexionista o analítica, en base ésta a diversos tipos de aprendizaje computacional: asociativo (regla
de Hebb), competitivo (redes de inhibición lateral), supervisado con retropropagación del gradiente
(para minimizar la función del error) y con funciones de refuerzo (cuando no se puede propagar hacia
atrás). Los principales modelos de neuronas son los de lógica-secuencial (McCulloch y Pitts, véase
[Almira 2009 pp. 243-254]), el perceptrón (Rosenblatt) y las redes ADALINE (“Neurona Lineal
Adaptativa” de Widrow), aunque existen muchos otros desarrollos.
145
Véase p.ej: [Gurney 2001 secc. 7.4] en referencia al trabajo de Stephen Grossberg (circa 1987).
146
“On-line” (“en línea”), se entiende como: manteniendo comunicación por línea directa, no diferida.
147
Véase una introducción p.ej. en [Vizmanos y Anzola 1995 pp. 450 y ss.]. Véanse también los
teoremas de Tchebychev, Bernouilli, Borel, Levy-Lindeberg y De Moivre (junto con su fórmula para la
razón áurea, y el teorema que relaciona las distribuciones binomiales con la normal), por ejemplo en:
[Ibarrola, Pardo y Quesada, 1997]
148
Suponiendo la total independencia de las variables, lo que no es en absoluto trivial. Véanse los
comentarios posteriores sobre modelos de “cópula estadística” basados en variables aleatorias
interdependientes. Puede consultarse un interesante estudio sobre el uso de cópulas para la
predicción de la demanda de gas natural, en [Vélez 2007, cap. 7 y ss.]
149
Las LGN son una serie de resultados que establecen condiciones de convergencia de los promedios
muestrales de variables aleatorias independientes. Pero el teorema de Bernouilli es un resultado del
modelo matemático de la Probabilidad, y por tanto no se puede tomar como justificación de las
teorías frecuentistas de la misma.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

34

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
correspondiente a la media de una variable aleatoria,150 es decir, ubicar la probabilidad 𝑃
(|𝑝̂ − 𝑝| > 𝜀), lo cual tiene interesantes aplicaciones en el estudio de sistemas dinámicos.
Retornando al artículo de Wigner [cfr. supr.] sobre la “Irracional eficacia de las
matemáticas”,151 se encuentra un pasaje que apunta en esta misma dirección:
“El propósito principal de la discusión precedente es señalar que todas las leyes de la
naturaleza son afirmaciones condicionales y que se relacionan tan solo con una parte muy pequeña de
nuestro conocimiento sobre el mundo. [..] Debería mencionarse, en honor a la verdad, que hace unos
treinta años descubrimos que ni siquiera las afirmaciones condicionales pueden ser enteramente
precisas, ya que constituyen leyes de probabilidad que lo único que nos permiten es lanzar apuestas
inteligentes sobre las propiedades futuras del mundo inanimado, basándonos en el conocimiento del
estado actual. No nos permiten realizar aseveraciones categóricas, ni tan siquiera aquéllas que están
condicionadas por el estado actual del mundo.”

Frecuentismo contra bayesianismo
La teoría de la decisión bayesiana152 se ocupa de cómo un decisor debería elegir una acción
concreta entre un conjunto de acciones o estrategias posibles, cuando el resultado de su
elección también depende del estado que alcance el sistema natural. Para trabajar en modo
bayesiano, se ha de asumir que el decisor siempre es capaz de asignar una distribución de
probabilidad a priori al conjunto de estados del sistema natural, que corresponden a las
concrecciones de una variable aleatoria (esto es, la “experiencia pasada” [cfr. supr.],
situándose por tanto en la línea Kantiana, y en oposición al escepticismo de Hume).153
Cuando se incorpora conocimiento adicional a partir de la sustanciación de una variable
aleatoria, se obtiene una distribución de probabilidad rectificada o a posteriori.
Bajo esta interpretación filosófica, es evidente que en muchas ocasiones se dispone de cierta
información que modifica, o puede modificar, las probabilidades que se asignan a los
sucesos. Es muy importante para la aplicación de la teoría bayesiana el tener en cuenta toda
la información disponible a cada momento. Aunque no se haga explícito, la resolución de
cualquier problema debe efectuarse evaluando siempre toda clase de información de que se
disponga, lo más actualizada que sea posible. Conviene aquí recordar algunas definiciones
sobre probabilidad condicionada.
La probabilidad de un suceso condicionado por otro 𝐴 ∈ 𝒜 → [0,1] es la probabilidad de
que ocurra ese suceso, dada la ocurrencia del suceso 𝐴. Por tanto, dado un espacio de
probabilidad (Ω, 𝒜, 𝑃) tal que ∀𝐴 ∈ 𝒜: 𝑃(𝐴) > 0, se llama probabilidad condicionada por 𝐴
a la medida de probabilidad, proyectada sobre el intervalo [0,1]: 𝑃
(𝐵 ⁄𝐴) = 𝑃

(𝐴 ∩ 𝐵) 𝑃
(𝐴)

150

Véase la desigualdad de Tchebychev.
De nuevo: https://www.dartmouth.edu/~matc/MathDrama/reading/Wigner.html (Traducción
propia)
152
Véase un resumen ejemplificado desde la Estadística en [Ya-Lun Chou 1972, cap. 21]
153
Véanse las reflexiones al respecto de Alfred J. Ayer sobre la experiencia, en secciones anteriores.
151

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

35

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Además, se dice que dos sucesos 𝐴, 𝐵 ∈ 𝒜 son independientes cuando: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ⋅ 𝑃
(𝐵), es decir, cuando⁡𝑃(𝐵⁄𝐴) = 𝑃(𝐵).
En base a estos métodos de inferencia se construyen redes de Bayes, que, muy
resumidamente, consisten en grafos causales de sucesos relacionados, mediante
probabilidades condicionadas que se calculan empíricamente con datos históricos.

El Teorema NFL o lex parsimoniae: Occam y el nudo gordiano
“La construcción de la teoría de juegos se sustenta únicamente en dos teoremas: el teorema minimax
de von Neumann de 1928 y el teorema del equilibrio de Nash de 1950. El teorema de Nash puede
entenderse como generalización del de von Neumann, como pensaba Nash, pero también como una
divergencia radical del mismo. El teorema de von Neumann fue la pieza clave de su teoría de los juegos
de oposición pura, los así llamados juegos de suma cero. Pero los juegos bipersonales de suma cero son
prácticamente irrelevantes en el mundo real. Incluso en la guerra existe casi siempre algo que ganar de
la cooperación. Nash introdujo la distinción entre juegos cooperativos y no cooperativos. Los juegos
cooperativos son aquellos en que unos jugadores pactan acuerdos sostenibles con otros. Dicho de otro
modo, se comprometen grupalmente a unas estrategias concretas. Por contra, en un juego no
cooperativo se hace imposible tal compromiso colectivo y no existen acuerdos sostenibles.
Nash, mediante la ampliación teórica de incluir juegos que involucran una mezcla de cooperación y
competición, logró abrir la puerta de las aplicaciones de la teoría de juegos a la economía, la sociología,
y, finalmente, a la biología evolutiva.”

Cita de Sylvia Nasar en su biografía de John Forbes Nash Jr.154

Es una crítica frecuente al campo de la optimización metaheurística, que se aleja del rigor
científico, a medida que se proponen más y más métodos intrincados, basados en metáforas
naturales, y que exhiben una gran cantidad de operadores. Esto redunda en el mencionado
efecto de “reinventar la rueda” [cfr. supr.], por el cual, en ocasiones se proponen como
novedosos ciertos modelos que son equivalentes entre sí, o también casos particulares de
otros modelos pre-existentes.
La conclusión lógica es que se desaconseja la introducción de metaheurísticas novedosas
basadas en metáforas nuevas, que no realicen contribuciones (significativas), por tratarse de
meros cambios en el vocabulario que abundan sobre el conocimiento pre-existente. 155 Esto
no quiere decir que el campo de la metaheurística se encuentre estancado y no avance, pues

154

[Nasar 1998 pp. 117-118]. Traducción propia.
Véase: [K. Sörensen 2013, “The metaphore exposed”] que basa su crítica, entre otras cuestiones,
en la falta de posicionamiento literario de los nuevos métodos [íd pág. 11], si bien contra esto pueden
argüirse los comentarios de [ICSU 2014] sobre el “Open Access” y otros similares contra el pernicioso
sistema de “Publish or perish”. De cualquier modo, la legibilidad de muchos de los modelos clásicos
precisa de mejoras sustanciales más allá del re-etiquetado de variables, quizá más didácticas: mejoras
fundamentadas en las tecnologías de la información y la comunicación que permitan superar el
oscurantismo kantiano [cfr. supr.] que arrastran éste y otros campos científicos [Pérez Sanz 2008].
155

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

36

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
muy al contrario existen numerosas investigaciones de gran calidad, 156 a medida que se
profundiza en los métodos más potentes.
En teoría, ninguna de las metaheurísticas conocidas mejoran por término medio a las demás,
en todos los casos posibles, lo que deja su selección al criterio, más o menos sofisticado de
investigadores y usuarios. Dicha elección se realiza en base a cuestiones tales como las
dinámicas de ejecución de alto nivel, la naturaleza del problema, el pragmatismo,157 o las
características del espacio de búsqueda, que impactan sobre la dificultad del problema.
Desde una perspectiva empírica, sería más interesante identificar los algoritmos que
funcionan mejor, bajo ciertos supuestos, para problemas de diferente tipo.
Sin embargo, no existe por el momento un marco estándar ampliamente aceptado para
comparar y testar varios métodos diferentes. No resulta apropiado utilizar un criterio de
comparación puramente empírico porque incluso la obtención de un resultado numérico
excelente puede ser mejorado o empeorado por la elección de una semilla aleatoria
diferente, un ajuste en los parámetros, o un conjunto de datos específico para ser utilizado
como espacio de búsqueda.
El Teorema NFL (“No Free Lunch in search and optimization”) introducido por Wolpert y
Macready, es un teorema, muy popular en contextos de optimización y búsqueda de
soluciones, cuyo nombre proviene del adagio anglosajón “There Ain't No Such Thing As A
Free Lunch”.158 Éste adagio fue popularizado por el autor de ciencia ficción Robert A.
Heinlein, y también por el economista Milton Friedman, quien lo usó para describir el coste
de oportunidad para una determinada elección, o lucro cesante derivado de no elegir las
alternativas disponibles.159
Resumidamente: implica160 la inexistencia de algoritmo alguno (ni siquiera bayesiano) que
sea mejor a priori que la búsqueda aleatoria,161 es decir, que cualquiera de los demás
algoritmos, si se evalúa en promedio para cualquier tipo162 de conjunto de datos de entrada.
O, más concretamente, que existen problemas teóricos que son irresolubles mediante un
programa (p.ej: del tipo ejecutable sobre Máquinas de Turing [cfr. supr.]) por muy
inteligente o eficiente que sea. Una forma sencilla de comprenderlo es la siguiente:

156

[Sörensen 2013, pág. 4]. Véase un ejemplo de estas investigaciones de excelencia, en el trabajo de
Francisco Santos sobre la conjetura de Hirsch [cfr. supr.].
157
Entendido como asociado a la razón instrumental, como estructura de pensamiento que considera
los objetos (matemáticos) como medios para alcanzar un fin determinado, siguiendo la idea de
utilidad, tal como se expone en las otras secciones de la tesis completa.
158
Véase [Wolpert & Macready 1997]. Podría traducirse al castellano como teorema del: “nadie
regala nada”, “no pedir peras al olmo”, “no hay barra libre”, “no hay café para todos”, o, mejor aún,
teorema del: “nadie da duros a cuatro pesetas” (‘NDDA4P’) puesto que es cuantitativo, no binario.
159
Friedman lo utilizó en su libro homónimo de 1975, y en concreto respecto al gasto que hacen los
Gobiernos, aparentemente gratuito. El adagio también guarda cierta relación con el de la inexistencia
de una “bala de plata” para los problemas endémicos de la ingeniería de software [Brooks 1986].
160
Véanse: [Braun 17/02/2014] y [cfr. supr. “Trilema de Agripa”]. En realidad son dos teoremas: uno
para búsqueda u optimización y otro para aprendizaje automático supervisado (“Supervised Machine
Learning”).
161
Véase un estudio en profundidad sobre la búsqueda aleatoria guiada en: [Clerc 2015]
162
En Teoría de la Complejidad [cfr. supr.] se puede demostrar que casi todos los elementos del
conjunto de todas las funciones posibles, son aleatorios en el sentido de Kolmogorov, o
“algorítmicamente entrópicos”, significando que requieren elevados recursos de cómputo.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

37

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Tómese un conjunto ordenado de números naturales consecutivos comenzando en el ‘1’. Es
evidente que la búsqueda secuencial será al menos tan eficiente como cualquier otro
algoritmo, al buscar el número uno, ya que aquélla lo ubicará en la primera evaluación, sin
necesidad de iterar de nuevo.

De ello se deriva que, si al ejemplo anterior se le aplica un conjunto permutado de números
desordenados, lo más probable es que la evaluación de la eficiencia de los algoritmos diverja
en gran medida. La inexistencia de atajos, o “navajas de Occam” [cfr. infr.] complica mucho
(aunque no imposibilita) el poder evaluar la eficiencia de algoritmos diferentes, sobre
conjuntos de datos diferentes. Además casi siempre será posible refinar las heurísticas
concretas para operar de modo más eficiente, p. ej. al definir omisiones a la exploración de
ciertas regiones del espacio de búsqueda, donde sea más improbable localizar una buena
solución.
En contextos heurísticos,163 el teorema NFL generaliza el problema de Hume [cfr. supr.] por
el cual las experiencias pasadas no permiten garantizar el resultado de los experimentos
futuros para todos los casos. Se relaciona por tanto con el segundo teorema de
incompletitud de Gödel [cfr. supr.] por cuanto que las propias matemáticas (o más
generalmente, cualquier dispositivo que simule un sistema físico) son incapaces de
proporcionar garantías absolutas sobre las conclusiones que por ellas se alcanzan.
Ello enlaza con la hipótesis filosófica del determinismo causal, conocida como “demonio de
Laplace”164 (s. XIX), que impone límites al conocimiento de un agente computacional
inteligente, respecto al universo del cual forma parte. Dicha hipótesis laplaciana de
omnisciencia causal, se puede enunciar resumidamente, en sus palabras, como que:
“Podemos considerar que el estado actual del universo sea el efecto de su propio pasado y, a
la vez, causa de su futuro. Un intelecto que conociera, en un instante concreto, todas las
fuerzas que rigen la Naturaleza y todas las posiciones de todos los objetos de los que ésta se
compone, y que además fuera lo suficientemente vasto, como para someter estos datos a un
análisis riguroso, abarcaría, en una sola formula, desde los movimientos de las mayores
esferas del cosmos, hasta los de la partícula indivisible más diminuta. 165 Para tal intelecto
nada sería incierto, y tanto el pasado como el futuro serían a su mente revelados.”

En 2008, el mismo Wolpert utilizó la diagonalización de Cantor166 para refutar en 2008 dicha
hipótesis,167 lo que se relaciona con la h. de parada de Turing, y supone una extensión de los
teoremas de Heisenberg168 y Gödel [cfr. supr.], enunciados durante el s. XX. La prueba
estriba en que:

163

De aprendizaje automático supervisado [cfr. supr.: “redes neuronales” y “ADALINE”]).
Enunciada por el celebérrimo Pierre-Simon, marqués de Laplace, hacia 1814, en su ensayo
filosófico sobre las Probabilidades.
165
Esta relación entre “lo más grande y lo más pequeño” está presente también en la Cosmología
Fractal. En concreto, la Geometría No-Conmutativa, y ciertas aproximaciones simplécticas como la
Triangulación Dinámica Causal, ofrecen algunas soluciones útiles para el reto de reconciliar la
Relatividad con la Mecánica Cuántica.
166
Véase el comienzo de la sección sobre Aritmética Transfinita, en la tesis completa.
167
Véase una explicación accesible en [Collins 2009] para Scientific American.
168
Cabe aquí la discusión, de Informática Teórica, sobre si una partícula elemental es representable
con bits, o bien con pips. Véase https://rjlipton.wordpress.com/2012/02/11/introducing-pip/
164

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

38

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

Si el “Dios-Demonio” fuera parte del Universo, entonces éste, en cierto modo,
también le podría computar, pero dos agentes computacionales no pueden
predecirse completamente el uno al otro.
Sin embargo, si no fuera parte computable del Universo, para un observador
interno, toda simulación precisa del mismo sería indistinguible del propio Universo,
y por tanto esta simulación quedaría fuera de lo que se entiende por la totalidad del
Universo observable.

Con ello, en ambos supuestos queda invalidada la hipótesis.169 De todo ello se deduce,
simplificadamente, que:170



Para toda simulación de un sistema físico existe al menos una predicción cuya
certidumbre no puede garantizarse completamente.
Para cualquier memoria existe al menos un evento pasado cuya grabación correcta
no puede garantizarse completamente.
Para cualquier aparato de observación, existe al menos una observación cuya
corrección queda en entredicho [cfr. supr.: “Principio de incertidumbre].
Para todo alumno existe al menos un sistema de enseñanza que le hace fracasar.171
Y vicecersa: en todo sistema suficientemente complejo, al menos un alumno fracasa.

Puede explicarse también la inexistencia de atajos, que se deriva del teorema NFL, con la
“lex parsimoniae” o ley de la parsimonia,172 también conocida como el principio de la
“navaja de Occam”. A Guillermo de Occam173 se le atribuye174 la formulación de este
principio, que vendría a cortar de un solo tajo el complicado nudo gordiano de la leyenda
del labrador Gordias de Frigia.175 Éste ató la lanza y el yugo de su carro, como ofrenda al dios
Zeus, con un nudo cuyos cabos se escondían en el interior, de modo tan complicado que
nadie lo podía soltar.

169

En 2014, Josef Rukavicka ofreció un argumento más sencillo, pero controvertido, para falsar la
hipótesis del demonio de Laplace. Véase [Lipton 8/8/2014]
170
Véase [D. Wolpert 2006, especialmente pp. 28 y ss.], así como: http://www.no-free-lunch.org/
171
Véase [Shubhendu Trivedi 2013]
172
Concepto opuesto a la “prisa” entendida como “atolondramiento” o “precipitación”, y que se
resume en la elección de la explicación más sencilla, esto es, del camino más corto, o de menor
resistencia (la tan peyorativa “ley del mínimo esfuerzo”). [Véanse otras interpretaciones en la sección
sobre “Optimización Multiobjetivo” respecto a Holmes, así como la de Poincaré, Spencer y Hayek en
la sección sobre “Decidibilidad, medición y recurrencia”, y la de Zipf en la sección sobre “Los
problemas del espacio curvo”, de la tesis completa].
173
William of Ockham (1287-1347), en latín “Gulielmus Occamus”, fue un monje franciscano de
Surrey, Inglaterra, dedicado a la teología y a la filosofía escolástica, cuyo trabajo, que apuntaba a la
separación de Iglesia y Estado, fue acusado de herejía en la corte papal de Aviñón. En general, abogó
por la simplificación, el nominalismo, y la eficiencia en el razonamiento científico. Además realizó
importantes contribuciones a la semántica, debatió sobre la unicidad de posición y movimiento (en
línea con Heisenberg), anticipó la lógica ternaria o multivaluada, y formuló con palabras lo que desde
el s. XIX sería conocido como leyes de De Morgan. Véase [Ockham 1985]
174
Erróneamente, según F. J. Fortuny de la Univ. de Barcelona [“Los sucesivos” – Ed. Orbis 1985].
175
Más tarde rey fundador de la ciudad de Gordio (“Γόρδιον” actual provincia turca de Ankara. La
imagen corresponde al cuadro “Alejandro cortando el nudo gordiano” de Fedele Fishetti (s. XVIII).

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

39

OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS
Se cuenta que Alejandro Magno, enfrentado al reto del
nudo, lo cortó de un solo tajo con su espada, lo que se
constituyó en el epítome del paradigma de
“pensamiento lateral” [cfr. supr.], relacionado con la
heurística, y queriendo significar el objetivo de
resolver, “tajantemente” y sin mayores
contemplaciones, un problema especialmente difícil.
Otros filósofos como Sir Isaac Newton o Bertrand Russell también aportarían más adelante
sus particulares reinterpretaciones de la navaja de Occam. No obstante, para aplicaciones
prácticas, los problemas derivados del teorema NFL pueden soslayarse en gran medida,
puesto que de hecho existen algoritmos universales de aprendizaje.
En la práctica, para realizar comparaciones experimentales de métodos meta/heurísticos de
optimización existen una serie de pruebas no paramétricas tales como el test de
Friedman176 y otros.177 Esta reflexión conduce a otras preguntas, tales como si es posible
optimizar el funcionamiento de los propios métodos de optimización, y, de ser así: ¿cómo
hacerlo?
Todo ello se trata en la sección siguiente de la tesis doctoral completa, de la que aquí se han
extraído solamente 40 páginas sobre un total de 650.

Breve bibliografía literaria:178





“La pregunta por la cosa – La doctrina kantiana de los principios transcendentales” por
Martin Heidegger. Colección “Historia del pensamiento” de Ediciones Orbis S.A. (1936 de la
edición original, 1984 de la actual)
“Lenguaje, verdad y lógica” por Alfred J. Ayer. Colección “Historia del pensamiento”,
Ediciones Orbis, S. A. (1985; 1969 de la Editorial Sudamericana, S. A.)
“Fundamentación lógica de la física” por Rudolf Carnap. Colección “Historia del
pensamiento”, Ediciones Orbis, S. A. (1985; 1969 de la Editorial Sudamericana, S. A.)
“La revolución del conocimiento” por Jean-Jacques Servan-Schreiber y Barbara Crecine
(Universidad Carnegie-Mellon y semanario francés L’Express. Plaza y Janés editores, S. A.
(1986, 1987 de la 1ª edición en español)
“Lobachevski: Un espíritu indomable” por Santiago Fernández Fernández, ed. Nivola,
colección “La matemática en sus personajes” nº 17 (2004)
“Gödel: La lógica de los escépticos” por Javier Fresán, ed. Nivola, colección “La matemática
en sus personajes” nº 30 (2007, 2008 de la 2ª ed.)
“Positivismos y antipositivismos – La herencia del siglo XX” por José María Chamorro.
Colección “Estudios y Ensayos”, serie “Filosofía/4”. Edita Univ. La Laguna, 1ª edición (2009)

176

Este test asume las hipótesis de orden total e independencia mutua de los resultados obtenidos
sobre las instancias. Véase el resumen de Juan G. Villegas, siguiendo a Conover, en [“Using
nonparametric tests to compare the performance of metaheuristics”]:
http://or-labsticc.univ-ubs.fr/sites/default/files/Friedman%20test%20-24062011_0.pdf
177
Véase p.ej. el recién publicado: [Clerc 2015]. Más detalles en: http://or-labsticc.univubs.fr/content/using-nonparametric-tests-compare-performance-metaheuristics
178
La bibliografía completa puede encontrarse en la tesis originaria.

Alfonso de la Fuente Ruiz: @AlfonsoFR | Universidad de Burgos: www.ubu.es |
http://alfonsoycia.blogspot.com.es/

40