You are on page 1of 5

[OPTIMIZACIÓN MULTIOBJETIVO DE RUTAS ALTERNATIVAS

:
FUNDAMENTOS PAN-HEURÍSTICOS Y APLICACIONES PRÁCTICAS]
Alfonso de la Fuente Ruiz 2015 https://www.linkedin.com/in/alfonsofr
Como se verá, en multitud de problemas arquetípicos de
optimización, se requiere encontrar una ruta que sea la mejor
posible, en función de una serie de uno o más criterios
competitivos, entre los que puede figurar el riesgo de colisión. Se
observarán diferentes variantes del problema clásico de enrutar
mercancías valiosas o peligrosas (en inglés: “hazardous materials”,
abreviado: “hazmat”) y cómo hacerlo con mayor eficiencia
mediante el cómputo de rutas alternativas por métodos
panheurísticos [cfr. infr.] que optimicen varios objetivos
simultáneamente. Ello facilita, entre otras aplicaciones, la
prevención y contención de accidentes, emboscadas, y colisiones
así como la reducción de la congestión en grafos o la dispersión del
riesgo de colisión a lo largo de una región geométrica
perfectamente determinada.
Además de tratar este tipo de problemas desde una óptica hazmat,
se comenzará por suministrar un relato histórico del problema y
una cierta fundamentación teórica lógico-filosófica1 de las técnicas
más novedosas de Inteligencia Artificial (‘IA’) dedicadas al
transporte logístico, desde la perspectiva de la Programación
Matemática con que se cimentan los métodos de enrutado, con la
optimización metaheurística multiobjetivo2 como campo de
estudio y haciendo énfasis en la gestión de la seguridad y en la
minimización del riesgo. Una parte fundamental reposa sobre
conceptos de Teoría de Grafos, Optimización Multivariable, Teoría
de Juegos3 e Investigación Operativa en general.
Riesgo de colisión y preferencia utilitaria
El término “colisión” proviene
etimológicamente de las
partículas “co-“ y “-lisiar”, que
significan la ocurrencia de un
perjuicio conjunto. Se define
cuando dos (o más) entidades
resultan dañadas (o al menos
una de ellas) a consecuencia de su circulación por el mismo canal o
vial, debido a la sobrecarga de éste o a un impacto de algún tipo.
En toda red de uso no exclusivo existe la posibilidad de colisión
cuando dos vehículos (o paquetes de señales digitales) circulan (o
transmiten) simultáneamente por la misma vía (o línea de
telecomunicaciones)4 Por pequeño que sea el solapamiento, los
dos vehículos (o tramas de datos) se suelen dar por completamente
irrecuperables. En otros casos, el solapamiento (generalmente de
paquetes que transitan en el mismo sentido de circulación)
produce demoras o atascos en el tránsito, lo que se denomina
congestión de la red.

de transporte de mercancías, pasajeros o datos. Imagínese por
ejemplo que, para evitar toda posibilidad de colisión, se prohibiera
sistemáticamente mantener más de un automóvil circulando por la
calle mayor de una gran ciudad en hora punta,5 o no más de un
avión en el aire simultáneamente en toda una región. Los costes y
los tiempos de espera se elevarían exponencialmente. Por ello es
imprescindible compartir el uso de las líneas por medio de algún
tipo de conmutación o multiplexación6 hasta rentabilizar al
máximo su ancho de banda 𝐻, o capacidad máxima de flujo de
tráfico por unidad de tiempo.7 Con este fin se requiere cuantificar
el riesgo de colisión a fin de optimizar el uso de las infraestructuras.
Existen muchas definiciones de riesgo en la literatura.8 En este
contexto, resulta conveniente utilizar la definición 9 que se basa en
la escala de utilidades de Von Neumann-Morgenstern10 y en
particular sobre el concepto estadístico de “lotería”, entendido en
teoría de juegos como una distribución de probabilidad.
Soluciones pan-heurísticas desde la Investigación Operativa
A lo largo de esta presentación se tratará de dar respuesta
pormenorizada a algunas de las cuestiones presentadas. Una vez
establecidas las bases teóricas, se suministrará una perspectiva
algorítmica del problema de enrutado alternativo hazmat (o de
mercancías peligrosas) con énfasis en la gestión adecuada del
riesgo, para contextualizar el tema y profundizar en sus orígenes e
implicaciones. Seguidamente se describirán una serie de modelos
algorítmicos de resolución eficiente para el problema y varias de
sus formulaciones derivadas e implicaciones. Finalmente se tratará
de proporcionar algunas sugerencias para la aplicación de estos
modelos, en contextos de aplicación diferentes, donde también
resultan de gran utilidad práctica. Para ello se observarán otras
aplicaciones de los algoritmos de optimización multiobjetivo en
campos variados de la actividad humana, en particular para los
casos de prevención de embotellamientos y bloqueos, tanto en
redes multimodales de transporte de mercancías y pasajeros, como
en redes de telecomunicaciones digitales basadas en tecnología
informática o en el transporte energético,11 así como otras
aplicaciones más novedosas.
Los orígenes de la “Investigación Operativa” (‘IO’, o bien ‘OR’ del
inglés “Operations Research”), como parte de la matemática
aplicada, son muy antiguos, ya que todas las sociedades
organizadas siempre se han planteado cuestiones de optimización
en el uso de los recursos y la planificación de actividades. No
obstante, el concepto de IO aparece formalmente12 en 1934, en el
marco de investigaciones conjuntas entre militares y científicos
civiles sobre la planificación de operaciones militares de vuelo,
motivados por el almirantazgo británico y la II Guerra Mundial.

El uso exclusivo del canal de circulación habitualmente comporta
unos costes económicos prohibitivamente elevados, en contextos

1

Véase [Mc Carthy & Hayes 1969] para un recorrido sobre las cuestiones
filosóficas de la IA.
2 Una buena introducción al tema es [Ríos-Insúa et al. 2004]
3 Véase una muy breve introducción en [Ruiz 1971 pp. 522-523] donde se
señala el salto que ésta propicia del homo œconomicus al homo aleator,
esto es: a una comprensión más exacta de la realidad económica y social
basada en las matemáticas.
4 Véase la sección final dedicada a otras aplicaciones en el contexto de las
telecomunicaciones. En ciertos modelos pueden considerarse como
colisiones los casos en que un efecto agencial externo al canal abduce,
intercepta, detiene, corrompe o destruye la carga circulante.
5 Lo que ocurre esporádicamente en eventos de gran relevancia y con
altas medidas de seguridad, como la coronación de reyes, desfiles
militares, eventos deportivos, etc.
6 Capacidad de mantener varias comunicaciones (líneas de envío y
recepción de paquetes) simultáneas soportadas por un mismo interfaz
(arista de conexión del nodo a la red)

7

La ley de Shannon-Hartley establece una cota máxima para la tasa de
información que se puede transmitir por un canal ruidoso (entendiendo
el ruido como una medida de la desaparición de la información o de la
carga transportada)
8 Véase p.ej: [Warwick 2003] sobre la naturaleza y medida del riesgo en
mercados de capital financiero
9 Véase [Teoría de Juegos 2004 pp. 12-25]
10 Véase [Valenciano 2002 secc. 3] y [Milton y Savage 1948], así como
una introducción a la Teoría de la Utilidad, desde el Análisis Estadístico,
en [Ya-Lun Chou 1972 pp. 750-768]
11 La multimodalidad o “transporte combinado” acontece cuando se
articulan diversos medios de transporte a lo largo de algún trayecto para
el transporte de una cierta carga, y la intermodalidad es el caso
particular en que la carga no se modifica al cambiar el medio. Conviene
diferenciar la multimodalidad en el transporte de la multimodalidad
funcional, que implica rugosidad [cfr. infr.] en el espacio de soluciones.
12 Según [Salazar 2001, pp. 8-12]

La Programación Matemática (‘PM’)
se inscribe como disciplina rigorista
dentro del contexto de la IO y aparece
oficialmente en 1947 con los trabajos
de Dantzig13 en planificación de tareas
y resolución de problemas de
transporte, dentro del mando de
inteligencia militar estadounidense del
Pentágono (ver imagen). 14 En la
U.R.S.S., no obstante, Kantorovich15 ya
había realizado trabajos en esta línea,
como reconoció el propio Dantzig.16
Los trabajos de éste fueron motivados entre otros por un trabajo
de Leontief y Alan Strout17 en 1933 sobre el modelo de entradasalida en la economía, y dos trabajos de von Neumann, uno de 1928
sobre Teoría de Juegos y otro de 1937 sobre Crecimiento
Económico. La principal aportación de Dantzig fue introducir
explícitamente la función objetivo como tal en el modelo
matemático, al tiempo que propuso el método del simplex18 para
su tratamiento en los casos lineales. Se definió así la Programación
Lineal, y con ella la Programación Matemática.
Por su parte, los problemas de optimización combinatoria
consisten en identificar y ubicar el conjunto de soluciones óptimas
de una función objetivo dentro de un dominio finito llamado
“espacio de búsqueda”. La clasificación original de Dantzig,19
distinguía entre problemas de programación deterministas
(lineales y no lineales) y probabilistas (sin y con oponentes). La
teoría de optimización se sustenta y amplía con el Cálculo de
Variaciones,20 que estudia los máximos y mínimos de integrales,
tales como superficies, volúmenes o densidades. Así, en una
función con una única variable dentro de un intervalo, la solución
óptima extremal (también: “extremidad”, pudiendo ser absoluta o
relativa) corresponde generalmente a un solo punto, o a lo sumo,
a todo el recorrido de la curva funcional.
Además, se conoce como Programación Multi-Objetivo o como
Programación Multi-Criterio21 al uso de técnicas de Programación
Matemática para resolver funciones con dos o más variables, las
cuales se identifican con criterios objetivos mutuamente
conflictivos, de modo que puedan ubicarse sus puntos y regiones
de interés, tales como extremales y puntos silla. 22 Cuando el
problema se centra únicamente en la determinación de máximos o
mínimos, entonces se denomina Optimización MultiObjetivo/Multi-Criterio.
La mayor dificultad de afrontar un problema en el que se deben de
optimizar varios objetivos funcionales simultáneamente, cuando
el espacio de búsqueda es demasiado grande como para emplear
métodos exactos, suele conducir a la preferencia de emplear

13

George Bernard Dantzig (1914-2005) investigador estadounidense,
principal impulsor de la Programación Lineal. Entre sus contribuciones a
la IO se cuentan el algoritmo del símplex, sus trabajos en geometría
proyectiva, programación cuadrática y estocástica, y resolución del TSP
(Junto a Fulkerson y Johnson).
14 Fuente: www.phpsimplex.com
15 Leónidas Kantorovich (Леони́ д Вита́льевич Канторо́ в ич 1912-1986)
matemático y economista ruso conocido por sus aportaciones en PL y
optimización infinito-dimensional de recursos. Nobel de Economía (1975)
16 Véase [Dantzig 1963, pág. 22]
17 Véanse: [Ruiz 1971, pp. 441-442], [Leontief 1966 cap. XI] y [“Teoría de
juegos” 2004 secc. 4.6].
18 Puede verse una completa discusión en [Salazar 2001 cap. 4]
19 Procedente de [Dantzig 1963, pág. 8]
20 Véase [Baule 1949 pp. 457 y ss.] El Cálculo de Variaciones nace ya en el
s. XVIII cuando Bernouilli (1667-1748) plantea por primera vez un
problema de mínimo, en donde la variable no era un número sino una
función (subintegral).
21 La distinción se suele referir a un “Criterio” cuando el resultado del
cálculo se utiliza para una toma de decisiones, habitualmente en el

métodos de aproximación estocástica, como heurísticas o
metaheurísticas, para este cometido.23
Primeramente, para ser capaces de establecer preferencias entre
valores de funciones multivariables, es necesario desarrollar el
criterio de dominancia (también: “eficiencia” u “optimalidad”) de
Pareto.24
Sean 𝐴 y 𝐵 dos opciones estratégicas diferentes, dado 𝑆 un
conjunto compacto25 y convexo como el que queda definido sobre
los puntos del espacio formado por una serie de funciones de
utilidad (𝑢1 , 𝑢2 , … , 𝑢𝑛 ). La solución óptima (en sentido de Pareto)
para maximizar las utilidades conjuntamente, denotada por 𝑐(𝑆),
se construye del siguiente modo:
∀𝐴 ≠ 𝐵|
((𝑢1 (𝐴), 𝑢2 (𝐴), … , 𝑢𝑛 (𝐴)) ∈ 𝑆)
∧ {∄(𝑢1 (𝐵), 𝑢2 (𝐵), … , 𝑢𝑛 (𝐴)) ∈ 𝑆|∀𝑖: 𝑢𝑖 (𝐵) > 𝑢𝑖 (𝐴)}
→ (𝑢1 (𝐴), 𝑢2 (𝐴)) ∈ 𝑐(𝑆) 𝐴
será, pues, una solución óptima de Pareto26 si maximiza el
producto de las utilidades: 𝑛 𝑢

1 (𝐴) ⋅ 𝑢2 (𝐴) ⋅ … ⋅ 𝑢𝑛 (𝐴) = ∏ 𝑢𝑖 (𝐴) 𝑖
=1

Esta condición expresa que solamente se aceptarán como
soluciones aquéllos acuerdos opcionales que sean inmejorables.
La posibilidad de no unicidad de los puntos extremales permite
desplegar una amplia variedad de soluciones cualitativas que
ubiquen uno o más (caso de existir) extremos absolutos o bien
algunos extremos relativos cuya evaluación sea arbitrariamente
cercana al extremo global, mientras que se reduzcan en gran
medida los recursos de cómputo necesarios para localizarlos.
En base a las definiciones anteriores, comúnmente se dice que,
para minimizar las funciones de coste o valor objetivo 𝑓1 y 𝑓2 , una
“población” o conjunto 𝑆 dado de soluciones factibles (“una
solución”) domina a otro conjunto 𝑆′ (“solución dominada”) si:
[𝑓1 (𝑆) ≤ 𝑓1 (𝑆 ′ )]
∧ [𝑓2 (𝑆) ≤ 𝑓2 (𝑆 ′ )] 𝑜
𝑏𝑖𝑒𝑛: 𝑓1 (𝑆) < 𝑓1 (𝑆 ′ )
∧{ 𝑜
𝑏𝑖𝑒𝑛: 𝑓2 (𝑆) < 𝑓2 (𝑆 ′ )
Naturalmente, si el objetivo fuese maximizar, los signos se
invertirían correspondientemente.
Dado que la dificultad combinatoria del problema suele ser muy
alta, no siempre es posible hallar la frontera eficiente en un tiempo

contexto de sistemas informáticos de apoyo a la toma de decisiones
(‘DSS’ por “Decision Support Systems”), y a “Objetivo” cuando se refiere
a la evaluación de funciones matemáticas moderadamente complejas.
22 Puede encontrarse un estudio introductorio sobre el uso de algoritmos
metaheurísticos para resolver problemas multiobjetivo en [Gómez
Cámara pp. 31-36 y ss.]
23 Puede verse una introducción en [Ríos-Insúa et al. 2004, pp. 3-5], una
descripción más explícita, p.ej. en [Gómez Cámara 2010, pp. 32 y ss.] y
una extensiva en los textos de R. Martí, M. Laguna y C. Delgado.
24 Véase una introducción en [Gómez Cámara 2010, pp. 31-32]. MATLAB®
R2014b dispone de una librería específica para resolver problemas de
optimización multiobjetivo con óptimos de Pareto mediante AG.
25 Conjunto acotado y cerrado, integrable por sumas de Riemann.
26 El reciente y trágicamente fallecido John Forbes Nash dio esta
demostración para sus equilibrios en teoría de juegos. La fórmula supone
que se han elegido funciones de utilidad para las que el cero se sitúa en
el caso de desacuerdo o statu quo. En otro caso, habrá que retrotraer las
funciones al origen y la solución será la que maximice el producto: (𝑢1 − 𝑑
1)⋅ (𝑢2 − 𝑑2) ⋅ … ⋅ (𝑢𝑛 − 𝑑𝑛 ), donde 𝑑𝑖 representa el valor de 𝑢𝑖 en la
situación de partida. Véase [Valenciano 2002 pp. 580-581]

razonable. Es por ello que, en este contexto, la satisfactoriedad de
una solución se entiende en términos de margen de error aceptable
respecto a la frontera eficiente, cumpliendo con las restricciones
impuestas por los recursos de cómputo. Cuanto más estrecho sea
este margen, más cercana estará la solución hallada de la frontera
absoluta, y por tanto más satisfactoria será dicha solución.
Existen diferentes algoritmos para optimizar funciones
multiobjetivo, entre los que el más popular es probablemente
NSGA-2 (o “NSGA-II”), una versión modificada del programa
original de ordenación de soluciones no dominadas (“nondominated sorting”) basada en Algoritmos Genéticos (“Genetic
Algorithms”: ‘GA’ o ‘AG’). La diferencia fundamental de NSGA-II
sobre NSGA-I es su enfoque “elitista”,27 esto es, que preservará los
campeones generacionales.
Como regla general, cuanto más complicada sea la función y cuanto
mayor sea su dominio (bien porque sea más precisa la resolución
de muestreo, o bien porque se considere una mayor cantidad de
variables dimensionales e instancias), tanto más recomendable
será el uso de métodos heurísticos aproximados, o de
metaheurísticas,28 para tratar problemas de complejidad
computacional elevada, en estos dominios funcionales extensos. La
morfología del dominio funcional, si es conocida a priori, también
será un criterio de elección de una técnica determinada sobre
varias alternativas a la hora de atacar un problema concreto.
Formalmente29 se llama algoritmo heurístico a cualquier algoritmo
que con poco esfuerzo computacional30 proporcione una solución
factible cuyo valor objetivo normalmente31 esté próximo al valor
objetivo óptimo del problema original. Las soluciones obtenidas
mediante una heurística se llaman soluciones heurísticas.
Naturalmente, cualquier método exacto y progresivo de
computación puede convertirse en una heurística si se le hace
terminar prematuramente, p. ej: definiendo un límite al tiempo o
la cantidad de nodos explorados, durante el cálculo.
El concepto de “metaheurística” se deriva del de heurística, y
emerge como un marco algorítmico para el desarrollo de
procedimientos heurísticos de alto nivel, diseñado para encontrar,
generar o seleccionar un procedimiento heurístico de optimización
(como p.ej. un procedimiento de búsqueda rápida) que provea una
implementación suficientemente satisfactoria a fin de solucionar
una familia de problemas que sean computacionalmente
tratables.32
La utilización del término, aunque ciertamente arbitraria en casos
frontera, está definida con cierta precisión.33 Se acepta
comúnmente que fue Fred Glover34 quien lo introdujo en 1986 en
relación a la “búsqueda tabú” [cfr. infr.] o “de estados prohibidos”.
El prefijo “-meta” viene a significar “en torno a” o “de nivel superior
27

El código fuente de NSGA-2 se ha liberado bajo licencias libres GPLv3 y
BSD. Puede encontrarse una descripción en [Seshadri 2006]. Existen
diversas variantes de NSGA-2, p. ej: con selección de características
(“feature selection”) - véanse a este respecto: [Pacheco, Casado, ÁngelBello y Álvarez 2013] y: [Gómez, Pacheco y Gonzalo-Orden 2015, secc. 6],
donde se propone una alternativa ad hoc más eficiente para el problema
de recogida de residuos urbanos. Otras variantes relacionadas con NSGA,
junto con su código fuente, pueden verse en:
http://www.iitk.ac.in/kangal/codes.shtml
28 Se han diseñado ciertos algoritmos híbridos específicamente para
localizar valores en torno a la frontera de Pareto, como es el caso de la
Estrategia Evolutiva de Pareto con Memoria (‘PAES’: “Pareto Archived
Evolution Strategy”) y su versión Adaptativa (‘APAES’). Véanse p. ej:
[Knowles & Corne 1999] y [Oltean et al. 2005]. Código fuente y más
referencias: http://www.cs.man.ac.uk/~jknowles/multi/
29 [Salazar 2001, pp. 374 y ss.]
30 Se entiende el esfuerzo en términos de su eficiencia medida respecto a
su complejidad ciclomática.
31 La normalidad de la proximidad al óptimo se interpreta en términos
estadísticos, y puede darse como un intervalo de confianza.
32 Los problemas tratables computacionalmente se definen dentro de
restricciones económicas, medidas en términos de recursos de cómputo.

a” y se refiere a un grado de abstracción superior en la
comprensión del problema respecto a la inteligencia de los
artificios estratégicos que se aplican, motivo por el cual suelen
englobarse dentro del campo más amplio de las técnicas
computacionales para el desarrollo de IA aplicada.
En teoría, ninguna de las metaheurísticas conocidas mejoran, por
término medio, a las demás en todos los casos posibles, lo que deja
su selección al criterio, más o menos sofisticado, de investigadores
y usuarios. Dicha elección se realiza en base a cuestiones tales
como las dinámicas de ejecución de alto nivel, la naturaleza del
problema, el pragmatismo35 o las características del espacio de
búsqueda, que impactan sobre la dificultad del problema.
Desde una perspectiva empírica, sería más interesante identificar
los algoritmos que funcionan mejor, bajo ciertos supuestos, para
problemas de diferente tipo. Sin embargo, no se conoce un marco
estándar, ampliamente aceptado, para comparar y testar varios
métodos diferentes. Un criterio de comparación puramente
empírico no resulta apropiado porque incluso la obtención de un
resultado numérico excelente puede ser mejorado o empeorado
por la elección de una semilla aleatoria diferente, un ajuste en los
parámetros o un conjunto de datos específico para ser utilizado
como espacio de búsqueda.
El Teorema NFL (“No Free Lunch in search and optimization”)
introducido por Wolpert y Macready, es un teorema, muy popular
en contextos de optimización y búsqueda de soluciones, cuyo
nombre proviene del adagio anglosajón “There Ain't No Such Thing
As A Free Lunch”.36 Éste adagio fue popularizado por el autor de
ciencia ficción Robert A. Heinlein y también por el economista
Milton Friedman, quien lo usó para describir el coste de
oportunidad para una determinada elección, o lucro cesante
derivado de no elegir las alternativas disponibles.
Resumidamente: implica37 la inexistencia de algoritmo alguno (ni
siquiera bayesiano) que sea mejor a priori que la búsqueda
aleatoria,38 es decir, que cualquiera de los demás algoritmos, si se
evalúa en promedio para cualquier tipo39 de conjunto de datos de
entrada. O, más concretamente, que existen problemas teóricos
que son irresolubles mediante un programa (p.ej: del tipo
ejecutable sobre Máquinas de Turing) por muy inteligente o
eficiente que éste sea.
En contextos heurísticos,40 el teorema NFL generaliza el problema
de Hume por el cual las experiencias pasadas no permiten
garantizar el resultado de los experimentos futuros para todos los
casos. Se relaciona por tanto con el segundo teorema de
incompletitud de Gödel, por cuanto que las propias matemáticas (o
más generalmente, cualquier dispositivo que simule un sistema
físico) son incapaces de proporcionar garantías absolutas sobre las
33

Véanse una serie de definiciones en [Delgado 2001 pp. 17 y ss.] y
[Gómez Cámara 2010 pp. 16-17]
34 Véase una definición actualizada en [Sörensen 2013 pp. 6-7]. Se asume
generalmente que el primer ejemplo de metaheurística es el conocido
como “aleación”, “recocido” o “temple simulado” (‘SA’: “simulated
annealing”).
35 Entendido como tal: el asociado a la razón instrumental como
estructura de pensamiento que considera los objetos (matemáticos)
como medios para alcanzar un fin determinado, en base a la idea de
utilidad, tal como se expone en teoría de juegos.
36 Véase [Wolpert & Macready 1997]. Podría traducirse al castellano
como teorema del: “nadie regala nada”, “no pedir peras al olmo”, “no
hay barra libre”, “no hay café para todos” o mejor aún, teorema del:
“nadie da duros a cuatro pesetas” (‘NDDA4P’) puesto que es no binario.
37 Véanse: [Braun 17/02/2014] y [“Trilema de Agripa”]. En realidad son
dos teoremas: uno para búsqueda u optimización y otro para aprendizaje
automático supervisado (“Supervised Machine Learning”).
38 Véase el estudio sobre la búsqueda aleatoria guiada en: [Clerc 2015]
39 En Teoría de la Complejidad se puede demostrar que casi todos los
elementos del conjunto de todas las funciones posibles son aleatorios en
el sentido de Kolmogorov, o “algorítmicamente entrópicos”, significando
que requieren elevados recursos de cómputo.
40 De aprendizaje automático supervisado.

conclusiones que por ellas se alcanzan. Enlaza también con la
hipótesis filosófica del determinismo causal conocida como
“demonio de Laplace”41 (s. XIX) que impone límites al conocimiento
de un agente computacional inteligente respecto al universo del
cual forma parte.
No obstante, para aplicaciones prácticas, los problemas derivados
del teorema NFL pueden soslayarse en gran medida, puesto que de
hecho existen algoritmos universales de aprendizaje. Además,
Wolpert y Macready han descrito algún caso, como la optimización
bioinspirada por evolución concertada (“coevolución” competitiva
entre varias especies, en el contexto de Algorítmica Genética),
donde sí existe cierto género de dominancia, siempre que se
puedan definir campeones generacionales absolutos (lo que no
acostumbra a ser el caso en el contexto biológico). En cualquier
caso no se implica dominancia algorítmica, sino mera dominancia
entre campeones.42 Por otro lado, para realizar comparaciones
experimentales de métodos meta/heurísticos existen una serie de
pruebas no paramétricas tales como el test de Friedman43 y
otros.44
Efectivamente, es posible construir, o más bien ensamblar, un
algoritmo metaheurístico capaz de seleccionar una estrategia
determinada u otra en función de una tipología predefinida o
“marco procedimental”, que sea capaz de resolver correctamente
una amplísimo rango de problemas prácticos, de frecuente
ocurrencia, en tiempos breves y con recursos moderados de
cómputo.
Es complicado establecer una regla apriorística sobre el tipo de
algoritmo a elegir para cada tipo de problema, si bien algunos
autores45 señalan que para problemas relacionados con enrutado
de vehículos (‘VRP’), es frecuente encontrarse con métodos que
incorporen el mecanismo de exploración de la vecindad de la
solución. Tal como se expone en relación con la optimización
global, este mecanismo solamente aporta ventajas efectivas si el
espacio de búsqueda es poco “rugoso”. Sin embargo, como
advierte Sörensen,46 la hibridación de métodos heurísticos da lugar
con frecuencia a métodos “collage” innecesariamente intrincados,
con muchos operadores diferentes.
Lo mismo se advierte sobre efectuar meros ajustes paramétricos47
a conjuntos de datos predeterminados, con el fin de producir
soluciones mejores. No basta, porque hacerlo causa pérdida de
generalidad en la aplicabilidad práctica de los modelos teóricos,
medida ésta en términos de versatilidad. Aunque sin duda aporta
confianza sobre la hipótesis, en términos racionales.
Para evitar estos y otros problemas que amenazan la credibilidad
de los métodos, Sörensen propone un “adelgazamiento” de los
programas (“lean metaheuristics”) que permita sintetizar la esencia

subyacente al motor matemático-lógico
metaheurístico en cuestión.

del

algoritmo

A los ensamblajes de componentes metaheurísticos, tanto
enfoques ideológicos como operadores sofisticados, se les ha dado
en llamar “matheurísticas” 48 (con ‘a’, transformando el prefijo
‘meta-‘, o “en torno a”, en ‘mate-‘, para sugerir un enfoque
matemático rigorista), sugiriéndose que su desarrollo es preferible
al de idear metáforas novedosas que aporten escaso valor añadido.
La idea que subyace es que, de igual manera que un método exacto
puede convertirse en una heurística, es la hibridación eficiente de
los métodos exactos, con los heurísticos o aproximados, lo que se
conoce como matheurística.
Por su parte, ciertos investigadores han acuñado el término de
“hiperheurística”49 para referirse a la cuestión de qué método
heurístico se ha de elegir, de entre un conjunto dado, para ciertos
tipos de problema. Se trata éste de un subconjunto del Problema
de Selección de Algoritmo (‘ASP’: “Algorithm Selection Problem”)50
en contextos heurísticos probabilistas.
De la propia definición de una metaheurística, y del teorema NFL,
se deriva que no es posible suministrar una prueba estadística
formal de la dominancia estricta de una metaheurística sobre
cualquiera otra, en todos los casos, ya que sería como comparar
dos estilos culinarios o dos sabores: la respuesta siempre será
subjetiva y determinada por los contextos de investigación,
desarrollo, implementación y aplicación. Es por ello que merece la
pena considerar la investigación de la calidad de código algorítmico
y del uso de información, para así enlazar las nociones adquiridas
en Investigación Operativa con las prevalentes dentro del campo
de la IA y en particular, del Aprendizaje Automático.51
Todo ello sugiere la introducción de un término que se podría
llamar “hipermetaheurística”, o quizá más correctamente
“Panheurística”, término que se deriva de sus raíces griegas
queriendo significar “todo lo relacionado con la heurística”, esto es,
al “conocimiento de buena calidad” [“heuriskein”]), pretendiendo
utilizar una denominación que asimile herramientas prácticas para
la Investigación Operativa desde las ciencias matemáticas, la
filosofía comparada, la gestión de sistemas y la ingeniería
informática. Se han propuesto también términos en contraposición
al de IA como los algoritmos “meta-IA” o de “Imaginación
Artificial”,52 en la línea de trabajo que pretende localizar el mejor
algoritmo para un conjunto de datos determinado, dentro del
contexto de “Machine Learning”. Otras denominaciones
alternativas serían “𝛼-heurística” (alfa-heurística) o: “∗-heurística”
(estrella-heurística ó “star-heuristic”), si bien estas notaciones son
más complejas de incorporar a un discurso textual, debido a su
composición simbólica.
El término “Panheurística” se define aquí como el marco
epistemológico, holístico y pragmático de técnicas de

41

Enunciada por el celebérrimo Pierre-Simon, marqués de Laplace, hacia
1814, en su ensayo filosófico sobre las Probabilidades.
42 Véanse [Wolpert & Macready 2006], [Service & Tauritz 2008]
43 Este test asume hipótesis de orden total e independencia mutua de los
resultados obtenidos sobre las instancias. Véase el resumen de Juan G.
Villegas en base a Conover: [“Using nonparametric tests to compare the
performance of metaheuristics”] en: http://or-labsticc.univubs.fr/sites/default/files/Friedman%20test%20-24062011_0.pdf
44 Véase p.ej. el recién publicado: [Clerc 2015]. Más detalles en:
http://or-labsticc.univ-ubs.fr/content/using-nonparametric-testscompare-performance-metaheuristics
45 Véase p. ej: [Sörensen 2015, pág. 15] en ref. a su artículo de 2008.
46 [Sörensen 2015, pág. 14], en referencia a los “Frankenstein methods”
de Michalewicz y Fogel.
47 Para ello existen ya diversas pruebas como las reseñadas en la sección
anterior sobre el th. NFL, y herramientas software como “Bonesa”:
http://sourceforge.net/projects/tuning/
48 Estos principios sobre la investigación en Búsqueda Heurística han sido
adoptados por algunas gacetas relevantes tal como el Journal of
Heuristics

49

Véase una revisión de marcos hiperheurísticos en [Ryser-Welch &
Miller 2014]
50Conviene consultar el estudio sobre selección de algoritmos para
problemas de optimización continua de caja negra [Halgamuge, Muñoz
et al. 2015], y su modelo asociado de predicción de eficiencia algorítmica
[Muñoz, Kirley y Halgamuge 2012].
51 En cuanto a la aplicación de técnicas de Machine Learning para
resolver el VRP, véase p.ej. [Rasku 2011]
52 Véase [Harris 09/04/2014]. Una propuesta es utilizar para ello técnicas
de validación cruzada u otras bioinspiradas [Dorard 07/05/2014] tales
como los algoritmos evolutivos. Otra sería el uso de métodos de
“Conocimiento Artificial” (‘A.K.’: “Artificial Knowledge”) que, siguiendo el
modelo piramidal DIKW (o “Jerarquía del Conocimiento”) deberían
conducir finalmente, por medio de la agregación, ordenación y
estructuración, a un programa cognitivo de “Sabiduría Artificial” (‘A.W.’:
“Artificial Wisdom”). Véanse también las referencias que se señalan al
respecto en [Sörensen 2015, pág. 16]: Barr, Rardin, Uzsoy et al.

programación
matemática,
heurística,
metaheurística,
matheurística, hiperheurística y, en general, algorítmicas,
procedimentales o funcionales, que desde una perspectiva coral
estudian la resolución de problemas de búsqueda, optimización y
aprendizaje automático, en el contexto de la inteligencia
computacional, o desde el más amplio de la IA, contemplando
desde sus raíces filosóficas hasta sus aplicaciones prácticas,
pasando por sus connotaciones socioeconómicas, e incluyendo el
estudio de su implementación siguiendo directrices ingenieriles.
Una definición más ambiciosa podría englobar también a la
“epiheurística” como subconjunto propio, entendida ésta como53
todo lo relacionado con la heurística pero sin involucrar
directamente ningún factor estocástico, en contextos de búsqueda
y optimización de soluciones a problemas de aplicación tanto
práctica como teórica, como p.ej: el estudio de métodos
deterministas de resolución exacta.
Se trata, pues, de lograr estructurar y explicar los progresos que se
han sucedido en el, desde esta perspectiva, angosto campo de la
optimización de rutas alternativas, con un enfoque panheurístico
robusto.54 Puede entenderse pues, que la línea de pensamiento a
seguir debe también optimizarse como si fuese una ruta por un
grafo de estados lógicos, en base a tres variables principales: la
calidad de las soluciones, la eficiencia de los métodos y la robustez

53

Una definición inspirada por el concepto de “epigenética”, con una
clara orientación finalista, positivista y pragmática.
54 Véanse los comentarios de Ackley al respecto de la redundancia
[“Robust first computing”] que, en cierto modo, ponen el contrapunto a
los expresados por Sörensen respecto a las “matheurísticas”, y esp.

de su implementación. Por así decirlo, se intenta progresar, con un
decidido enfoque pragmático, en la anchura del conocimiento de
buena calidad, divulgándolo en formato didáctico, sin renunciar a
profundizar en las facetas de mayor interés para descubrir pautas
y principios, de modo que se evite el tratamiento de situaciones
genéricas como si se tratase de una mera serie de acontecimientos
excepcionales.
El estudio general de métodos metaheurísticos para problemas de
rutas de vehículos (VRP) revela que los mejores de estos métodos
son capaces de ubicar soluciones excelentes, y a menudo óptimas,
siempre que se consideren a lo sumo algunos cientos de nodos,
aunque el tiempo de cómputo es notable con los medios actuales.
La búsqueda tabú es uno de los métodos más prometedores
respectos a métodos deterministas o bioinspirados
(principalmente de algoritmos genéticos y redes neuronales),
aunque se han especificado y desarrollado muchos otros durante
la última década. Las estrategias hiperheurísticas también
aparecen como una ruta a transitar en el futuro próximo, toda vez
que su implementación cuenta con una elevada barrera de
entrada. En general, los métodos metaheurísticos tienden a
consumir un mayor tiempo de cómputo, pero producen soluciones
de mucha mejor calidad, por lo que constituyen un complemento
perfecto a la batería convencional de métodos exactos más
comúnmente utilizados en aplicaciones industriales.

[“Beyond efficiency” – David H. Ackley 2013], por cuanto que la
reiteración de metáforas metodológicas y líneas de pensamiento, si bien
ciertamente “engordan” los procedimientos, degradando su eficiencia,
aportan la imprescindible robustez que permite hacer frente a los
siempre presentes errores aleatorios o sucesos inesperados.