Professional Documents
Culture Documents
Algoritmos Memeticos Adaptativos para Optimizacion MultiObjetivo
Algoritmos Memeticos Adaptativos para Optimizacion MultiObjetivo
Derlis A. Zárate
Universidad Nacional de Asunción, Facultad Politécnica
San Lorenzo, Paraguay, Casilla de Correos 1439
dzaratepy@gmail.com
Benjamı́n Barán
Universidad Nacional de Asunción, Facultad Politécnica
San Lorenzo, Paraguay, Casilla de Correos 1439
bbaran@pol.una.py
Abstract
Memetic algorithms have demonstrated to be successful in the resolution of combinatorial optimization
problems. In addition, they are well adapted to the resolution of multi-objective optimization problems. This
work proposes a new family of multi-objective memetic algorithms, based on a more memetic adaptation
of existing multi-objective memetic algorithms. The introduced adaptations try to obtain more flexible
algorithms that require minimum refinements when being applied to new problems. The adaptive versions of
the algorithms were compared to the original versions and have demonstrated to have a better performance.
Also, a comparison to different approaches based on ant colonies optimization was made and it demonstrates
that memetic algorithms have a better performance. All the algorithms were tested on bi-objective versions
of well-known combinatorial optimization problems, as the Traveling Salesman Problem (TSP) and the
Quadratic Assignment Problem (QAP).
Resumen
Los algoritmos meméticos han demostrado ser exitosos en la resolución de problemas de optimización com-
binatoria. Además, están bien adaptados a la resolución de problemas de optimización multi-objetivo. Este
trabajo propone una nueva familia de algoritmos meméticos multi-objetivo, que resulta de una adaptación
más memética de los algoritmos meméticos multi-objetivo existentes en el estado del arte. Las adaptaciones
introducidas intentan obtener algoritmos más flexibles que requieran mı́nimos refinamientos previos al apli-
carse a nuevos problemas. Las versiones adaptativas de los algoritmos fueron comparadas con las versiones
originales y demostraron tener un mejor desempeño. Además, se realiza una comparación con algunos enfo-
ques de optimización basados en colonias de hormigas y se demuestra que los algoritmos meméticos tienen un
mejor desempeño. Todos los algoritmos fueron probados sobre versiones bi-objetivas de conocidos problemas
de optimización combinatoria: Traveling Salesman Problem (TSP) y Quadratic Assignment Problem (QAP).
2. Optimización Multi-Objetivo
La optimización multi-objetivo [35] consiste en el problema de hallar soluciones que optimicen k objetivos
posiblemente conflictivos entre si. El mismo puede formularse como el problema de encontrar un vector de
decisión x en el espacio de decisión X que satisfaga m restricciones y optimice un vector de objetivos y en
el espacio objetivo Y, esto es:
Optimizar y = f (x) = [f1 (x), f2 (x), . . . , fk (x)]T ∈ Y
2
sujeto a gi (x) ≥ 0, i = 1, . . . , m
donde x = [x1 , x2 , . . . , xn ]T ∈ X.
Considerando que existen varios objetivos a optimizar, no siempre es posible una tradicional comparación
unidimensional que indique si una solución es mejor que otra. En consecuencia se utiliza el conocido concepto
de dominancia Pareto [35], en el que un vector objetivo y1 domina a otro y2 (y1 Â y2 ) si y solo si y1 no es
peor que y2 en ningún objetivo y es estrictamente mejor que y2 en al menos un objetivo. Del mismo modo,
podemos decir que una solución x1 es mejor que otra x2 si f (x1 ) Â f (x2 ), se dice entonces que x1 es mejor
que x2 o que x1 domina a x2 . En el caso que ni x1 domine a x2 (x1 x2 ) ni x2 domine a x1 (x2 x1 ) se
dice que las soluciones no son comparables, lo que se denota como x1 ∼ x2 .
Las caracterı́sticas hasta ahora expuestas hacen que sea posible tener un conjunto de soluciones de
compromiso, compuesto por todas las soluciones no dominadas del dominio. A este conjunto de soluciones
óptimas se denomina conjunto Pareto (Ptrue ) y su respectiva imagen en el espacio objetivo se conoce como
frente Pareto (Ytrue ).
En el contexto de este trabajo se consideran problemas de minimización, sin que esto implique una
pérdida de generalidad.
3
mantiene una población de soluciones Cs de tamaño p. La población inicial se compone de soluciones aleato-
rias (lı́nea 1 del cuadro 1). El conjunto de soluciones no dominadas Pc se inicializa en base a las soluciones
de la población aleatoria.
En cada iteración del algoritmo, se eligen q = p − nelite pares de soluciones de la población Cs (lı́nea 4
del cuadro 1) mediante el método de la ruleta. Del conjunto tentativo de soluciones no dominadas Pc , se
seleccionan aleatoriamente nelite soluciones para completar la población actual C. Los pares de soluciones
seleccionados son recombinados para generar q descendientes. Los descendientes son mutados en base a una
probabilidad mc . La recombinación y la mutación se realiza en la lı́nea 5 del cuadro 1.
Posteriormente, todas las soluciones de la población actual son optimizadas mediante un procedimiento
de búsqueda local (lı́nea 6 del cuadro 1). El número de soluciones vecinas examinadas en cada movimiento
(posible cambio) de la búsqueda local es restringido para controlar ası́ el tiempo de ejecución consumido en
esta fase del algoritmo. Finalmente, la población Cs y el conjunto Pc son actualizados en base al conjunto
de soluciones optimizadas.
4
el uso de una hipergrilla para mantener un conjunto local de soluciones no dominadas de tamaño fijo.
Al mismo tiempo, el (1+1)-PAES actualiza el conjunto de soluciones no dominadas Pc con las soluciones
encontradas durante la búsqueda. Luego, una población temporal C 0 de tamaño p es generada mediante la
recombinación (lı́nea 5 del cuadro 1) de p pares de soluciones de Cs ∪ Pc seleccionados aleatoriamente (lı́nea
4 del cuadro 1). Finalmente, la población Cs es reemplazada por C 0 (lı́nea 7 del cuadro 1) y el conjunto de
soluciones no dominadas es actualizado a partir de C 0 (lı́nea 8 del cuadro 1).
3.6. MEMOX
En una reciente propuesta, Lust y Teghem (2006) presentan un nuevo algoritmo memético multi-objetivo
llamado MEMOX [18] que combina elementos de los algoritmos ya mencionados sin utilizar funciones es-
calarizantes. Este enfoque considera el uso de una hipergrilla dinámica de manera a medir la densidad de las
soluciones e intenta obtener diversidad mediante el esquema de selección de soluciones para la recombinación.
Este algoritmo hace uso de un conjunto de soluciones unitario (|Cs | = 1), cuya única solución es inicial-
mente generada y posteriormente utilizada para actualizar el conjunto de soluciones no dominadas Pc (lı́neas
1 y 2 del cuadro 1). A continuación, esta solución es optimizada utilizando algún procedimiento de búsqueda
local (lı́nea 6 del cuadro 1) que asegure un mı́nimo de r + 1 soluciones. El parámetro r es utilizado después
en la selección de los padres (lı́nea 4 del cuadro 1). El primer padre seleccionado es una de las soluciones de
Cs con mı́nima densidad. El segundo padre es una de las r soluciones cercanas al primer padre de acuerdo
a la distancia euclidiana en el espacio objetivo. Estas soluciones son recombinadas para generar una única
solución, es decir |C 0 | = 1 (lı́nea 5 del cuadro 1). Finalmente Cs es reemplazada por la solución de C 0 (lı́nea
7 del cuadro 1) y el conjunto de soluciones no dominadas Pc es actualizado (lı́nea 8 del cuadro 1).
4.1. Hiperheurı́sticas
Cowling et al. (2000) idearon el término hiperheurı́stica para denominar a la estrategia que maneja la
opción de qué meme utilizar en un momento determinado, dependiendo de las caracterı́sticas del espacio
actualmente explorado [4]. Los memes son seleccionados a partir de una colección de memes de acuerdo a
distintos enfoques, los cuales son catalogados en tres diferentes categorı́as [4]: enfoques aleatorios, enfoques
voraces y enfoques basados en una función de selección.
En la categorı́a de enfoques basados en una función de selección, se intenta medir que tan probable es
que un meme sea efectivo, basándose en el estado actual del conocimiento de la región del espacio solución
actualmente explorado. En [4], la función está compuesta de tres componentes que capturan la información
concerniente a la reciente efectividad de la heurı́stica (f1 ), información concerniente a la efectividad reciente
de un consecutivo par de heurı́sticas (f2 ) e información concerniente al tiempo transcurrido desde que un
meme fue por última vez utilizado (f3 ).
5
fue motivado por la idea de crear algoritmos verdaderamente meméticos [12]. Krasnogor propone también un
esquema básico de herencia en [16], donde los indidivuos se encuentran codificados con un material genético y
un material memético. El mecanismo de herencia vertical se lleva a cabo en los operadores genéticos, de esta
manera, esta forma de auto-adaptación desarrolla simultáneamente el material genético y memético. Smith
(1996) también ha trabajado en algoritmos meméticos coevolutivos, cuyos mecanismos para la selección de
los memes son similares. Estos memes están representados en forma de reglas codificadas con patrones del
tipo condición:acción, aplicados a la representación del problema particular [31].
6
impacto de este componente. Una vez que el éxito de cada meme es evaluado, el scheduler realiza la selección
utilizando la técnica de selección de la ruleta. La frecuencia con la que se realiza la selección es un parámetro
configurable y pretende controlar la sobrecarga introducida por el proceso de selección.
La definición de meme utilizada es similar a la propuesta por Krasnogor [16]. Cada meme define una
estrategia de aceptación, un movimiento básico, el número de iteraciones y otros parámetros propios de cada
meme. La colección de memes disponible se ajusta al criterio de no distorsionar la esencia de cada algoritmo.
5. Implementación Computacional
Los algoritmos meméticos utilizados en este trabajo fueron implementados en el lenguaje de programación
ANSI C (Compilador GNU C) y las pruebas de ejecución fueron realizadas sobre el sistema operativo FreeBSD
5.4 en una máquina con procesador Intel Celeron de 1.8GHz y 512MB de memoria RAM.
7
Se han realizado diez corridas de cada algoritmo para cada instancia de los problemas de prueba con-
siderados y los resultados de cada corrida fueron combinados para obtener el frente Pareto generado por el
algoritmo. El criterio de parada establecido para cada caso fue el tiempo de ejecución. La duración de cada
corrida fue estimada empı́ricamente y se estableció en 200 segundos.
Para el caso de la métrica M20 , debe calcularse un conjunto Ca = {b ∈ Y 0 | d(a, b) > σ} ∀ a ∈ Y 0 dado un
parámetro de vecindario σ dependiente del problema. Se calcula como:
1 X
M20 (Y 0 ) = 0|
|Ca | (2)
|Y − 1 0 a∈Y
8
Nomenclatura
Algoritmo Ref. Nomenclatura Adaptativa
1 Ishibuchi and Murata Multi-Objective Genetic Local Search [8] IMMOGLS AIMMOGLS
2 Multi-Objective Genetic Local Search [9] MOGLS AMOGLS
3 Pareto Memetic Algorithm [10] PMA APMA
4 Memetic Pareto Archived Evolution Strategy [11] MPAES AMPAES
5 MEMOX [18] MEMOX AMEMOX
6 Multi-Objective Ant Colony System [2] MOACS -
7 Multi-Objective Ant System [28] MAS -
8 Multi-Objective Omicron ACO [7] MOA -
9 Multi-Objective Max-Min Ant System [29] M3AS -
indicar los algoritmos comparados. Las versiones originales de los algoritmos fueron ejecutadas con el mejor
meme para cada caso. El mejor meme para cada algoritmo y problema particular fue determinado empı́ri-
camente mediante una evaluación independiente de cada meme disponible.
En los cuadros 5 y 6 se presentan los resultados promedios de las métricas de desempeño para los
problemas del TSP y QAP respectivamente. El cuadro 7 presenta los promedios generales, por familia de
algoritmos, de las métricas calculadas para ambos problemas de prueba. En el caso del QAP, la métrica
del Error no fue considerada ya que ninguno de los algoritmos obtuvo soluciones iguales o mejores que las
soluciones del frente Pareto conocido Ytrue para las instancias en cuestión.
Para el TSP, en la métrica que indica la calidad de las soluciones (M10 ) se nota que los algoritmos
meméticos superan a los algoritmos basados en colonias de hormigas. Para la métrica del error (E) y la
métrica de distribución de soluciones (M20 ), la tendencia se repite. En el caso de la métrica que calcula la
extensión del frente Pareto generado (M30 ), el MOACS y el M3AS compiten bastante bien contra los enfoques
meméticos, aunque es el AMOGLS el que tiene mejor desempeño.
En el caso del QAP, de acuerdo a la calidad (M10 ), distribución (M20 ) y extensión (M30 ) de las soluciones,
los algoritmos meméticos superan de manera contundente a los algoritmos basados en colonias de hormigas.
Considerando la comparación entre versiones adaptativas y originales de los algoritmos meméticos, se
observa que los resultados de las métricas calculadas para las versiones adaptativas son en promedio mejores
o muy cercanas a las versiones originales de los algoritmos. Esto se debe a que en ciertos casos, la versión
adaptativa dedica un tiempo considerable a explorar el uso de operadores que no son buenos para la instancia
del problema en cuestión, lo cual hace que el resultado obtenido sea ligeramente inferior a la versión original.
De la misma manera, en ciertos casos ocurre un efecto colaborativo entre operadores de exploración y
explotación, permitiendo que la aplicación de algún operador con buenas caracterı́sticas de exploración,
9
M1’ Algoritmo M2’ Algoritmo M3’ Algoritmo
1° 0,0662 AMPAES 0,8449 PMA 1,0000 PMA
2° 0,0702 AMEMOX 0,8385 AMEMOX 0,8260 APMA
3° 0,0874 MPAES 0,8125 MPAES 0,8168 MPAES
4° 0,1026 APMA 0,7508 APMA 0,8154 AMEMOX
5° 0,1085 MEMOX 0,5980 AMPAES 0,7715 MOGLS
6° 0,1092 PMA 0,5624 MEMOX 0,7579 AIMMOGLS
7° 0,1297 AMOGLS 0,5324 MOGLS 0,6952 MEMOX
8° 0,1308 AIMMOGLS 0,4688 AIMMOGLS 0,6857 AMPAES
9° 0,1428 MOGLS 0,3649 AMOGLS 0,6698 AMOGLS
10° 0,5384 IMMOGLS 0,2060 IMMOGLS 0,6489 M3AS
11° 0,9633 MOACS 0,1600 M3AS 0,5988 MAS
12° 0,9887 M3AS 0,1410 MAS 0,5909 IMMOGLS
13° 0,9952 MOA 0,0376 MOACS 0,4192 MOACS
14° 0,9995 MAS 0,0278 MOA 0,2943 MOA
ayude a salir de zonas de estancamiento en las que puede caer el algoritmo original, lo que finalmente hace
que el resultado de la versión adaptativa sea superior.
Una última comparación realizada en este trabajo, consiste en agrupar los algoritmos de acuerdo a la
familia a la que pertenecen y calcular el promedio de las métricas para tener una estimación de los promedios
generales de las métricas para ambos problemas de prueba (ver cuadro 7). Las familias de algoritmos consid-
eradas son: Multi-Objective Adaptive Memetic Algorithms (MOAMA), Multi-Objective Memetic Algorithms
(MOMA) y Multi-Objective Ant Colony Optimization (MOACO).
En el cuadro 7 se observa que en promedio, la familia MOAMA tiene una mejor evaluación en las métricas
de calidad, distribución y extensión. En la métrica del error, la familia MOMA presenta una leve ventaja.
En todos los casos, los enfoques meméticos tienen mejor evaluación que la familia MOACO.
Ası́ también, en el resultado de estas pruebas se observa que de los algoritmos meméticos implementados,
aquellos que obtienen soluciones de buena calidad para el TSP, quedan rezagados en el QAP. De la misma
manera, los algoritmos meméticos que no tienen soluciones de buena calidad en el TSP, se destacan notable-
mente en el QAP. Además, se ha observado en el resultado de las pruebas que para las versiones adaptativas
de los algoritmos, los memes con mejor evaluación coinciden con los resultados individuales obtenidos al
evaluar de manera independiente los memes para cada algoritmo y problema particular.
10
estima que el resultado final sea el obtenido por el mejor algoritmo con el mejor meme sin aplicar ningún tipo
de refinamiento particular al problema a resolver. De esta manera, se podrá disponer de un TA mucho más
flexible que tendrá mejor desempeño en problemas de la vida real, en los cuales poco o ningún conocimiento
se posee sobre los mejores algoritmos, operadores y parámetros. En vista al efecto colaborativo observado
en algunos resultados, como trabajo futuro se pretende estudiar más de cerca este fenómeno y evaluar su
impacto al utilizar la función de Cowling [4].
Agradecimientos
Agradecemos a Julio Paciello y Héctor Martı́nez quienes nos facilitaron los resultados obtenidos por sus
implementaciones de los algoritmos de optimización basados en colonias de hormigas.
Referencias
[1] Barán, B. Parallel Asynchronous Team Algorithms. In: Correa, R., Dutra, I., Fiallos, M.: Models
for Parallel and Distributed Computation: Theory, Algorithmic Techniques and Applications, Kluwer
Academic Publishers, ISBN: 1402006233, 2002.
[2] Barán, B., and Schaerer, M. A multiobjective Ant Colony System for Vehicle Routing Problems
with Time Windows. Proc. 21th IASTED Int. Conf. on Applied Informatics (2003), 97–102. Austria.
[3] Copalu, P., and Dangprasert, P. Hybrid Genetic Algorithm: Modeling and Application to the
Quadratic Assignment Problem. AU Jornal of Technology, Bangkok, 2002, Vol. 5. No. 2.
[4] Cowling, P. I., Kendall, G., and Soubeiga, E. A Hyperheuristic Approach to Scheduling a Sales
Summit. In Proc. of the 3rd Int. Conf. on the Practice And Theory of Automated Timetabling (2000).
[5] Dawkins, R. The Selfish Gene, 4th ed. Oxford University Press, New York, 1976. Chapter 11.
[6] Freisleben, B., and Merz, P. A Genetic Local Search Algorithm for Solving Symmetric and Asym-
metric Traveling Salesman Problems. In Int. Conf. on Evolutionary Computation (1996), pp. 616–621.
[7] Gardel, P., Estigarribia, H., Fernández, U., and Barán, B. Aplicación del Ómicron ACO al
problema de compensación de potencia reactiva en un contexto multiobjetivo. Congreso Argentino de
Ciencias de la Computación -CACIC’2005 (2005). Concordia - Argentina.
[8] Ishibuchi, H., and Murata, T. Multi-objective genetic local search algorithm. In Proc. of the 1996
International Conference on Evolutionary Computation (Nagoya, Japan, 1996), IEEE, pp. 119–124.
[9] Jaszkiewicz, A. Genetic local search for multiple objective combinatorial optimization. European
Journal of Operational Research, 137(1):50-71, 2002.
[10] Jaszkiewicz, A. Do multiple-objective metaheuristics deliver on their promises? A computational
experiment on the set-covering problem. IEEE Trans. Evolutionary Computation 7, 2 (2003), 133–143.
[11] Knowles, J., and Corne, D. M-PAES: A Memetic Algorithm for Multiobjective Optimization. In
Proceedings of the 2000 Congress on Evolutionary Computation CEC00, IEEE Press.
[12] Knowles, J., and Corne, D. Memetic algorithms for multiobjective optimization: issues, methods
and prospects. In Recent Advances in Memetic Algorithms. pp. 313-352. Springer.
[13] Knowles, J., and Corne, D. The Pareto archived evolution strategy : a new baseline algorithm for
Pareto multiobjective optimisation. In Proceedings of the 1999 Congress on Evolutionary Computation
(CEC’99), Volume 1, pages 98-105, 1999.
[14] Knowles, J., and Corne, D. Instance Generators and Test Suites for the Multiobjective Quadratic
Assignment Problem. In Evolutionary Multi-Criterion Optimization, Second International Conference,
EMO 2003, Faro, Portugal, April 2003, Proceedings (2003), Springer, pp. 295–310.
[15] Krasnogor, N. Studies on the Theory and Design Space of Memetic Algorithms. PhD thesis, Uni-
versity of Nottingham, 2002.
11
[16] Krasnogor, N., and Smith, J. Emergence of Profitable Search Strategies Based on a Simple Inher-
itance Mechanism. In Proceedings of the Genetic and Evolutionary Computation Conference (GECCO-
2001) (San Francisco, California, USA), Morgan Kaufmann.
[17] Lin, S. Computer Solutions of the Traveling Salesman Problem. Bell System Tech. Journal 44 (1965)
2245-2269.
[18] Lust, T., and Teghem, J. MEMOX: a Memetic Algorithm Scheme for Multiobjective Optimization.
7th Int. Conf. on Multi-Objective Programming and Goal Programming (2006).
[19] Martı́nez, H., Paciello, J., and Barán, B. Equipo distribuido de algoritmos ACO multi-objetivos.
8º Simposio Argentino de Inteligencia Artificial - ASAI 2006 - Mendoza.
[20] Merz, P. A Comparison Of Memetic Recombination Operators For The Traveling Salesman Problem.
In GECCO ’02: Proceedings of the Genetic and Evolutionary Computation Conference (San Francisco,
CA, USA, 2002), Morgan Kaufmann Publishers Inc., pp. 472–479.
[21] Merz, P., and Freisleben, B. A Comparison of Memetic Algorithms, Tabu Search, and Ant Colonies
for the Quadratic Assignment Problem. In Proceedings of the Congress on Evolutionary Computation
(Mayflower Hotel, Washington D.C., USA), vol. 3, IEEE Press.
[22] Misevicus, A. Using Iterated Tabu Search for the Traveling Salesman Problem. Information Technol-
ogy And Control, Kaunas, Technologija, 2004, No. 3(32), 29 - 40.
[23] Moscato, P. On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards
Memetic Algorithms. Tech. Rep. C3P 826, California Institute of Technology, Pasadena, USA, 1989.
[24] Moscato, P. New Ideas in Optimization. McGraw Hill, New York, 1999. Chapter Memetic Algorithms:
A Short Introduction, pages 219-234.
[25] Moscato, P., and Cotta, C. Una Introducción a los Algoritmos Meméticos. Revista Iberoamericana
de Inteligencia Artificial, 19, pp. 131-148, 2003.
[26] Moscato, P., and Tinetti, F. Blending Heuristics with a Population-Based Approach: A Memetic
Algorithm for the Traveling Salesman Problem. R.Rep.: Universidad Nacional de La Plata, 1994.
[27] Ong, Y.-S., Lim, M.-H., Zhu, N., and Wong, K. W. Classification of adaptive memetic algorithms:
a comparative study. IEEE Trans. on Systems, Man, and Cybernetics, Part B 36, 1 (2006), 141–152.
[28] Paciello, J., Martı́nez, H., Lezcano, C., and Barán, B. Algoritmos de Optimización multi-
objetivos basados en colonias de hormigas. XXXII Conferencia Latinoamericana de Informática, 2006.
[29] Pinto, D., and Baran, B. Solving multiobjective multicast routing problem with a new ant colony
optimization approach. In LANC ’05: Proceedings of the 3rd international IFIP/ACM Latin American
conference on Networking (New York, NY, USA, 2005), ACM Press, pp. 11–19.
[30] Radcliffe, N. J., and Surry, P. D. Formal Memetic Algorithms. In Evolutionary Computing, AISB
Workshop (Berlin, 1994), T. Fogarty, Ed., vol. 865, Springer-Verlang, pp. 1–16.
[31] Smith, J., and Fogarty, T. C. Self Adaptation of Mutation Rates in a Steady State Genetic
Algorithm. In International Conference on Evolutionary Computation (1996), pp. 318–323.
[32] Van Veldhuizen, D. A. Multiobjective Evolutionary Algorithms: Classifications, Analyses, and New
Innovations. PhD thesis, Wright-Patterson AFB, OH, 1999.
[33] Wolpert, D., and Macready, W. G. No free lunch theorems for optimization. IEEE Trans.
Evolutionary Computation 1, 1 (1997), 67–82.
[34] Zitzler, E., Deb, K., and Thiele, L. Comparison of Multiobjective Evolutionary Algorithms:
Empirical Results. Evolutionary Computation 8, 2 (2000), 173–195.
[35] Zitzler, E., Laumanns, M., and Bleuler, S. A Tutorial on Evolutionary Multiobjective Optimiza-
tion. Workshop on Multiple Objective Metaheuristics, Springer-Verlag, Berlin, Germany, 2004.
12