ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS

TESIS DE GRADO EN INGENIERÍA INFORMÁTICA

FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES TESISTA: Sr. Luis Federico Bertona DIRECTORES: Prof. Dr. Ramón García Martínez Prof. M. Ing. Paola Britos Laboratorio de Sistemas Inteligentes NOVIEMBRE 2005

ENTRENAMIENTO DE REDES NEURONALES BASADO EN ALGORITMOS EVOLUTIVOS

TESIS DE GRADO EN INGENIERÍA INFORMÁTICA

Laboratorio de Sistemas Inteligentes FACULTAD DE INGENIERÍA UNIVERSIDAD DE BUENOS AIRES

Sr. Luis Federico Bertona Tesista

Dr. Ramón García Martínez M. Ing. Paola Britos Directores

NOVIEMBRE 2005

Resumen
En este trabajo se estudia un método alternativo para el entrenamiento de redes neuronales con conexión hacia delante. Una vez determinada la topología de la red neuronal se utiliza un algoritmo genético para ajustar los pesos de la red neuronal. Se evalúan diferentes variantes de los operadores genéticos para el entrenamiento de las redes neuronales. Los resultados obtenidos por el algoritmo genético son contrastados con los resultados obtenidos por el algoritmo de retropropagación de errores. Palabras claves: Computación evolutiva, redes neuronales, algoritmos genéticos, entrenamiento, retropropagación.

Abstract
In this work an alternative method to train feedforward neural networks is studied. Once the topology of the neural network is determined, a genetic algorithm is used to adjust the neural network’s weights. Different variations of the genetic operators to train neural networks are evaluated. The results reached by the genetic algorithm are contrasted with the results reached by the Backpropagation Algorithm. Keywords: Evolutionary computation, neural networks, genetic algorithms, train, Backpropagation.

.

................1................................................................1..................... 25 4................................................3....... 33 5.................... 16 3............... 1 1........ 12 2............................. 5 2..................3......2..........1.......................................... Problemas del método propuesto .....3............. Pesos sinápticos ........................................4..................... Introducción ........................................................... 37 6....2......... Modos de entrenamiento........................................... Función de activación........................................................ Objetivo y marco de trabajo ...................5 Variantes de los operadores básicos ........ Métodos de gradiente descendente...............2..2............................................... 2 Capítulo 2: Redes neuronales ...5.................................................................... Aprendizaje.. 25 4........1.............................................................................................. 7 2........3......... Fase de operación............ Deducción del algoritmo Backpropagation ... 20 3........... 38 6............... ...... Algoritmo genético para entrenamiento de redes neuronales...1. Operadores de selección ....................................................................................2.................. Perceptrón multicapa ............ 19 3............................................................1..............5..................................5................................ 38 6.............. 10 2......2.. Cruza............. 12 2.............. 11 2..6...... Redes neuronales con conexión hacia delante ..... El algoritmo Backpropagation ..........................1....... Operadores de mutación.......................................... Función de salida .................... 27 4.....2...............................................7.... Organización de esta tesis............. 8 2.4.............................................. 10 2...................... 28 4............... 31 Capítulo 5: Descripción del problema......................4..1..................4...2...... Evaluación y aptitud...............................3......................3....................................... Aceleración del aprendizaje .................. El cromosoma........... Federico Bertona i ................. El modelo biológico...........................3....................................................................................................... Entradas y salidas ........... Arquitectura de una red neuronal .......... 22 Capítulo 4: Algoritmos genéticos...................1.........5............................3............ 30 4...................................3.................3....................... 27 4......... Regla de propagación ..............................Entrenamiento de redes neuronales basado en algoritmos evolutivos Índice de contenidos Capítulo 1: Introducción ......................... 16 3.................. Mutación..... Del genotipo al fenotipo......................... 13 Capítulo 3: Entrenamiento de redes neuronales ............................................ Perceptrón.......3.......................3....6....... Codificación de parámetros................... Generalización................ 9 2................5....................................................1.................... 43 6..............1.............. 46 L.............. 15 3........................................... 9 2..........................5............................................................. 39 6..........5......... Estructura de un sistema neuronal artificial ............................ 35 Capítulo 6: Solución propuesta ...........................1.....................................1........... 28 4.................................................. 38 6................. Deficiencias del algoritmo ..........................2... Operadores de inicialización ...............1................ Modelo de neurona artificial..........6.............. 8 2....................................................................... 10 2......................................................... Fase de entrenamiento....... 33 5.............................5.... 11 2....................2. 6 2... Operadores de cruza...................6.........................6....1.3.................2........... 26 4....................2..........................................2..................................................... 15 3................................... Selección.............1........................................ 8 2.............................2....... 5 2...2......................... ADALINE / MADALINE.................... Población ............... Evaluación y aptitud ..1....................... 41 6.................................................1...... 45 6. 38 6.....................................................................................

............................................................. Gestión de configuración .......................................................... 72 Capítulo 8: Conclusiones y limitaciones ............................3...........................2.................3....................................6.................2................... Comparación de ambos métodos............. Algoritmos genéticos ........... El problema de la convergencia prematura..... 239 ii L.....................................................1. 198 B......4................................................................ 197 B......................... Pantallas ...... El algoritmo backpropagation........................................................... Seleccionar tipo de entrenamiento....2...................................................... 51 7.....................................................3....1.... El problema de la permutación......................... Evaluación del método . Tipos de gráficos ....1...... 212 B.. El set de entrenamiento ........................... Seleccionar topología .................................................. 83 Apéndice A: Datos Experimentales ..........................2.......................................2.......5... 52 7... 213 B............2....2......... 201 B.. Parámetros de los algoritmos............................................................ 197 B..............2............4.1....... 197 B.........................................................................................................1.........................1........................... 55 7................................................ Requerimientos ... Implementación .........................1.................................2.......3...2.............. 199 B....... 198 B...........4.... 46 6........................................................................................ El algoritmo genético......... 47 6....... 51 7..................2....... Plataforma .............. 60 7................ Diseño experimental .........1......... 200 B.. 210 B......... 198 B.. Federico Bertona .........2....... Red Neuronal ...........3......................................................... 53 7..........2................................... 77 Referencias ......... Experimentos............ 239 B............................ 199 B.................. 54 7.. Análisis .......1............. 200 B.4..............1....... Formato de los archivos de estadísticas...........................................................2......3..4..... Cargar ejemplos de evaluación ............ 50 7.4. Cuestiones a resolver en esta tesis ............................................................. 225 B.4....................... Archivos y bloques constitutivos del sistema .........................................1..... Entrenar red neuronal ........................... Funciones implementadas .............................................................3.............6...............................................3.....2.......................... 49 7............................ Cargar ejemplos de entrenamiento..2................2.2..1...........................................................5...........................3.........................................1........ 197 B............. 214 B.......... Pruebas .............................................................5.............3.1...............Entrenamiento de redes neuronales basado en algoritmos evolutivos 6....................................................1.... Diseño ............................. 49 7...... 55 7............ 48 Capítulo 7: Experimentación .2.............5.... Estructuras de datos .......... Configurar algoritmo de entrenamiento........................ Mantenimiento................................................................................................... 89 Apéndice B: Metodología de software..3............................ 213 B..

Los algoritmos evolutivos. llamados neuronas. [Zilouchian. a otras más específicas como la demostración de teoremas matemáticos. el entrenamiento de una red neuronal puede ser visto como un proceso de optimización cuyo L. como el aprendizaje y la percepción. 1995]. et. 1991. y viene dada por el número de capas. por lo tanto. y el tipo de conexión entre neuronas. y se los llaman algoritmos de gradiente descendente [Porto. Primero. etc. Sin embargo. La organización y disposición de las neuronas dentro de una red neuronal se denomina topología. En la etapa de entrenamiento la red es capaz de aprender relaciones complejas entre entradas y salidas mediante el ajuste de los pesos de las conexiones entre neuronas. Buscan una solución del problema reproduciendo genéticamente una población de individuos a lo largo de una serie de generaciones [Koza. potencialmente relevante para cualquier ámbito de la actividad intelectual humana [Russell y Norving. Una vez determinada la topología de la red neuronal es necesario entrenarla. suelen quedar atrapados en mínimos locales. la cantidad de neuronas por capa. El verdadero poder de estos algoritmos radica en la búsqueda simultánea de la solución en un conjunto de posibles soluciones (individuos). Una red neuronal consiste en un conjunto de elementos de procesamiento. el grado de conectividad. Uno de los modelos que ha surgido para emular el proceso de aprendizaje es la red neuronal artificial. 1997]. clasificación. En el contexto de los algoritmos evolutivos. dentro de los cuales los algoritmos genéticos son los más conocidos.. control. 1998] Las redes neuronales artificiales han sido aplicadas con éxito en gran cantidad de problemas como por ejemplo reconocimiento de patrones. Widrow y Lehr [Lehr y Widrow. son una familia de modelos computacionales inspirados en la evolución y la supervivencia del más apto [Bäch. 2001]. visión. Segundo. 2001]. 1995. 2004]. 1975]. Ömer. generándose de esta manera estimaciones subóptimas de los pesos. 1994]. Actualmente esta ciencia está comprendida por varios subcampos que van desde áreas de propósito general. los algoritmos de gradiente descendente poseen dos problemas. Las redes neuronales son modelos que intentan reproducir el comportamiento del cerebro humano [Hilera y Martínez. el diagnostico de enfermedades. La Inteligencia Artificial sintetiza y automatiza tareas intelectuales y es. Whitley. los cuales se conectan entre sí [Koehn. 1990] identifican una cantidad significativa de algoritmos de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 1: Introducción La Inteligencia Artificial es la disciplina que estudia la forma de diseñar procesos que exhiban características que comúnmente se asocian con el comportamiento humano inteligente [García Martínez. Se utilizan fundamentalmente en la resolución de problemas de búsqueda y de optimización [Holland. etc. La mayoría de éstos utilizan información del gradiente de una función de error para ajustar los pesos de las conexiones. el aprendizaje es formulado como un problema de optimización. 1997]. Dada una topología fija. al. predicción. suelen ser muy lentos por utilizar pasos infinitesimales para alcanzar la solución. Federico Bertona Introducción 1 .

Se plantean los objetivos de diseño del método alternativo. Esto convierte a los algoritmos evolutivos en una alternativa a los métodos de entrenamiento tradicionales. Organización de esta tesis El resto de este trabajo se encuentra organizado de la siguiente manera: • Los capítulos 2 a 4 son capítulos introductorios. Federico Bertona • • • • • 2 . En el Capítulo 5 se enumerar las deficiencias que tiene el algoritmo de entrenamiento backpropagation y que llevan a la necesidad de buscar una forma alternativa y complementaria de entrenar redes neuronales. El objetivo de este proyecto es combinar dos técnicas utilizadas en la construcción de sistemas inteligentes. se realiza una presentación del problema. Se presentan las características de diseño del método alternativo y se proponen algunas variantes de los operadores genéticos para entrenar redes neuronales.Entrenamiento de redes neuronales basado en algoritmos evolutivos objetivo es encontrar un conjunto de pesos que minimice el error que produce la red sobre el conjunto de datos de entrenamiento. y se presentan las tecnologías utilizadas a lo largo de esta tesis. 1. los algoritmos evolutivos y las redes neuronales. Se realiza una introducción a los métodos de entrenamiento y se desarrolla en detalle el algoritmo Backpropagation. En el Capítulo 2 se presentan las redes neuronales. la solución propuesta y los resultados y conclusiones obtenidas a lo largo de los experimentos. En el Capítulo 6 se describen las características principales que convierten a los algoritmos genéticos como una alternativa interesante para entrenar redes neuronales. El Capítulo 3 está dedicado al estudio de los métodos de aprendizaje de las redes neuronales. tras definir una topología de red neuronal. los primeros sean utilizados para entrenar a las segundas. en reemplazo de los tradicionales algoritmos de entrenamiento. Se contrastará el entrenamiento de redes neuronales basado en algoritmos genéticos con el entrenamiento basado en métodos convencionales actualmente en uso. Esta descripción sirve como base para entender las características de la solución propuesta. Se introduce el concepto de generalización. Luego. ya que aquellos son capaces de no quedar atrapados en mínimos locales y. Se exponen los distintos modos de entrenamiento y se enumeran las distintas técnicas para acelerar el entrenamiento de una red neuronal. En el Capítulo 4 se introducen los conceptos generales de los algoritmos genéticos. al avanzar hacia la solución mediante operadores genéticos.2. Se describe en detalle las características de esta técnica y se realiza una descripción pormenorizada de los operadores genéticos. pueden aumentar la velocidad de convergencia a la solución. Se introducen los conceptos básicos de ésta técnica y se realiza una descripción detallada del modo de funcionamiento de las mismas. para crear un sistema donde. en los capítulos restantes. Introducción L.

Entrenamiento de redes neuronales basado en algoritmos evolutivos • El Capítulo 7 está dividido en dos partes. En el se presentan los conceptos fundamentales que se utilizaron para diseñar y desarrollar el sistema utilizado en esta tesis. En el Capítulo 8 se retoman todas las cuestiones surgidas a lo largo de este trabajo y se responden a las mismas en base a los resultados experimentales y/o los fundamentos teóricos introducidos. • • • L. Federico Bertona Introducción 3 . En la primera de ellas se realiza una presentación del diseño experimental. Se describen las características de los experimentos y la manera en que se analizarán los resultados. También en este capítulo se identifican las limitaciones del trabajo y se plantean futuras líneas de investigación. La segunda parte de dicho capítulo esta dedicada a la presentación de los resultados y al análisis de los mismos. Contiene las conclusiones finales de este trabajo. En el Apéndice A se despliegan los datos numéricos obtenidos a lo largo de la etapa de experimentación. Se muestran los principales resultados obtenidos a lo largo de cada experimento de manera gráfica y se realiza una descripción detallada de los mismos. En el Apéndice B se introduce la metodología de software aplicada al desarrollo realizado en esta tesis.

.

El espacio entre dos neuronas vecinas se denomina sinapsis.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 2: Redes neuronales Las redes neuronales artificiales (RNA) son modelos matemáticos que intentan reproducir el funcionamiento del sistema nervioso. Figura 2. compuesto por las dendritas. Una neurona es una célula viva y como tal posee todos los elementos comunes de las células biológicas. o incluso por muerte neuronal. La intensidad de una sinapsis no es fija. Las dendritas actúan como un canal de entrada de señales provenientes desde el exterior hacia la neurona. Como todo modelo. realizan una simplificación del sistema real que simulan y toman las características principales del mismo para la resolución de una tarea determinada. A su vez. la modificación de la intensidad de la sinapsis. lo que las diferencia del resto de las células biológicas. mientras que el axón actúa como un canal de salida. En el córtex cerebral se observa una organización horizontal en capas. el cual suele ramificarse cerca de su extremo. De esta manera la estructura del cerebro no permanece fija sino que se va modificando por la formación de nuevas conexiones. La figura 2. Federico Bertona Redes neuronales 5 . la destrucción de conexiones. ya sean excitadoras o inhibidoras. llamada axón. las neuronas tienen características propias que le permiten comunicarse entre ellas. así como también una organización vertical en columnas de neuronas.1. sino que puede ser modificada en base a la información proveniente del medio. Neurona biológica De la figura se observa que la neurona biológica esta compuesta por un cuerpo celular o soma. El modelo biológico El cerebro es el elemento principal del sistema nervioso humano y está compuesto por un tipo especial de célula llamada neurona.1. Del soma también parte una fibra tubular.1 muestra la estructura típica de una neurona biológica. L. del cual se desprende árbol de ramificaciones llamado árbol dendrítico. 2.

Estas señales pueden ser excitadoras (positivas) o inhibidoras (negativas) [Gurney. Las señales nerviosas pueden ser eléctricas o químicas. La neurona artificial es un elemento de procesamiento simple y constituye el elemento principal de un sistema neuronal artificial. De esta manera pueden aprender de la experiencia y generalizar conceptos. 1994].2. mientras que la eléctrica se produce dentro de una neurona [García Martínez. Estas neuronas artificiales se combinan en estructuras denominadas capas. [Nascimiento. El pulso eléctrico se propaga a través del axón en dirección a las sinapsis. El principal objetivo de este modelo es la construcción de sistemas capaces de presentar un cierto comportamiento inteligente. Constan de un subsistema de entrada (dendritas). mediante la liberación de neurotransmisores.Entrenamiento de redes neuronales basado en algoritmos evolutivos Desde un punto de vista funcional. 2. 1997]. La comunicación entre neuronas se lleva a cabo de la siguiente manera: en el soma de las neuronas transmisoras o presinápticas se genera un pulso eléctrico llamado potencial de acción. 2002] El verdadero poder de este modelo radica en el procesamiento paralelo realizado por las neuronas artificiales. Al llegar la señal al extremo del axón se liberan neurotransmisores que permiten transmitir la señal a las neuronas vecinas. una de las características principales de las neuronas. El soma es el encargado de integrar la información proveniente de las distintas neuronas. las neuronas conforman un procesador de información sencillo. dándole a este sistema cierta tolerancia a fallos. Una red neuronal artificial esta un compuesta por un conjunto de capas. la información se encuentre distribuida a lo largo de las sinapsis de la red. La transmisión química se da principalmente en la comunicación entre neuronas. Estos neurotransmisores se transmiten a través de la sinapsis hacia la neurona receptora. una neurona recibe información de cientos de neuronas vecinas y la transmite a otras tantas neuronas. 6 Redes neuronales L. La neurona receptora o postsináptica toma la señal enviada por cientos de neuronas a través de las dendritas y la transmite al cuerpo celular. Esto implica la capacidad de aprender a realizar una determinada tarea. La información se transmite a las neuronas vecinas utilizando un proceso químico. las redes neuronales artificiales son capaces de adaptar su funcionamiento a distintos entornos modificando sus conexiones entre neuronas. 2003]. De esta manera. Estructura de un sistema neuronal artificial Como se dijo anteriormente. Federico Bertona . distribuido y adaptativo. las redes neuronales son modelos matemáticos que intentan reproducir el comportamiento del cerebro humano. es su capacidad de comunicarse. un subsistema de procesamiento (el soma) y un subsistema de salida (axón) Como se menciono antes. Las características principales que reproducen las redes neuronales artificiales se pueden reducir a los siguientes tres conceptos: procesamiento paralelo. Si la señal resultante supera un determinado umbral (umbral de disparo) el soma emite un pulso que se transmite al lo largo del axón dando lugar a la transmisión eléctrica a lo largo de la neurona. y que la distinguen del resto de las células. A su vez. et alt. En general. [Del Brio y Sanz Molina.

2. Neurona artificial • • Conjunto de entradas. Provee el estado de activación actual de la neurona i. Redes neuronales 7 • • L. Federico Bertona . a las cuales se las denomina neuronas ocultas. hi(t)).3. Las que reciben información desde otras neuronas artificiales. donde se realiza la representación de la información almacenada. xj(t)). Peso sinápticos. Pueden ser excitadores o inhibidores Regla de propagación.2 muestra los elementos que componen una neurona artificial: Figura 2. Modelo de neurona artificial La neurona artificial es un elemento de procesamiento simple que a partir de un vector de entradas produce una única salida. donde cada una de las cuales tiene su contraparte en el sistema nervioso: 1. σi(wij. wij.Entrenamiento de redes neuronales basado en algoritmos evolutivos Por último. en particular en sus sinapsis. 3. y los módulos lógicos adicionales conforman un sistema neuronal artificial. Las que reciben la información procesada y las devuelven al exterior. un conjunto de redes neuronales. Integra la información proveniente de las distintas neuronas artificiales y proporciona el valor del potencial postsináptico de la neurona i. Representan el grado de comunicación entre la neurona artificial j y la neurona artificial i. En general podemos encontrar tres tipos de neuronas artificiales. La figura 2. 2. Función de activación. xj(t). Las que reciben información directamente desde el exterior. fi(ai(t-1). 2. Es en estas neuronas. A estas neuronas se las denomina neuronas de salida. a las cuales se las denomina neuronas de entrada. Estas pueden ser provenientes del exterior o de otras neuronas artificiales. junto con las interfases de entrada y salida.

la salida producida por una neurona i.3. negativos o cero. 1]. Las neuronas binarias (digitales) sólo admiten dos valores posibles.3.2. En caso de una entrada positiva. Entradas y salidas Las entradas y salidas de una neurona pueden ser clasificadas en dos grandes grupos. Por su parte. En general en este tipo de neurona se utilizan los siguientes dos alfabetos {0. El potencial resultante hi se puede expresar de la siguiente manera: hi (t ) = σ i ( wij . las neuronas continuas (analógicas) admiten valores dentro de un determinado rango. x j (t )) (2. Representa la salida actual de la neurona i. para un determinado instante de tiempo t puede ser escrita en forma general de la siguiente manera y i (t ) = Fi ( f i [ai (t − 1). no existe comunicación entre el par de neuronas.1}. En caso de que el peso sea cero.1} o {-1. mientras que un peso negativo actúa como inhibidor. Regla de propagación La regla de propagación determina el potencial resultante de la interacción de la neurona i con las N neuronas vecinas. un peso positivo actúa como excitador.3. 2.1) A continuación se estudian cada uno de los puntos introducidos anteriormente. la neurona presináptica i y la neurona postsináptica j. binarias o continuas.3. La selección del tipo de neurona a utilizar depende de la aplicación y del modelo a construir.Entrenamiento de redes neuronales basado en algoritmos evolutivos • Función de salida. 2. 2. De esta forma. Los pesos sinápticos pueden tomar valores positivos. Fi(ai(t)). σ i ( wij . Federico Bertona . x j (t ))]) (2.2) La regla de propagación más simple y utilizada consiste en realizar una suma de las entradas ponderadas con sus pesos sinápticos correspondientes: 8 Redes neuronales L.1. Mediante el ajuste de los pesos sinápticos la red es capaz de adaptarse a cualquier entorno y realizar una determinada tarea. que en general suele definirse como [-1. Pesos sinápticos El peso sináptico wij define la fuerza de una conexión sináptica entre dos neuronas.

Entrenamiento de redes neuronales basado en algoritmos evolutivos

hi (t ) = ∑ wij * x j (t )
j

(2.3)

2.3.4. Función de activación
La función de activación determina el estado de activación actual de la neurona en base al potencial resultante hi y al estado de activación anterior de la neurona ai(t-1). El estado de activación de la neurona para un determinado instante de tiempo t puede ser expresado de la siguiente manera: a i (t ) = f i (ai (t − 1), hi (t )) (2.4)

Sin embargo, en la mayoría de los modelos se suele ignorar el estado anterior de la neurona, definiéndose el estado de activación en función del potencial resultante hi: ai (t ) = f i (hi (t )) (2.5)

La tabla 2.1 muestra un listado de algunas de las funciones de activación más utilizadas en los distintos modelos de redes neuronales artificiales. Función Identidad Escalón Formula y=x Rango [-∞,∞] [0,1] [-1,1] [-1,1]
si -1≤ x ≤1 si x >1 si x <-1

{ +01 1 y = {+1 −
y =
⎧ x ⎪ y = ⎨ +1 ⎪ −1 ⎩

si x ≥0 si x <0
si x ≥0 si x <0

Lineal a tramos

Sigmoidea Sinusoidal

[0,1] 1 −x 1+ e y = tanh(x) [-1,1] y = Sen(ω .x + ϕ ) [-1,1] Tabla 2.1. Funciones de activación

y=

2.3.5. Función de salida
La función de salida proporciona el valor de salida de la neurona, en base al estado de activación de la neurona. En general se utiliza la función identidad, es decir:

y i (t ) = Fi (ai (t )) = ai (t )

(2.6)

L. Federico Bertona

Redes neuronales

9

Entrenamiento de redes neuronales basado en algoritmos evolutivos

2.4. Arquitectura de una red neuronal
Una vez definida el tipo de neurona que se utilizará en un modelo de redes neuronales artificiales es necesario definir la topología de la misma. La organización y disposición de las neuronas dentro de una red neuronal se denomina topología, y viene dada por el número de capas, la cantidad de neuronas por capa, el grado de conectividad, y el tipo de conexión entre neuronas. Las neuronas suelen agruparse en unidades funcionales denominadas capas. Se denomina capa de entrada a aquella que esta compuesta por neuronas de entradas y por lo tanto recibe información procedente desde el exterior. Análogamente, se denomina capa oculta y capa de salida a aquellas capas que están compuestas por neuronas ocultas y de salida respectivamente. Una red neuronal artificial esta compuesta por una o más capas, las cuales se encuentran interconectadas entre sí. Entre un par de neuronas de la red neuronal artificial pueden existir conexiones. Estas conexiones son las sinapsis, tienen asociadas un peso sináptico, y son direccionales. Cuando la conexión se establece entre dos neuronas de una misma capa hablamos de conexiones laterales o conexiones intra-capa. Por el contrario, si la conexión se establece entre neuronas de distintas capas se la denomina conexión inter-capa. Si la conexión se produce en el sentido inverso al de entrada-salida la conexión se llama recurrente o realimentada. Una red puede estar formada por una única capa de neuronas. En este caso hablamos de redes monocapa, y las neuronas que conforman dicha capa cumplen la función de neuronas de entrada y salida simultáneamente. Cuando la red esta compuesta por dos o más capas hablamos de redes multicapa. A su vez, hablamos de redes neuronales con conexión hacia delante (redes feedforward) cuando las conexiones entre las distintas neuronas de la red siguen un único sentido, desde la entrada de la red hacia la salida de la misma. Cuando las conexiones pueden ser tanto hacia delante como hacia atrás hablamos de redes recurrentes (redes feedback).

2.5. Aprendizaje
Durante la operatoria de una red neuronal podemos distinguir claramente dos fases o modos de operación: la fase de aprendizaje o entrenamiento, y la fase de operación o ejecución. Durante la primera fase, la fase de aprendizaje, la red es entrenada para realizar un determinado tipo de procesamiento. Una vez alcanzado un nivel de entrenamiento adecuado, se pasa a la fase de operación, donde la red es utilizada para llevar a cabo la tarea para la cual fue entrenada.

2.5.1. Fase de entrenamiento.
Una vez seleccionada el tipo de neurona artificial que se utilizará en una red neuronal y determinada su topología es necesario entrenarla para que la red 10 Redes neuronales L. Federico Bertona

Entrenamiento de redes neuronales basado en algoritmos evolutivos pueda ser utilizada. Partiendo de un conjunto de pesos sinápticos aleatorio, el proceso de aprendizaje busca un conjunto de pesos que permitan a la red desarrollar correctamente una determinada tarea. Durante el proceso de aprendizaje se va refinando iterativamente la solución hasta alcanzar un nivel de operación suficientemente bueno. El proceso de aprendizaje se puede dividir en tres grandes grupos de acuerdo a sus características [Isasi Viñuela y Galván León, 2004], [Yao, 1999]: • Aprendizaje supervisado. Se presenta a la red un conjunto de patrones de entrada junto con la salida esperada. Los pesos se van modificando de manera proporcional al error que se produce entre la salida real de la red y la salida esperada. • Aprendizaje no supervisado. Se presenta ala red un conjunto de patrones de entrada. No hay información disponible sobre la salida esperada. El proceso de entrenamiento en este caso deberá ajustar sus pesos en base a la correlación existente entre los datos de entrada. • Aprendizaje por refuerzo. Este tipo de aprendizaje se ubica entre medio de los dos anteriores. Se le presenta a la red un conjunto de patrones de entrada y se le indica a la red si la salida obtenida es o no correcta. Sin embargo, no se le proporciona el valor de la salida esperada. Este tipo de aprendizaje es muy útil en aquellos casos en que se desconoce cual es la salida exacta que debe proporcionar la red.

2.5.2. Fase de operación.
Una vez finalizada la fase de aprendizaje, la red puede ser utilizada para realizar la tarea para la que fue entrenada. Una de las principales ventajas que posee este modelo es que la red aprende la relación existente entre los datos, adquiriendo la capacidad de generalizar conceptos. De esta manera, una red neuronal puede tratar con información que no le fue presentada durante de la fase de entrenamiento.

2.6. Redes neuronales con conexión hacia delante
Las redes neuronales artificiales con conexión hacia delante son el tema central de esta tesis. Este tipo de red, que se caracteriza por su organización en capas y conexiones estrictamente hacia delante, utiliza algoritmos de entrenamiento del tipo supervisado. Este grupo de red es el más utilizado en aplicaciones prácticas que utilicen redes neuronales, obteniéndose muy buenos resultados fundamentalmente como clasificadores de patrones y estimadores de funciones. Dentro de este grupo de redes neuronales encontramos al perceptrón, la red ADALINE/MADALINE, y al perceptrón multicapa.

L. Federico Bertona

Redes neuronales

11

Entrenamiento de redes neuronales basado en algoritmos evolutivos

2.6.1. Perceptrón.
Este modelo tiene gran importancia histórica ya que fue el primer modelo en poseer un mecanismo de entrenamiento que permite determinar automáticamente los pesos sinápticos que clasifican correctamente a un conjunto de patrones a partir de un conjunto de ejemplos. La arquitectura del perceptrón esta compuesta por dos capas de neuronas, una de entrada y una de salida. La capa de entrada es la que recibe la información proveniente del exterior y la transmite a las neuronas sin realizar ningún tipo de operación sobre la señal de entrada. En general la información entrante es binaria. La función de activación de las neuronas de un perceptrón es del tipo escalón, dando de esta manera sólo salidas binarias. Cada neurona de salida del perceptrón representa a una clase. Una neurona de salida responde con 1 si el vector de entrada pertenece a la clase a la que representa y responde con 0 en caso contrario. La operación de un perceptrón con n neuronas de entrada y m neuronas de salidas puede ser resumida de la siguiente manera:
y i (t) = f( ∑ wij x j − θ i ) ∀i, 1≤i≤m
j =1 n

(2.7)

El algoritmo de entrenamiento del perceptrón se encuentra dentro de los denominados algoritmos por corrección de errores. Este tipo de algoritmos ajustan los pesos de manera proporcional a la diferencia entre la salida actual proporcionada por la red y la salida objetivo, con el fin de minimizar el error producido por la red. Se puede demostrar que este método de entrenamiento converge siempre en un tiempo finito y con independencia de los pesos de partida, siempre que la función a representar sea linealmente separable. El principal problema de este método de entrenamiento es que cuando la función a representar no es linealmente separable el proceso de entrenamiento oscilará y nunca alcanzará la solución. Las funciones no separables linealmente no pueden ser representadas por un perceptrón.

2.6.2. ADALINE / MADALINE
Otro de los modelos que tienen gran importancia es la red neuronal ADALINE. La topología de la red ADALINE es similar a la del perceptrón sólo que en este caso la función de salida de las neuronas es lineal. Dado que las señales de entrada pueden ser continuas, la red ADALINE es un dispositivo de entrada/salida analógica (continua) a diferencia del perceptrón que de acuerdo a lo dicho anteriormente es un dispositivo entrada/salida digital (binaria) La operación de una red ADALINE con n neuronas de entrada y m neuronas de salidas puede ser resumida de la siguiente manera:
y i (t) = ∑ wij x j − θ i ∀i, 1≤i≤m
j =1 n

(2.8)

12

Redes neuronales

L. Federico Bertona

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Sin embargo, la principal diferencia entre la red ADALINE y el perceptrón consiste en la regla de aprendizaje que utilizan. En el caso de la red ADALINE implementa como método de aprendizaje la regla de Widrow-Hoff, también conocida como regla LMS (Least Mean Squares, mínimos cuadrados), que realiza una actualización continua de los pesos sinápticos de acuerdo a la contribución de cada neurona sobre el error total de la red. Este método produce un conjunto de pesos sinápticos óptimos desde el punto de vista de los mínimos cuadrados (un conjunto de pesos que minimiza el error cuadrático que comete la red), y en caso de que los vectores de entrada sean linealmente independientes produce una asociación perfecta entre entradas-salidas. Existe una versión multicapa de la ADALINE denominada MADALINE (Multiple ADALINE, múltiples Adalides) que consiste en una red neuronal con neuronas similares a las de la ADALINE pero que contiene capas de neuronas ocultas.

2.6.3. Perceptrón multicapa
El perceptrón multicapa es una extensión del perceptrón simple. La topología de un perceptrón multicapa esta definida por un conjunto de capas ocultas, una capa de entrada y una de salida. No existen restricciones sobre la función de activación aunque en general se suelen utilizar funciones sigmoideas. La operación de un perceptrón multicapa con una única capa oculta puede ser resumida de la siguiente manera:

z k = ∑ w' kj y i − θ 'i = ∑ w' kj f (∑ w ji xi − θ i ) − θ 'i
j j i

(2.9)

Este modelo es el más utilizado en la actualidad. El espectro de aplicaciones del perceptrón multicapa es muy amplio lo que hace muy difícil enumerar sus aplicaciones más relevantes. Sin embargo, podemos mencionar algunas áreas de aplicación:

• • •

Codificación de información Traducción de texto en lenguaje hablado Reconocimiento óptico de caracteres (OCR)

La popularidad de este modelo de redes neuronales no se debe únicamente al éxito obtenido en aplicaciones prácticas del mismo. Existen demostraciones teóricas que permiten explicar el éxito de dichas aplicaciones. En [Funahashi, 1989] se demuestra que un perceptrón multicapa cuya función de activación sea no constante, acotada y monótona creciente es un aproximador universal de funciones. En [Hornik et alt, 1989] se llega a un resultado similar utilizando funciones de activación sigmoideas, no necesariamente continuas.

L. Federico Bertona

Redes neuronales

13

.

se actualizan los pesos siguiendo el sentido contrario al indicado por el gradiente ∇E(W). en el cual se va refinando la solución hasta alcanzar un nivel de operación suficientemente bueno. 3. Partiendo de un conjunto de pesos sinápticos aleatorio. El método de optimización proporciona una regla de actualización de los pesos que en función de los patrones de entrada modifica iterativamente los pesos hasta alcanzar el punto óptimo de la red neuronal. pudiendo ser diferente para cada peso e idealmente debería ser infinitesimal. L. La dirección de máximo crecimiento de la función E(W) en W(0) viene dado por el gradiente ∇E(W). el proceso de aprendizaje busca un conjunto de pesos que permitan a la red desarrollar correctamente una determinada tarea. 1993]. El tamaño del paso es un factor importante a la hora de diseñar un método de estas características. W (t + 1) = W (t ) − α∇E (W ) (3.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 3: Entrenamiento de redes neuronales En el contexto de las redes neuronales el aprendizaje puede ser visto como el proceso de ajuste de los parámetros libres de la red [Yao. El objetivo del aprendizaje será encontrar la configuración de pesos que corresponda al mínimo global de la función de error. Este método define una función E(W) que proporciona el error que comete la red en función del conjunto de pesos sinápticos W. 1997]. Si se toma un paso muy chico el proceso de entrenamiento resulta muy lento. dirección que indica el sentido de máximo decrecimiento [Defalco. De este modo se va produciendo un descenso por la superficie de error hasta alcanzar un mínimo local. La mayoría de los métodos de entrenamiento utilizados en las redes neuronales con conexión hacia delante consisten en proponer una función de error que mida el rendimiento actual de la red en función de los pesos sinápticos. El proceso de aprendizaje es un proceso iterativo. Luego.1. Métodos de gradiente descendente El método de entrenamiento más utilizado es el método del gradiente descendente. El principio general del método es el siguiente: dado un conjunto de pesos W(0) para el instante de tiempo t=0. aunque en muchos casos es suficiente encontrar un mínimo local lo suficientemente bueno [Cauwenberghs. se calcula la dirección de máxima variación del error. mientras que si el tamaño del paso es muy grande se producen oscilaciones en torno al punto mínimo. 1995].1) donde α indica el tamaño del paso tomado en cada iteración. El objetivo del método de entrenamiento es encontrar el conjunto de pesos sinápticos que minimizan (o maximizan) la función. Federico Bertona Entrenamiento de redes neuronales 15 .

hacia todas las neuronas de las capas intermedias [Fritsch. hi (t ) = ∑ wij * x j (t ) j (3. Esta salida se compara con la salida deseada y se calcula el error cometido por cada neurona de salida.3) Como se explico anteriormente el primer paso de este algoritmo consiste en propagar hacia delante un patrón de entrada Xp y obtener la salida de la red Yp. Basándose en el error recibido. el cual se propaga por las distintas capas que componen la red hasta producir la salida de la misma. Cada neurona recibe un error que es proporcional a su contribución sobre el error total de la red. Federico Bertona . 1996].2) Si tomamos una variación proporcional al gradiente de una función de error E(W) tenemos que: W (t + 1) = W (t ) − α∇E[W (t )] (3. Deducción del algoritmo Backpropagation El algoritmo propone una actualización iterativa de los pesos de la siguiente manera: W (t + 1) = W (t ) + ∆W (t ) (3.1. 3. Es un método de aprendizaje supervisado de gradiente descendente.2. en el que se distinguen claramente dos fases: primero se aplica un patrón de entrada.Entrenamiento de redes neuronales basado en algoritmos evolutivos 3.5) La regla de propagación más simple y utilizada consiste en realizar una suma de las entradas ponderadas con sus pesos sinápticos correspondientes. obteniéndose un error que viene dado por 16 Entrenamiento de redes neuronales L. partiendo de la capa de salida.2.4) ai (t ) = f i (hi (t )) (3. Estos errores se transmiten hacia atrás. se ajustan los errores de los pesos sinápticos de cada neurona. El algoritmo Backpropagation El algoritmo backpropagation es el método de entrenamiento más utilizado en redes con conexión hacia delante.6) Se compara la salida obtenida Yp con la salida deseada Dp. Si consideramos la función de salida identidad tenemos que y i (t ) = Fi (ai (t )) = ai (t ) Siendo (3. La salida de la neurona i viene dada según su estado de activación.

9) obtenemos que ∂e p ∂w ji = ∂e p ∂h j ∂h j ∂w ji (3. Federico Bertona Entrenamiento de redes neuronales 17 .12) ∂e p ∂w ji = −δp j y pi (3.8) siendo p el índice de ejemplo.6) de la siguiente manera ∂h j ∂w ji = ∂ ∑ w ji y pi i ∂w ji = y pi (3.9) queda expresada de la siguiente manera L.11) Si escribimos al primer término de la ecuación (3. La derivada del error respecto al potencial resultante hj indica como varia el error al variar la entrada de la neurona j.3) la variación de los pesos sinápticos será proporcional al gradiente de la función de error: ∆w ji = −α ∂e p ∂w ji (3.9) Si aplicamos la regla de la cadena a (3. De acuerdo a la ecuación (3.10) La ecuación (3.7) donde k es el índice de neurona para las neuronas de la última capa. mientras que la derivada con respecto al peso sináptico wji indica como varia la entrada de la neurona j al variar el peso de la conexión que va desde la neurona i hasta la neurona j. y M el total de neuronas de la misma. El error total de la red esta dado por e= ∑e p =1 P p P (3.10) lo podemos expresar a partir de la ecuación (3.Entrenamiento de redes neuronales basado en algoritmos evolutivos ep = 1 M ∑ (d pk − y pk ) 2 2 k =1 (3.13) y por lo tanto la ecuación (3. y P el numero total de ejemplos. El segundo termino de la expresión (3.10) expresa la derivada del error en función de dos derivadas.10) como ∂e p ∂h j tenemos que = −δ pj (3.

15) es simple si observamos las ecuaciones (3.18) • La neurona j es una neurona oculta En este caso es necesario aplicar nuevamente la regla de la cadena ∂e p ∂y pj ⎛ ∂e p ∂hk = ∑⎜ ⎜ k ⎝ ∂hk ∂y pj ⎞ ⎟ ⎟ ⎠ (3.19) Donde k es el subíndice de las neuronas que pertenecen a la próxima capa.4) y (3. • La neurona j es una neurona de salida En este caso podemos obtener el segundo término a partir de la ecuación (3.17) Así.6) 18 Entrenamiento de redes neuronales L. Federico Bertona . para el cálculo del primer término de la ecuación (3.5) ∂y pj ∂h j = ∂f j (h j ) ∂h j = f j' (h j ) (3.7) ya que el subíndice j es igual al subíndice k ∂e p ∂y pj ∂ = 1 M ∑ (d pj − y pj ) 2 2 j =1 = −(d pj − y pj ) ∂y pj (3.19) la podemos reescribir utilizando la ecuación (3.Entrenamiento de redes neuronales basado en algoritmos evolutivos ∆w ji = −αδ pj y pj (3.15) es necesario distinguir entre dos casos diferentes.15) El cálculo del segundo término de la ecuación (3. la variación de los pesos de una conexión que va hacia la capa externa de la red se calcula como: ∆w ji = α (d pj − y pj ) f j' (h j ) y pi (3.16) sin embargo. La ecuación (3.14) Para calcular el valor de delta se vuelve a aplicar la regla de la cadena δ pj = − ∂e p ⎛ ∂e p ∂y pj ⎞ ⎟ = −⎜ ⎜ ∂y ∂h ⎟ ∂h j j ⎠ ⎝ pj (3.

Entrenamiento de redes neuronales basado en algoritmos evolutivos ⎛ ⎜ ⎜ ∂e p ∂e p = ∑⎜ ∂y pj k ⎜ ∂hk ⎜ ⎝ ⎛ ⎞⎞ ∂⎜ ∑ wkj y pj ⎟ ⎟ ⎜ ⎟⎟ ⎛ ∂e p ⎞ ⎝ j ⎠ ⎟ ⎟ = ∑⎜ ⎜ ∂h wkj ⎟ ∂y pj ⎠ ⎟ k ⎝ k ⎟ ⎠ (3. Federico Bertona Entrenamiento de redes neuronales 19 .14) expresada de la siguiente manera: ∆w ji (t + 1) = αδ pj y pj + β∆w ji (t ) (3.22) En la implementación del algoritmo. la variación de los pesos de una conexión que va desde una capa hacia otra capa de la red que no sea la externa se calcula como: ∆w ji = α ∑ (δ pk wkj ) f j' (h j ) y pi k (3. ya que si la modificación de los pesos en los instantes t y t+1 es en la misma dirección. quedando la expresión (3.20) y por la ecuación (3.2. En cambio. si la tasa de aprendizaje es muy alta puede dar lugar a oscilaciones en torno a un mínimo local.2. el algoritmo backpropagation queda expresado de la siguiente manera: w ji (t + 1 ) = w ji (t) + αδ pj y pj + β∆w ji (t) ⎧(d pj − y pj )f j' (h j ) ⎪ siendo δ pj = ⎨⎛ ⎞ ' ⎪⎜ ∑ δ pk wkj ⎟ f j (h j ) ⎠ ⎩⎝ k [ ] si j es una neurona de salida si j es una neurona oculta 3. Con este momento se consigue la convergencia de la red en menor numero de iteraciones. entonces el descenso por la superficie de error en t+1 es mayor. ya que esto significa que se a pasado por un mínimo. A mayor tasa de aprendizaje el proceso será más rápido. se toma una amplitud de paso que viene dado por la tasa de aprendizaje (α). el paso que se da en t+1 es más pequeño. Modos de entrenamiento L. Sin embargo.23) De esta manera el momento β determina el efecto en el instante t+1 del cambio de los pesos realizado en el instante t.12) tenemos que ∂e p ∂y pj = ∑ − δ pk wkj = −∑ δ pj wkj k k (3.21) Así. si la modificación en los pesos en los instantes t y t+1 se produce en direcciones opuestas. lo que es adecuado. Es posible disminuir el impacto de dichas oscilaciones mediante la adición de un momento (β). Resumiendo.

Entrenamiento de redes neuronales basado en algoritmos evolutivos Durante la aplicación del algoritmo backpropagation.8) y (3. tras la presentación de todo el set de entrenamiento. • Modo Secuencial En este modo de entrenamiento la actualización de los pesos sinápticos se produce tras la presentación de cada ejemplo de entrenamiento [Yao. Así. Federico Bertona . La forma en que se actualizan los pesos sinápticos da lugar a dos modos de entrenamientos distintos.9) como: ∆w ji = −α ∂e α =− ∂w ji N ∑e n =1 N ∂e j j ∂w ji (3. La variación de los peso sinápticos. Cada presentación completa al perceptrón multicapa del set de entrenamiento se denomina epoch.3. cada uno con sus ventajas y desventajas. se puede calcular a partir de las ecuaciones (3. Para cada epoch se calcula el error cuadrático medio (3.7).24) Luego. 1993a]. el éxito 20 Entrenamiento de redes neuronales L. el modo de entrenamiento secuencial convierte a la búsqueda en el espacio de pesos en estocástica por naturaleza. Si los patrones de entrenamiento se presentan a la red de manera aleatoria. Por su parte. Sin embargo. y disminuye la probabilidad de que el algoritmo backpropagation quede atrapado en un mínimo local. (3. Si un set de entrenamientos posee N ejemplos.8) producido por la red. garantizando de esta manera la convergencia hacia un mínimo local. Aceleración del aprendizaje Como se menciono previamente las redes el algoritmo backpropagation ha sido utilizado con éxito en gran cantidad de aplicaciones. Sin embargo. el uso del modo de entrenamiento batch provee una estimación precisa del vector gradiente. la naturaleza estocástica del modo de entrenamiento secuencial dificulta el establecimiento de condiciones teóricas para la convergencia del algoritmo. el aprendizaje se produce mediante la presentación sucesiva de un set de entrenamiento.2. la derivada podemos definirla de la misma manera que la definimos previamente. el modo secuencial de entrenamiento tiene como resultado N correcciones de pesos sinápticos durante cada epoch. el proceso de aprendizaje se repite epoch tras epoch hasta que los pesos sinápticos se estabilizan y la performance de la red converge a un valor aceptable. para un set de entrenamiento de N ejemplos. 3. de allí que también es conocido como modo por patrón. • Modo Batch En este modo de entrenamiento la actualización de los pesos sinápticos se produce una única vez.

Por ello se han realizado una serie de métodos que permiten mejorar significativamente la performance del algoritmo. Desplazando el valor objetivo un offset e del valor máximo de la función se reduce el riesgo de que las neuronas ocultas se saturen. El algoritmo backpropagation tiende a saturar las neuronas ocultas cuando el valor objetivo es igual al máximo de la función de activación. Una técnica que permite acelerar el tiempo de aprendizaje es desplazar el valor objetivo del valor máximo de la función. Se aplica en aquellos casos en que un atributo toma un conjunto discreto de valores. esta es una buena técnica para acelerar los tiempos de entrenamiento [Bishop. La selección de los valores objetivos debe hacerse de acuerdo a la función de activación seleccionada.Entrenamiento de redes neuronales basado en algoritmos evolutivos y la velocidad de convergencia de este mecanismo de entrenamiento tienen un alto grado de dependencia de la configuración del mismo. Si un atributo sólo puede tomar N valores diferentes. Cada ejemplo presentado a la red debe cumplir con las siguientes dos premisas: o Maximizar el error de entrenamiento o Maximizar la información • • Presentación de los ejemplos. Preprocesamiento de los ejemplos. Normalización de las entradas. El modo en que se presentan los ejemplos es otro factor importante a tener en cuenta. Esto es especialmente cierto cuando el set de datos es grande y altamente redundante [Chinrungrueng. lo que produce un aumento en el tiempo total de entrenamiento. • Modo de actualización. la entrada de la red puede 21 • • • • L. El uso de funciones antisimétricas en general produce mejores tiempos que el uso de funciones no simétricas. Valores objetivos. Si bien el algoritmo backpropagation no exige que los valores de entrada a la red se encuentren normalizados. Set de datos. La aleatorización del orden en que se presentan los ejemplos en los distintos epochs evita que los resultados se vean distorsionados por el orden de los ejemplos Función de activación. Cuando esto sucede se produce el efecto de parálisis. La normalización de las entradas debe realizarse de manera tal que el valor medio de la misma se encuentre cercano a cero. 1993]. 1996]. El uso de una función de activación adecuada puede acelerar notoriamente el tiempo de entrenamiento. La calidad del set de datos es un factor muy importante a tener en cuenta. La actualización secuencial es más rápida computacionalmente y demanda menos recursos que la actualización batch. Federico Bertona Entrenamiento de redes neuronales .

De lo dicho anteriormente surge la necesidad de evaluar durante la fase de entrenamiento dos tipos de errores. Para poder obtener una medida de ambos errores es necesario dividir el set de datos disponibles en dos. En la misma se observa que en un determinado punto la red comienza a perder capacidad de generalización como consecuencia del sobreaprendizaje de los patrones de entrenamiento. 1989]. La figura 3. a expensas de una menor capacidad de generalización. Cada una de estas entradas ahora puede tomar dos valores. cada una de las cuales representa a una clase. El set de evaluación se utiliza para evaluar la capacidad de generalización de la red. Generalización Una vez finalizada la fase de aprendizaje. que indica la calidad de la respuesta de la red a patrones nunca antes vistos. Es necesario que durante el proceso de aprendizaje la red extraiga las características de las muestras. 22 Entrenamiento de redes neuronales L. Esto sucede cuando la cantidad de ciclos de entrenamientos tiende a ser muy alta. La causa más común de la perdida de capacidad de generalización es el sobreaprendizaje. una red neuronal puede tratar con información que no le fue presentada durante de la fase de entrenamiento [Chinrungrueng. El error de aprendizaje. para poder luego responder correctamente a nuevos patrones. Al aumentar el número de ciclos la red tiende a sobreajustar la respuesta a los patrones de entrenamiento. Se observa que la respuesta de la red a los patrones de entrenamiento es muy buena mientras que la respuesta a nuevos patrones tiende a ser muy pobre. la red logre una representación interna de la función. mediante el ajuste de sus pesos sinápticos. que indica la calidad de la respuesta de la red a los patrones de entrenamiento. Esta característica de las redes neuronales se la conoce como capacidad de generalización y es adquirida durante la fase de entrenamiento [Sanger. el set de datos de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos subdividirse en N entradas. 1988]. la red puede ser utilizada para realizar la tarea para la que fue entrenada.1 muestra una situación idealizada de lo dicho anteriormente. Esta técnica puede ayudar a mejorar los tiempos de entrenamiento de la red neuronal 3. Una de las principales ventajas que posee este modelo es que la red aprende la relación existente entre los datos. verdadero o falso.3. y el set de datos de evaluación. Es imprescindible también evaluar el comportamiento de la red ante patrones nunca antes vistos. El primero se utiliza durante la fase de entrenamiento para que la red pueda extraer las características de los mismos y. Cuando se evalúa una red neuronal no sólo es importante evaluar si la red ha sido capaz de aprender los patrones de entrenamiento. adquiriendo la capacidad de generalizar conceptos. De esta manera. Federico Bertona . y el error de generalización.

A medida que transcurre el proceso de aprendizaje se obtienen varios mínimos sobre el conjunto de evaluación.2 se muestra una situación más real del mismo caso.2.1. Figura 3. Generalización. guardando periódicamente las distintas configuraciones intermedias para luego seleccionar la de menor error de evaluación.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura 3. Generalización. Federico Bertona Entrenamiento de redes neuronales 23 . Existen diversas técnicas de parada temprana (early stopping) aunque en la mayoría de los casos se deja que el proceso de aprendizaje avance hasta alcanzar una cota de error razonable. Situación real L. Situación idealizada En la figura 3.

Federico Bertona . Esto hace que la red tienda a ajustar con mucha exactitud los patrones de entrenamiento. Este problema se ve agravado cuando los patrones de entrenamiento poseen ruido. ya que la red ajusta también el ruido de los mismos. 24 Entrenamiento de redes neuronales L. evitando que la red extraiga las características del conjunto.Entrenamiento de redes neuronales basado en algoritmos evolutivos En ocasiones la perdida de capacidad de generalización se produce por el uso excesivo de neuronas ocultas en la red neuronal.

2004]. mediante el cual sólo los individuos más adaptados al ambiente se reproducen [Coello Coello. El primer paso en la aplicación de un algoritmo genético consiste en la generación de una población inicial. Este operador se aplica tantas veces como sea necesario para formar la nueva población. Dentro de ella encontramos a los algoritmos genéticos (genetic algorithms). El mecanismo de selección forma una población intermedia. Se toman aleatoriamente dos individuos que hayan sobrevivido al proceso de selección y se recombina su material genético creando uno o más descendientes. etc. y el tamaño de dicha población (la cantidad de individuos que la compone) es un parámetro que se define durante el diseño del algoritmo genético. Federico Bertona Algoritmos genéticos 25 . las estrategias evolutivas (evolution strategies) y la programación evolutiva (evolutionary programming) entre otros [Yao. L. La siguiente fase del algoritmo consiste en la aplicación de los operadores genéticos. En general esta población se genera de manera aleatoria. Están basados en el principio darwiniano de reproducción y supervivencia de los individuos más aptos [Beasley et alt.1. [Whitley. 1997]. Las técnicas evolutivas han sido aplicadas con éxito a distintos tipos de problemas como optimización de parámetros. 1996]. y su función es recombinar el material genético. que en general actúa con muy baja probabilidad. posibilitando de esta manera la búsqueda de soluciones alternativas. modifica algunos genes del cromosoma. 1993] 4.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 4: Algoritmos genéticos Los algoritmos genéticos son una técnica de resolución de problemas inspirada en la naturaleza. que pasan a la siguiente población. 2002] Estos algoritmos codifican las posibles soluciones en estructuras llamadas cromosomas (o individuos). planificación de tareas. A un conjunto de individuos se lo conoce como población y representan un conjunto de soluciones posibles al problema [Cantú-Paz. que esta compuesta por los individuos con mayor aptitud de la generación actual. Introducción La computación evolutiva es la rama de la inteligencia artificial que engloba a todas aquellas técnicas de resolución de problemas basadas en la evolución de las especies y la supervivencia del más apto [Joglekar y Tungare. Mediante la aplicación de un conjunto de operadores genéticos sobre la población se va refinando gradualmente la solución hasta alcanzar un resultado que cumpla con las condiciones requeridas. Este operador. Una vez generada esta población se debe evaluar la aptitud (fitness) de cada individuo [Deb. diseño. 2001]. El último paso consiste en la aplicación del operador de mutación. Este mecanismo simula el proceso de selección natural. 2002]. El operador de selección es el encargado de decidir cuales individuos contribuirán en la formación de la próxima generación de individuos. El primero de ellos es la cruza.

etc. 2001]. y suele variar de problema en problema. y los individuos representan mejores soluciones al problema [Forrest 1996]. repitiéndose el ciclo descripto previamente. Tras cada iteración la calidad de la solución generalmente va incrementándose. A cada uno de los valores que puede tomar un gen se lo conoce como alelo. En dicho caso será necesario desarrollar operadores genéticos que se adapten al esquema seleccionado. El fenotipo es la forma en que se expresa el genotipo. 1997] Es importante destacar dos conceptos que muchas veces suelen confundirse: genotipo y fenotipo. números reales. las características propias del problema podrían llevar a la utilización de otro esquema de codificación. Una cadena de bits permite expresar valores booleanos. enteros. Cada gen representa una característica particular del individuo y ocupa una posición determinada en el cromosoma. Estos se pueden representar como cadenas binarias. El cromosoma Los algoritmos genéticos trabajan manipulando cromosomas. • Sin embargo. El genotipo es el conjunto de genes de un individuo.Entrenamiento de redes neuronales basado en algoritmos evolutivos Una vez finalizado el proceso de selección. la cual será evaluada. 26 Algoritmos genéticos L. la descripción genética del individuo. [Ilachinski. números enteros. El uso de cadenas de bits permite contar con gran cantidad de herramientas de análisis. que son estructuras que codifican las distintas soluciones de un determinado problema. Al algoritmo genético detallado anteriormente se lo conoce como algoritmo genético canónico y es la forma más utilizada. La codificación binaria se puede ajustar a cualquier problema. 1995]. 4. etc. En general se utilizan las cadenas binarias por varios motivos: • • Cualquier parámetro se puede codificar como una cadena de bits. como resultado de la interacción con su entorno [Morrison. Sin embargo. llamada locus. Por este motivo la mayor parte de los trabajos teóricos se basa en este esquema de codificación. Las cadenas de bits son fáciles de manipular. Un cromosoma esta compuesto por un conjunto de genes. La forma en que se codifican los cromosomas es dependiente de cada problema en particular.2. En todos los casos. en algunas implementaciones particulares de algoritmos genéticos se puede agregar nuevos operadores. 1998]. Una cuestión a resolver cuando se diseñan algoritmos evolutivos es la forma de codificar los genes. El desarrollo de operadores genéticos es simple y eficiente. [Whitley. cruza y mutación se obtiene la siguiente generación del algoritmo. Federico Bertona . reales. la forma en que se implementen los operadores variará de acuerdo a las características propias del problema. La morfogénesis es el proceso de decodificar el genotipo para producir un fenotipo [Biondi y Michel.

Idealmente. independientemente de la aplicación de esta función sobre otro conjunto de parámetros [Whiltey. 4. De esta manera se aseguraría una exploración completa del espacio de búsqueda. donde cada uno de los cuales representa una posible solución.Entrenamiento de redes neuronales basado en algoritmos evolutivos En lo que sigue de este capítulo se supone el uso de cadenas binarias. Sin embargo. En el algoritmo genético canónico. Aquellos que tengan mayor aptitud tendrán mayores posibilidades de reproducirse y transmitir su material genético a la próxima generación.4. En general. esta medida se obtiene tras la decodificación de un cromosoma en el conjunto de parámetros que representa.2) donde fi es el valor de la función de evaluación para el cromosoma i 4. Indica que tan buena es la solución obtenida tras la aplicación de un conjunto de parámetros. tras la aplicación del operador de selección. la función de adaptación se define como Fi = fi f (4. asignándole aleatoriamente a cada gen uno de los posibles alelos. debido a que estas son más fáciles de comprender. Federico Bertona Algoritmos genéticos 27 . esta situación no suele ser factible por lo que la primera población se genera comúnmente de manera azarosa.1) f = ∑f i =1 N i N (4. Evaluación y aptitud El uso de los conceptos de función de evaluación y función de aptitud se suelen utilizar como sinónimos. Por su parte. En la práctica. la función de adaptación siempre esta definida con respecto al resto de los individuos de la población. Población Los algoritmos genéticos trabajan sobre una población de individuos [Bäck. y es conveniente hacer una distinción entre ellos. La población inicial debe poseer la mayor diversidad posible.3. El valor obtenido por esta función se traduce. En algunos casos se pueden L. La población es un concepto muy importante en los algoritmos genéticos y existen dos cuestiones fundamentales a resolver: como generar la primera población. 1994]. en oportunidades de reproducción. y cual debe ser el tamaño de la población. provee una medida de la performance de conjunto de parámetros. la población inicial debería contener todos los posibles valores (alelos) que pueda tomar un gen. De esta manera se asegura la diversidad de alelo por gen. Indica que tan buena (o mala) es una solución comparada con el resto de las soluciones obtenidas hasta el momento. La función de evaluación. ambos conceptos son diferentes. o función objetivo. 1992].

En estos casos. Cada variante tiene características particulares que afectaran el comportamiento del algoritmo genético. En algunos casos se utiliza un tamaño de población inicial. Si el tamaño de la población es muy grande se realizará una exploración del espacio de búsqueda más rápida en términos de generaciones.5. 4.5 Variantes de los operadores básicos El objetivo de cada uno de los tres operadores básicos esta bien definido: elegir los individuos de la población que tengan mayor grado de adaptación (selección). dado que se estarán procesando individuos innecesarios. El tamaño de la población no es problema crítico.4) 28 Algoritmos genéticos L. ∑ Fi ) i =1 N (4.3) Luego se selecciona al individuo j tal que: ∑ Fi ≤ R <∑ Fi i =1 i =1 j j +1 (4. En la practica se suelen utilizar poblaciones de 20 individuos. el tiempo necesario para obtener una nueva generación a partir de la generaron actual será mayor. Siguiendo estos objetivos se han desarrollado gran cantidad de variantes para cada uno de los operadores. Selección 4. recombinar el material genético de ellos para producir nuevos individuos (cruza) y alterar características de algunos de ellos para garantizar al diversidad (mutación). el cual se va incrementando a medida que la población tiende a ser homogénea.1. Sin embargo. Federico Bertona . A continuación se realiza una mención sobre las variantes más utilizadas de cada uno de los operadores. Una elección adecuada para cada operador puede influir decisivamente en la eficiencia del proceso de búsqueda. 4. De lo contrario el algoritmo genético no será capaz de realizar una búsqueda completa sobre el espacio de soluciones.5. pudiéndose aumentar el mismo en base a la complejidad del problema o a la calidad de la solución requerida. es importante que la heurística asegure la diversidad mencionada.1. Selección por ruleta El primer paso para la aplicación de este operador consiste en obtener aleatoriamente un número R de la siguiente manera: R = Random(0.Entrenamiento de redes neuronales basado en algoritmos evolutivos utilizar heurísticas para la generación de la población inicial. las que permiten obtener un punto de partida más próximo a la solución del problema.1. Si el tamaño de la población es muy chico podría llegar a darse el caso en que la población converja rápidamente a una solución que no sea lo suficientemente buena.

4.5) i 4.2.6) Luego se selecciona un número aleatorio R de la siguiente manera: R = Random(0. Selección proporcional Este operador asigna un número de copias proporcional a la aptitud de un individuo.4. La selección por torneo no asegura que el número de copias que pasan a la próxima generación sea igual al esperado. Sin embargo.7) Por último se elige al individuo j tal que: ∑ pi ≤ R <∑ pi i =1 i =1 j j +1 (4.1. donde N es el tamaño de la población. Este proceso se repite N veces.3. la selección se realiza con un esquema análogo al de selección por ruleta. Este operador se puede implementar tomando cualquier número de individuos.1. 4.5. la cantidad de copias de un individuo que efectivamente pasan a la siguiente generación puede variar de la cantidad de copias esperadas. Selección por torneo Se seleccionan aleatoriamente dos individuos de la población.5.Entrenamiento de redes neuronales basado en algoritmos evolutivos Este individuo pasa a la siguiente generación. Se asigna a un individuo una probabilidad de selección igual a: pi = N −i ∑i i =1 N (4. ∑ pi ) i =1 N (4.1. El número de copias del individuo i que pasarán a la siguiente población se calcula en base a la siguiente ecuación: ci = N * fi ∑F i =1 N (4. Federico Bertona Algoritmos genéticos 29 . pasando a la siguiente generación aquel individuo que tiene mayor aptitud.8) L.5. Selección por ranking Este operador asigna una probabilidad de selección proporcional a la aptitud del individuo. Al contener una componente aleatoria. repitiéndose el procedimiento tantas veces como sea necesario hasta completar la siguiente generación.

Cruza 4.2. La figura 4.2.5 de recibir los genes de su padre y por ende de recibirlos de su madre. Cada hijo recibe los genes entre dos puntos de cruza sucesivos de cada uno de los padres. Federico Bertona .2.2. 4. 4.3. a un hijo se le asignan todos los genes del padre ubicados a la izquierda del punto de cruza. Cruza Simple 4. 30 Algoritmos genéticos L. la cantidad de copias que se pasan a la siguiente generación puede diferir de la cantidad esperada con un esquema proporcional. El segundo hijo es el complemento del primero. Nuevamente.1. Padre Madre 0 1 1 0 1 0 1 0 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 0 Hijo 1 Hijo 2 0 1 1 0 1 0 1 0 0 1 1 1 1 1 1 0 0 1 0 0 0 0 1 1 Figura 4.5. con un único punto de cruza. Luego.5. sólo que la cantidad de puntos de cruza se determina aleatoriamente.2.5. Cada hijo tiene una probabilidad de 0. tomando dos puntos de cruza. El procedimiento se repite tantas veces como sea necesario hasta completar la siguiente generación. y todos los genes de la madre ubicados a la derecha del punto de cruza. Cabe destacar que la cruza simple es un caso particular de la cruza multipunto. Cruza Simple En esta variante del operador de cruza se toma aleatoriamente un punto de cruza.1. de manera intercalada. Cruza Multipunto Esta variante del operador de cruza es similar al operador de cruza simple.2 muestra un ejemplo de cruza multipunto.1 muestra un ejemplo de cruza simple en el cual se toma como punto de cruza el primero de ellos.Entrenamiento de redes neuronales basado en algoritmos evolutivos Este individuo pasa a la siguiente generación. La figura 4.5. Cruza Uniforme Este operador de cruza asigna aleatoriamente los pesos.

5.10) 4. El objetivo de este aumento es mantener la L. y consiste en invertir un gen aleatoriamente. Antes 1 0 1 0 1 0 1 0 Después 1 0 1 1 1 0 Figura 4. Mutación adaptativa por temperatura ascendente La probabilidad de mutación se va incrementando a medida que transcurren las generaciones. Federico Bertona Algoritmos genéticos 31 . Mutación La mutación binaria es el tipo de mutación tradicionalmente utilizado en el algoritmo genético canónico. como lo muestra la ecuación 4. Cruza Binomial Este operador es similar al operador de cruza uniforme. Dada la representación binaria del gen.3. como lo muestra la figura 4. sólo que las probabilidades se definen en función de la aptitud de los padres de la siguiente manera: f padre ⎧ ⎪ p padre = f padre + f madre ⎨ ⎪p ⎩ madre =1 − p padre (4.2.3.4.2.3.10. Cruza Multipunto 4.1.9) 4.2.5. Mutación Binaria 1 0 4.Entrenamiento de redes neuronales basado en algoritmos evolutivos Padre Madre 0 1 1 0 1 0 1 0 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 0 Hijo 1 Hijo 2 0 1 1 0 1 0 1 0 0 1 1 1 1 1 0 1 1 0 0 0 0 0 1 1 Figura 4. se invierte el bit que lo representa con una determinada probabilidad.5.3. max min Pm (t ) = Pm (0) = Pm = Pm (4.3. Mutación simple En este caso la probabilidad de mutación permanece constante a lo largo de las distintas generaciones.5.

La ecuación 4. De esta manera se asegura una alta diversidad de individuos en las generaciones iniciales. Mutación adaptativa por temperatura descendente La probabilidad de mutación va decreciendo a medida que transcurren las generaciones.5. min Pm (t ) = Pm + max min ( Pm − Pm ) *t T (4.12 muestra como se calcula la probabilidad de mutación para una determinada generación.3.11.3.Entrenamiento de redes neuronales basado en algoritmos evolutivos diversidad de individuos en la población.11) 4. max Pm (t ) = Pm − max min ( Pm − Pm ) *t T (4.12) 32 Algoritmos genéticos L. La probabilidad mínima debe ser mayor a cero para permitir continuar la exploración del espacio de búsqueda a medida que las generaciones avanzan. Federico Bertona . La probabilidad de mutación para una generación esta dada por la ecuación 4. que tiende a hacerse homogénea con el transcurso de las generaciones.

Este problema suele encontrarse en varios métodos de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 5: Descripción del problema Las redes neuronales con conexión hacia delante en general son un importante método de aproximación de funciones [Kim. el perceptrón multicapa es un aproximador universal de funciones. Al final del capítulo se plantean también los objetivos y cuestiones a resolver mediante el método propuesto. quien debe actuar en función de ellos. • Adaptabilidad El algoritmo tiene como premisa la utilización de una función de activación derivable [Walker. El uso de tasas de aprendizaje muy pequeñas hace que el algoritmo tenga una convergencia estable hacia un mínimo. los cuales son desarrollados para una determinada topología y sus resultados. Todos estos problemas deben ser tenidos en cuenta por el diseñador de una red neuronal. las cuales se analizan a continuación. Para algunos de estos problemas existen técnicas que permiten disminuir su efecto. Federico Bertona Descripción del problema 33 .1. Deficiencias del algoritmo A pesar del éxito del algoritmo para entrenar redes multicapa. De esta manera. el algoritmo backpropagation suele tener algunas dificultades para encontrar un conjunto de pesos que permita utilizar la red como aproximador de funciones. Al hacer uso de la derivada de la función de activación. • Dependencia de parámetros del algoritmo Los algoritmos de gradiente descendente hacen uso de una tasa de aprendizaje que idealmente debería ser infinitesimal. Es necesario adaptar los métodos para aplicarlos a otras topologías. 1994]. Pese a todo. este algoritmo posee una serie de deficiencias. pero en ningún caso puede ser eliminado completamente. 1995]. Como se mencionó en el capítulo 2. en general. 5. El objetivo de este capítulo es hacer una síntesis de los diferentes problemas que suelen encontrarse durante una sesión de entrenamiento de un perceptrón multicapa utilizando el algoritmo backpropagation. es condición necesaria para la aplicación del algoritmo que la misma sea continua y derivable en todo el dominio de aplicación [Wilson. Esto impide la utilización del método en otras topología como por ejemplo en redes Adaline/Madaline. donde la función de activación presenta discontinuidades. 1992]. mediante pequeños ajustes de los pesos sinápticos el algoritmo converge hacia un mínimo. L. así como también mencionar las técnicas que se pueden utilizar para disminuir su efecto. aunque el tiempo necesario para alcanzarlo puede llegar a ser muy alto. no son extensibles directamente a otras topologías.

partir de otras configuraciones iniciales de la red. pero no puede eliminarse. Federico Bertona . Debido a la utilización del gradiente para encontrar el mínimo de dicha función de error se corre el riesgo de que el proceso de entrenamiento quede atrapado en un mínimo local [Sutton. Dependiendo de la selección de parámetros realizadas el resultado de la aplicación del algoritmo será exitosa o no [Liu et alt. 1986]. Esta situación no es deseable. también conocido como saturación. Este mecanismo puede ayudar en aquellos casos en los que la red tiene escaso poder de representación interna. como se describió en el capítulo 3. etc. ya sean positivos o negativos. disminuyendo la probabilidad de alcanzarlo. y no es capaz de distinguir entre dos patrones diferentes. Existen algunos mecanismos para evitar que esto suceda. El algoritmo backpropagation es muy dependiente de los parámetros mencionados previamente. fundamentalmente si dicho mínimo esta localizado lejos del mínimo global. la selección de los parámetros del algoritmo se realiza en base a la expertiz del diseñador. El efecto de oscilación puede reducirse mediante la adición de una tasa de momento. añadir ruido al método de gradiente. 2004]. El principal problema es que no existe un método general que permita establecer el valor de estos parámetros [Branke. y con el objetivo de disminuir el tiempo de convergencia del algoritmo. Si la entrada de la neurona alcanza un valor alto. • Mínimos locales La superficie que define la función de error E (ecuación 8) en base a los parámetros de la red neuronal es compleja y esta llena de valles y colinas. De esta manera. utilizar una tasa de aprendizaje decreciente a lo largo del proceso. y se realiza un refinamiento de los mismos mediante mecanismos de prueba y error.Entrenamiento de redes neuronales basado en algoritmos evolutivos Como consecuencia de lo dicho anteriormente. Pequeñas variaciones sobre los parámetros del algoritmo pueden conducir a resultados diferentes. El aumento de la tasa de aprendizaje disminuye el tiempo de convergencia. la función de activación posee dos asíntotas horizontales. Una posible solución para evitar que el entrenamiento quede atrapado en un mínimo local es aumentar el número de neuronas ocultas de la red. la función de activación se satura y alcanza un valor de activación máximo o mínimo. 34 Descripción del problema L. Los parámetros que aseguran la convergencia para un determinado problema pueden no ser aplicables a otro problema. proporcionando una misma salida para ambos patrones. Al utilizar funciones de activación sigmoidales. Al aumentar el número de neuronas ocultas la red posee mayor cantidad de parámetros libres y puede conseguir una mejor representación interna. Otros mecanismos que ayudan a disminuir los efectos de este problema son la adición de una tasa de momento al proceso de entrenamiento. Esto produce un aumento en el tiempo total de diseño y entrenamiento de la red. • Parálisis El fenómeno de parálisis. 1995]. se produce cuando la entrada total a una neurona de la red toma valores muy altos. pero tiene un efecto contraproducente: el algoritmo comienza a oscilar en torno a un mínimo. en la práctica se suelen utilizar tasas de aprendizajes mayores a las teóricas.

Pequeñas variaciones realizadas sobre las condiciones iniciales pueden llevar a grandes diferencias en el tiempo de convergencia del algoritmo. o en su defecto deberá disminuir el efecto producido por éstos. como consecuencia. L. sin que el éxito del mismo este fuertemente asociado a la configuración del método. haciendo que los parámetros de la red permanezcan invariables y.Entrenamiento de redes neuronales basado en algoritmos evolutivos Cuando la función de activación se satura su derivada tiende a hacerse nula. El diseño de dicho método de entrenamiento deberá realizarse siguiendo las siguientes premisas: • Adaptabilidad El método deberá ser aplicable a distintas topologías sin necesidad de realizar grandes modificaciones sobre el mismo. Sin embargo. De esta manera se busca reducir el tiempo de desarrollo de métodos de entrenamiento.2. • Baja dependencia de parámetros El método debe ser capaz de encontrar un conjunto de pesos sinápticos lo suficientemente bueno como para ser utilizado en problemas prácticos. Objetivo y marco de trabajo El método de entrenamiento deberá ser diseñado con el objetivo de eliminar los problemas que sufre el algoritmo backpropagation. 1993]. Este método no reemplazará los métodos existentes sino que será una alternativa a tener en cuenta por el diseñador de una red neuronal en el momento de seleccionar el algoritmo de entrenamiento. El fenómeno de parálisis del perceptrón multicapa ocurre fundamentalmente cuando los parámetros de la red toman valores muy altos. pues el error permanece invariable. Un mecanismo para evitar esto consiste en partir de valores iniciales bajos. 1991]. 5. • Condiciones iniciales El conjunto de pesos iniciales de la red neuronal generalmente se selecciona de manera aleatoria. el algoritmo backpropagation es muy dependiente de las condiciones iniciales seleccionadas [Kolen. Todos estos problemas muestran la necesidad de buscar un método alternativo que permita entrenar redes neuronales con conexión hacia delante. la suma de los errores locales permanece constante por un largo periodo de tiempo [Kröse y van der Smagt. Federico Bertona Descripción del problema 35 . Aunque esta situación se suele confundir con un mínimo local. en este caso es posible que después de un cierto tiempo el error comience nuevamente a decrecer.

Entrenamiento de redes neuronales basado en algoritmos evolutivos • Mínimos locales El método debe realizar una buena exploración del espacio de soluciones para evitar quedar atrapado en mínimos locales. El método debe asegurar la continuidad del aprendizaje en los casos en que una neurona se sature. Los experimentos deberán resolver las siguientes cuestiones: Cuestión: ¿Como influyen los parámetros del algoritmo backpropagation en el aprendizaje de la red? Cuestión: ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el algoritmo backpropagation? Cuestión: ¿Cuál es la capacidad de generalización de las redes entrenadas por el método propuesto? Cuestión: ¿Cómo responde el método al fenómeno de saturación y a los mínimos locales? Cuestión: ¿Cómo se adapta el método a diferentes topologías? 36 Descripción del problema L. • Generalización Una característica deseable del método es que sea capaz de obtener un alto grado de generalización. Siguiendo los lineamientos mencionados previamente se diseñará un nuevo método de entrenamiento. El método no necesariamente tiene que ser capaz de encontrar el mínimo global. el cual se comparará con el algoritmo backpropagation. • Parálisis El proceso de aprendizaje debe ser un proceso continuo. pero si debe ser capaz de encontrar un mínimo local lo suficientemente bueno. Federico Bertona .

redes con funciones de activación discontinuas. Los algoritmos evolutivos trabajan en paralelo sobre una población de posibles soluciones. El proceso evolutivo es un proceso continuo. Otra importante razón para estudiar los algoritmos genéticos como método alternativo de entrenamiento de redes neuronales es su generalidad. siguiendo los lineamientos propuestos en el capítulo anterior. etc. L. • • Durante el resto del capítulo se estudiarán las modificaciones necesarias a realizar sobre el algoritmo genético canónico para poder aplicarlo el entrenamiento de redes neuronales. 1996]. El algoritmo genético requiere muy poca información acerca de la estructura del problema [Jules. Diferentes redes neuronales son capaces de lograr la misma performance [Yao. El método propuesto deberá tener la capacidad de sobreponerse a los siguientes problemas: • • • • Adaptabilidad Dependencia de parámetros Mínimos locales Parálisis Teniendo en cuenta los problemas mencionados se estudiará en este capítulo la posibilidad de entrenar redes neuronales basándose en la aplicación de algoritmos genéticos. 1992]. 1993b]. 1994]. como redes recurrentes. Los algoritmos genéticos presentan una alta eficiencia en espacios de búsqueda grandes y complejos.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 6: Solución propuesta El objetivo de este capítulo es desarrollar un método alternativo de entrenamiento de redes neuronales con conexión hacia delante. [Yao. y la función de error contiene cada vez más mínimos locales. pudiendo encontrar soluciones próximas al mínimo global [Montana. y aumenta la complejidad de la topología. Federico Bertona Solución propuesta 37 . el espacio de búsqueda se vuelve cada vez más complejo. [Adamidis. reduciéndose las posibilidades de que el proceso se detenga en un mínimo local subóptimo [Potter. A medida que crece la cantidad de ejemplos. Los algoritmos genéticos son una alternativa interesante ya que presentan las siguientes características: • • El espacio de búsqueda es muy grande y multimodal. 1995]. 1994] y por lo tanto puede ser utilizado para entrenar diferentes variedades de redes neuronales.

Dentro del cromosoma cada peso de la red neuronal estará representado por 32 bits consecutivos. la cantidad de genes dentro del cromosoma será proporcional a la cantidad de pesos (y umbrales) que tenga la red.1. Del genotipo al fenotipo La transformación del genotipo al fenotipo será directa.1. y que se describe en la sección 6.1. Algoritmo genético para entrenamiento de redes neuronales El método propuesto consiste en una adaptación del algoritmo genético canónico. es importante destacar que 32 genes serán la representación en el genotipo de un peso sináptico. W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T4 T5 W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T4 T5 Figura 6. Codificación de parámetros Cada individuo (cromosoma) de la población se definirá como una cadena binaria.3. La longitud de dicha cadena dependerá de la topología de la red. Morfogénesis Este esquema de codificación del genotipo esta directamente relacionado con el esquema de cruza que se utilizará.1.1.1): 38 Solución propuesta L. Evaluación y aptitud La función de evaluación que se utilizará en este método será la dada por la ecuación (6. 6. Federico Bertona . Así.1.Entrenamiento de redes neuronales basado en algoritmos evolutivos 6. Se estudiará la manera de adaptar distintas variantes de los operadores clásicos para poder utilizar a los algoritmos genéticos como método de entrenamiento de redes neuronales. Los pesos sinápticos que parten desde una misma neurona serán representados por genes contiguos en el genotipo. 6. Sin embargo.1 muestra gráficamente la transformación del genotipo al fenotipo. La figura 6.5.1. existiendo una función que transforma un conjunto de 32 bits en el peso sináptico que representa (y viceversa). A lo largo de este capítulo se utilizará indistintamente el término peso y gen para facilitar la explicación de los distintos operadores. 6.2.

4.5% 6 1% Tabla 6. y ei es el error cuadrático medio de la red neuronal que representa el individuo i.1.4.1. Federico Bertona Solución propuesta 39 . El operador propuesto asigna una cantidad de copias igual a un porcentaje de la población. En este caso se decidió no hacer uso de la función de aptitud clásica empleada por el algoritmo genético canónico. el cual varía de acuerdo a la posición del individuo: Posición Porcentaje 1 10% 2 5% 3 3% 4 2% 5 1. Operadores de selección Se proponen para el estudio cuatro variantes del operador de selección.1.2): Fi = 2 * f MIN fi (6. los cuales se utilizarán en combinación con un proceso de selección elitista.1) donde fi es el valor de evaluación del individuo i.Entrenamiento de redes neuronales basado en algoritmos evolutivos fi = 1 ei (6. Así. De esta manera se busca asignarles mayores posibilidades de supervivencia a los individuos que superan la mejor performance de las generaciones previas.1. Una vez evaluados todos los individuos de la población se procederá a calcular la aptitud de los mismos. se busca favorecer en mayor medida a los individuos que tienen menor error cuadrático medio sobre el set de entrenamiento. El objetivo de este esquema de selección es asegurar que los mejores individuos de una población pasen a la siguiente. Esta función de evaluación aumenta cuando el error cuadrático medio disminuye. Selección elitista Este operador se utilizará en combinación con el resto de los operadores propuestos. y fMIN es el valor de evaluación mínimo obtenido en las generaciones previas a la actual. Todas estas variantes son operadores de selección clásicos. A continuación se realiza una descripción de cada uno de estos operadores: 6. Selección elitista L. sino que se utilizará la función de aptitud dada por la ecuación (6. 6.2) Donde Fi es el valor de aptitud del individuo i. fi es el valor de evaluación del individuo i.

6. Al contener una componente aleatoria. donde N es el tamaño de la población. La selección por torneo no asegura que el número de copias que pasan a la próxima generación sea igual al esperado. Este proceso se repite N veces. aun cuando el porcentaje corresponda a menos de una copia.4) Luego se selecciona al individuo j tal que: ∑ Fi ≤ R <∑ Fi i =1 i =1 j j +1 (6.1.4.4. pasando a la siguiente generación aquel individuo que tiene mayor aptitud.3) i 6. El número de copias del individuo i que pasarán a la siguiente población se calcula en base a la siguiente ecuación: ci = N * Fi ∑F i =1 N (6.1. Sin embargo.5) Este individuo pasa a la siguiente generación. Selección por ruleta El primer paso para la aplicación de este operador consiste en obtener aleatoriamente un número R de la siguiente manera: R = Random(0. 6.Entrenamiento de redes neuronales basado en algoritmos evolutivos En todos los casos se asegura que al menos una copia de cada individuo pasará a la siguiente población.5.3. repitiéndose el procedimiento tantas veces como sea necesario hasta completar la siguiente generación.4. Federico Bertona . El resto de los individuos de la población serán seleccionados por alguna otra variante del operador de selección.4. 6. Selección por torneo Para este operador se definió un tamaño del torneo igual a dos.2. Selección proporcional Este operador asigna un número de copias proporcional a la aptitud de un individuo.1. Selección por ranking Este operador asigna una probabilidad de selección proporcional a la aptitud del individuo. De esta manera se seleccionan aleatoriamente dos individuos de la población. la cantidad de copias de un individuo que efectivamente pasan a la siguiente generación puede variar de la cantidad de copias esperadas. la selección se realiza con un esquema 40 Solución propuesta L.4. ∑ Fi ) i =1 N (6.1.

5. A continuación se presentan las cuatro variantes a estudiar. en búsqueda de mejores conjuntos de pesos sinápticos. Nuevamente. que será el encargado de explorar el espacio de soluciones. En lugar de cruzar genes individuales se cruzarán neuronas completas. Puntos de cruza Debido a esta definición será necesario darle gran importancia al operador de mutación. La figura 6. Federico Bertona Solución propuesta 41 .Entrenamiento de redes neuronales basado en algoritmos evolutivos análogo al de selección por ruleta. la cantidad de copias que se pasan a la siguiente generación puede diferir de la cantidad esperada con un esquema proporcional. 6.8) Este individuo pasa a la siguiente generación. El procedimiento se repite tantas veces como sea necesario hasta completar la siguiente generación. Operadores de cruza Este operador se implementará directamente sobre el fenotipo.2. L.6) Luego se selecciona un número aleatorio R de la siguiente manera: R = Random(0.1. en contraste con los operadores de cruza clásicos utilizados en los algoritmos genéticos. evitando que sean destruidas por el operador de cruza.7) Por último se elige al individuo j tal que: ∑ pi ≤ R <∑ pi i =1 i =1 j j +1 (6.2 muestra gráficamente los puntos de cruza para una red neuronal con dos neuronas de entrada y 4 neuronas de salida. Todos los operadores de cruza que se estudiarán toman dos padres aleatoriamente de la población actual y generan dos hijos donde uno es el complemento del otro. Se asigna a un individuo una probabilidad de selección igual a: pi = N −i ∑i i =1 N (6. W02 Neurona 0 Neurona 1 Umbrales W03 W04 W05 W12 W13 W14 W15 T2 T3 T4 T5 Figura 6. El objetivo de esta definición es mantener estructuras complejas. ∑ pi ) i =1 N (6. Todos los pesos que parten de una misma neurona serán tratados como una unidad indivisible.

2. el hijo 2 tomará los genes del otro ancestro. Cada hijo tiene una probabilidad de 0. Federico Bertona . En el ejemplo se observa que el hijo 1 recibe dos conjuntos de pesos sucesivos del padre y el tercero de la madre. y todos los genes de la madre ubicados a la derecha del punto de cruza. Para cada conjunto de pesos comprendido entre dos puntos de cruza sucesivos se selecciona aleatoriamente el origen de los genes del hijo 1 y se asignan a él.5 de recibir los genes de su padre y por ende de recibirlos de su madre.1. sólo que las probabilidades se definen en función de la aptitud de los padres de la siguiente manera: f padre ⎧ ⎪ p padre = f padre + f madre ⎨ ⎪p ⎩ madre =1 − p padre 6.5.1.3. 42 Solución propuesta L. Luego. El segundo hijo es el complemento del primero.4 muestra un ejemplo de cruza simple en el cual se toma como punto de cruza el primero de ellos. a un hijo se le asignan todos los genes del padre ubicados a la izquierda del punto de cruza. La figura 6. La figura 6.3 muestra un ejemplo de cruza uniforme entre dos cromosomas. El segundo hijo se forma como complemento del primero.5.9) En esta variante del operador de cruza se toma aleatoriamente un punto de cruza. Cruza Binomial Este operador es similar al operador de cruza uniforme.Entrenamiento de redes neuronales basado en algoritmos evolutivos 6. Luego. Cruza Uniforme Este operador de cruza asigna aleatoriamente los pesos entre puntos de cruza sucesivos. Cruza Simple (6. Cruza uniforme 6.1.3. Padre W02 W03 W04 W05 W12 W13 W14 W15 Madre W02 W03 W04 W05 W12 W13 W14 W15 T2 T2 T3 T3 T4 T4 T5 T5 Hijo 1 W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T3 T4 T4 T5 T5 Hijo 2 W02 W03 W04 W05 W12 W13 W14 W15 T2 Figura 6.1.5.

el operador de mutación actuará con una determinada probabilidad de mutación. Cabe destacar que la cruza simple es un caso particular de la cruza multipunto. Cruza Multipunto 6. y consiste en invertir un gen aleatoriamente. tomando dos puntos de cruza.6. se invierte el bit que lo representa con una determinada probabilidad. como lo muestra la figura 6.5. la cual se explica más delante. Cada hijo recibe los genes entre dos puntos de cruza sucesivos de cada uno de los padres. Padre W02 W03 W04 W05 W12 W13 W14 W15 Madre W02 W03 W04 W05 W12 W13 W14 W15 T2 T2 T3 T3 T4 T4 T5 T5 Hijo 1 W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T3 T4 T4 T5 T5 Hijo 2 W02 W03 W04 W05 W12 W13 W14 W15 T2 Figura 6. la mutación binaria y la mutación numérica. Cruza Multipunto Esta cuarta variante del operador de cruza es similar al operador de cruza simple.1. Dada la representación binaria del gen.6.Entrenamiento de redes neuronales basado en algoritmos evolutivos Padre W02 W03 W04 W05 W12 W13 W14 W15 Madre W02 W03 W04 W05 W12 W13 W14 W15 T2 T2 T3 T3 T4 T4 T5 T5 Hijo 1 W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T3 T4 T4 T5 T5 Hijo 2 W02 W03 W04 W05 W12 W13 W14 W15 T2 Figura 6. La mutación binaria es el tipo de mutación tradicionalmente utilizado en el algoritmo genético canónico. Operadores de mutación Para el operador de mutación se estudiarán dos variantes diferentes. L.5 muestra un ejemplo de cruza multipunto.5.1. de manera intercalada. Federico Bertona Solución propuesta 43 . Cruza Simple 6. con un único punto de cruza.4. En ambos casos. sólo que la cantidad de puntos de cruza se determina aleatoriamente.4. La figura 6.

Federico Bertona .0005 * t si t <= 1000 R =⎨ ⎩0.12) En ambos casos el operador de selección será el encargado de determinar si el individuo resultante tiene el grado de adaptación suficiente para contribuir a la formación de la próxima generación. Cada uno de estos tipos de mutación se combinará con tres funciones de probabilidad de mutación distintas: uniforme. Se convierten los genes en el conjunto de pesos que representan y con una determinada probabilidad se les suman una pequeña cantidad aleatoria.10) ∆Wij (t ) = Random(− R.6.11) (6. 44 Solución propuesta L.6 − 0. En dicho algoritmo cada peso es modificado proporcionalmente al gradiente de la función de error. Antes W02 W03 W04 W05 W12 W13 W14 W15 T2 T3 T4 T5 Después W02 W03 W04 W05 W12 + ∆W W13 W14 W15 Figura 6. R) y ⎧0.1 caso contrario (6. Como se mencionó en el capítulo 4 el operador de mutación actúa con una probabilidad de mutación Pm. De acuerdo a lo dicho anteriormente se propone el esquema de variaciones de pesos dado por la ecuación 6. a medida que la red se va acercando a la solución las modificaciones son menores.Entrenamiento de redes neuronales basado en algoritmos evolutivos Antes 1 0 1 0 1 0 1 0 Después 1 0 1 1 1 0 Figura 6.7 muestra un ejemplo de mutación numérica. Wij (t + 1) = Wij (t ) + ∆Wij (t ) donde (6.7. Mutación Binaria 1 0 La mutación numérica es otra variante del operador de mutación. implementada sobre el fenotipo. La figura 6. De esta manera.10. Mutación Numérica T2 T3 T4 T5 Este tipo de mutación se desarrolló en base a observaciones realizadas sobre el algoritmo backpropagation.

6. 6. Mutación uniforme En este caso la probabilidad de mutación permanece constante a lo largo de las distintas generaciones. El objetivo de este aumento es mantener la diversidad de individuos en la población.3.6.13) 6. La probabilidad de mutación para una generación esta dada por la ecuación 6. max min Pm (t ) = Pm (0) = Pm = Pm (6. y adaptativa por temperatura descendente.7. min Pm (t ) = Pm + max min ( Pm − Pm ) *t T (6. La probabilidad mínima debe ser mayor a cero para permitir continuar la exploración del espacio de búsqueda a medida que las generaciones avanzan. Dado que en la práctica esta situación no es factible. Como se mencionó en el capítulo 4. El valor de los L. La ecuación 6.1. Pm (t ) = P max m max min ( Pm − Pm ) − *t T (6.14) 6.13. A continuación se presentan dos formas distintas de inicializar la población.1. Operadores de inicialización La forma en que se crea la población inicial es una cuestión clave a resolver. que tiende a hacerse homogénea con el transcurso de las generaciones. Inicialización Random Este método de inicialización se implementa directamente sobre el fenotipo y consiste en generar aleatoriamente un conjunto de pesos.Entrenamiento de redes neuronales basado en algoritmos evolutivos adaptativa por temperatura ascendente.1.1. como lo muestra la ecuación 6.15 muestra como se calcula la probabilidad de mutación para una determinada generación. Mutación adaptativa por temperatura ascendente La probabilidad de mutación se va incrementando a medida que transcurren las generaciones. la población inicial debería contener idealmente todos los alelos posibles que pueda tomar un gen.2. el método de inicialización debe asegurar la suficiente diversidad como para explorar todo el espacio de búsqueda.1.7. y que se definen a continuación 6. De esta manera se asegura una alta diversidad de individuos en las generaciones iniciales. Federico Bertona Solución propuesta 45 . Mutación adaptativa por temperatura descendente La probabilidad de mutación va decreciendo a medida que transcurren las generaciones.1.15) 6.1.14.6.

0. Esta característica se presenta fundamentalmente cuando se hace uso de operadores de selección proporcionales. la población tiende a hacerse homogénea y el algoritmo genético se estabiliza en una solución que puede no ser lo suficientemente buena.5*Inimax) 5 Random(0. En este caso. donde todos los individuos tengan posibilidades de pasar a la siguiente generación. para garantizar la 46 Solución propuesta L.2. Así. Wij = Random( Ini min .5*Ini . Individuo Wij 1 0 2 Inimin 3 Inimax min 4 Random(0. el súper-individuo domina rápidamente la población. donde el súper-individuo contribuye con gran cantidad de copias a la siguiente generación. Inicialización Selectiva El resto de los individuos se genera con pesos dados por la ecuación 6. Federico Bertona . los cuales se describen a continuación.25*Inimin . 0. 1995]. Inicialización Selectiva Este método es similar al anterior.2.7. Este problema se presenta cuando aparece en una generación un individuo con un nivel de adaptación muy superior al resto de la población [Korning.16) 6.2. sólo que una determinada cantidad de individuos es generada con valores previamente seleccionados. Problemas del método propuesto Durante la aplicación del método propuesto podrían aparecer algunos problemas. Es decir. Ini max ) (6. 6.Entrenamiento de redes neuronales basado en algoritmos evolutivos pesos esta dado por una distribución uniforme definida en un rango de valores que idealmente debería estar centrado en cero.2.5*Inimax Tabla 6.16 6.75*Inimin .75*Inimax) 6 Random(0.5*Inimin 8 0.1. También se describe a continuación el tratamiento que se le dará a cada uno de ellos. 0. También. antes de que se haya podido realizar una exploración suficientemente amplia del espacio de búsqueda. El problema de la convergencia prematura La convergencia prematura es un problema muy común en los algoritmos genéticos.1.25*Inimax) 7 0. Para evitar este problema se estudiará el uso de operadores de selección alternativos a la selección proporcional.

Entrenamiento de redes neuronales basado en algoritmos evolutivos heterogeneidad de la población.8. Por ello. 6. el efecto de este problema no es tan severo como se supone [Hancock. 2. 7 4. Sin embargo. en este trabajo se tratará a los individuos que presentan este problema como sinónimos.8.2. el tamaño de la población se seleccionará de manera de minimizar los efectos de este problema en el operador de cruza. 1995]. 1992]. 1 4.3 3. Por esto.4 6.3 47 . se hará uso de probabilidades de mutación superiores a las utilizadas normalmente en algoritmos genéticos. Dos redes neuronales pueden ser funcionalmente equivalentes independientemente del orden de sus neuronas ocultas. El origen de este problema se encuentra en la disposición de las neuronas ocultas de una red neuronal [Liu y Yao. como se muestra en la figura 6.5 4. la probabilidad de que el operador de cruza produzca de ellos un individuo más adaptado es baja. En base a lo dicho a lo largo de este capítulo se deberán diseñar los experimentos de manera tal que respondan a las siguientes cuestiones: Cuestión: ¿Cuál es el operador de selección adecuado para entrenar redes neuronales utilizando algoritmos genéticos? Cuestión: ¿Cuál es el operador de cruza adecuado para entrenar redes neuronales utilizando algoritmos genéticos? L.3 6. a pesar de la importancia del mismo [Whiltey. varios trabajos no hacen uso de este operador. dejando que el operador de selección sea el encargado de decidir que individuos contribuyen a la próxima generación.2. El problema de la permutación El problema de la permutación es un tema tratado muy frecuentemente en trabajos sobre diseño de topologías de redes neuronales mediante algoritmos genéticos.1 7. El problema de la permutación Dado que una red neuronal puede tener varios genotipos que la representan.3 4. Federico Bertona Solución propuesta 7.4 3. 7 2. A su vez. 1997].5 (a) (b) Figura 6.

Entrenamiento de redes neuronales basado en algoritmos evolutivos Cuestión: ¿Cual es la manera más efectiva de realizar la mutación para entrenar redes neuronales utilizando algoritmos genéticos? ¿Cuál es el operador de mutación adecuado para entrenar redes neuronales? Cuestión ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el método propuesto? ¿Cuál es la ventaja de utilizar un esquema de inicialización selectivo? Cuestión: ¿Cuál es la ventaja del método propuesto en cuanto a los tiempos de entrenamiento? 6. Dentro de este contexto. las cuestiones que se plantean a lo largo de esta tesis y se deberán resolver en base a los resultados experimentales son las siguientes: Cuestión 1: ¿Como influyen los parámetros del algoritmo backpropagation en el aprendizaje de la red? Cuestión 2: ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el algoritmo backpropagation? Cuestión 3: ¿Cuál es el operador de selección adecuado para entrenar redes neuronales utilizando algoritmos genéticos? Cuestión 4: ¿Cuál es el operador de cruza adecuado para entrenar redes neuronales utilizando algoritmos genéticos? Cuestión 5: ¿Cual es la manera más efectiva de realizar la mutación para entrenar redes neuronales utilizando algoritmos genéticos? ¿Cuál es el operador de mutación adecuado para entrenar redes neuronales? Cuestión 6: ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el método propuesto? ¿Cuál es la ventaja de utilizar un esquema de inicialización selectivo? Cuestión 7: ¿Cuál es la ventaja del método propuesto en cuanto a los tiempos de entrenamiento? Cuestión 8: ¿Cuál es la capacidad de generalización de las redes entrenadas por el método propuesto? Cuestión 9: ¿Cómo responde el método al fenómeno de saturación y a los mínimos locales? Cuestión 10: ¿Cómo se adapta el método a diferentes topologías? 48 Solución propuesta L. Federico Bertona .3. Cuestiones a resolver en esta tesis El propósito de esta tesis es establecer una medida de comparación entre los métodos tradicionales de entrenamiento y el método de entrenamiento propuesto en este capítulo.

1 describe las características generales de los experimentos realizados. en la sección 7. y el objetivo perseguido por éstos.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 7: Experimentación En este capítulo se presentan los resultados experimentales obtenidos por ambos métodos de entrenamiento.1) 2. Establecer una comparación directa entre ambos métodos (sección 7. Sin embargo.1. Determinar la configuración óptima del algoritmo de entrenamiento propuesto (sección 7. la manera en que se diseñaron los experimentos. Sólo fueron considerados para tener una medida del “mejor caso”.2. Federico Bertona Experimentación 49 . de acuerdo al objetivo de entrenamiento perseguido por el experimento: L. Los resultados experimentales permitirán establecer una medida de comparación entre ambos métodos y determinar las características principales de cada uno de ellos.2 se presentan los resultados obtenidos. En este caso se estudió cual es el mejor valor obtenido por cada configuración. Los resultados presentados a lo largo de este capítulo fueron obtenidos tras más de 400 horas de entrenamiento. Se seleccionó esta cantidad de experimentos ya que permite determinar con precisión el tiempo promedio de entrenamiento de un método. A continuación se presenta un resumen del tiempo total de entrenamiento realizado por cada método.2. Luego. así como también el grado de variación de los resultados con respecto a dicho valor promedio. 7. Determinar la configuración óptima del algoritmo backpropagation (sección 7. Se utilizó el desvío estándar para determinar el grado de variación de los valores de la variable con respecto del valor medio.2) 3.2. Diseño experimental Los experimentos realizados fueron diseñados con el objetivo de establecer las siguientes tres características: 1. Los valores individuales de cada experimento también se analizaron con el objetivo de realizar comparaciones entre distintas configuraciones.3) Para cada configuración en particular de un método de entrenamiento se realizaron un total de 50 experimentos. este valor no fue tomado como un valor general del método ya que en muchos casos se presentaron grandes variaciones entre los valores obtenidos. Los resultados obtenidos se analizaron de la siguiente manera: se tomó como valor del método para una variable en particular al valor promedio sobre el total de experimentos realizados (50 corridas). La sección 7. Esta afirmación se hace extensiva al resto de las variables analizadas.

Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Algoritmo Entrenamiento Objetivo Entrenamiento Evaluación de operadores del algoritmo genético . Si la red alcanza un nivel de error menor al umbral prefijado se considera que el método fue capaz de entrenar la red. Caso contrario.1.25 35. Luego se procede a la aplicación del método utilizando las tasas de aprendizaje y de momento seleccionadas. El primer paso en la aplicación de este método consiste en la generación aleatoria del conjunto de pesos de la red neuronal.22 11.Cruza Evaluación de operadores del algoritmo genético . y cuyo rango de valores óptimos es un parámetro en estudio.54 237. Los parámetros óptimos obtenidos durante esta primera etapa fueron utilizados luego para comparar los resultados obtenidos por este método con los resultados obtenidos por el algoritmo genético.Mutación Parámetros de inicialización del algoritmo genético Comparación de método Total Parámetros óptimos de la red neuronal Parámetros de inicialización de la red neuronal Comparación de método Total Tiempo 15. Los parámetros de configuración estudiados durante esta serie de experimentos fueron: • • • Tasa de aprendizaje Tasa de momento Rango de valores iniciales. se considera que la red no pudo ser entrenada. 7.96 5. En la primera serie de experimentos se estudió el conjunto de parámetros que minimizan los tiempos de entrenamiento de este método. Federico Bertona .98 9.1.12 48. 50 Experimentación L.Selección Evaluación de operadores del algoritmo genético .91 116.1 Distribución de los tiempos de entrenamiento. El algoritmo backpropagation El algoritmo Backpropagation se utilizó como medida de comparación para constatar la calidad del método propuesto.80 185. La aplicación del algoritmo continuará hasta que la red alcance un nivel de error menor al umbral prefijado o cuando se hayan realizado una cantidad de ciclos predeterminada.63 422. El valor de inicialización esta dado por una distribución uniforme.76 Algoritmo genético Red Neuronal Total Tabla 7.13 179.

y los atributos multivaluados. Seleccionar los mejores individuos de la población Cruzar los individuos de la población Mutar aleatoriamente los individuos de la población Evaluar a los individuos de la población resultante. Los parámetros y/o operadores estudiados en este caso fueron: • Función de selección • Función de cruza • Tipo de mutación • Función de mutación y probabilidad de mutación • Función de inicialización y rango de valores iniciales Dependiendo de los parámetros seleccionados la aplicación del método tendrá características propias. Este problema. 2. Debe poseer un elevado numero de ejemplos. El set de entrenamiento esta compuesto de 690 ejemplos. El set de datos utilizado a lo largo de los experimentos realizados consiste en 690 solicitudes de tarjetas de créditos. El set de entrenamiento El set de entrenamiento que se utilizará durante la evaluación del método propuesto debe presentar las siguientes características: 1. volver al paso 2 Los parámetros óptimos obtenidos durante esta etapa fueron utilizados luego para comparar los resultados obtenidos por este método con los resultados obtenidos por el algoritmo backpropagation. una definición general del método es la siguiente: 1. El algoritmo genético La segunda serie de experimentos tuvo como objetivo determinar cuales son los operadores genéticos y los parámetros de configuración que minimizan los tiempos de entrenamiento empleados por el algoritmo genético. Al poseer un elevado número de ejemplos se podrá evaluar también la capacidad de generalización de la red obtenida.Entrenamiento de redes neuronales basado en algoritmos evolutivos 7. Generar una población inicial. 4. Cada ejemplo posee 14 atributos que describen las L. 3. Las características mencionadas previamente responden a la necesidad de evaluar el método propuesto sobre aplicaciones reales. 1998].1. de compleja resolución. 3. 2. El problema a resolver debe ser una aplicación real. conocido como Australian Credit Card Problem. 7.2. Los ejemplos deben ser variados. 5.3. Federico Bertona Experimentación 51 . 6. Sin embargo.1. es altamente utilizado para la evaluación de métodos de entrenamiento [Blake y Merz. cada uno de los cuales es una solicitud. Si el nivel de error de la población es mayor al umbral prefijado.

A continuación se presentan las características de cada set de datos: CANTIDADES PORCENTAJES Total Clase 1 Clase 2 % % C1 % C2 690 307 383 100.4% Eval.2 Características de los sets de datos 7. Para poder evaluar las características de la red obtenida se particionó el set de datos en dos subsets: el subset de entrenamiento y el subset de evaluación. que indica la aprobación o no de la solicitud. el error cuadrático medio es inversamente proporcional a la performance de la red. 2 138 61 77 20.4% Ent. 1 552 246 306 80. Para realizar la comparación entre ambos métodos se particionó nuevamente el set de datos. Se toman aleatoriamente el 65% de los ejemplos para entrenamiento y se dejan un 35% de ejemplos para evaluación. Evaluación del método La evaluación del método propuesto se realizó comparando su performance con la obtenida por el algoritmo backpropagation. De esta manera se obtiene un set de datos de 690 ejemplos.4% 55. donde N representa la cantidad de valores que puede tomar el atributo. Para la primera y segunda serie de experimentos se utilizó el mismo particionamiento del set de datos.0% 44.1]. El particionamiento se realizó de manera tal que los subsets resultantes sean representativos.2% 55.9% 44. A los atributos que toman valores discretos se los dividió en N atributos.5% 55. tomando en este caso el 80 % de los ejemplos para entrenamiento. en todas las estadísticas se registran el tiempo en segundos desde el comienzo del 52 Experimentación L. 1 242 108 134 35. y disminuir los tiempos de entrenamiento. La salida de cada ejemplo puede pertenecer a una de dos clases.1.4. El primer subset se utilizó para realizar el entrenamiento de la red.Entrenamiento de redes neuronales basado en algoritmos evolutivos características del solicitante. Para facilitar el entrenamiento de la red neuronal. que posean las mismas características que el set original. sin introducir distorsiones sobre el valor obtenido. De esta manera. se realizó un preprocesamiento de estos ejemplos.0% 44. mientras que el segundo subset se utilizó para evaluar la red obtenida. es decir. El segundo motivo por el que se selecciono esta unidad de medida es que puede ser calculada fácilmente en ambos métodos. Dado que ambos métodos trabajan con ciclos iterativos distintos (las redes neuronales lo hacen con epochs mientras que los algoritmos genéticos trabajan con generaciones) se seleccionó como unidad de medida para comparar tiempos entre ambos métodos al segundo.1% 44. con 47 atributos entradas y una única salida. 2 Tabla 7. A los atributos que toman valores continuos se los normalizó dentro del intervalo [0. de los cuales 8 poseen valores discretos y 6 poseen valores numéricos. Una red con bajo error cuadrático medio tiene una buena performance.0% 44.5% Dataset 448 199 249 64.6% Ent.6% 55.8% Eval. En primer lugar. Se tomó como medida de comparación el error cuadrático medio por dos motivos. Federico Bertona .6% 55.

7. Tipo de mutación. al algoritmo backpropagation se le aplicarán el conjunto de técnicas para la aceleración del algoritmo descriptas en el capítulo 3. Determina la manera en que se aplica el operador mutación. Para poder establecer una medida real de comparación. Parámetros fijos Estos parámetros permanecieron invariables a lo largo de los experimentos: • • • • • • Cantidad de generaciones. L.Entrenamiento de redes neuronales basado en algoritmos evolutivos entrenamiento. Se tomo un valor máximo de 1000 epochs. Error cuadrático medio a partir del cual una red puede considerarse entrenada. Indica cual es la función de mutación que se utiliza en el algoritmo genético. Es la diferencia máxima que puede existir entre el valor deseado y el valor obtenido por la red para que el ejemplo pueda ser considerado como acierto. Cantidad de ciclos o epochs. Se tomó un valor de 1.1.1.5. Se tomó valor de 0. Máxima cantidad de generaciones del algoritmo genético.5. Probabilidad de cruza. Parámetros de los algoritmos 7. Federico Bertona Experimentación 53 . Se tomó un valor máximo de 5000 generaciones Cantidad de individuos por generación. Se tomo un valor máximo de 0. Este parámetro esta directamente relacionado con el salto generacional. por lo que entre dos generaciones sucesivas se renuevan completamente los individuos que la componen.5. Función de cruza.2. Cantidad de individuos que componen cada generación del algoritmo genético. Se tomó un valor de 30 individuos. Denota cual es la función de cruza que se utiliza en el algoritmo genético.05 para las primeras dos series de experimentos y de 0. Umbral de acierto. 7.35. Error máximo admisible. Indica cual es la función de selección que se utiliza en el algoritmo genético. Determina la probabilidad de que dos individuos se crucen e intercambien su material genético.07 para la tercer serie.1. que es la cantidad de individuos nuevos que conforman la población.1. Máxima cantidad de ciclos del algoritmo Backpropagation. Función de mutación. Variables independientes Estos variables fueron modificadas de acuerdo al objetivo de cada experimento: • • • • Función de selección. permitiendo realizar una comparación directa entre ambos métodos.

Entrenamiento de redes neuronales basado en algoritmos evolutivos • • • • • Función de inicialización. Es el error cuadrático medio de una red neuronal.1. Variables dependientes El siguiente conjunto de variables depende de la configuración realizada sobre el algoritmo de entrenamiento. Porcentaje de aciertos. • • • • Gráficos de tendencia del error de entrenamiento: muestran. Muestran el porcentaje de ejemplos correctamente clasificados sobre el total de ejemplos evaluados. Tasa de momento. Para el caso del algoritmo genético se toma el mínimo de la generación. Cantidad de ejemplos bien clasificados sobre el total de ejemplos evaluados.1. Valor de inicialización. la evolución del error de entrenamiento promedio. Determina cual es la probabilidad de aplicar el operador de mutación. Federico Bertona . 54 Experimentación L. Tasa de aprendizaje. Tipos de gráficos Para mostrar los resultados obtenidos a lo largo de los experimentos realizados se utilizarán dos tipos de gráficos. Define de que manera se conforma la generación inicial del algoritmo genético. en función del tiempo. Indica el tamaño del paso tomado en cada iteración.6. Gráficos de error de entrenamiento: muestran. la tendencia logarítmica del error de entrenamiento. Se utilizan para medir la performance del método aplicado: • • • Tiempo de entrenamiento. Gráficos de aciertos. Probabilidad de mutación. Define como se realizará el ajuste de los pesos entre ciclos sucesivos. en función del tiempo. 7. Tiempo que transcurre desde el inicio del entrenamiento hasta el fin del mismo. El error de entrenamiento se define como el error promedio obtenido para un instante de tiempo por las distintas corridas del método en análisis. Gráfico de tiempos individuales de entrenamiento: Muestra para cada experimento en particular el tiempo total de entrenamiento. Se considera que un ejemplo es clasificado correctamente si la diferencia entre la salida deseada y la salida obtenida es menor al umbral de acierto.3. 7.5. Define el rango de valores dentro del cual se generarán aleatoriamente los pesos iniciales de un cromosoma o una red neuronal. Permite disminuir el impacto de las oscilaciones en torno al punto mínimo cuando se utilizan tasas de aprendizaje altas. Error.

2. Variables: Para la realización de los experimentos se utilizaron los siguientes parámetros: Tasa de aprendizaje (α) = {0.1. 0 50 100. 7.01 50 100.01 0.01.1 50 100.0% 542 179 Tabla 7. % Tiempo Desvío Tiempo Alfa Beta Corridas Entrenamiento Prom. Federico Bertona Experimentación 55 .1.01.1} Resultados: Cant.3 Tiempos de entrenamiento. 0.0% 592 274 0. Tasa de aprendizaje = 0.0% 580 207 0.05.01 L.05. Experimentos 7. Tasas de aprendizaje y momento óptimos Descripción: Las tasas de aprendizaje y de momento determinan de qué manera se realizan las actualizaciones de los pesos entre iteraciones sucesivas.0% 534 165 0.1. Ent. 0.05 50 100.25} Taza de momento (β) = {0. Ent.Entrenamiento de redes neuronales basado en algoritmos evolutivos 7.2. 0. Red Neuronal El objetivo de esta serie de experimentos es determinar cuales son los parámetros óptimos que permitan entrenar una red neuronal para el problema en cuestión. Para este grupo de experimentos se utilizó el primer set de datos. De acuerdo a las características de la topología y de los datos estas constantes suelen variar de problema en problema.1.2. 0. 0. 0.

01 0. Federico Bertona .1 0.20 0.01 50 100. Ent.05 0.0% 296 193 Tabla 7.05 56 Experimentación L. % Tiempo Desvío Tiempo Alfa Beta Corridas Entrenamiento Prom.20 0.01 Cant.05 0.1 50 100.00 1 63 125 187 249 311 373 435 497 559 621 683 745 807 869 931 993 1055 1117 1179 1241 1303 1365 1427 1489 1551 1613 1675 1737 1799 Seg Gráfico 7.05 0.10 0.0% 269 92 0. 0 50 100.15 Error 0. Tasa de aprendizaje = 0.05 0.0% 368 349 0.05 0.4 Tiempos de entrenamiento.05 0.15 Error 0.1 0.10 0.25 0 0 0. Ent.1 0.2 Tendencia del error de entrenamiento.25 0 0 0.01 0.1 0.01 0.00 1 49 97 145 193 241 289 337 385 433 481 529 577 625 673 721 769 817 865 913 961 1009 1057 1105 1153 1201 1249 1297 1345 1393 1441 1861 1489 1923 1537 Seg Gráfico 7. Tasa de aprendizaje = 0.1 Tendencia del error de entrenamiento.05 0.05 0.05 50 98.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.01 0.0% 324 189 0. Tasa de aprendizaje = 0.

Ent.05 0.0% 363 141 0.1 50 0. 0 50 100. Ent.20 0.999 41 Tabla 7.00 1 63 125 187 249 311 373 435 497 559 621 683 745 807 869 931 993 1055 1117 1179 1241 1303 1365 1427 1489 1551 1613 1675 1737 1799 1861 1923 Seg Gráfico 7. Federico Bertona Experimentación 57 .05 50 98.Entrenamiento de redes neuronales basado en algoritmos evolutivos Cant.1 50 98.01 0.1 0. % Tiempo Desvío Tiempo Alfa Beta Corridas Entrenamiento Prom.1 0.01 50 100. Tasa de aprendizaje = 0.0% 1.0% 331 159 0. Tasa de aprendizaje = 0.05 0.0% 368 265 Tabla 7.1 0.990 25 0.6 Tiempos de entrenamiento. 0 50 0. Tasa de aprendizaje = 0.0% 1.25 L.25 0 0 0.0% 376 300 0.0% 1.01 0.25 0.05 50 0.0% 1.980 35 0.05 0.3 Tendencia del error de entrenamiento.5 Tiempos de entrenamiento. Ent.01 50 0.10 0.1 0.1 Cant.989 52 0.15 Error 0. % Tiempo Desvío Tiempo Alfa Beta Corridas Entrenamiento Prom. Ent.

01 0.01 0. Ent. permiten un descenso más estable sobre la superficie de error permitiendo localizar mejores mínimos.35 0 0 0.05 58 Experimentación L.25 Corrida Tiempo Prom.30 0. 14 137 14 138 17 139 7 145 0.1 Beta 0.05 y 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.01 0.6.01 25 153 0.1 0.15 0. El porcentaje de convergencia a una solución es alto (Tabla 7.1).05 0. Interpretación de los resultados: • El uso de tasas de aprendizaje bajas lleva a una convergencia lenta del algoritmo.4).05 50 156 0. y no se estabiliza en una solución.25 Error 0.10 1 72 143 214 285 356 427 498 569 640 711 782 853 924 995 1066 1137 1208 1279 1350 1421 1492 1563 1634 1705 1776 1847 1918 1989 2060 2132 2211 Seg Gráfico 7.01 0 0.1 0.20 0. Gráfico 7. • Los mejores tiempos de entrenamiento individuales se obtuvieron utilizando las tasas de aprendizaje 0.05 0. El porcentaje de convergencia a una solución es bajo (Tabla 7.05 26 148 0.1 29 157 Tabla 7.1 28 148 0. Gráfico 7.1 (Tabla 7.6). Federico Bertona . Sin embargo los resultados obtenidos siguen siendo malos (Gráfico 7. Tasa de aprendizaje = 0. Esto aumenta la estabilidad del algoritmo.05 0.1 0. • Al utilizar tasas de aprendizaje altas es preferible utilizar tasas de momentos bajas.7 Mejores tiempos individuales de entrenamiento.3.4).1 32 155 0. Alfa 0. • Al utilizar tasas de aprendizaje altas el algoritmo oscila alrededor de un mínimo.4 Tendencia del error de entrenamiento. Sin embargo.01 42 157 0.

1] [-0.01.1].01 (Tabla 7. [-5.01] 0.1 . Valores de inicialización óptimos Descripción: Los experimentos presentados en esta sección tienen como objetivo encontrar cual es el rango de valores de inicialización que disminuye los tiempos de entrenamiento.0% 559 111 -1 1 50 100.1.2.1 50 100.01 0. 0. 5]} Resultados: Desvío Tiempo Ent. Ent. 0. Federico Bertona Experimentación 59 .01 .15 0.20 0.5 Tendencia del error de entrenamiento.4).Entrenamiento de redes neuronales basado en algoritmos evolutivos • Los mejores tiempos de entrenamiento promediados sobre el total de ejecuciones del algoritmo se obtuvieron utilizando una tasa de aprendizaje de 0.1.980 66 Tabla 7.0% 306 211 -5 5 50 0.05 y una tasa de momento de 0.05 0. % Tiempo Inicialización Inicialización Corridas Entrenamiento Prom.00 1 84 167 250 333 416 499 582 665 748 831 914 997 1080 1163 1246 1329 1412 1495 1578 1661 1744 1827 1910 2019 2186 2349 Gráfico 7. 0. 7. 1]. [-1.1 0.01 50 100. Valores de inicialización de la red neuronal L. Variables: Los rangos estudiados fueron los siguientes: Rangos = {[-0.1] [-0. 5] [-1 . [-0.8 Tiempos de entrenamiento. 0. 0.2.25 [-5 . Valores de inicialización de la red neuronal Min Max Cant.10 0.0% 682 128 -0.0% 1.01]. -0.

Algoritmos genéticos El objetivo de esta serie de experimentos es determinar cuales son los parámetros de configuración del algoritmo genético óptimos que permitan entrenar una red neuronal para el set de datos analizado.1]. 32 124 41 136 16 141 3 152 24 165 -1 1 10 167 49 173 7 187 31 194 38 194 Tabla 7.8). Para este grupo de experimentos se utilizó el primer set de datos.2.1. Variables: A lo largo de esta sección se analizan cuatro funciones de selección diferentes: S = {Proporcional.8. Función de selección Descripción: El objetivo del operador de selección es elegir los individuos de la población que tengan mayor grado de adaptación.2.9). Federico Bertona . Torneo.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tiempo Prom. • Los mejores tiempos de entrenamiento promediados sobre el total de ejecuciones se obtuvieron para el rango de inicialización [-1. 7. Ranking-Ruleta} 60 Experimentación L.2.5). 7. Esta característica se observa también si se analizan cada una de las ejecuciones (Tabla 7. • El uso de valores de inicialización muy bajos aumenta el tiempo necesario de entrenamiento (Tabla 7. Ruleta.2. Tabla 7.8. Interpretación de los resultados: • El uso de valores de inicialización muy altos evita que la red sea capaz de alcanzar un nivel de entrenamiento adecuado (Tabla 7.9 Mejores tiempos individuales de entrenamiento. Min Inicialización Max Inicialización Corrida Ent. Gráfico 7.

00 0 30 60 90 120 150 180 210 240 270 300 330 360 390 420 450 480 510 540 570 600 630 660 690 720 Seg 750 Seleccion proporcional Seleccion torneo Seleccion ruleta Seleccion ranking-ruleta Error Gráfico 7. Interpretación de los resultados: • Los tiempos promedio obtenidos por todas las funciones de selección analizadas son relativamente similares (Tabla 7.0% 208 79 Selección ranking-ruleta 50 100. L. Gráfico 7.25 0. Ent.0% 267 78 Tabla 7. 32 129 Selección torneo 46 134 26 136 Selección proporcional 40 140 Selección torneo 33 144 Selección proporcional 48 147 43 148 Selección torneo 16 149 Selección proporcional 20 150 Selección ranking-ruleta 4 153 Tabla 7. Selección proporcional 50 96.05 0.10 0.20 0. Función de selección Cant. Federico Bertona Experimentación 61 .0% 325 112 Selección torneo 50 100.6).30 0.10 Tiempos de entrenamiento.45 0. Ent.0% 296 155 Selección ruleta 50 100.35 0. Tiempo Ent.15 0.40 0. % Corridas Entrenamiento 0.6 Tendencia del error de entrenamiento.10.11 Mejores tiempos individuales de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos Resultados: Tiempo Desvío Función Selección Prom. Función de selección Función Selección Corrida Tiempo Prom.

Esto se ve reflejado en el bajo desvió estándar que muestran sobre el total de corridas (Tabla 7.Entrenamiento de redes neuronales basado en algoritmos evolutivos • • • • Los mejores tiempos individuales se obtuvieron utilizando los métodos de selección por torneo y selección proporcional (Tabla 7.6). Federico Bertona . Función de cruza Tipo Función Cruza 62 Experimentación L. C = {Probabilística.0% 190 51 Cruza simple 50 100. Los resultados muestran que el método de entrenamiento es poco dependiente del operador de selección utilizado (Tabla 7. Uniforme. los mejores tiempos de entrenamiento (Tabla 7. Gráfico 7. Variables: En esta sección se presentan los resultados obtenidos para cuatro operadores de cruza diferentes. Sin embargo esta última no fue capaz de alcanzar el nivel de entrenamiento deseado en 2 ejecuciones (Tabla 7.2.12 Tiempos de entrenamiento. Los métodos de selección por torneo y ranking-ruleta muestran tiempos de convergencia bastantes similares a lo largo de las distintas ejecuciones. Tiempo Ent.0% 216 67 Tabla 7.0% 202 99 Cruza uniforme 50 100.10).10). Multipuntos} Resultados: Cant.10. Función de cruza Descripción: El objetivo del operador de cruza es recombinar el material genético de los individuos de una población para producir nuevos individuos.10). 7. en promedio. Simple. Ent.10).2.0% 249 111 Cruza multipuntos 50 100. % Tiempo Desvío Corridas Entrenamiento Prom. La función de selección por torneo obtuvo.2. Cruza probabilística 50 98.

Cruza probabilística 27 124 Cruza simple 42 126 Cruza multipuntos 12 126 40 127 Cruza probabilística 14 131 32 131 Cruza multipuntos 42 133 Cruza probabilística 41 134 Cruza multipuntos 41 134 12 135 Cruza uniforme 38 135 Cruza simple 10 135 Tabla 7.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.12).20 Cruza uniforme Cruza multipuntos 0. Todos los operadores son capaces de alcanzar un nivel de entrenamiento adecuado en tiempos similares (Tabla 7. • Los mejores tiempos individuales se reparten entre los cuatro operadores. Ent. L. Tipo Función Cruza Corrida Interpretación de los resultados: • Los tiempos promedio obtenidos por todas las funciones de cruza analizadas son muy similares (Tabla 7.13 Mejores tiempos individuales de entrenamiento.12).13).10 0.05 0. • Se observa también que el desvío estándar del tiempo de entrenamiento es relativamente bajo (Tabla 7. Federico Bertona Experimentación 63 . Función de cruza Tiempo Prom.00 0 29 58 87 116 145 174 203 232 261 290 319 348 377 406 435 464 493 522 551 580 609 638 667 696 725 Seg 754 Gráfico 7.25 Cruza probabilistica Cruza simple 0. Esta característica se debe a que los tiempos de entrenamiento permanecen similares entre las distintas ejecuciones del algoritmo.15 Error 0.7 Tendencia del error de entrenamiento.

04] Mutación uniforme [0.01] 50 100.0. 7.0% 191 58 94. Tiempo Ent.0. Lineal Decreciente} Tipo de Mutación = {Numérica.0.0.02] 50 100.0% 267 Tabla 7.01.13. Variables: En esta sección se analizan los experimentos realizados para el estudio de tres operadores de mutación.3. Para cada uno de éstos se estudiaron también distintos rangos de variación de la probabilidad de mutación. Función de mutación Descripción: El objetivo del operador de mutación es alterar características de algunos individuos para garantizar la diversidad de la población.0.04] 50 Mutación lineal creciente [0.14 Tiempos de entrenamiento.0% 326 185 229 207 205 54 56 167 Mutación lineal creciente [0.0% 195 48 100.005.04.01. 100. Federico Bertona .Entrenamiento de redes neuronales basado en algoritmos evolutivos • • • El algoritmo genético no pudo entrenar la red neuronal una única vez.7).0% 284 [0.02] 50 Mutación lineal creciente [0.02. Binaria} Resultados: Función Mutación Cant.0. Gráfico 7.2.04] 50 98.0. Este caso se produjo utilizando la función de cruza probabilística (Tabla 7.02.0% 214 Mutación uniforme [0. Los resultados muestran que el método de entrenamiento es poco dependiente del operador de cruza utilizado. % Corridas Entrenamiento Tiempo Desvío Prom.0% 327 [0.01] Mutación lineal decreciente 50 86. y dos variantes para llevar a cabo la mutación: M = {Uniforme. Ent.12).0.2.0. Función de mutación numérica 64 Experimentación L. Lineal Creciente.0% 274 [0. Los tiempos promedio obtenidos por la cruza uniforme son mejores que los obtenidos por el resto de los operadores analizados (Tabla 7.08] 50 Mutación lineal decreciente 50 80.0% 203 Mutación uniforme [0.02] Mutación lineal decreciente 50 86.01.02.04.

02] Lineal Decreciente [0.04 .15 Error 0. Federico Bertona Experimentación 65 . 0. 0.8 Tendencia del error de entrenamiento. Función de mutación numérica lineal decreciente L.05 0.20 0.04] 0.01.15 Error 0. Función de mutación numérica lineal creciente 0.25 Lineal Creciente [0.08] 0.10 0.04] Lineal Creciente [0.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.00 0 30 60 90 120 150 180 210 240 270 300 330 360 390 420 450 480 510 540 570 600 630 660 690 690 720 720 Seg 750 750 Gráfico 7.02] Lineal Creciente [0.02. 0. 0.00 0 30 60 90 120 150 180 210 240 270 300 330 360 390 420 450 480 510 540 570 600 630 Seg 660 Gráfico 7.20 0.05 0.01] Lineal Decreciente [0.01 .9 Tendencia del error de entrenamiento. 0.005.02 . 0.10 0.25 Lineal Decreciente [0.

Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.000156] Mutación uniforme 50 88.0. 265 10 2 186 315 326 214 221 176 Función Mutación Mutación lineal creciente 50 40.0% 923 [0. Tiempo Corridas Entrenamiento Ent.01 .0% 644 [0.0.0.0.0.00 0 30 60 90 120 150 180 210 240 270 300 330 360 390 420 450 480 510 540 570 600 630 660 690 720 Seg 750 Gráfico 7. 0.20 0. Función de mutación binaria 66 Experimentación L.0% 502 [0.15 Tiempos de entrenamiento.0% 715 [0.000313] Mutación lineal decreciente 50 58.0% 837 [0.0% 914 [0.04 . Ent.000625.0% 526 [0.01] Uniforme [0.000625] Tabla 7.0.10 Tendencia del error de entrenamiento.04] 0.0% 543 [0.10 0.000313.000156.000625] Mutación uniforme 50 90.0% 485 [0. Función de mutación numérica uniforme Tiempo Desvío Cant. Federico Bertona .02] Uniforme [0.000625] Mutación lineal creciente 50 0. % Prom.000313] Mutación uniforme 50 90.000156] Mutación lineal decreciente 50 40.000156.05 0.0.0.000156.001250] Mutación lineal decreciente 50 10. 0.15 Error 0.000313. 0.25 Uniforme [0.0.000625.02 .000313] Mutación lineal creciente 50 0.000313.000078.

000313.0.000156.15 Error 0.000313] Lineal decreciente [0. Función de mutación binaria lineal decreciente L.00 0 40 80 120 160 200 240 280 320 360 400 440 480 520 560 600 640 680 720 760 800 840 880 792 920 828 Seg 960 864 900 Gráfico 7.000625.000156.001250] 0.25 Lineal creciente [0.10 0.0.10 0.000078.000625] 0.20 0.0.15 Error 0.000625] Lineal creciente [0.11 Tendencia del error de entrenamiento.25 Lineal decreciente [0.0. Función de mutación binaria lineal creciente 0.20 0.000156] Lineal decreciente [0. Federico Bertona Experimentación 67 .000313.000313] Lineal creciente [0.00 0 36 72 108 144 180 216 252 288 324 360 396 432 468 504 540 576 612 648 684 720 Seg 756 Gráfico 7.0.12 Tendencia del error de entrenamiento.05 0.0.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.

20 0.15). el uso de tasas de mutación uniformes demuestra una amplia superioridad sobre los otros dos tipos de funciones de mutación estudiadas. • Dentro de las funciones de mutación numérica estudiadas se observa que disminuir la tasa de mutación a medida que avanzan las generaciones no es una buena opción. Sin embargo.15 Error 0.14. Esto se observa claramente en los porcentajes de entrenamiento alcanzados por cada uno de ellas (Tabla 7. A su vez.05 0. • El operador de mutación presenta mayor variación de resultados entre las distintas implementaciones que el resto de los operadores estudiados. 68 Experimentación L. • Para mutaciones binarias.13 Tendencia del error de entrenamiento.25 Uniforme [0.000313.10 0.000156] Uniforme [0.15). • La función de mutación numérica lineal creciente. cuyos resultados no superaron en ningún caso el 60 % de entrenamientos exitosos (Tabla 7.000156. el uso de tasas de mutación crecientes produjo los mejores tiempos promedio de entrenamiento.14). Función de mutación binaria uniforme Interpretación de los resultados: • La mutación numérica es ampliamente superior a la mutación binaria. Ninguna de las implementaciones logró superar el 90 % de entrenamientos exitosos (Tabla 7. con probabilidades variando entre un 2% y un 4% mostró los mejores tiempos promediados sobre el total de ejecuciones. • El uso de mutación binaria demostró no ser una buena opción.000313] Uniforme [0. Tabla 7.0.0. con un porcentaje de convergencia levemente inferior a la mutación uniforme (Tabla 7.15). Federico Bertona .14). otras implementaciones del operador de mutación muestran resultados comparables con los obtenidos por esta implementación (Tabla 7. Los mejores porcentajes de entrenamiento se obtuvieron manteniendo una tasa de mutación constante a lo largo de las diferentes generaciones.000625] 0.00 0 39 78 117 156 195 234 273 312 351 390 429 468 507 546 585 624 663 702 741 780 819 858 897 Seg 936 Gráfico 7.000625.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.0.

01 50 100. Se estudian a su vez dos operadores de inicialización diferentes. Ent.01].Entrenamiento de redes neuronales basado en algoritmos evolutivos 7. Random Selectiva} Rangos = {[-0.2. Min Ini. Variables: Los operadores rangos estudiados fueron los siguientes: Tipo Inicialización = {Random.1 50 100.16 Tiempos de entrenamiento.0% 249 73 Inicialización -0. 0. Tiempo Ent. [-0. Max Ini.1 0.0% 209 74 -5 5 50 4. Federico Bertona Experimentación 69 .1. -0. Cant.01 0. 32 121 40 137 30 138 -1 1 36 138 44 144 Inicialización Random 7 147 45 150 -0.2.01 25 150 31 151 -1 1 39 151 -0.1]. 1].1 0. 0. [-1. Corrida Tipo Función Inicialización L.1 11 151 Tabla 7.0% 239 86 Random -1 1 50 100. [-5.01 0.17 Mejores tiempos individuales de entrenamiento. Max Ini. Valores de inicialización Descripción: Los experimentos presentados en esta sección tienen como objetivo encontrar cual es el rango de valores de inicialización que disminuye los tiempos de entrenamiento. 5]} Resultados: Tipo Función Inicialización Tiempo Desvío Prom.0% 770 26 Tabla 7.4. % Corridas Entrenamiento Tiempo Prom.01. Ent. Inicialización random Min Ini.

1 .Entrenamiento de redes neuronales basado en algoritmos evolutivos 0. Tipo Función Inicialización Min Ini. % Ini. 0.00 0 30 60 90 120 150 180 210 240 270 300 330 360 390 420 450 480 510 540 570 600 630 660 690 720 750 Seg 780 Gráfico 7.1 0.14 Tendencia del error de entrenamiento.25 Random [-1 . Corrida 70 Experimentación L.01 0.0% 222 52 Random -1 1 50 100.1 0. Max Cant.05 0. Corridas Entrenamiento Tiempo Prom.1 50 100.01 42 135 9 138 -1 1 42 139 -0.01 50 100. Tiempo Ent.01 0. Ent. 0. -0. -1 1 10 135 -0.19 Mejores tiempos individuales de entrenamiento.0% 442 235 Tabla 7.1 17 139 Inicialización Random Selectiva -1 1 19 142 -5 5 27 145 -1 1 24 145 -0.0% 224 122 Selectiva -5 5 50 76. 5] 0.20 0. Max Ini. Inicialización random selectiva Tipo Función Inicialización Min Ini.15 Error 0. Inicialización random Tiempo Desvío Prom.18 Tiempos de entrenamiento.1] Random [-5 .01] Random [-0. Ent. Federico Bertona .1 13 145 -1 1 46 147 Tabla 7.0% 233 60 Inicialización -0.1 0. 1] Random [-0.01 .10 0.

17. se obtuvieron buenos resultados al hacer uso de valores de inicialización medios y bajos (Tabla 7. Tabla 7.18.05 0.25 Random Selectiva [-1 . Gráfico 7. Tabla 7.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0. Federico Bertona Experimentación 71 . El pequeño desvío Standard de los tiempos promedio de entrenamiento también es una buena medida de dicha inmunidad (Tabla 7. • El uso de grandes valores de inicialización muestra resultados pobres.18).16. Esto se observa en la paridad general en los tiempos de entrenamiento promedio obtenidos por los distintos métodos. 1] Random Selectiva [-0.1] Random Selectiva [-5 . donde el uso de valores en el rango [-1 . 5] 0. 0. L. Tabla 7. • Lo dicho anteriormente impacta directamente sobre los resultados generales.15 Error 0.18).19). Tabla 7.10 0. • A diferencia de las redes neuronales.01 . Gráfico 7.20 0.00 0 31 62 93 124 155 186 217 248 279 310 341 372 403 434 465 496 527 558 589 620 651 682 713 744 Seg 775 Gráfico 7. Inicialización random selectiva Interpretación de los resultados: • El uso de ambos tipos de inicialización no muestra grandes diferencias. Tabla 7.18). Por su parte. aunque también se observa en menor medida al usar pesos preseleccionados (Tabla 7. Esta característica se hace más notoria al usar inicialización puramente aleatoria.15 Tendencia del error de entrenamiento. los algoritmos genéticos muestran mayor inmunidad a las condiciones de inicialización.1 .15).16. • Los mejores tiempos individuales de entrenamiento se obtuvieron utilizando valores iniciales dentro del rango [-1 . 0. 1]. 1] mostró un leve superioridad sobre el resto (Tabla 7.14.16. La ventaja de preseleccionar algunos valores de inicialización sólo se observa al utilizar grandes valores de inicialización (Tabla 7.01] Random Selectiva [-0.16.

Se utilizó también un segundo set de datos. Federico Bertona .3.20 0.15 Error 0.25 Algoritmo Genetico Red Neuronal 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos 7.05 0.0% 687 415 Tabla 7. más rico en ejemplos y que permite tener una mejor medida de la capacidad de entrenamiento y generalización del método. Resultados: Tipo Algoritmo Cant. Algoritmo genético 50 100. Tiempo Ent.20 Comparación de tiempos de entrenamiento 0. Comparación de ambos métodos Descripción: Los resultados presentados en esta sección son los más importantes del capítulo ya que permiten establecer una medida de comparación entre ambos métodos de entrenamiento.10 0.16 Comparación de la tendencia del error de entrenamiento 72 Experimentación L.00 0 68 136 204 272 340 408 476 544 612 680 748 816 884 981 1100 1238 1378 1509 1678 1876 2074 2273 2471 2669 2867 Seg Gráfico 7.0% 418 161 Red Neuronal 50 98.2. % Tiempo Desvío Entrenamiento Corridas Entrenamiento Prom. Ent. Para este conjunto de experimentos se utilizaron las configuraciones óptimas obtenidas de los experimentos anteriores.

05 1 40 79 118 157 196 235 274 313 352 391 430 469 508 547 586 625 664 703 742 781 820 859 Seg Algoritmo genetico Red Neuronal Gráfico 7.Entrenamiento de redes neuronales basado en algoritmos evolutivos 0.25 0.23 0.17 Comparación del error de entrenamiento Corrida Tiempo Prom.19 0.11 0. Tipo Algoritmo Entrenamiento L. Ent. Federico Bertona Experimentación 73 .09 0.21 0.21 Mejores tiempos individuales de entrenamiento.13 0.15 0.17 Error 0. 30 207 42 226 38 248 25 260 4 271 49 274 18 275 34 275 39 275 36 279 Algoritmo genético 8 287 12 291 20 294 7 301 37 313 9 316 21 318 24 318 17 327 46 338 Red Neuronal 33 338 Tabla 7.07 0.

00% Algoritmo genetico 94.32% 0.04% 0.09% 94.81% 92.03% 92.11% Red Neuronal Gráfico 7.32% 84.00% 90. Aciertos Ent. Aciertos Prom.00% 78.70% 83. Aciertos Prom. Eval.22 Comparación de la cantidad de aciertos Tipo Algoritmo Entrenamiento Algoritmo genético Red Neuronal 96.00% 80.88% 94. Eval.00% 94.00% 76.00% Aciertos Prom.00% 92. Aciertos Prom.70% 2.18 Tiempos individuales de entrenamiento Aciertos Desvío Aciertos Desvío Aciertos Desvío Prom. Ent. Ent.29% 2. Total Aciertos Prom. 82. Total Total 94.09% 0.00% 82.00% % Aciertos 88.40% 91.11% Tabla 7.19 Comparación de la cantidad de aciertos 74 Experimentación L. Eval.92% 82.00% 86.29% 91.83% 83. Federico Bertona .Entrenamiento de redes neuronales basado en algoritmos evolutivos Gráfico 7.81% 1.

Eval. Estos valores se pueden observar cuantitativamente en la tabla 7.23 Mejores porcentajes de aciertos sobre el set de entrenamiento.47% 7 95. Tipo Algoritmo Entrenamiento Corrida Interpretación de los resultados: • De la comparación directa de los tiempos de entrenamiento promedio se observa una marcada superioridad de los algoritmos genéticos por sobre las redes neuronales. 25 87.51% 15 85. L. Ent. Esta característica se observa claramente en el gráfico 7.29% 45 95.29% 34 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Aciertos Prom.29% Algoritmo genético 27 95.96% Red Neuronal 20 86. • En el mismo gráfico se observa que los tiempos obtenidos por el algoritmo genético presentan menor variación que los obtenidos por la red neuronal.51% 35 85.29% 5 95.47% Red Neuronal 31 95.51% Algoritmo genético 28 85.51% Red Neuronal 30 85.47% 19 95.29% Tabla 7.51% 43 85.51% 46 85.47% Algoritmo genético 6 95.51% Tabla 7. Federico Bertona Experimentación 75 .20.68% Algoritmo genético 3 86. Algoritmo genético 28 95.96% 19 85.47% 1 95.29% 47 95. Tipo Algoritmo Entrenamiento Corrida Aciertos Prom.65% 2 95. donde se presentan los tiempos individuales de entrenamiento para cada una de las corridas.24 Mejores porcentajes de aciertos sobre el set de validación.65% Red Neuronal 49 95.51% 19 85.29% Red Neuronal 35 95.18. El tiempo promedio de entrenamiento del método propuesto es un aproximadamente un 40% menor que el obtenido por el algoritmo backpropagation.

Como se puede observar existe una alta paridad entre ambos métodos.21. se ve que los mejores 20 tiempos individuales corresponden al algoritmo genético.23 se muestran los mejores porcentajes de aciertos obtenidos sobre el set de datos de entrenamiento. donde se presentan los tiempos individuales de entrenamiento para cada una de las corridas. que muestra la evolución del error promedio de entrenamiento. 76 Experimentación L.17 se observa que el método presenta menor estabilidad en el descenso del error. en el gráfico 7. Si se estudian los porcentajes de aciertos promedios de ambos métodos se observa una leve superioridad de las redes neuronales por sobre los algoritmos genéticos. Esta paridad en cuanto a los porcentajes de aciertos promedio se observa nuevamente al estudiar el porcentaje de acierto individual para cada una de las corridas. en la tabla 7. Si observamos los tiempos individuales de entrenamiento. Análogamente. Los valores de los mejores 20 tiempos individuales de entrenamiento se presentan en la tabla 7. Estos valores se observan cuantitativamente en la tabla 7. Federico Bertona . la curva del error se muestra siempre por encima de la de los algoritmos genéticos. llevando a una convergencia más lenta del algoritmo de entrenamiento. En el gráfico 7.17.18. A su vez. esta superioridad no es muy notoria ya que representa menos del 1% de diferencia. mostrando bruscas variaciones del error.19. Se observa que en el método propuesto tiene tendencia a acercarse rápidamente a la solución. como se muestra en el gráfico 7. En la tabla 7. se observa que durante los primeros instantes de entrenamiento se produce una aproximación rápida. Se observa que el algoritmo es estable. Sin embargo.24 se muestran los mejores porcentajes de acierto sobre el set de datos de validación. cuando se acerca demasiado a la solución.16 muestra la tendencia del error promedio en el tiempo.Entrenamiento de redes neuronales basado en algoritmos evolutivos • • • • • El gráfico 7. mostrando un descenso prácticamente continuo del error promedio. Cuando se estudian las redes neuronales se observa que en general la tendencia del error promedio presenta el mismo comportamiento que el método propuesto. De la lectura de la misma se extiende que ambos métodos poseen capacidades de generalización similares. Esta característica se observa gráficamente en el gráfico 7. que luego se vuelve en una lenta aproximación.22. Sin embargo.

con un alto riesgo de quedar atrapados en mínimos locales. Federico Bertona Conclusiones 77 . Estos parámetros óptimos luego fueron utilizados para comparar el algoritmo backpropagation con el algoritmo genético. si se utilizan tasas de aprendizaje grandes se aceleran los tiempos de entrenamiento. En la segunda serie de experimentos se estudiaron distintos valores de inicialización y se observó que nuevamente el proceso de aprendizaje se ve fuertemente influenciado por los valores seleccionados. ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el algoritmo backpropagation? Otra cuestión importante a resolver en el algoritmo backpropagation es de qué manera se genera la red inicial. En la primera serie de experimentos se observan las características mencionadas previamente. A continuación se abordan cada una de las cuestiones planteadas en el capítulo 6 y se responden a estos interrogantes. 1. ¿Cuál es el operador de selección adecuado para entrenar redes neuronales utilizando algoritmos genéticos? La tercera serie de experimentos estuvo destinada a determinar cual es el operador de selección óptimo para entrenar redes neuronales L. La manera en que se ajustan los pesos sinápticos esta determinada por la tasa de aprendizaje y la tasa de momento. ¿Como influyen los parámetros del algoritmo backpropagation en el aprendizaje de la red? El algoritmo backpropagation se caracteriza por su alta dependencia a los parámetros seleccionados. Las respuestas a estos interrogantes resumen los contenidos presentados a lo largo de este trabajo. pero se corre el algoritmo oscile en torno a la solución sin lograr estabilizarse en la misma. También demuestran que el método propuesto puede incluso mejorar la performance del entrenamiento en aquellos aspectos en que los métodos tradicionales suelen tener dificultades. El uso de tasas bajas en general lleva a aprendizajes lentos. con valores obtenidos a través de una distribución uniforme definida dentro de un rango determinado.Entrenamiento de redes neuronales basado en algoritmos evolutivos Capítulo 8: Conclusiones y limitaciones Los resultados presentados en el capítulo 7 demuestran que el método propuesto tiene la capacidad de entrenar redes neuronales con conexión hacia delante con las mismas características que los métodos tradicionales de entrenamiento. Los resultados obtenidos variaron no sólo en el tiempo necesario para alcanzar un nivel de entrenamiento adecuado sino también en el porcentaje de entrenamiento alcanzado. Por su parte. La forma más habitual de hacerlo es aleatoriamente. El estudio de diversas combinaciones de parámetros permitió determinar cual era la combinación óptima para el problema estudiado. 3. 2.

las cuales se aplicaron todas en combinación con un proceso de selección elitista. y el proceso evolutivo tiene la capacidad suficiente para lidiar con dicho problema. Se observan grandes similitudes entre los tiempos de los distintos operadores estudiados. se observa de los resultados obtenidos que la mutación numérica es más adecuada que la mutación binaria. Se estudiaron cuatro variantes de este operador. y se evitan de esta manera destruir estructuras complejas que han demostrado buenos niveles de adaptación. este operador se implementó a directamente sobre el fenotipo. 4. que asegura que las mejores soluciones sobrevivan. Esto se observa en la paridad de tiempos entre los distintos operadores. Entre los resultados obtenidos se destaca la baja dependencia del algoritmo al operador de cruza seleccionado. Esta paridad se puede atribuir en gran medida al proceso de selección elitista. ¿Cual es la manera más efectiva de realizar la mutación para entrenar redes neuronales utilizando algoritmos genéticos? ¿Cuál es el operador de mutación adecuado para entrenar redes neuronales? Esta serie de experimentos permitió sacar varios resultados interesantes. Federico Bertona . 5. Esto se debe a que la mutación numérica fue diseñada de acuerdo a las características propias del problema. Como se mencionó en el capítulo 7. Los resultados obtenidos demuestran que el método es poco dependiente del operador de selección utilizado. que es el encargado de introducir distorsiones que mejoren las características de los descendientes. los efectos de este problema en general están sobreestimados. Los resultados demuestran que la recombinación de neuronas permite formar nuevos individuos que preservan las características más importantes de sus padres. en contraste con los operadores de cruza clásicos utilizados en los algoritmos genéticos. Como se afirmo en dicho capítulo. Otro resultado importante que se observa es la baja influencia de los efectos de permutación descriptos en el capítulo 6. lo que conduce a una mejora continua de la calidad de la solución obtenida. cuyas características no son aplicables al problema. mientras que la mutación binaria es un proceso general.Entrenamiento de redes neuronales basado en algoritmos evolutivos utilizando algoritmos genéticos. y bajas variaciones entre distintas ejecuciones del mismo operador. Otro resultado importante 78 Conclusiones L. Mientras que la mutación numérica obtuvo en general altos porcentajes de entrenamiento. La elección de este tipo de cruza aumenta la importancia del operador de mutación. ¿Cuál es el operador de cruza adecuado para entrenar redes neuronales utilizando algoritmos genéticos? Otro punto importante que se estudió en este trabajo fue operador de cruza óptimo para entrenar redes neuronales utilizando algoritmos genéticos. y en las bajas variaciones de tiempos entre las distintas ejecuciones del algoritmo. En primer lugar. la mutación binaria se caracterizó por alcanzar bajos porcentajes de entrenamiento.

para altos valores de inicialización. El operador de mutación es el encargado de introducir distorsiones que mejoren las características de los descendientes. 7. L. En ambos casos. Esta característica es de gran importancia ya que permite realizar una estimación inicial del tiempo necesario de entrenamiento de una red neuronal. El tiempo de entrenamiento promedio del método propuesto es aproximadamente un 40% inferior que el obtenido por el algoritmo backpropagation. ¿De qué manera influyen los valores de inicialización en el aprendizaje utilizando el método propuesto? ¿Cuál es la ventaja de utilizar un esquema de inicialización selectivo? Una cuestión importante de resolver en el método propuesto es de qué manera se genera la población inicial. Los resultados obtenidos demuestran una amplia superioridad en cuanto a tiempos de entrenamiento del método propuesto por sobre el algoritmo backpropagation. utilizando un esquema de inicialización selectivo. el uso de valores de inicialización muy altos lleva a bajos porcentajes de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos que se observa en esta serie de experimentos es la manera de modificar la probabilidad de mutación. ¿Cuál es la ventaja del método propuesto en cuanto a los tiempos de entrenamiento? En la última serie de experimentos se realizaron comparaciones directas entre ambos métodos. Debido a ello. Otro resultado importante que se observa de los experimentos realizados es que la variación de los tiempos de entrenamiento es menor en el método propuesto que en el algoritmo backpropagation. Los resultados muestran que es preferible mantener constante dicha probabilidad a lo largo de las distintas generaciones. este efecto puede ser reducido en gran medida. Mediante la adición de valores preseleccionados en la población inicial se logra que el porcentaje de entrenamiento aumente en gran medida. Esto se observa en la baja variación de los tiempos totales de entrenamiento. 6. con valores obtenidos a través de una distribución uniforme definida dentro de un rango determinado. La forma más habitual de hacerlo en los algoritmos genéticos es generar la población inicial aleatoriamente. Como se mencionó previamente. Sin embargo. Federico Bertona Conclusiones 79 . de la misma manera que lo hace con el algoritmo backpropagation. A pesar de ello. las probabilidades de mutación utilizadas por este método deben ser superiores a las utilizadas por el algoritmo genético canónico. La importancia dada a este operador hace que los resultados obtenidos sean los que mostraron mayores variaciones entre sí. el operador de mutación asume una importancia mayor en el método propuesto que en el algoritmo genético canónico. aunque no eliminado totalmente. Los resultados obtenidos para esta serie de experimentos permiten afirmar que el método propuesto es menos dependiente de los valores iniciales que el algoritmo backpropagation. el uso de valores de inicialización muy grandes afecta al método propuesto.

Federico Bertona . El método no hace uso de información de gradientes ni de ningún otro tipo de información propia de la topología. En este caso la población tiende a hacerse homogénea y el algoritmo genético se estabiliza en una solución que puede no ser lo suficientemente buena. Esta característica también se observa sobre el set de entrenamiento. El algoritmo backpropagation suele también quedar atrapado en mínimos locales. la derivada de la función de activación se hace nula. y los pesos de la red permanecen invariables. ¿Cómo responde el método al fenómeno de saturación y a los mínimos locales? Como se describió en el capítulo 5 estos son dos problemas que afectan en gran medida la performance del algoritmo backpropagation. y actualiza los pesos en la dirección de máximo decrecimiento. ¿Cómo se adapta el método a diferentes topologías? Las características del método propuesto lo hacen fácilmente adaptable a otras topologías y tipos de aprendizaje. Nuevamente. Sin embargo. estos problemas no tienen efecto en el método propuesto. El fenómeno de saturación se produce cuando una neurona alcanza un máximo o un mínimo. este efecto no se produce en el método propuesto ya que el mismo no hace uso de las derivadas de la función de activación de la neurona.Entrenamiento de redes neuronales basado en algoritmos evolutivos 8. Como el método propuesto no hace uso de la derivada de la función de activación. Para solucionar este problema se hace uso de operadores que garanticen la heterogeneidad de la población. reduciendo al mínimo la probabilidad de que se produzca este fenómeno. ¿Cuál es la capacidad de generalización de las redes entrenadas por el método propuesto? El objetivo de un método de entrenamiento no es que la red neuronal aprenda todos los patrones de entrenamiento presentados. En este caso. sino que extraiga de ellos las características principales para poder actuar correctamente sobre patrones nunca antes vistos. El proceso de actualización de pesos sólo requiere información de la calidad de la respuesta obtenida por un conjunto de 80 Conclusiones L. 10. las diferencias entre ambos métodos son inferiores al 1% por lo que ambos métodos pueden considerarse con similares capacidades de generalización 9. Un efecto similar al de los mínimos locales que suele suceder en los algoritmos genéticos es el fenómeno de convergencia prematura. Esto se debe a que el algoritmo hace uso de la información del gradiente de la función de error. Las características del método propuesto garantizan la heterogeneidad de la población. Esto sucede cuando un individuo es muy superior al resto de la población. el efecto de este fenómeno es completamente eliminado. Sin embargo. De la comparación directa entre ambos métodos se observa que el porcentaje de aciertos sobre el set de evaluación es levemente inferior para el método propuesto que para el algoritmo backpropagation.

. Los resultados obtenidos en este trabajo demuestran que el método propuesto es una alternativa más que interesante para el entrenamiento de redes neuronales. Una de las características más importantes de las redes neuronales es su capacidad de generalización. varios individuos simultáneamente. Esta técnica. existen algunos caminos que no han sido estudiados en este trabajo y que podrían llegar a mejorar la calidad del método. sería interesante también estudiar las mejoras que introduce paralelizar el algoritmo genético. el uso de otros problemas permitirá extender y generalizar los resultados obtenidos en este trabajo. Así. En primer lugar. uno a continuación del otro. La utilización de un sistema hibrido que entrene redes neuronales utilizando los métodos tradicionales en conjunto con el método propuesto quedó fuera del alcance de este trabajo. Mediante la adición de un término en dicha función que haga referencia a la capacidad de generalización se podría llegar a mejorar esta característica. Federico Bertona Conclusiones 81 . En este último caso se podría utilizar el método aquí propuesto para alcanzar una solución próxima a la deseada y finalizar el entrenamiento con algún método tradicional de entrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos pesos. Esta paralelización se puede realizar en dos sentidos. El uso de distintas topologías permitirá también comparar el método aquí propuesto con otros métodos de entrenamiento. Por último. para entrenar redes neuronales con distintas topologías sólo será necesario estudiar las funciones de evaluación y de adaptación. Sin embargo. y evitando todos los problemas que en general suele tener dicho algoritmo. el aprendizaje por refuerzo. Sin embargo esta capacidad de generalización podría ser incrementada si la función de evaluación hiciera uso de esta información. pudiéndose de esta manera reducir aun más los tiempos de entrenamiento. En este trabajo se demostró que el método propuesto es capaz de alcanzar niveles de generalización similares a los del algoritmo backpropagation. Sin embargo. adaptándolas a las características propias del problema cuando sea necesario. Los algoritmos genéticos son fácilmente paralelizables. el método propuesto es capaz de entrenar redes neuronales con las mismas características que el algoritmo backpropagation. Otra forma de paralelizar el método propuesto consiste en hacer uso de varias poblaciones independientes. Los objetivos propuestos para el nuevo método fueron cumplidos de manera satisfactoria. etc. Esta afirmación es extensible a distintos tipos de entrenamiento. o utilizando ambos métodos. Si bien en este trabajo se estudiaron las características del método utilizando un problema real de difícil resolución. Esta solución podría darse incluyendo un nuevo operador genético de aprendizaje. Otro punto que debería ser estudiado es la repetición de todos estos experimentos para distintos tipos de problemas y topologías. la utilización conjunta de ambos métodos es un camino interesante a seguir. De esta manera. por ejemplo. llamada L. evaluar. Esta información es suficiente para que el método ajuste iterativamente la solución hasta que la misma sea lo suficientemente buena. De esta manera se podrían llegar a mutar. haciendo uso de una única población se pueden llegar a aplicar conjuntamente los operadores genéticos en diferentes procesadores.

Federico Bertona . es un área de investigación muy interesante que propone distintos modelos de paralelización. 82 Conclusiones L.Entrenamiento de redes neuronales basado en algoritmos evolutivos algoritmos genéticos paralelos.

Giles (eds). and R. Irvine.ics. y Merz C. (1998).. Albrecht (eds) Bishop. pp. Booker (eds). A fast stochastic Error-Descent Algorithm for supervised learning and optimization. (1993). Biondi. K. MIT Press Beasley. (1993) An Overview of Genetic Algorithms: Part 1. Hanson. 2-9. (1995) Evolutionary Algorithms for Neural Network Design and Training. E.C. R. (1996). J.. CA: University of California. C. Varela and P. Aristotle University of Thessaloniki.W. 244-251. J.. CRC Press. Fundamentals. Hoffmeister F. Bourgine (eds. (1992) Self-Adaptation in Genetic Algorithms. En Proceedings of the International Conference on Artificial Neural Networks and Genetic Algorithms. Jacobson I.. (2000). Branke. From the chromosome to the neural network. D. Automation and Robotics Lab. (1994) Review of Parallel Genetic Algorithms Bibliography. M. 263-271. J. A survey of Parallel Genetic Algorithms. Department of Information and Computer Science. F. En Proceedings of the Fourth International Conference on Genetic Algorithms R.. J. R. 95(1) 145-163.. (1997). En Proceedings of the First Nordic Workshop on Genetic Algorithms and its Applications. T.. R.F. B. En Advances in Neural Information Processing Systems.edu/~mlearn/MLRepository. Federico Bertona Referencias 83 . D. CA L. P. Blake C. (1995). 15(2) 58-69. Morgan Kaufmann. G.Entrenamiento de redes neuronales basado en algoritmos evolutivos Referencias Adamidis. pp. Jordan. O. http://www. L. J. Technical Report Illinois Genetic Algorithms Laboratory. Booch G.). N. Belew and L. 2000. Alander (ed). T.uci. Addison-Wesley. Bäck. Martin. L. El Lenguaje Unificado de Modelado. Greece. Neural Networks. pp. Michel. J. (1991) A Survey of evolution strategies. Cauwenberghs. San Mateo. T. J. y Schwefel H. Rumbaugh J.. En CRC Handbook of Computer Science.html. Pearson. Cowan. Bull. UCI Repository of machine learning databases. S. University of Illinois at Urbana-Champaign. Cantú-Paz. Bäch. Tucker (ed).. Steele. Version 1. En Towards a Practice of Autonomous Systems: Proceedings of the First European Conference on Artificial Life. C. Dept. of Electrical and Computer Eng. En University Computing. D. D. Madrid. Internal Technical Report.

Madrid. ISBN: 1857285034 Hilera J. K. I. Funahashi. R. (1988). En Neural Networks. (1996). (1989). Sanz Molina. 85-123. University of California at Berkeley. pp. M. Nueva Librería. (1993). (2002).. Genetic Algorithms. A. Natale. K. P. RA-MA. y Martínez V. Neural Nets. Genetic Algorithms for optimization. D. Kundu y A. En Neural Network. University of Michigan Press (Ann Arbor). (1975) Adaptation in Natural and Artificial Systems. K. García Martínez. Holland J. En Statistical Computing: Existing Methods and Recent Developments. Analysis of simple neural networks. Forrest.I. En Computer Methods in Applied Mechanics and Engineering. ISBN: 3540762140 Del Brío. Basu (eds.. Chinrungrueng.. Springer Verlag.. Hornik. D. M. J. Fundamentos. Pant. Alfaomega Grupo Editor. Roy (eds). White. Gurney. pp. R. Evaluation of Heterogeneous Architectures of Artificial Neural Networks. Nueva Librería. En Soft Computing in Engineering Design and Manufacturing. (2003) Sistemas Inteligentes. Della Cioppa. (1997). pp. H. 2. 191(11-12):1245-1287 Deb. García Martínez. India: Narosa Publishing House De Falco. (1997). M. Master’s Thesis.. (1995) Redes Neuronales Artificiales. K. Modular Neural Networks for Speech Recognition. 2(5): 359 . Tarantino. (1997). E. 28(1). (1989) Multilayer feedforward networks are universal approximators. Sistemas Autónomos. University of California at Berkeley. H. Master’s Report. Aprendizaje Automático. Computer Science Department. B. Coello Coello. CRC Press. A. 183-192. (1996). Technical Report. Chawdhry. Artificial Neural Networks Optimization by means of Evolutionary Algorithms. (2004). Carnegie Mellon University. P. Federico Bertona . New Delhi. y Servente. On the approximate realization of continuous mappings by neural networks.). Theoretical and Numerical Constraint-Handling Techniques used with Evolutionary Algorithms: A survey of the state of the Art. C.Entrenamiento de redes neuronales basado en algoritmos evolutivos Chinrungrueng. 77-80 Fritsch. C. Pasquini. Computer Science Department. R. modelos y aplicaciones. (2002) Redes neuronales y Sistemas difusos. S. Stichcombe. En ACM Computer Survey. R. C.366 84 Referencias L.

6(3).. En Encyclopedia of Science and Technology. En International Journal of Neural Systems. J. A. Z. University of Amsterdam. R. Widrow.. University of California at Berkeley Kim. Yao. M. Mathematical Findings on Artificial Neural Nets and Their Physical Meaning. pp. En Evolutionary Programming V: Proc. Technical Report. P. 299-316. A. (1993). (1997). Training of Neural Networks by means of Genetic Algorithms working on very long Chromosomes. En Proceedings of the IEEE. A. Knoxville. (1992). Morgan Kaufmann Publishers. Evolving Neural Network using Real coded Genetic Algorithm (GA) for Multispectral Image Classification. Madaline and Backpropagation. Vol. Un enfoque Práctico. Master's thesis.M. J. Combining Genetic Algorithms and Neural Networks: The encoding problem. Center for Naval Analyses Isasi Viñuela.R. pp. Genetic Programming. P. P. (1990) 30 years of adaptive neural networks: Perceptron. (1997).. Tungare. Jules. Irreducible Semi-Autonomous Adaptive Combat (ISAAC): An Artificial-Life Approach to Land Combat. 29-43 Kolen.. 860-867.1119-1129 Liu. E. Fr. Moody.. M. (1994). P. D. Technical Report. Y. Wattenberg. 78(9). of the Fifth L. Liu. pp 1415-1442. Lippmann. J. B. Kröse. A. Van der Smagt. University of California at Berkeley Koehn. Stochastic Hillclimbing as a Baseline Method of Evaluating Genetic Algorithms. Niu. Prentice Hall Joglekar. (2004).. (2001). Vol. P. Federico Bertona Referencias 85 .. Evolving Artificial Neural Networks Through Evolutionary Programming. 20(7). pp. 39(24) pp. Vol. University of Erlangen and The University of Tennessee. Redes Neuronales Artificiales. Computer Science Department. (1995). 3. (1991).Entrenamiento de redes neuronales basado en algoritmos evolutivos Ilachinsky. (2004). A. B. Koza.. C. (1996). Korning. Williams (eds). Research Memorandum CRM 97-61. Kent y J. S. I..10. H. Pollack. Department of Computer Science. En Advances in Neural Information Processing Systems. Liu. En Future Generation Computer Systems The International Journal of Grid Computing: Theory. Galván León. M. Inc. Wang. Touretzky (eds). X. G. Lehr. Methods and Applications. Genetic Algorithms and their use in the design of Evolvable Hardware. Back Propagation is Sensitive to Initial Conditions. An Introduction to Neural Networks. (1994).. Z. J. Conceicao Rodrigues College of Engineering.

En Intelligent Hybrid Systems. Fogel. Whitley. M. Generating neural networks with genetic algorithms using a marker based encoding. Walker. 65-85. y Yao X. Federico Bertona . 459-473. A Genetic Algorithm Tutorial. Wiley. New York. MSc Thesis. 86 Referencias L. NJ. Goonatilake. Lawrence Erlbaum Associates. J. Artificial Neural Networks in Control and Optimization. B (1995) Genetic Algorithms for Neural Network Training on Transputers.J. Co-Evolution and Genetic Algorithms. En Statistics and Computing. Whitley D. Canada. En Proc.W. Sutton. Vol. D. (1992). (1995). Ömer. (1994). S. University of Manchester. Vol 4. (1995).). (1997). Hillsdale. Evolutionary computation approaches to solving problems in neural computation. Neural network weight selection using genetic algorithms. United Kingdom. ISBN: 0750303921. Potter. pp. (1986). pp 823-831. pp. Khebbal (eds). T. S. V. S.85-104. A new evolutionary system for evolving artificial neural networks. Manchester. Z. p. Norving. pp. Optimal Unsupervised Learning in Feedforward neural networks. 694-713 Montana D. Bäck. (eds. Control Systems Centre. (1998). Carleton University. Master's thesis.. C. University of Newcastle. Porto. Segunda Edición. MIT Press. Liu Y. 2. En Neural Networks. Pearson Educación. D. En IEEE Transactions on Neural Networks. T. A Genetic Cascade-Correlation Learning Algorithm. Schaffer. 8(3). PhD Thesis.p. (eds). 123-133. Of the Cognitive Science Society. (2004).. Michalewicz. (1989). J. Two problems with Backpropagation and other steepestdescent learning procedures for networks. Un enfoque moderno. Sanger.Entrenamiento de redes neuronales basado en algoritmos evolutivos Annual Conference on Evolutionary Programming. IEEE Computer Society Press Russell. En Proceedings of {COGANN}-92 International Workshop on Combinations of Genetic Algorithms and Neural Networks.. En The Handbook of Evolutionary Computation. University of Edinburgh. School of Computer Science. Ottawa.. (1994).S. Morrison. pp. (1998). Vol. R. Institute of Science and Technology (UMIST). Inteligencia Artificial. Nascimento.257-266. pp. of 8th Annual Conf. P. T.

539-567. 12-29. Kent. John Wiley & Sons Ltd. Williams(eds). Vol 3. pp. An Overview of Evolutionary Algorithms: Practical Issues and Common Pitfalls. Vol 8(4). (1995). Fundamentals of Neural network. Backpropagation Learning for System with Discrete-Valued Functions. (1996). A. D. Yao. (2002) Genetic Algorithms and Evolutionary Computing. X. pp. Federico Bertona Referencias 87 . (1993a). X. 203-216. En International Journal of Intelligent Systems. En Chinese Journal of Advanced Software Research. pp. Yao X (1999) Evolving Artificial Neural Networks. An Overview of Evolutionary Computation. Vol 43(14). En Proceedings of the World Congress on Neural Networks. Yao. Evolutionary Artificial Neural Networks. Vol 87(9). Wilson. Vol 3(1). A Review of Evolutionary Artificial Neural Networks. CRC Press. Vol (4). (1993b). 203-222.. 332-339. Yao. J. Winter G. (1995). Evolutionary Artificial Neural Networks. Periauxm J. E.). D. En Encyclopedia of Computer Science and Technology. L. A. pp. D. Whitley. Zilouchian. Whitley.. X.Entrenamiento de redes neuronales basado en algoritmos evolutivos Whitley. 137-170. Allerton Press Inc. X. M. pp. Jamshidi (eds. Yao. (eds). (2001). En Van Nostrand's Scientific Encyclopedia. En Proceedings of the IEEE. Genetic Algorithms and Neural Networks. En International Journal of Neural Systems. pp.1423-1447. 817-831. (2001). En Intelligent control Systems Using Soft Computing Methodologies. A. Marcel Dekker Inc. G. Zilouchian . pp. Vol 33. pp. En Journal of Information and Software Technology. (1994). En Genetic Algorithms in Engineering and Computer Science.

.

43% 89.17% 95.21% 91.43% 90.27% 96.88% 90.8 GHz.01 0.01 0.84% 610 78.76% 90.75% 96. Tasas de aprendizaje y momentos óptimos Alfa Beta Corrida Ent? 0.43% 590 77.17% 96.65% 90.01 0.21% 90. Eval.00% 828 80.01 0.27% 94.01 0.17% 96.93% 95.10% 96.01% 715 78.54% 89. Aciertos Aciertos Prom.29% 811 77.27% 96.01 0.01 0. A.03% 95. Aciertos Prom.99% 95. Ent.87% 374 77.34% 96.58% 314 81.58% 499 76.64% 88.55% 503 81.93% 95.01 0.1.86% 475 76.69% 95.01 0.21% 90.57% 1.54% 89. Federico Bertona Datos experimentales 89 . corriendo sobre un SO Windows 2000. Los experimentos se realizaron sobre un equipo Pentium IV 2.76% 90.71% 466 77.76% 88.03% 96.41% 96.72% 526 80.01 0. Prom.13% 527 80.01 0.01 0.43% 90. 512 MB de memoria.10% 96. Total 417 78.21% 89.98% 90.71% 399 78.58% L.65% 89.01 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.71% 751 79.017 79.29% 437 80.Entrenamiento de redes neuronales basado en algoritmos evolutivos Apéndice A: Datos Experimentales En este apéndice se muestran los resultados obtenidos durante los experimentos realizados.98% 89. Ent.01 0.41% 95.01 0.01 0.01 0.01 0.

10% 96.21% 89.45% 96.65% 89.01 0.58% 96.01 0.01 0.21% 89.76% 90.14% 612 76.65% 90.86% 96.01 0.69% 95. Ent.01 0.93% 96.13% 637 78. Federico Bertona .51% 96.43% 88.01 0.01 0.45% 96.43% 90.13% 625 78.76% 89.29% 790 79.01 0.42% 765 80.14% 629 76.01 90 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.21% 96.01 0.14% 442 79.99% 322 77.51% 95.87% 726 78.01 0.54% 90. Ent.75% 95.01 0.86% 772 78.01 0.31% 89.01% Datos experimentales L.00% 448 77.21% 90.10% 95.01 0.01 0.86% 95.14% 573 78. Aciertos Aciertos Prom.72% 289 79.76% 88.31% 89.75% 95.55% 557 80.98% 89.34% 95.01 0.57% 432 76.31% 89.01 0.01 0.65% 89.69% 95.86% 316 79.99% 444 78.00% 389 78.28% 440 76.10% 96.88% 90.98% 90. Aciertos Prom.01 0.01 0.76% 89.17% 95.76% 90.93% 95.75% 95.76% 88.98% 90.01 0.01 0.65% 91.45% 95.99% 365 75.01 0.28% 587 79.75% 96.75% 96.86% 428 76.45% 95.86% 565 74.98% 88.29% 706 76.79% 95. Eval.01 0.01 0.42% 332 77.21% 89.88% 90.01 0.27% 96. Prom. Total 507 79.

03% 95.01 0.86% 95.65% 89.71% 695 78.65% 89.43% 89.42% Datos experimentales 91 .01 0.01 0.10% 95.65% 90.01 0.98% 90.01 0.38% 94.03% 95. Aciertos Prom.28% 425 78.87% 321 77.01 0.21% 89.45% 96.00% 403 76.57% 255 79.98% 90.03% 96.01 0.27% 95.17% 96.03% 96.01 0.86% 96.01 0.01 0.86% 96. Prom.70% 292 76.42% 610 78.01 0.65% 90.01 0.01 0.01 0.01 0.54% 89.01 0.01 0.01 0.27% 95.98% 89.57% 687 76.01 0.01 0.01 0.01 0.01 0.43% 89.51% 96.28% 589 76.58% 540 76.13% 392 78.01 0. Eval.31% 88.71% 482 80.01 0. Total 417 77.17% 96.71% 628 80. Federico Bertona 0 0 0 0 0 0 0.01 0.87% 692 78.01 0.57% 476 76.01 0. Aciertos Aciertos Prom.86% 96.21% 89.54% 89.42% 587 78.21% 89.01 0.42% 451 80.55% 421 77.01 0.21% 90.45% 95.01 0.01 0.01 0.43% 90.01 0.01 L.31% 88.21% 89.41% 272 76.98% 89.01 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.98% 89.01 0.51% 95. Ent.64% 87.69% 96.01 0.01 0.01 0.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.54% 89.69% 96.71% 416 74.42% 484 78.01 0.01 0.10% 95.10% 95.01 0.51% 95.09% 88.34% 95.58% 95.00% 880 76.01 0.14% 508 76.54% 89.28% 283 77.01 0.54% 898 76.10% 96. Ent.54% 89.

113 78.93% 96.99% 364 80.42% 516 79.43% 842 77.65% 90.58% 397 77.43% 89.01 0.93% 96.93% 96.09% 89.71% 490 75. Ent.21% 90.32% 90.45% 96.01 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.88% 90.01 0.377 78.01 0.57% 389 78.71% 404 77.01 0.00% 1.541 76.69% 95.01 0. Prom.45% 95.98% 89.01 0. Total 1.01 0.86% 95.62% 96.01 0.01 0.01 0.43% 90.58% Datos experimentales L.14% 432 78.00% 481 77.42% 424 75.43% 90.01 0.01 0.01 0.10% 95.01 0.01 92 0.29% 331 77.29% 538 78.01 0.29% 537 78.88% 90.98% 89.01 0.93% 96.01 0.69% 95.10% 95.01 0.01 0.01 0.01 0. Ent.00% 926 76.01 0.01 0.98% 89.93% 95.01 0.01 0.98% 88.76% 90.01 0.34% 96.45% 97.27% 95.76% 88.34% 95.01 0.00% 500 76.98% 89.01 0.01 0.65% 90.21% 90.01 0.13% 713 77.01 0.01 0.71% 669 78. Federico Bertona .01 0.17% 96.21% 95.98% 89.29% 1. Eval.01 0.01 0.69% 95.09% 88.70% 465 78.01 0.99% 617 78.01 0.42% 585 79. Aciertos Prom.34% 96. Aciertos Aciertos Prom.65% 89.01 0.27% 96.51% 96.43% 90.58% 408 76.69% 96.01 0.27% 96.43% 89.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.01 0.76% 89.93% 96.28% 381 77.43% 90.01 0.01 0.01 0.01 0.01 0.65% 90.57% 572 79.01 0.01 0.01 0.01 0.

21% 89.86% 386 79.01 L.254 82.29% Datos experimentales 93 .31% 88.238 78.01 0.14% 581 78.01 0.98% 90.10% 96.98% 89.74% 455 78.05 0.05 0.42% 474 76.05 0.05 0.05 0.69% 95.99% 415 76.34% 95.88% 91. Eval.01 0.27% 95.05 0.88% 91.05 0.01 0.01 0.10% 96.10% 97.03% 95.01% 1.71% 1.64% 96.01 0.93% 96.00% 542 78.01 0.03% 96.43% 659 79.88% 90.01 0.10% 90.34% 95.05 0.51% 96.65% 89.06% 96.58% 488 78.01 0.05 0.05 0.01 0.86% 96.05 0.05 0.05 0. Federico Bertona 0.51% 96. Aciertos Prom.01 0.23% 96.31% 88.10% 95.16% 409 82.31% 89.65% 90.01 0.01 0.27% 96.86% 96.05 0.29% 913 80.51% 97.72% 559 77. Total 440 78.05 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01 0.86% 399 77. Aciertos Aciertos Prom.28% 692 78.01 0.13% 1.01 0.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.65% 89.01 0.01 0.65% 91.88% 90.10% 90. Ent.01 0.75% 96.05 0.86% 95.01 0.86% 412 77.43% 91.21% 90.43% 91.98% 89.76% 89.43% 90.51% 95.05 0.05 0.01 0. Ent.01 0.01 0.45% 586 76.21% 89.98% 89.58% 96.017 78.43% 592 78.42% 753 76.28% 497 78.01 0.01 0.01 0.21% 89.01 0.10% 95.71% 520 80.74% 619 76.01 0.71% 906 83.05 0. Prom.31% 89.05 0.55% 669 79.01 0.05 0.17% 96.

65% 90.05 0.05 0.42% 87.21% 95.86% 899 81.05 0. Total 337 76.65% 91.05 0.01 0.05 0.10% 91.79% 96.05 0.43% 88.86% 672 77.41% 95.05 0.05 0.98% 89.45% 96.01 0.26% 482 74.29% 420 78.05 0.01 0.45% 95.21% 91.93% 95. Aciertos Prom.01 0.01 0.98% 89.99% 433 81.58% 96.58% 96.03% 94.97% 95.05 0.16% 335 76.62% 96.01 0.01 0. Aciertos Aciertos Prom.45% 612 80.01 0.05 0.21% 88.51% 95.54% 88.01 0.10% 96.05 0.01 0.05 0.98% 89.05 0.87% 388 77.01 0.76% 88.01 0.05 0.84% 396 78.76% 89.98% 90.86% 532 80.01 0.71% Datos experimentales L.05 0.21% 89.88% 90.42% 1.31% 88.98% 89. Prom.05 0.00% 458 76.84% 386 76.93% 96.01 94 0.01 0.86% 706 77. Ent.01 0.98% 88.05 0.88% 90.01 0.51% 95.01% 340 78.88% 91.76% 89.01 0.69% 95.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.45% 95.01 0.10% 96.57% 840 80.55% 502 76.05 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.26% 690 75.71% 829 78.05 0. Eval.01 0. Federico Bertona .01 0.01 0.41% 96.27% 95.27% 96.88% 89.05 0.31% 89.34% 95. Ent.03% 95.05 0.10% 96.01 0.05 0.05 0.055 78.21% 89.43% 594 73.01 0.09% 88.01% 498 76.05 0.45% 95.71% 423 78.13% 316 75.84% 905 78.01 0.97% 573 79.05 0.99% 97.

Ent.72% 653 80.21% 89.75% 96.93% 95.27% 97.51% 95.1 0.14% 1.28% 452 77.88% 91.98% 89.58% Datos experimentales 95 .69% 97.01 0.01 0.01 0.54% 89.01 0.01 0.1 0.28% 503 76.42% 825 81.58% 561 77.55% 911 78.45% 1.1 0.01 0.01 0.01 0.69% 96.1 0.10% 96.05 0.93% 96.1 0.34% 96.86% 96.113 81.87% 271 79.1 0.01 0.58% 820 77.69% 96.86% 96.01 0.05 0.88% 90.01 L.1 0.10% 90.54% 89.76% 89.035 78.93% 95.75% 96.1 0.86% 95.88% 91.01 0.86% 569 77.41% 95.1 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01 0.93% 96.01 0.88% 90.71% 281 76.21% 89.1 0.98% 90.86% 412 80.65% 90.01 0.1 0.01 0.01 0.93% 96.88% 90. Prom.01% 392 77.71% 681 78.1 0.29% 622 79.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.71% 416 76.1 0.86% 557 78.31% 88.1 0.1 0.65% 90.1 0.1 0.93% 95.32% 90.21% 89.29% 421 76.00% 352 78.1 0.01 0.21% 90.86% 427 76.1 0. Aciertos Prom.41% 96.1 0.88% 90.01 0.86% 95.01 0. Eval.76% 89.03% 95.1 0.88% 89.1 0.21% 90.72% 441 78.98% 89.01 0.93% 96.1 0.1 0.58% 426 78.84% 480 78.01 0. Aciertos Aciertos Prom.01 0.31% 88. Federico Bertona 0.17% 96.58% 96.69% 95.01 0.43% 90.01 0.87% 481 78. Total 643 79. Ent.

Aciertos Aciertos Prom.1 0. Ent.1 0.54% 90.51% 96.21% 88.10% 96.43% 426 73.1 0.10% 89.1 0.01 0. Eval.1 0.00% 380 78.14% 608 78.01 0.65% 90.27% 95.42% 423 80.01 0.01 0.57% 432 76.34% 96.43% 90. Federico Bertona .64% 88.01 0.1 0.01 0. Total 379 77.58% 617 80.75% 95.01 0.01 0.01 96 0.1 0.1 0.41% 669 79.51% 95.01 0.86% 96.58% 96.34% 96.58% 407 79.88% 90.69% 96.1 0.29% 395 78.1 0.1 0.76% 89.26% 780 77.21% 89.71% 509 76.1 0.1 0.01% 567 79.1 0.01 0.45% 94.17% 96.10% 90.14% 597 78.93% 95.1 0.21% 91.1 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.43% 90.01 0.10% 96.21% 89.1 0. Ent.62% 97.1 0.01 0.97% 96. Prom.14% 309 80.01 0.86% Datos experimentales L.69% 97.01 0.1 0.72% 664 81.1 0. Aciertos Prom.98% 90.1 0.14% 449 78.58% 95.01 0.65% 90.86% 515 80.01 0.69% 96.1 0.84% 541 78.65% 90.97% 632 79.01 0.21% 89.10% 96.58% 575 77.21% 90.98% 89.99% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.98% 90.76% 90.1 0.1 0.14% 409 73.01 0.41% 96.01 0.87% 449 79.01 0.01 0.34% 95.98% 90.71% 622 78.01 0.09% 88.21% 90.1 0.29% 656 77.00% 403 75.75% 96.55% 95.01 0.43% 90.01 0.1 0.51% 95.76% 87.01 0.

65% 90.41% 244 79.09% 88.05 0.43% Datos experimentales 97 .00% 915 79.03% 95.51% 97.10% 91.54% 89.05 0.88% 89.10% 96.05 0.10% 95. Federico Bertona 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.037 76.05 0.88% 90.05 0. Total 946 78.98% 90.09% 89.51% 96.98% 89.28% 218 78.05 0.05 0.65% 90.72% 254 77.05 0.75% 97. Aciertos Prom.69% 96.43% 90.01% 326 79.05 0. Ent.86% 200 78.05 L.05 0.05 0.05 0.75% 96.05 0. Aciertos Aciertos Prom.64% 89.03% 96.43% 89.05 0.05 0.98% 88.99% 176 79.70% 264 76.31% 88.05 0.05 0.10% 90.51% 97.58% 279 78.65% 90.27% 96.88% 90.05 0.75% 95.10% 96.75% 94.86% 472 78.86% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.29% 297 78.09% 89.05 0.71% 223 78.00% 162 77.14% 327 78.93% 95.45% 95.58% 255 76.72% 182 76.05 0. Ent.88% 90.00% 254 78.51% 95.51% 96.42% 327 78.51% 96.42% 1.32% 90.71% 208 76.05 0.71% 321 79.05 0.05 0.64% 89.29% 138 78.21% 90.05 0.13% 357 79.29% 204 77.27% 95.03% 95.75% 94.28% 304 78. Eval.88% 90.05 0.93% 95. Prom.43% 89.34% 96.51% 96.54% 89.

93% 96.05 0.05 0.21% 90.05 0.05 0.98% 90.98% 89. Aciertos Prom.58% 265 78.58% 390 80.17% 96.34% 96.00% 291 78.58% 95.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.21% 89.05 0.29% 302 76.82% 96.14% 383 80.88% 91.43% 90.05 0.21% 91.93% 96.75% 96.76% 90.05 0.51% 95.05 0.71% 196 76.99% 96. Ent.30% 200 78.99% 290 78.93% 96.10% 95.05 0.05 0.31% 90. Aciertos Aciertos Prom.03% 95.86% 223 80.10% 91.43% 90.05 0.57% 266 80.21% 89.05 0. Ent.29% 460 81.05 0.43% 90.34% 96. Total 446 78.42% 185 79. Federico Bertona .30% 413 79.43% 176 78.51% 95.87% 172 78.05 0. Prom.29% 228 80.71% 220 78.75% 95.43% 90.01 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.05 0.43% 297 79.58% 97.29% 201 79.17% 95.29% 284 78.43% 90.76% 89.10% 95.98% 89.05 0.76% 89.05 0.01 0.21% 90.01% 596 79.98% 88.65% 90.58% 97.30% 284 81.43% 90.05 0.51% 96.42% 361 78.21% 90.10% 96. Eval.51% 96.05 0.93% 95.14% 160 80.75% 96.86% 458 78.05 0.09% 89.41% 96.05 0.05 98 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.65% 91.10% 91.05 0.86% 96.16% Datos experimentales L.05 0.05 0.

05 0.05 0. Ent.01 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01 0.71% 227 78.87% 153 77.58% 97.05 0.84% 194 78.01 0.71% 221 76.05 0.65% 91.05 0.10% 95.93% 95.05 0.03% 95.05 0.93% 96.01 0.05 0.98% 89.01 0.01 0.70% 373 79.69% 95.10% 91.05 L.01 0.43% 89.65% 91.01 0.01 0.01 0.86% 95.69% 96.41% 96.05 0.01 0.01 0.65% 89.01 0.88% 90.76% 88.09% 88.43% 289 77.09% 88. Ent.10% 90. Eval.05 0.75% 96.10% 96. Total 280 77.30% 251 77.01 0.88% 90.01 0.05 0.05 0.43% 90.27% 94. Federico Bertona 0.05 0.13% 382 78.86% Datos experimentales 99 .99% 96.10% 97.93% 95.05 0.29% 363 80.05 0.27% 97.17% 96.01 0.00% 410 81.27% 96.57% 216 76.05 0.05 0.88% 90.01 0.17% 95.84% 546 80.87% 88.43% 234 79.76% 89.01 0.01 0.01 0.05 0. Prom. Aciertos Aciertos Prom.86% 407 80.43% 90.65% 91.05 0.98% 89.76% 89.09% 89.01 0.76% 89.29% 148 76.21% 89.72% 571 78.01 0.51% 96.05 0. Aciertos Prom.05 0.51% 95.16% 302 78.09% 89.13% 170 80.01% 310 80.05 0.01 0.05 0.05 0.76% 90.05 0.75% 95.01 0.27% 95.32% 90.01 0.71% 205 78.30% 217 77.58% 96.45% 96.45% 95.58% 238 77.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.42% 337 76.86% 145 78.01 0.70% 361 78.

72% 241 80.42% 323 79.05 0.43% 233 78.43% 89.01 0.34% 97.10% 96.86% 96.43% 90.27% 95. Prom.93% 96.42% 88.21% 90.05 0.43% 90.54% 87.05 0.05 0.10% 96.27% 95.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.58% 270 76.34% 96.05 0.65% 90.05 100 0.01 0.03% 96.43% 90.01 0.01 0.93% 96.05 0.87% 252 78.51% 96.10% 95.93% 96. Eval.58% 246 78.98% 90.28% 506 76.99% 96.65% 91.93% 97.05 0.05 0.29% 157 77.97% 95.05 0.71% Datos experimentales L.05 0.42% 579 78.01 0.17% 96.65% 90. Ent.00% 311 77.76% 90.01 0.86% 96.01 0.98% 89.14% 251 80.88% 90.27% 95.87% 189 78.05 0.10% 90.01 0.75% 96.86% 244 78.05 0.01 0.01 0.01 0.86% 94.21% 89.58% 96. Federico Bertona .05 0.05 0.01 0. Ent.87% 240 78.05 0.14% 350 77.16% 252 78.05 0.05 0.65% 90.05 0. Aciertos Aciertos Prom.65% 90.98% 89.28% 273 79.72% 215 76.05 0.01 0.05 0.01 0.05 0.05 0.01 0.69% 96.98% 89.01 0.17% 95.05 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01 0.01 0.05 0.88% 90.58% 257 77.21% 90.05 0.05 0. Aciertos Prom.21% 89.42% 197 76.10% 90.01 0.58% 96.93% 95.26% 335 73.01 0.01 0.00% 231 79.29% 273 80.31% 89. Total 168 78.42% 294 80.97% 174 80.01 0.05 0.05 0.65% 89.

54% 89. Aciertos Prom.30% 334 76.87% 193 78.05 0.43% 90.29% 173 78.05 0.58% 95.59% 293 78.05 0.05 0.51% 95.86% 266 80.05 0. Ent.05 0.05 0.42% 233 77.51% 96.14% 1.05 0.05 0.05 0.51% 95.05 0.05 0.84% 232 78.05 0.93% 95.05 0.86% 95.05 0.69% 97.05 0.10% 90.70% 272 76.05 0.05 0.05 0.99% 97.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.16% 232 78. Total 272 78.51% 95.62% 95.31% 88.65% 89.05 0.05 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.09% 89.54% 90.84% 214 78.05 0.57% Datos experimentales 101 .05 0.03% 95.34% 97.86% 212 78.05 0.76% 89.76% 89.824 80.05 0.86% 214 78.86% 308 79.65% 90.27% 96.05 0.51% 96.76% 89.05 0.65% 90.05 0.69% 96. Ent.05 0.10% 95. Eval.05 0.43% 90.93% 96.05 0.29% 397 77.87% 89.86% 313 77.57% 197 76.31% 89.05 0.00% 336 80.14% 435 78.43% 90.51% 94.13% 258 78.51% 95.31% 88. Prom.29% 161 78.05 0.05 0.43% 89.05 0.43% 208 78.98% 89.05 0.10% 95.58% 97.10% 96.10% 90.32% 91.05 0.05 0.86% 95.05 0.05 0.76% 88.05 0.55% 237 75.05 0.98% 89.13% 139 80.05 0.10% 94.10% 91.05 0.17% 97.64% 88.05 0. Federico Bertona 0.05 0.10% 91. Aciertos Aciertos Prom.05 0.05 L.05 0.05 0.05 0.13% 828 78.51% 96.05 0.

27% 96.34% 95.86% 96.21% 89.05 0.98% 89.05 0.58% 248 78. Ent. Prom.51% 96.1 0. Eval. Total 434 79.54% 89.41% 358 77.1 0.10% 95.05 0.05 0.65% 91.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.88% 90.05 0.54% 89. Ent.05 0.45% 204 78.86% 212 77.05 0.05 0.98% 90.05 0.05 0.05 0.34% 96.10% 97.72% 192 76.64% 88.65% 89.05 0.10% 91.98% 89.05 0.05 0.42% 353 77.05 0.21% 91.05 0.05 0.98% 90.1 0.86% 305 79.43% Datos experimentales L.05 0.43% 90.41% 185 80.42% 252 77.28% 252 79.34% 96.05 0.05 0.43% 1.58% 96.42% 273 78.17% 97.01% 427 78.16% 400 76. Federico Bertona .41% 307 77.09% 88.14% 162 77.05 0.1 0.84% 253 79.05 0.27% 95.05 0.967 80.05 0.51% 95.20% 88.27% 95.58% 237 82.88% 90.65% 90.05 0.05 0.34% 95. Aciertos Aciertos Prom.05 0.28% 228 77.09% 89.14% 916 76.05 0.43% 89.29% 175 78.42% 88.05 0.72% 372 80.93% 95.05 0.21% 90.1 0.05 0.86% 94.05 0.64% 96.69% 95.05 0.34% 96.10% 90.76% 89.05 0.27% 94.05 0.05 0.05 0.17% 96.05 0.14% 232 79.27% 95.27% 97.45% 96.10% 90.51% 97.10% 90.05 102 0.05 0.05 0.05 0.05 0. Aciertos Prom.42% 160 78.1 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.05 0.05 0.42% 156 77.69% 94.05 0.

09% 88.14% Datos experimentales 103 .43% 89.21% 90.13% 315 79.05 0.01% 504 77.1 0.05 0.1 0.21% 89.1 0.05 0.87% 87.10% 90.45% 220 78.71% 341 76.43% 89.13% 338 78.88% 91.05 0.05 0.1 0.10% 96. Eval.05 0.43% 90.14% 157 81. Total 537 76.31% 89.29% 201 76.14% 493 75.17% 96.65% 90.05 0.41% 96.1 0.34% 95.69% 94.42% 216 78.05 0.29% 325 74.05 0.10% 96.05 0.1 0.65% 90.05 0.54% 89.05 0.99% 96.1 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.1 0.1 0.05 L.45% 96.03% 96.57% 216 78.87% 88.21% 90.43% 91.43% 90.88% 91.93% 95.58% 169 81.27% 96.1 0.1 0. Ent.1 0.84% 196 77.26% 196 80.1 0. Ent.42% 219 79.05 0.65% 90.28% 482 81. Federico Bertona 0.1 0.34% 96. Prom.41% 96. Aciertos Aciertos Prom.1 0.34% 96.27% 94.1 0.45% 96.43% 89.1 0.64% 88.438 79.1 0.83% 299 78.1 0.41% 96.58% 350 79.05 0.05 0.21% 91.21% 90.01% 334 77.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.05 0.1 0.45% 148 78.55% 1.51% 96.1 0.34% 96.1 0.43% 89.43% 255 76.05 0.05 0.03% 96.58% 342 80.51% 97.62% 95.05 0.05 0.93% 96.27% 95.05 0.34% 96.05 0. Aciertos Prom.79% 94.1 0.1 0.58% 171 77.05 0.00% 533 79.1 0.98% 90.1 0.65% 90.05 0.05 0.

75% 95.1 0.14% 250 79.05 0.87% 347 77.1 0.1 0. Aciertos Prom.99% 96.34% 95.75% 94.64% 88.65% 91.43% 90.1 0.29% 285 78.1 0.05 0.03% 270 79.54% 90.17% 96.1 0 0 0 0 0 0 0 0 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.75% 95.29% 209 77.75% 95.1 0.93% 94.43% 90.98% 90.75% 95.1 0.1 0.1 0.84% 194 79.72% 252 78.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.21% 90.05 0.1 0.72% 288 79.1 0. Aciertos Aciertos Prom.76% 89.1 0.09% 88.05 0.1 0.58% 193 78.87% 88.69% 94.05 0.57% 226 80.10% 90.28% Datos experimentales L. Eval.75% 96.05 0.43% 222 79.55% 226 80.05 0.98% 90.05 0.05 0.51% 97.87% 89.69% 94.87% 88.10% 94.1 0.87% 89.76% 90.05 0.28% 200 77.34% 95.1 0.00% 191 80.05 0.1 0. Ent.32% 92.45% 95.93% 96.14% 208 79.84% 314 79.69% 96.43% 90.75% 96.00% 245 76.84% 194 79.43% 90.1 0.23% 97.88% 90.10% 96.1 104 0.16% 378 77.27% 95.05 0.98% 90.05 0.05 0. Ent.65% 89. Federico Bertona .1 0.1 0.86% 96.43% 89.10% 90.72% 296 78.14% 302 78.93% 97.05 0.1 0.57% 207 77.1 0.14% 244 79.1 0.27% 96. Prom.05 0.1 0.05 0.65% 90.14% 359 78.86% 388 82.76% 90.58% 96.1 0. Total 377 76.

1 0.88% 91.14% Datos experimentales 105 .58% 96.43% 90.14% 338 78.1 0.58% 232 75.32% 90.21% 89.72% 422 80.58% 96.43% 90.13% 228 76.10% 96.16% 337 77.34% 96.98% 89. Ent.65% 90.1 0.57% 338 80. Aciertos Aciertos Prom.86% 96.83% 239 78.28% 462 79.27% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.93% 94.42% 279 77. Prom.51% 96.1 0.88% 91.58% 96.21% 88.43% 499 79.1 0.14% 269 78.76% 89.58% 96.58% 96.98% 90.27% 96.1 0.87% 376 77.34% 96.1 0.72% 335 77.55% 395 80.57% 270 80. Total 723 77.00% 398 79.1 0.65% 90.1 0.1 0.1 0.72% 759 79. Federico Bertona 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.1 0.58% 345 78.69% 96.17% 94.54% 89.88% 90.21% 90.10% 97.16% 212 74.34% 95.1 0.51% 96.43% 480 80.1 0.1 0.21% 94.21% 90.1 0.69% 97.10% 90.1 0.29% 690 80.1 0.58% 96.1 0.64% 89.16% 387 78. Ent.27% 95.64% 87.1 0.13% 330 78.65% 90.1 0.88% 90. Aciertos Prom.88% 91.1 0.43% 274 77. Eval.65% 89.42% 89.38% 96.1 0.1 0.1 0.10% 96.71% 376 80.75% 96.65% 90.69% 95.1 L.65% 90.

93% 96.76% 89.34% 96.28% 308 79.54% 89.93% 95. Aciertos Aciertos Prom.58% 425 79.1 0.29% 253 77.10% 90.51% 96.71% 349 78.1 0.1 0. Eval.01 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.87% 536 78.1 0.76% 89.58% 97.86% 95.01 0.00% 210 78.01 0.34% 97.17% 97.14% 255 80.1 0.65% 90. Total 409 79.45% 382 78.93% 95.1 0.1 0.1 0.01 0.93% 97.21% 90.10% 91. Aciertos Prom.34% 97.01 0.10% 95. Prom.13% 252 80.1 0.93% 96.14% 212 78.58% 500 78.01 0.1 0.54% 88.1 0.01% 737 78. Ent.1 0.51% 95.51% 95.16% 346 77.10% 91.09% 89.1 0.51% 95.98% 89.93% 96.43% 89.27% 96.10% 91.10% 90.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.42% 399 80.1 106 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.93% 97.57% 313 78.1 0.88% 91.01 0.21% 90.71% 248 78.27% 95.29% Datos experimentales L.99% 448 78.01 0.76% 89.1 0.51% 97.32% 91.21% 90.1 0.43% 90.75% 96.01% 284 78.72% 206 78.1 0.1 0.1 0. Federico Bertona .51% 95.1 0.29% 232 76.01 0.98% 90.01% 234 79.71% 333 81.86% 539 79.1 0.09% 89.1 0.1 0.10% 90. Ent.72% 232 78.41% 96.01 0.1 0.1 0.43% 91.43% 90.10% 90.75% 97.99% 96.30% 305 78.

43% 91. Ent.01 0.01 0.65% 89.43% 89.54% 88.21% 89.99% 97.1 0.1 0.42% 218 78.01 0.1 0.71% 379 77.86% 386 80.86% 96.86% 326 78.75% 86.43% 365 76.38% 93.99% 96.1 0.43% 317 78.10% 90.65% 90.51% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.31% 90.1 0.17% 96.45% 288 80.01 0.01 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.1 0.01 0.1 0.01 0.01% 329 80.29% 333 77.1 0.86% 96.69% 96.1 0.1 0.01 0.76% 89.01 0.72% 386 78.1 0. Prom. Federico Bertona 0.43% 89.87% 89.1 0.1 0.93% 96.01 0.1 0.14% 375 78.58% 372 78.10% 91.01 0. Aciertos Prom.58% 95.71% 204 79.01 0. Total 222 78.43% 90.17% 95.75% 97.00% 548 78. Aciertos Aciertos Prom.01 0.01 0.14% 259 77.93% 95.01 0.1 0.09% 89.84% 408 74.01 0.01 0.01% Datos experimentales 107 .42% 174 76.57% 181 77.10% 96.43% 90.01 0.01% 137 78.1 0.01 0.1 0.93% 94.96% 785 80.86% 186 76.93% 95.1 L.1 0.09% 89.01 0.43% 89.1 0.01 0.31% 90.1 0.10% 96.69% 97.71% 420 79.10% 91.32% 90.01 0.1 0.21% 89. Eval.10% 91.10% 95.75% 97.1 0.1 0.76% 89.09% 88.01 0.28% 273 77.1 0.01 0.01 0.1 0.51% 97.88% 90.45% 95.69% 96.27% 95. Ent.01 0.57% 189 78.27% 96.93% 95.84% 233 80.

05 0.88% 90.05 0.10% 90.58% 278 76.10% 95.42% Datos experimentales L.05 0.41% 96.1 0.16% 290 78.65% 90.65% 90.86% 266 81.1 0.54% 90.01 0.28% 1.05 0.1 0.1 0.01 0.21% 89.1 0.1 0.05 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI Tiempo Prom.21% 89.99% 96.51% 95. Ent.1 0.05 0.88% 91.01 0.1 0.86% 260 78.1 0.01 0.1 0.34% 96.14% 204 79.51% 95.10% 96.51% 96.01 0.01 0.51% 96.05 0. Eval.1 0.1 0.21% 90.1 0. Aciertos Aciertos Prom.65% 91.01 0.98% 89.75% 96.43% 89.01 0.1 0.98% 89.21% 90.99% 96.01 0.31% 89.69% 96.1 0.956 80. Ent. Prom.30% 306 77.21% 90.99% 95. Total 323 79.1 0.54% 89.43% 171 80.09% 88.29% 231 77.65% 91.00% 278 76.1 0.86% 347 78.03% 95.76% 89.84% 301 78.1 0.1 0.27% 96.51% 95.29% 581 78.43% 163 78. Federico Bertona .58% 259 79.05 0.091 79.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.21% 90.01 0. Aciertos Prom.21% 89.01 0.05 0.17% 96.05 0.86% 96.10% 97.51% 95.72% 321 79.72% 184 78.34% 96.29% 1.41% 199 77.1 0.05 0.43% 90.1 108 0.71% 344 80.1 0.43% 90.69% 94.05 0.57% 278 78.54% 90.1 0.34% 96.58% 95.1 0.34% 96.01 0.87% 88.58% 288 78.1 0.30% 391 80.1 0.86% 299 80.01 0.75% 96.57% 412 79.01 0.

31% 89.1 0.43% 90.05 0. Total 522 79.76% 90.1 0.05 0.34% 96.51% 95.43% 90.75% 95.43% 223 78.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.05 0.1 0.38% 96.05 0.1 0.93% 97.1 0.43% 90. Aciertos Prom. Federico Bertona 0.05 0. Ent.71% 265 78.05 0.05 0.64% 88.05 0.1 0.34% 96.1 0.05 0.10% 95.30% 370 79.076 79. Prom.17% 96.87% 88.1 0.45% 94.65% 90.65% 90.43% 88.10% 96.43% 90.10% 94.10% 90. Eval.17% 96.43% 90.43% 303 79.05 0.05 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.51% 95.51% 95.1 0.1 0.34% 96.05 0.1 0.05 0.76% 89.14% 210 76.75% 96.05 0.05 0.1 0.34% 96.1 0.88% 90.1 L.99% 386 80.1 0.1 0.1 0.71% 1.88% 90.41% 327 79.05 0.27% 96.21% 90.58% 591 77.05 0.01% 615 79.03% 96.05 0.1 0.72% 330 78.54% 89.05 0.88% 91.72% 213 79.75% 96.1 0.43% 257 79.03% 94.93% 95.05 0.00% 278 78.41% 96. Aciertos Aciertos Prom.05 0.43% 90.05 0.65% 91.43% 193 78.87% 88.05 0.86% 324 74.54% 89.42% 292 76.05 0.51% 96.14% Datos experimentales 109 .42% 282 78.28% 349 81. Ent.1 0.1 0.76% 89.43% 89.05 0.58% 290 78.1 0.1 0.70% 382 76.34% 96.75% 96.43% 89.12% 191 78.87% 202 78.05 0.87% 327 80.1 0.1 0.1 0.57% 237 79.

34% 96.88% 90.1 0.05 0.43% 89.70% 1.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.05 0.10% 97.34% 95. Total 426 78.1 0.65% 90.21% 90. Aciertos Aciertos Prom.05 0.27% 96.1 0.1 0.69% 95.28% 301 77.14% 310 78. Prom.43% 90.14% 203 75.1 0.34% 96. Federico Bertona .87% 1.1 0.1 0.1 110 0.86% 96.21% 90.14% 386 78.23% 96.1 0.62% 95.1 0.224 79.42% Datos experimentales L.1 0.1 0.86% 461 82.34% 96.1 0.10% 90.75% 97.58% 174 78.32% 92.1 0.82% 97.69% 95.1 0.1 0.1 0.17% 96.1 0.10% 90.74% 414 78.65% 90.58% 223 77.93% 96.05 0.21% 90.1 0.93% 96.32% 91.43% 272 79.00% 321 76. Ent.1 0.1 0.05 0.10% 96.76% 89.76% 89.1 0.76% 89.05 0.1 0.88% 91.75% 96.74% 345 80. Aciertos Prom.05 0.76% 88.88% 90. Eval.87% 407 82.87% 457 78.05 0.1 0.1 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.69% 95.1 0.43% 90.71% 253 79.58% 281 78.98% 90.1 0.05 0.10% 91.05 0.959 79.57% 706 79.1 0. Ent.51% 95.1 0.23% 97.1 0.43% 199 79.93% 96.09% 89.1 0.16% 273 79.1 0.1 0.34% 97.42% 645 81.1 0.75% 96.42% 267 77.43% 90.1 0.43% 90.93% 95.75% 96.1 0.1 0.1 0.43% 278 77.1 0.03% 541 79.43% 89.05 0.05 0.1 0.43% 252 79.76% 89.

58% 322 78.86% 644 78.1 0.43% 90.1 0.1 0.1 0.43% 90.1 0.64% 89.1 0.31% 89.43% 89.99% 298 79.1 0.58% 233 78.10% 94.1 0.84% 267 76.1 0.1 0.58% 265 78.10% 90.99% 96.01% 215 80.86% 431 77.32% 90.43% 89.32% 89.1 0.1 0.1 0.88% 90.71% 639 77. Aciertos Aciertos Prom.1 0.43% 91.1 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.34% 95.87% 88.76% 90.1 0.01% 222 78.58% 94.43% 307 76. Ent.13% 400 79.34% 97.64% 88.69% 96.51% 96.1 0.58% 96.1 0.99% 96.00% 259 76.51% 96.1 0.76% 90.1 0.32% 90.1 0.1 0.1 0.42% 464 78.87% 506 79. Prom.29% 155 80.27% 96.43% 91.58% 95.34% 95.76% 89.1 0.1 0.1 0.1 0. Eval.1 0.1 0.1 0.1 0.1 0.1 0.1 0. Federico Bertona 0.57% 237 80.93% 96.93% 95.17% 96.10% 97.1 0.65% 90.00% 523 80.45% 97.1 0.1 0.88% 91.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.51% 95. Ent.87% Datos experimentales 111 .1 0.29% 277 78. Aciertos Prom.09% 88.1 0.1 0.1 0. Total 194 77.69% 96.00% 339 80.86% 95.1 0.86% 240 80.03% 97.21% 90.1 0.1 L.1 0.55% 340 79.16% 271 77.76% 89.86% 94.1 0.1 0.17% 96.86% 426 76.21% 90.1 0.1 0.1 0.65% 90.00% 218 80.1 0.09% 89.1 0.75% 96.69% 95.

42% 42.54% 90. Ent.27% 95.42% 90.972 83. Federico Bertona .06% 93.1 0.06% 95.93% 95.87% 90.1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 SI SI SI SI SI SI SI SI SI SI NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom. Aciertos Aciertos Prom. Eval.41% 93.65% 90.38% 95.1 0.28% 1.82% 94.43% 90.70% 1.75% 89.47% 94.25 0.86% 1.29% 1.968 83.1 0.25 0.51% 96.47% 94.01% 189 76.99% 93.03% 96.964 80.30% 88.25 0.972 39.25 0. Total 279 78.86% 95.00% 308 74.09% 89.25 0.1 0.42% 287 78.20% 90.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.1 0.75% 93.28% 539 77.1 0.72% Datos experimentales L.1 0.966 80.75% 89.965 79.26% 44.82% 95.43% 89.980 81.1 0.72% 272 79.1 0.54% 89. Ent.963 78.1 0.17% 95.966 83.75% 96.25 0.00% 1.964 82.1 0.65% 90.58% 93.29% 1.25 0.25 0.42% 1.967 83.1 0.972 81.76% 90.97% 89.25 0.25 112 0.961 80.43% 91.54% 88.965 81. Prom.74% 88.93% 97.1 0.34% 96.1 0.25 0.10% 90.99% 96.43% 2.25 0.28% 1.25 0.25 0.98% 91.64% 94.87% 1.06% 91.98% 90.27% 95.1 0.1 0.00% 1.61% 1.1 0.75% 90.28% 309 76.1 0.17% 95.42% 90.98% 89.72% 203 80.13% 354 79.98% 89. Aciertos Prom.12% 217 77.43% 1.25 0.198 83.45% 1.25 0.29% 1.968 80.1 0.55% 1.

25 0.80% 1.75% 89.977 82. Total 1.13% 1.87% 89.64% 90. Ent.25 0.02% 53.31% 90.25 0.57% 1.982 80.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.997 81.25 0.87% 1.25 0.82% 93.968 80.29% 2.23% 93.82% 91.25 0.75% 89.978 81.87% 90.76% 90.64% 95.25 0. Federico Bertona 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom. Prom.64% 95.968 80.65% 91.23% 92.25 0.29% 85.23% 94.992 83.25 0.96% 88.23% 94.64% 96.14% 1.45% 1.971 81.63% 89.976 82.25 0.25 0.72% 1.64% 90. Eval. Aciertos Prom.41% 1.25 0.25 0.82% 94.99% 96.969 81.48% 54. Aciertos Aciertos Prom.29% 1.82% 95.98% 90.985 82.97% 89.58% 1.25 0.25 0.42% 90.96% 86.16% 1. Ent.983 80.25 0.29% 1.25 0.970 82.41% 93.58% 1.31% 90.58% 94.86% 1.64% 90.86% 1.63% 88.17% 92.21% 91.964 80.82% 94.969 82.70% 1.76% 91.25 0.972 79.41% 94.54% 90.25 0.25 0.062 82.25 0.64% 90.34% 89.57% 1.982 80.981 81.19% 88.82% 94.971 81.26% 1.979 79.99% 95.974 81.64% 90.64% 92.972 52.25 L.38% Datos experimentales 113 .72% 1.99% 95.14% 1.00% 1.99% 95.25 0.14% 1.979 81.25 0.974 82.25 0.06% 94.979 82.16% 1.97% 89.25 0.48% 1.

54% 90.29% 1.01 0. Ent.41% 95. Prom.984 78.08% 89.82% 95. Aciertos Prom.23% 94.25 0.82% 95.970 83.25 0.25 0.01 0.42% 90.63% 88.25 0.25 0.977 80.25 0.25 0.01 0.99% 1.95% 85.64% 93.01 0.23% 87.58% Datos experimentales L.01 0.09% 90.01 0.978 80.981 82.55% 1.999 82.25 0.969 82.970 82.25 0.29% 87.978 42.16% 1.01 0.58% 1.58% 1.16% 1.30% 95.51% 86.25 0.25 0.72% 1. Total 1. Eval.20% 90.06% 94.25 0.06% 89.25 0.23% 94.23% 96.969 83.25 0.01 0.25 0.01 0.72% 1.25 114 0 0 0 0 0 0 0 0 0.99% 95.25 0.99% 94.45% 1.25 0.25 0.23% 1.29% 1.20% 90.98% 90.71% 1.01 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.01 0.76% 90.94% 1.14% 1.01 0.31% 91.01 0.17% 89.42% 89.178 82.986 82.30% 1.64% 94.87% 1.978 82.969 81.64% 90.01% 48.99% 95.01 0.23% 94.968 81.76% 90.975 81.54% 1.00% 1.64% 90.43% 91.976 81.41% 95.47% 95.06% 94.10% 92.23% 92.15% 52.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.01 0.25 0.64% 90.10% 1.82% 93.972 83.31% 91.25 0.25 0.97% 90.962 84.974 80.01 0.995 81.25 0.63% 87.13% 1.29% 1.25 0.41% 96.964 80.72% 1.25 0.976 82.01 0.970 82.25 0.23% 95. Aciertos Aciertos Prom. Federico Bertona .974 81.21% 91.54% 90.01 0.00% 2.970 83.43% 1.31% 90. Ent.

75% 94.969 81. Aciertos Aciertos Prom.23% 93.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.25 0.82% 95.01 0.01 0.43% 1.00% 1.71% 1.87% 90.995 82.87% 1.25 0.99% 95.01 0.01 0.981 79.23% 93.01 0.64% 90.985 81.23% 94.74% 87.25 0.42% 1.14% 1.01 0.82% 94.43% 1.06% 93.42% 1. Aciertos Prom.974 82.87% 90.01 0.29% 1.978 80.87% 90.99% 1.01 0.01% 1.31% 90.25 0.25 0.981 80.87% 89.982 79.01 0.64% 94.76% 90.53% 88.12% 71.64% 90.977 80.75% 95.25 0.41% 94.01 0.01 0.86% 1.970 82.25 0.25 0.25 0.42% 1.76% 91.42% 1.25 0.97% 89. Ent.979 82.29% 1.975 79.23% 94.981 83.25 0. Prom.97% 89.01 0.99% Datos experimentales 115 .25 0.72% 1.28% 1.987 82.87% 90.64% 89.42% 90.58% 1.985 80.29% 1.23% 95.25 0. Total 1.01 0.25 0.25 0.99% 1.23% 95.989 81.25 0.86% 1. Ent.992 80.53% 88.25 0.01 0.99% 94.973 82.54% 90.25 0. Federico Bertona 0.25 L.01 0.30% 89.981 83.01 0.01 0.75% 90.01 0.06% 94.01 0.976 82.82% 93.25 0.30% 88.99% 91.25 0.974 82.975 82.58% 93.98% 90.01 0.64% 94.25 0.981 80.01 0.34% 94.25 0.00% 1.58% 93.01 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.01 0.99% 93.29% 1.25 0.23% 94.01 0.980 66.967 81.01 0.01 0.21% 69.97% 89. Eval.973 80.20% 90.25 0.43% 1.42% 89.58% 93.97% 1.25 0.

00% 2.48% 1.82% 93.974 80.976 83.05 0.73% 86.06% 89.53% 89.980 80.31% 90.25 0.25 0.01 0.05 0.58% 95.97% 90.974 83.47% 94.58% 1.71% 83.25 0.99% 91.08% 89.58% 1.981 79.31% 90.58% 92.29% 87.99% 94.05 0.06% 86.05 0.06% 93.05 0.86% 1.88% 94.975 81.01 0.70% 1.01 0.05 0.68% 1.980 80.982 47.64% 93.64% 94.996 82.81% 1.01 0.986 80.25 0.95% 85.25 0.25 0.75% 88.25 0.25 0.995 79.00% 1.64% 93.25 0. Aciertos Aciertos Prom.25 0.42% 89.988 83.29% 87.85% 86.25 0.17% 95.25 0.25 0.48% 54.05 0.25 0.82% 93.971 80.75% 89.969 82.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.34% 85.20% 90.19% 88.05 0.53% 89.25 0.25 0.09% 90.10% 1.80% Datos experimentales L.34% 90. Ent.29% 1.71% 1. Eval.05 0.29% 1.05 0.87% 89.31% 90.25 0.994 81. Prom.05 0.987 83.282 80.17% 89.989 80.997 81.42% 1. Federico Bertona .72% 1.52% 58.25 0.974 82.14% 1. Aciertos Prom.81% 1.25 0.979 80.25 0.05 0.25 0.12% 1. Ent.984 80.86% 1.38% 1.20% 90.25 0.47% 94.82% 87.05 0.86% 1.05 0.00% 1.975 79.53% 89.05 0.970 83.25 0.25 0.994 82.05 0.05 0.99% 95.34% 93.58% 94.64% 93.99% 95.42% 90. Total 1.64% 89.25 116 0.71% 1.25 0.05 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.980 82.64% 90.13% 1.05 0.05 0.01 0.01 0.64% 1.

994 83. Prom.47% 94.992 82.87% 90.25 0.25 0.05 0.82% 94.34% 93.25 0.23% 93.25 0.989 82. Eval.20% 90.64% 94.64% 93.993 83. Aciertos Aciertos Prom.987 81.25 0.63% 88.05 0.34% 91.05 0.86% 1.29% 1. Ent.34% 48.983 81.25 0.25 0.47% 92.39% 85.70% 1.25 0.51% 2.985 81.05 0.42% 1.25 0.989 83.05 0.25 0.87% 90.47% 92.99% 94.05 0.993 79.982 82.05 0.982 82.65% 1.25 0.984 79.00% 1.05 0.05 0.43% 1.00% Datos experimentales 117 .987 81.25 0. Ent.05 0.25 0.19% 89.99% 1.82% 93.55% 1.42% 90. Aciertos Prom.25 0.980 81.05 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.23% 94.05 0.05 0.82% 94.25 0.05 0.43% 1.995 83.05 0.42% 90.63% 88.86% 1.983 80.05 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.983 82.30% 93.26% 1.25 0.20% 89.994 80.25 0.20% 89.17% 85.29% 1.05 0.82% 94.96% 55.79% 85.75% 88.75% 89.41% 92.58% 88.00% 1.53% 89.05 0.25 0.05 0.25 0.05 0.63% 51.52% 88.05 0.42% 1.22% 1.25 L.25 0.985 81.25 0.972 44.20% 90.06% 91.71% 81.25 0.75% 90. Federico Bertona 0.25 0.86% 1.05 0.23% 94.75% 89.99% 94.998 80.05 0.25 0.989 84.13% 1.124 74.05 0.80% 55. Total 1.41% 92.001 79.08% 88.986 54.25 0.57% 1.96% 87.70% 2.05 0.54% 1.978 82.64% 93.86% 1.05 0.97% 89.63% 89.43% 1.88% 1.87% 90.

25 0.25 0.1 0.25 0.54% 2.06% 94.55% 83.58% 91.07% 88.40% 87. Ent.85% 87.983 82.25 0.25 0.981 81.25 0.41% 89.1 0.26% 1.25 0.25 0.25 0.982 81.001 42.00% 2.86% 1.1 0.25 0.12% 49.05 0.25 0.1 0.1 0.41% 88.54% 44.39% 1.41% 93.16% 1.25 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.47% 94.994 13.25 0.1 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.983 82.41% 88.977 16.47% 92.985 73.25 0.15% 45.26% 79.13% 1.28% 1. Aciertos Prom.32% 1.25 0.58% 92. Aciertos Aciertos Prom.84% 1.25 0.25% 1.93% 11.41% 93.994 81.1 0.42% 90.979 83.35% 1.989 45.82% 92.978 82.30% 94.06% 91.64% 10.70% 1.47% 92.20% 90.1 0.28% 1.005 81.07% 87.19% 89.993 84.001 83.977 81. Total 2.1 0.64% 94.1 0.20% 90.05 0.29% 2.1 0.1 0.084 3.63% 88.97% 89.25 0.980 80.57% 1.985 80.995 80.1 0.989 83. Federico Bertona .1 0.87% 51.1 0.23% 90.1 0.981 83.25 0.22% 2.31% 1.63% 88.982 42.58% 1.1 0.04% 48.75% 90.57% Datos experimentales L.25 0. Ent.12% 8.05 0.58% 90.1 0.978 83.23% 1. Eval.88% 45.45% 1.25 0.25 0.1 0.25 0.05 0.14% 1.25 0.1 0.1 0.15% 46.84% 86.87% 91.06% 93.25 0.10% 1.41% 1.27% 11.21% 47.82% 92.1 0. Prom.79% 2.008 45.97% 89.64% 94.45% 1.982 83.25 0.43% 1.25 118 0.64% 90.

07% 87.42% 2.16% 1.25 0.1 0.983 81.25 0.1 0.39% 86.41% 89.88% 92.46% 75.39% 1.80% 1.25 0.75% 92.1 0.1 0. Prom.06% 2.1 0.25 0.68% 1.005 81.82% 93.25 0.47% 91.1 0.013 81.001 81.58% Datos experimentales 119 .004 71.53% 89.23% 88.983 81.1 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.1 0.1 0.95% 85.25% 2.1 0.25 0.82% 91.25 0.275 79.06% 95.85% 87.97% 90.63% 87.25 0.80% 2.1 0.13% 54.985 80.996 82. Eval.999 83.74% 88. Ent.18% 87.25 0.001 82.1 0.986 83.992 80.82% 93.64% 92.28% 1.82% 90.39% 2.1 0.25 0.17% 91.88% 93.998 82.82% 89.30% 89.25 0.30% 89.85% 87.990 81.86% 89.39% 2.999 81.22% 1.95% 85.25 0.58% 93.82% 87.82% 90.25 0.1 0.006 82.25 0.28% 1.41% 2.000 83.96% 1.012 81.1 0.986 83.25 0.63% 88.07% 77.25 0.25 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.995 82.23% 91.1 0.23% 1.64% 93.54% 91.07% 87.82% 93.84% 2.12% 2. Aciertos Prom.1 0.23% 90.989 84.18% 87.1 0.1 0.07% 88.02% 54.25 0.42% 2.25 0.1 0.30% 88.995 82.25 0. Ent.23% 90.25 0.57% 2.1 0.014 54.43% 1.41% 1.003 80.25 0. Federico Bertona 0.1 0.53% 89.1 0.1 0.30% 93.99% 90. Total 1.73% 86.1 0.25 0.25 0.016 81.82% 87.83% 2.25 L. Aciertos Aciertos Prom.1 0.25 0.42% 1.54% 1.97% 90.

973 1.39% 80.968 1.995 82.974 Aciertos Aciertos Prom.970 1.968 1.25 0.21% 90.57% 80. Prom.42% 76.69% 92.42% 89.972 1.86% 87.57% L.58% 81.58% 94.42% 89.57% 80.63% 85.41% 95.13% 77.99% 94.966 1.968 1.26% 1.23% 93.75% 94.65% 90.74% 87.16% 80.71% 80.27% 90.990 82.973 1.58% 94.54% 89.86% 90. Aciertos Prom. 1.20% 89.87% 90.00% 75.64% 91.26% A.Entrenamiento de redes neuronales basado en algoritmos evolutivos Alfa Beta Corrida Ent? 0.29% 88. Prom. Valores de inicialización óptimos Min Inicialización -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 120 Max Inicialización 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 Corrida 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Ent? NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.10% 96.14% 87.64% 89.93% 95.970 1. Ent.971 1. Eval.43% 91.31% 89. Ent. Aciertos Prom.29% 88.80% 77.1 49 50 NO NO Tiempo Prom.2.98% 90.93% 95.973 1.57% 80.36% 82.58% 94.64% 91.440 1.977 1.20% 89.58% 94.71% 79.85% 86. Federico Bertona Datos experimentales . Eval.17% 81.980 1.41% 96.17% 96.87% 79.09% 73.58% 78.969 1.14% 78.05% 82.54% 78.53% 89.85% 85.21% 90. Ent.968 2.1 0.34% 91. Aciertos Aciertos Prom.21% 90. Total 80.25 0.17% 96.973 1. Ent.966 1. Total 1.969 1.

969 1.966 1.41% 95. Prom.29% 82.87% 89.63% 85.970 1. Ent.62% 95.88% 90.972 1.68% 80.71% 78.43% 89.73% 86. Total 77.968 1.38% 80.43% 83.19% 88.28% 77.82% 96. Eval.69% 96.00% 71.65% 87.82% 95.969 1.86% 78.26% 81.968 1.03% 90.967 1.07% 96.21% 91. Aciertos Prom.03% 95.975 1.06% 92.99% 80.10% 96.968 1.65% 89.21% 90.972 1. Ent.53% 88.969 1.973 1.08% 87.972 1.26% 81.51% 77. 1.971 1.972 1.27% 97.26% 76.86% 78.968 1.971 1.08% 88.17% 94.09% 89.967 1.99% 75.72% 79.27% 96.83% 80.32% 90.34% 93.70% 81.29% 76.58% 95.86% L.09% 88.93% 95.64% 94.75% 92.970 Aciertos Aciertos Prom.87% 78.58% 91.74% 87.00% 79.967 1.965 1.09% 90.17% 89.58% 93.30% 88.76% 90.972 1.99% 80.51% 95.93% 95.42% 79.17% 93.76% 89.10% 93.58% 80.971 1.16% 78.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 -5 Max Inicialización 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 Corrida 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 Ent? NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.43% 90.87% 90.09% 89.75% 96.977 1. Federico Bertona Datos experimentales 121 .98% 88.34% 96.83% 79.09% 90.974 1.974 1.86% 88.

Prom.34% 96. Ent.71% 78.42% 77.86% 88.88% 90.65% 89.58% 79.64% 88.99% 96.27% 95.71% 77.98% 90.71% 77.29% 78.10% 95.27% 96. 1. Federico Bertona .75% 96.34% 96.32% 89.93% 96.82% 92.86% 75.54% 89.970 1.57% 79.99% 78.43% 89.43% 90.65% 90. Eval.75% 95.27% 96. Aciertos Prom.93% 95.93% 96.65% 90.75% 96.973 1.14% 80.71% 76.13% 81.69% 95.87% 78.00% 76.21% 89.43% 91.34% 95. Ent.43% 88.21% 89.87% 77.99% 79.76% 89.71% 79.968 263 331 152 313 245 298 187 386 359 167 317 256 349 281 360 141 382 303 465 196 362 203 350 165 Aciertos Aciertos Prom.34% 96.21% 90.88% 90.01% 79. Total 77.71% 78.72% 75.54% 89.45% 96.54% 90.43% 89.88% 90.10% 95.43% 77.62% 97.21% 90.27% 96.57% 78.98% 89.88% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -5 -5 -5 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 Max Inicialización 5 5 5 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Corrida 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Ent? NO NO NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.27% 97.86% 96.75% 96.29% 79.10% 90.21% 96.14% 79.84% 122 Datos experimentales L.10% 94.27% 96.57% 77.43% 79.98% 89.

Federico Bertona Datos experimentales 123 .16% 78.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -0.45% 95.87% 89.31% 88.54% 90.17% 96. Eval.64% 87.58% 76.27% 95.1 Corrida 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.55% 76.03% 96.51% 95.75% 95.65% 90.609 253 173 260 529 Aciertos Aciertos Prom.72% 76.98% 89.86% 95.76% 89.99% 95.65% 90.13% 78.98% 89.88% 90.86% 81.41% 95.98% 89.09% 90.51% 96.62% 94.00% 77.75% 96.1 Max Inicialización 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0. Ent.51% 97.51% 96.93% 96.43% 89.43% 75.28% 76.10% 95. Ent.69% 95.75% 94.57% 75.26% 79.65% 91.31% 89.58% 78.93% 95. 213 400 332 296 293 214 194 124 260 213 331 599 220 194 237 244 136 251 214 387 438 380 1.28% 75.14% 76.57% 79.45% 95.28% 80. Aciertos Prom.09% 88.13% 78.54% 89.65% 89.98% 89.62% 96.29% 80.21% 95.98% 90.10% 90.43% 90.99% 96. Total 77.98% 89.45% 95.55% 76.00% 78.14% 79.93% 95. Prom.58% 78.43% 90.97% 80.69% 96.42% 78.13% 78.86% 95.86% 77.00% L.09% 88.31% 90.43% 90.

76% 90.1 0.1 0.1 0.14% 76.72% 80.58% 96.00% 78.58% 96.1 0.1 -0. Aciertos Prom.1 -0.87% 80.00% 80.17% 95.43% 77.1 -0.21% 89.86% 96.86% 80.1 0.1 0.1 0.1 0.1 -0.10% 90.1 0.41% 95.10% 94. Ent.75% 95.1 0.86% 81.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -0.1 -0.1 -0.88% 90.1 -0.27% 96.1 0. 677 585 682 474 706 560 588 616 801 523 527 518 606 468 573 593 662 531 435 535 562 593 383 624 471 474 425 Aciertos Aciertos Prom.10% 96.17% 96.42% 88.1 0.27% 96.10% 90.88% 91.27% 96.72% 79.21% 89.76% 88.57% 78.76% 90.21% 90.27% 97.99% 95.43% 90. Total 78.99% 80.29% 80.1 0.1 -0.1 0. Federico Bertona .98% 90.87% 88.1 -0.1 -0.86% 80.1 0.51% 96.58% 77.14% 79. Eval.43% 90.75% 96.1 0.1 -0.1 Max Inicialización 0.1 -0.42% 79.62% 94.21% 89.12% 78.72% 124 Datos experimentales L.1 -0.1 -0.1 0.72% 75. Prom.43% 82.29% 76.88% 90.43% 77.54% 90.93% 95.1 -0.1 0.98% 90.1 0.72% 77.93% 97.1 -0.17% 95.21% 90.1 -0.65% 89.1 -0.75% 96.1 0.34% 96.1 0. Ent.1 -0.74% 78.01% 78.1 0.1 0.1 -0.1 0.1 Corrida 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.1 -0.98% 90.70% 79.1 -0.1 -0.1 0.1 -0.58% 96.43% 90.21% 90.21% 89.45% 95.58% 79.1 0.1 -0.65% 91.75% 96.65% 90.23% 96.10% 96.1 -0.

30% 79.1 -0.57% 78.1 -0.88% 91.10% 91.87% 88.93% 96.01 Max Inicialización 0.58% 80.93% 95.01 -0.10% 96.28% 78.88% 91.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -0.1 0.30% 79.01 0.1 0.43% 90.34% 96.1 0.1 0.17% 95.10% 94.75% 96.1 0.10% 90. Federico Bertona Datos experimentales 125 .1 0.1 0.1 0.1 0.1 0. Prom.21% 90.1 0.84% 80.54% 89.43% 90.34% 96.65% 90.1 -0.93% 96.1 0.88% 90.10% 95.01% 77.43% 90.34% 95.1 -0.21% 90.1 -0.27% 97. Total 79.99% 96.1 0.01 Corrida 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01 -0.1 -0.75% 96.01 -0.1 0.01 -0.14% 80.1 -0. Eval.17% 96.1 -0.43% 90. 476 563 876 514 544 410 708 564 752 572 356 553 491 538 560 309 746 525 585 543 638 389 667 827 722 584 605 Aciertos Aciertos Prom.43% 78.1 0.1 -0.43% 79. Aciertos Prom.1 -0.1 0.10% 94.01% 78.1 -0.1 0.99% 79.1 0.43% 78.01 0.1 0.1 -0.54% 89.29% 78.76% 89.1 -0.1 0. Ent.00% 79.65% 91.1 -0.86% 78.72% 78.65% 90.1 -0.43% 90.64% 88.93% 96.34% 96.29% L.1 0.34% 96.58% 96.29% 80.54% 89.57% 78.98% 90.29% 79.01% 78.88% 90.01% 80.43% 90.1 -0.00% 80.98% 90.69% 95.1 -0.01 0.58% 97.43% 78.51% 95.93% 96. Ent.72% 77.1 -0.1 0.17% 96.1 -0.88% 91.43% 80.1 -0.93% 96.88% 91.1 -0.01 0.17% 96.1 -0.

16% 76.10% 96.01 0.01 -0.86% 96.43% 90.01 0.21% 90.58% 77.31% 89.58% 78.01 0. Prom.01 -0.88% 90.51% 96. Eval.29% 78.75% 96.43% 90. Aciertos Prom.10% 91.57% 76.72% 81.01 Corrida 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.43% 126 Datos experimentales L.01 -0.54% 90.45% 96.01 0.58% 96.17% 95.01 0.29% 79.71% 80.43% 78.21% 90.88% 90.01 -0.93% 96. Federico Bertona .01 -0.01 0.65% 91.59% 77.65% 89.21% 90.93% 95.69% 95.01 0.76% 90.65% 91.42% 79.01 0.75% 96.65% 90.65% 91.01 0.01 0. Ent.82% 96.01 -0.01 0.14% 79.01 -0.65% 90. Ent.14% 79.01 -0.01 0.00% 78.75% 96.01 Max Inicialización 0.01% 76.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -0.01 0.14% 79.51% 96.88% 91.01 -0.01 -0.01 0.65% 90.01 -0.01 0.01 -0.93% 96.17% 97.75% 95.01 0.43% 81.65% 90.01 -0. Total 78.01 -0.34% 96.57% 80. 586 685 697 785 729 705 424 636 556 475 573 753 771 579 872 665 468 636 717 877 886 643 760 439 734 636 597 Aciertos Aciertos Prom.93% 95.76% 89.01 -0.43% 80.01 -0.01 -0.01 0.65% 89.01 0.00% 78.01 0.01 0.01 -0.43% 78.01 -0.01 -0.01 -0.17% 95.45% 79.01 -0.21% 90.98% 90.34% 96.01 0.82% 96.27% 96.01 0.01 -0.72% 80.76% 90.65% 89.01 0.58% 96.01 -0.93% 96.43% 89.01 -0.01 0.01 0.01 0.01% 80.71% 78.45% 96.57% 80.58% 96.01 -0.

01 0.01 0.82% 96.98% 89.34% 97.59% 79. 638 728 908 790 608 647 651 567 948 669 878 771 884 723 723 483 717 473 Aciertos Aciertos Prom.88% 90.13% 77.01 0. 251 720 261 213 226 Aciertos Aciertos Prom.01 -0.01 -0. Eval.01 0.43% 90.17% 97.16% 80.58% 96. Aciertos Prom.01 0.01 -0.43% 79.01 -0.34% 96.69% 95. Federico Bertona Corrida 1 2 3 4 5 Ent? SI SI SI SI SI Tiempo Prom. Ent.76% 89.01 -0.10% 90.01 -0.01 -0.10% 96.01 0.27% 95.17% 97.01 -0.29% 76.87% 87.45% 95.88% 90.01 -0.01 -0.21% 90.76% 88.75% 96.01 -0.43% 90.34% 97.16% 80.01 0.17% 95.01 0.01 0.01% 74.75% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Min Inicialización -0.29% 81.01 -0.93% 96.65% 90. Prom.88% 91.01 0.42% 79.10% 91.01 Max Inicialización 0. Total 80.27% 95.01 -0. Ent. Prom.87% 78.43% 79.01 -0. Ent.21% 90. Eval.68% 80.76% 90.01 0.34% 96.34% 96.3.10% 91.69% 96.65% 90.29% 80.01 Corrida 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.88% 91.17% 96.00% 79.10% 90.01 -0.01 0.01 -0.87% 78.01 0. Ent.99% 127 Datos experimentales .01 0.58% A.43% 90.32% 91. Aciertos Prom.38% 94.01 0.01 0.28% 79. Total 79.43% 90.34% 96.16% 77. Función de selección Función Selección Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional L.00% 77.34% 97.87% 79.58% 77.01 0.87% 79.31% 89.01 -0.

31% 94.45% 96.14% 78.10% 95.64% 95.42% 86. Eval.42% 77.29% 78. Prom. 173 340 173 232 307 773 191 260 289 209 276 295 355 246 150 560 155 200 279 467 136 200 240 248 550 206 483 Aciertos Aciertos Prom.21% 95.43% 89.34% 95.98% 90. Ent.10% 96.86% 75.98% 89.14% 77.88% 91.42% 78.29% 76.51% 95.31% 89.13% 78.72% 80.67% 80. Ent.88% 90.97% 87.28% 79.65% 90.21% 89.98% 90.76% 89.98% 88.88% 91.34% 96.86% 95.97% 76.30% 128 Datos experimentales L.71% 76.99% 96.65% 90.31% 89.30% 82.69% 95.93% 94.59% 72.34% 95.43% 78.72% 78.69% 96.65% 90.71% 79.98% 90.42% 78.93% 96.93% 95. Total 77.99% 95.27% 96.31% 90.86% 95.99% 96.98% 89.57% 75.88% 90.84% 79.51% 96.87% 76.99% 78.70% 80.99% 97.64% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Corrida 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 Ent? SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.57% 80.62% 95.98% 89.10% 96.98% 88.00% 77. Federico Bertona .32% 91.86% 93.43% 89.54% 88. Aciertos Prom.69% 95.

34% 97. Ent.54% 89.54% 88.27% 95.65% 90. Federico Bertona Datos experimentales 129 .03% 96.32% 90.28% 79.20% 87.93% 96.87% 88.86% 95.86% 96.75% 95.21% 89.65% 90.98% 89.29% L.34% 96.72% 76.88% 97.65% 90.13% 79.88% 90.69% 97.28% 77.14% 77.21% 89.69% 95.71% 76.65% 90. Aciertos Prom.14% 78.42% 77.10% 96.21% 90.65% 89.87% 76.43% 90. 774 376 244 201 310 210 204 140 236 376 262 218 239 506 225 147 154 310 257 529 393 263 259 409 274 357 216 Aciertos Aciertos Prom.03% 96.29% 81.09% 89.75% 95.51% 96.69% 95.88% 90.13% 78.88% 76.43% 78.83% 77.03% 94.87% 76.10% 92.86% 76.98% 90.43% 78.03% 95.13% 79.13% 76.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección proporcional Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Corrida 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 Ent? NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.45% 94.31% 89. Total 83.75% 96.10% 96.93% 96.32% 91.21% 89.51% 96. Prom.43% 77.03% 96.70% 79.58% 78.17% 96.82% 97.98% 89. Eval.57% 76.41% 79.10% 90.43% 89.46% 78.86% 80. Ent.21% 89.27% 96.

21% 89.21% 89.75% 95.21% 88.86% 96.43% 76. 229 223 200 223 282 466 269 300 272 256 202 327 475 307 242 300 541 319 216 257 351 288 211 253 229 199 385 Aciertos Aciertos Prom.29% 77.43% 90.88% 89.54% 90.76% 89.69% 95.43% 92.10% 96.58% 96. Prom.99% 95.09% 88. Aciertos Prom.34% 96.45% 96.21% 89.84% 75.03% 96.14% 78.43% 89.86% 95.45% 96.21% 95. Ent.70% 77.12% 80.98% 90.71% 78.43% 90.51% 96.17% 76.01% 80.09% 88.71% 75. Eval.21% 90.99% 77.99% 96.43% 130 Datos experimentales L.99% 84.70% 80.30% 96.21% 90.00% 79.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Corrida 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.65% 91.03% 95.86% 79.28% 79. Ent.28% 76.28% 80.98% 88.58% 80.21% 88.69% 95.54% 90.16% 76.21% 89.27% 95.43% 79.58% 95.69% 96.34% 95. Total 77.14% 76.88% 91.13% 78.09% 88.17% 96.86% 76.57% 74.10% 96.34% 96. Federico Bertona .54% 89.17% 95.54% 89.79% 96.21% 96.65% 90.72% 80.98% 90.

99% 75.87% 89.86% 96.10% 96.27% 96.54% 89.93% 95.98% 89.17% 96.57% 79.43% 89.45% 96.58% 75.00% 80.42% 78.58% 76.98% 88.65% 91.72% 78.14% 79.34% 96.65% 90.75% 96.71% 76.99% 76.84% 78.69% 95.42% 77.65% 90.86% 96.42% L.62% 95.01% 79.98% 90.65% 90.43% 80.45% 95.75% 96.62% 95.21% 89.65% 90. Ent.88% 91.42% 78. Ent.34% 94.93% 95. Total 78.58% 96.10% 90.71% 78.10% 96.21% 90.43% 89.98% 88.43% 89.43% 90.43% 89.21% 88.21% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección ruleta Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Corrida 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.59% 77.69% 96.87% 77.16% 76.76% 88.84% 79. Federico Bertona Datos experimentales 131 .23% 96. Eval. 277 510 314 309 381 273 332 531 754 399 431 388 239 356 189 202 511 164 186 160 216 201 186 200 166 409 183 Aciertos Aciertos Prom.10% 96.71% 76.13% 82.45% 96.75% 96.58% 80.00% 79.14% 75.43% 90.62% 96. Prom.58% 96.65% 91.31% 89.45% 95.13% 76.93% 97.43% 90. Aciertos Prom.

00% 76.99% 77. 197 420 149 257 429 169 205 184 168 272 162 172 206 178 165 205 163 179 129 144 181 157 201 229 248 158 216 Aciertos Aciertos Prom.93% 96.55% 76.76% 90.00% 78.55% 76.21% 90.27% 95.45% 95.64% 88.88% 90.71% 78.10% 95.09% 88.51% 96.41% 132 Datos experimentales L.14% 80.93% 95.45% 96.10% 94.45% 96.69% 95.75% 96.84% 78.17% 96.87% 89.65% 90. Prom.45% 95.54% 89.69% 96.64% 88.86% 94.65% 89.54% 90.64% 88.29% 78.43% 90.21% 89.57% 76.87% 88.93% 96.72% 79.87% 78.12% 78. Federico Bertona .42% 77. Ent.13% 76.71% 78.54% 89.03% 94.14% 78.57% 79.41% 95.93% 95.13% 76.76% 88.58% 78.21% 90.21% 89.65% 89.34% 95.86% 96.34% 94.31% 88.10% 96.65% 90.42% 77. Ent.65% 90. Aciertos Prom.51% 96.76% 89. Total 77.31% 89.43% 76.42% 76.10% 95. Eval.86% 95.27% 94.57% 78.57% 79.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Corrida 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.76% 89.99% 81.09% 89.

86% 95.10% 97.65% 90. Federico Bertona Datos experimentales 133 .88% 90.65% 90.75% 96.70% 75.45% 96.87% 78.75% 95.09% 89.14% 77.51% 95.28% 77.54% 90.93% 95.43% 76.72% 77.21% 90.21% 94.98% 89.21% 89.76% 89.29% 78.62% 96.87% 87.58% 95.27% 96.10% 95. Aciertos Prom.31% 89.14% 76. Total 79.21% 90.93% 96.29% 78.98% 89. Ent.75% 96.57% 79.65% 90.29% 78.21% 89.58% 95.42% 79.62% 95.69% 96.55% 76.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección torneo Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Corrida 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.58% 78.09% 88.43% 89.43% 90.26% 78.93% 96.97% 74.71% L.00% 75.42% 80.98% 90.34% 96.93% 96.93% 96.71% 78.42% 79.21% 90. 171 329 148 196 185 134 221 166 159 176 370 231 293 153 498 205 216 242 288 260 238 166 240 251 213 245 455 Aciertos Aciertos Prom.43% 78.79% 95.10% 90.86% 77. Ent.86% 78.14% 75.27% 97.10% 96.98% 88.86% 95.00% 78. Prom.21% 89.99% 80.21% 88.09% 88.54% 90. Eval.69% 96.93% 95.10% 90.

98% 90.13% 77.70% 75.76% 90.75% 95.43% 89.76% 89.13% 80. Federico Bertona .43% 88.21% 89.43% 78.69% 96.41% 96.43% 89.76% 88.58% 95.13% 76.86% 95. Total 76. Ent. 186 324 211 263 284 234 186 313 266 330 160 220 430 288 239 279 362 352 176 407 170 241 188 272 270 188 280 Aciertos Aciertos Prom.57% 76.45% 75.99% 79.21% 90.42% 80.21% 95.31% 89.99% 95.28% 76.43% 89.75% 96. Aciertos Prom.98% 89.86% 78.68% 76.43% 89.30% 75.58% 79. Eval.86% 95.29% 78.76% 89. Ent.10% 91.86% 96.65% 91.21% 96.51% 96.57% 80.58% 134 Datos experimentales L.57% 78.86% 96.69% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Corrida 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.59% 80.23% 96.54% 89.99% 97.57% 76.76% 89.62% 95.69% 93.41% 75.88% 89. Prom.10% 95.43% 77.58% 97.10% 91.51% 95.86% 81.30% 77.45% 95.99% 76.76% 89.08% 87.98% 90.31% 88.86% 95.69% 95.03% 96.57% 82.88% 90.62% 96.10% 96.13% 77.98% 88.65% 91.

65% 90.28% 80.09% 88.51% 95. 342 259 289 177 217 359 Aciertos Aciertos Prom.42% 77.75% 87.21% 89.65% 90. Ent.10% 95.72% 73.51% 95.69% 96.54% 88.88% 90. Aciertos Prom.88% 89.27% 95. Eval. Aciertos Prom.03% 93. 170 139 238 154 180 775 195 167 281 195 171 153 256 131 142 191 183 Aciertos Aciertos Prom. Ent.54% 89.54% 89.45% 95.58% 76.93% 96.54% 88.86% 95. Federico Bertona Corrida 45 46 47 48 49 50 Ent? SI SI SI SI SI SI Tiempo Prom.42% 78.51% 96.14% Corrida 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 Ent? SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.4. Ent.14% 93.76% 89.53% 86.86% 78.88% 89.42% 76. Ent.71% 77.86% 96. Eval.57% 77.84% 135 Datos experimentales .76% 89.30% 77.86% 96.32% 91.45% 96.29% 78.69% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Selección Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta Selección ranking-ruleta A.84% 78.17% 96.54% 79.69% 95. Prom.58% 78.21% 89.65% 90.10% 96.57% 78.31% 89.17% 97. Total 76.21% 90.54% 89.38% 76.27% 96.45% 95.84% 80. Total 76.86% 76.65% 89.75% 96.76% 89.71% 77.13% 78.71% 76.93% 95. Prom. Función de cruza Tipo Función Cruza Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística L.

21% 90.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Corrida 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.34% 96.76% 88.93% 96.65% 89.01% 77.86% 76.54% 89.29% 78.51% 95.10% 95.76% 89.86% 96.99% 78.45% 95.43% 79.26% 79.58% 96.58% 96.71% 79.41% 77.54% 89.76% 90.98% 90.65% 90.14% 76.57% 78.69% 95.13% 78.14% 80.79% 95.29% 136 Datos experimentales L.54% 89.76% 88.17% 96.65% 91.21% 95.54% 88.98% 89.43% 90.75% 96.21% 89.27% 96.10% 96.17% 95.21% 89.14% 80. 159 139 177 199 220 167 276 346 204 124 286 151 181 147 131 163 284 335 178 148 216 308 127 134 161 198 178 Aciertos Aciertos Prom.45% 95.98% 90.69% 96.34% 96. Ent.99% 79. Federico Bertona .43% 74. Ent.26% 74.01% 77.42% 79.87% 88.75% 95.09% 88.27% 96.28% 80.65% 90.93% 96.34% 95.43% 90.57% 77. Prom.16% 80.09% 87.97% 77.34% 95.03% 94. Total 75.29% 76.86% 78. Aciertos Prom.88% 91.88% 91.21% 90.38% 95. Eval.69% 95.21% 89.57% 76.58% 79.

03% 96.43% 90.00% 78.27% 96.57% 78.10% 96.34% 96.43% 90. Eval.54% 88.57% 73.10% 94.93% 96.29% 79.87% 78.70% 78.09% 89.84% 78.71% 77.10% 96.10% 96. Ent.12% 76.54% 89.09% 88.55% 80.34% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza probabilística Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Corrida 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.54% 89.86% 96.76% 88.10% 96. 143 153 250 205 159 152 157 341 167 147 246 279 149 221 212 155 141 135 214 146 162 153 176 147 217 359 136 Aciertos Aciertos Prom.51% 96.14% 78.86% L.21% 95.58% 76.14% 78. Aciertos Prom.65% 89.03% 95.31% 87.27% 96.21% 90.32% 91.34% 97.55% 95.86% 77.21% 89.43% 90.43% 75.65% 90.71% 79.21% 89.43% 90.69% 95.10% 95.17% 95.65% 90.21% 90.01% 80.28% 78.17% 96.00% 76.29% 79.43% 89.21% 90.42% 79.64% 88. Prom.68% 79.28% 78.93% 95.76% 89.76% 89. Ent.10% 95.57% 75.86% 78.27% 96. Total 77.34% 96.21% 89.00% 77.75% 96.21% 95. Federico Bertona Datos experimentales 137 .21% 90.43% 89.

21% 89.58% 78.65% 89. Total 75.87% 88.72% 80.45% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Cruza uniforme Corrida 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.34% 96.26% 74.43% 90. Federico Bertona .76% 89.21% 95.72% 78.43% 90.29% 76.21% 88.98% 90.27% 96.84% 76.65% 88.98% 90.21% 90.98% 88. Eval.14% 77.65% 89.43% 90.10% 96.27% 96.43% 79.12% 77.12% 76. Ent. Prom.69% 96.75% 96.86% 138 Datos experimentales L.65% 90.93% 96.29% 78.14% 96.75% 96.31% 88.51% 95.29% 78.58% 95. Ent.93% 96.58% 76.17% 96.69% 95.93% 96.43% 78.54% 88.09% 88.43% 90.42% 79.62% 95.99% 79. Aciertos Prom.65% 90.86% 80.71% 77.27% 96.43% 90. 141 165 294 225 154 231 174 173 233 183 222 174 196 203 178 193 135 171 201 148 166 192 284 182 147 193 172 Aciertos Aciertos Prom.65% 90.65% 89.86% 77.03% 96.93% 95.20% 88.86% 94.70% 76.43% 89.71% 77.57% 75.34% 96.12% 78.00% 73.42% 77.70% 79.43% 89.76% 89.03% 94.79% 96.03% 95.27% 96.

86% 78.98% 89.28% 76.13% 78.42% 77.70% 79.42% 78. Federico Bertona Datos experimentales 139 .93% 96.14% 79.98% 90. Eval.41% 95. Ent.27% 95.88% 90.03% 96.10% 96.10% 91.43% 90.55% 77.87% 88.09% 88.29% 75.76% 88.51% 95.58% 95.76% 89. Prom.98% 90.00% L.86% 76.27% 94.43% 90.32% 90.88% 90.32% 91.17% 96.65% 89.03% 95.71% 81.41% 80.76% 90. Ent.58% 77.51% 95.21% 89.65% 89.69% 96.21% 89.21% 89.75% 95.69% 95.72% 78.65% 89.93% 95.21% 95.10% 96.51% 97.75% 95.29% 80.14% 76.57% 79.72% 77.01% 78.41% 97.42% 76.43% 89.98% 90.98% 90. Aciertos Prom. Total 78. 157 161 394 203 184 317 602 209 182 188 168 135 234 622 259 240 197 277 148 169 283 152 225 162 177 397 204 Aciertos Aciertos Prom.58% 77.74% 78.27% 96.71% 76.54% 89.58% 79.75% 97.21% 90.86% 81.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza uniforme Cruza uniforme Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Corrida 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.93% 96.87% 78.86% 96.45% 96.31% 89.75% 96.86% 96.

43% 90.65% 90.10% 95.58% 96.17% 96.13% 77.54% 88.27% 93.10% 96.43% 78.45% 94.71% 78. Ent.58% 96.21% 90.76% 90.55% 76.21% 90.87% 88.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza simple Cruza multipuntos Cruza multipuntos Corrida 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.71% 79. Total 78.54% 89.62% 95.86% 80.41% 75.09% 89.21% 90.87% 78.21% 90.34% 95.87% 79.10% 95.21% 95.54% 89.51% 95.93% 96.58% 80. Eval.98% 90.97% 88.00% 76.76% 89.72% 77.65% 90.51% 96. Ent.75% 97.57% 80.93% 95.34% 96.29% 78.98% 89.34% 95.65% 90.75% 95.69% 95.51% 95.17% 95.99% 78.14% 140 Datos experimentales L.57% 78.10% 90.14% 75.16% 79. Prom.86% 80.28% 79.75% 97.31% 89. Aciertos Prom.51% 97.26% 78.10% 95.29% 78.76% 90.10% 91.54% 88.01% 78. Federico Bertona .93% 96.00% 79.32% 91.31% 88. 182 270 435 169 254 260 191 243 148 189 148 217 439 357 385 171 126 206 329 264 192 150 224 403 183 183 173 Aciertos Aciertos Prom.98% 89.12% 78.76% 89.29% 79.86% 95.

31% 89.51% 95.21% 90.34% 96.10% 95.65% 91.43% 90.10% 96.98% 90. Aciertos Prom.93% 95.87% 89.70% 76.31% 88.57% 79. Ent. 258 184 201 195 229 162 285 219 229 126 167 339 303 258 161 175 252 168 259 175 290 144 210 228 231 177 256 Aciertos Aciertos Prom.98% 89.86% 78.58% 96.98% 89.21% 95.10% 96. Ent.72% 75.09% 89.21% 89.43% 90.54% 79.21% 89.65% 89.88% 90.58% L.62% 95. Eval.34% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Corrida 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.64% 87.28% 80.86% 96.71% 75.00% 75.72% 77.26% 78.62% 96.69% 95.10% 90.17% 96.27% 96.21% 90.71% 80.76% 90.28% 75.10% 95. Total 78.43% 89.43% 88.58% 77.38% 94.42% 78.75% 94.29% 79.72% 76.54% 88.58% 96.86% 80.27% 96.42% 78.21% 96.10% 95.86% 95.76% 88.99% 78.21% 89.29% 78.57% 74.99% 77.65% 90. Federico Bertona Datos experimentales 141 .57% 80.42% 79. Prom.54% 89.75% 96.93% 97.34% 96.17% 95.01% 78.31% 89.00% 79.

76% 89.10% 89. Ent.27% 95. Eval.01% 77.51% 96.10% 90.93% 96.76% 89.01% 76.43% 76.76% 89. Ent.30% 78.69% 95.45% 95.87% 88.55% 76.86% 96.13% 78.13% 78.84% 76.29% 78.88% 91.69% 95.65% 90.86% 95.99% 96.69% 95.65% 89.42% 77.29% 78.54% 89.76% 89.43% 90.93% 95.54% 88.75% 97. Total 77.93% 96.71% 142 Datos experimentales L.42% 76.76% 89.69% 97. Federico Bertona .51% 95.27% 95. Prom.54% 88.14% 80.86% 76.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Cruza Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Cruza multipuntos Corrida 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.88% 90. Aciertos Prom.86% 77.76% 89.76% 89.51% 96.86% 95.71% 77.86% 94.43% 90. 347 430 162 275 138 238 157 168 189 229 289 134 133 186 378 201 176 237 144 141 188 Aciertos Aciertos Prom.10% 91.43% 77.88% 91.45% 97.42% 78.28% 79.99% 80.17% 96.

01 0.01 0.98% 75.01 0.98% 77.10% 95.01 0.01 0. Función de mutación Mutación numérica Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.17% 96.93% 94.01 0.01 0.26% 89. Total 90.01 0.76% 78.69% 95.01 0.01 0.01 0.54% 79.70% 89.01 Max Mutación 0.01 0.01 Corrida 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.42% 88.01 0.01 0.62% 95.01 0.14% L.01 0.75% 95.01 0.98% 75.01 0.57% 90.34% 95.69% 95.17% 96.34% 95.34% 95.00% 90.65% 78. Eval.01 0.87% 90.75% 96.98% 80.65% Aciertos Prom.01 0.09% 76.20% 80.01 0.42% 90.13% 89.62% 95.76% 78.14% 88.87% 90. 80.76% 79.41% 89.17% 96.86% 95.98% 77.43% 89.58% 90.65% 79.54% 79.14% 88.43% 79.01 0.01 0.10% 96.01 0.62% 95.87% 90.29% 90. Ent.01 0.34% 95.01 0.01 0. Ent.54% 79.54% 75.5.01 0.93% 96.01 0.17% 95.01 0.01 0.01 0. 174 213 236 225 243 333 194 200 136 170 334 188 193 234 266 186 204 179 173 177 265 Aciertos Aciertos Prom.69% 95.43% 78.01 0. Prom.31% 77.01 0.01 0.84% 90.14% 89.01 0.01 0.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos A.65% 80.86% 88.01 0. Federico Bertona Datos experimentales 143 .01 0.28% 90.

34% 96. Eval.01 0.54% 72.76% 77.01 0.01 0.28% 90.29% 88.01 0.01 0.27% 94. 76.54% 78.01 0.00% 89.01 0.45% 96.01 0.01 Corrida 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.69% 95.01 0.97% 74.42% 90.65% 76.01 0.84% 87.76% 77. Total 88.01 0.64% 77.01 0.21% 76.55% 89.01 0.28% 88.01 0.01 0.03% 94.21% 77.72% 89.55% 89.01 0.01 0.52% 87.84% 90.87% 73.69% 94.86% 94.76% 76.86% 95.09% 78.29% 144 Datos experimentales L.76% 80.34% 96.43% 78.57% 89.01 0.51% 96.01 0.01 0.01 0.01 0.71% 88.01 0.01 Max Mutación 0.01 0.21% 79.01 0.93% 96.68% 88.21% 79.20% 77.01 0.45% 96.01 0.55% 90.64% 75.03% 95.70% 88.45% 95.10% 95.28% 88.54% 76.21% 95.79% 94.01 0.01 0.01 0.01 0.10% 88.01 0.62% 96.87% 76.87% 76.01 0.21% Aciertos Prom.86% 96.34% 96.01 0.01 0.51% 95.27% 94.01 0. 162 190 209 224 189 450 216 186 175 151 189 182 193 181 141 200 251 211 247 245 244 211 157 260 203 255 Aciertos Aciertos Prom.01 0. Federico Bertona .70% 90.64% 78.43% 89. Ent.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.01 0.13% 86.01 0.88% 76.01 0. Ent.27% 95.01 0.12% 89.01 0.97% 94.29% 89.01 0.28% 90.01 0.43% 75.41% 88. Prom.01 0.17% 95.01 0.73% 93.09% 79.01 0.01 0.01 0.

88% 78.57% 90. Ent.03% 94.00% 89.02 0.02 0.02 0.02 0.86% 90.28% 89.21% 78.03% 95.02 Max Mutación 0.02 0. Eval.02 0.45% 95.02 0.01 0.71% 89. Total 90.02 0.86% 89.88% 78.02 0.87% 77.01 0.84% 90.02 0.02 0.02 0.51% 96.17% 95.14% 89.02 0.45% 95.42% 88.09% 77. Prom.02 0.02 0.02 0.43% 79.93% 96.02 0. Ent.02 0.43% 78.02 0.87% 76.34% 95.88% 76.42% 75.02 0.54% 80.02 0.58% 90.31% Aciertos Prom.93% 97.02 0.71% 88.02 0.86% 90.93% 95.21% 76.21% 77.93% 96.76% 76.72% 89.02 0.29% 89.00% 88.93% 96.10% 79.09% 78.02 0.01 0.29% 90.13% 90.76% 78.57% 90. 79.43% 90.02 0.27% 95.93% 96.02 0.43% 78.02 0.72% 89.02 0.55% L.02 0. 242 178 238 236 149 143 204 177 235 240 266 152 147 193 241 198 159 336 204 209 162 250 184 175 157 202 Aciertos Aciertos Prom.10% 95.84% 89.02 0.62% 96.02 0.02 0.98% 78.34% 94.97% 89.54% 78.02 Corrida 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.55% 88.02 0.43% 79.98% 77.09% 76.02 0.51% 95.31% 78.02 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.02 0. Federico Bertona Datos experimentales 145 .02 0.01 0.70% 88.02 0.51% 95.34% 96.69% 96.69% 96.02 0.01 0.58% 87.34% 96.01 0.27% 96.65% 78.02 0.02 0.02 0.93% 94.86% 95.02 0.

58% 96.43% 90.02 0. Federico Bertona .29% 89.02 0.02 0. Eval.02 0.10% 96.98% 78.17% 97.65% 78.21% 77.02 0.70% 88.02 0.87% 89.16% 90.71% 88.02 0.02 Corrida 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.02 0.21% 80.02 0.02 0.02 0.02 0.02 0.02 0.42% 90.02 0.21% Aciertos Prom.21% 80.02 0.02 0.21% 80.10% 95.02 0.34% 96.02 Max Mutación 0.69% 95.14% 90.29% 88.28% 90.27% 96.02 0.02 0.02 0.02 0.02 0.02 0.43% 77.93% 96.99% 89.02 0.69% 96.02 0.58% 89.02 0.02 0.21% 79.02 0.02 0.72% 90.27% 94.02 0.75% 96.98% 79.69% 96.02 0.43% 79.27% 95.21% 78.58% 95.02 0.02 0.72% 90.29% 146 Datos experimentales L.21% 78.99% 91.88% 75.02 0.09% 79.58% 96.71% 90.71% 90.72% 90.43% 80.58% 96.86% 90.87% 89.02 0.02 0.75% 96.99% 96.02 0.62% 96. 78.02 0.31% 78.02 0.71% 90. Prom.17% 95.93% 96.43% 88.10% 80.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.93% 95.65% 78.02 0.76% 77. Ent.02 0.09% 80.02 0.02 0.02 0.21% 77.02 0.76% 80.03% 95. 157 188 161 179 217 171 166 203 235 216 137 153 183 160 308 158 221 436 144 284 260 184 235 136 187 233 Aciertos Aciertos Prom.10% 95.02 0. Ent. Total 89.10% 96.41% 90.75% 96.43% 77.54% 76.14% 89.02 0.87% 77.02 0.14% 90.02 0.

69% 95.88% 79.04 0.04 0.82% 96.04 0.65% 74. Total 89.04 0.43% 78.82% 96.87% 90.04 0.72% 88.58% 96.04 0.04 0.04 0.42% 90.10% Aciertos Prom.98% 78.04 0.04 0.87% 91.55% 90.04 0.04 0.04 0.04 0.02 0.43% 78.04 0.99% 96.04 0.04 0.04 0.04 0.04 Max Mutación 0.86% 90.65% 80.04 0.04 0.51% 97.04 0.43% 77.47% 97.38% 97.43% 81.04 0.17% 97.04 0.04 0.58% 89.13% 90.88% 91.01% 89.04 0.27% 96. Eval.58% 97.34% 96.04 0.98% 79.34% 96. Prom.82% 97.14% 92.04 0.88% 91. Ent.04 0.65% 79.10% 96.32% 81. Ent.58% 90.45% 90.65% 80.04 0.51% 96.71% 91.16% 91.04 0.04 0.98% 77.32% 78.58% 91.10% 80.93% 97.04 0.04 0.46% 89.10% 96.04 0.58% 95.10% 95.02 0. 224 196 255 161 186 287 170 500 768 247 145 165 293 138 166 299 161 151 168 141 166 399 183 643 135 224 Aciertos Aciertos Prom.10% 78.76% 79.04 0.58% 97.04 0. 74.65% 83.34% 95.75% 96.04 0.29% 91.21% 78.06% 96.32% 79.04 0.04 0.43% 90.72% 90.04 0.75% 96.14% 91.98% 81.04 0.30% 90.10% 80.04 0. Federico Bertona Datos experimentales 147 .21% 80.04 Corrida 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.04 0.43% 80.04 0.71% 90.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.04 0.30% L.04 0.04 0.79% 95.30% 89.32% 83.

04 0.65% 78.43% 78.72% 89.29% 91.04 0.88% 81.04 0.30% 90.43% 90.41% 96.04 0.01% 90.65% 79.34% 96.72% 90.04 0.04 0.88% 76.04 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación lineal creciente Min Mutación 0.04 0.04 0.65% 80.43% 78.42% 90.04 0.93% 96.65% 81.04 0.65% 80.41% 96.43% 80.04 0.01 Max Mutación 0. Prom.04 0.88% 78.04 0.21% 81.02 Corrida 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.04 0.86% 96.75% 96.58% 89.04 0.71% 91.88% 89.04 0.04 0.04 0.17% 96.51% 95.04 0.65% 79.04 0.04 0.31% 80.04 0.54% 78. Ent. Total 89.04 0.98% 76.04 0.58% 96.04 0.04 0.04 0.00% 90.43% 82.88% 78.65% 77.93% 96.04 0.04 0.86% 96.34% 96.87% 148 Datos experimentales L.04 0.87% 90.45% 90.04 0.69% 96.16% 91.14% 90.04 0. 148 226 163 222 208 280 378 290 228 580 459 182 149 125 773 169 154 231 150 590 239 263 133 545 139 154 Aciertos Aciertos Prom.04 0. Ent.04 0. Federico Bertona .43% 90.86% 90.04 0.04 0.64% 96.16% 90.51% 96.82% 96.72% 91.93% 96.43% 91.10% 95.04 0.88% 80.04 0.43% 77.21% 81.04 0.41% 95.04 0.04 0.04 0.42% 91.93% 97. 78.58% 96.51% 95.58% 96.04 0.58% 96.04 0. Eval.04 0.10% 78.69% 96.86% 89.04 0.29% 90.04 0.43% 78.10% 79.10% 97.98% Aciertos Prom.04 0.57% 89.04 0.30% 91.

01 0.02 0.01 0.01 0.99% L.02 0.51% 95.01 0. Ent.31% Aciertos Prom.01 0.02 0. 213 208 146 238 229 184 144 200 178 284 222 146 144 171 199 188 157 142 148 164 242 147 198 197 216 218 Aciertos Aciertos Prom.86% 88.43% 78.01 0.31% 75.13% 88. Eval.01 0.01 0. 77.54% 78.84% 90.01 Max Mutación 0.02 0.02 0.01 0.71% 91.09% 78.98% 75.14% 90.02 0.01 0.09% 78.54% 77.01 0.62% 95.01 0.27% 95.01 0.01 0.02 0.02 0. Federico Bertona Datos experimentales 149 .62% 95.21% 76.43% 76.84% 88. Ent.03% 95.02 0.01 0.02 0.10% 95. Prom.54% 79.01 0.51% 95.76% 76.01 0.21% 79.55% 88.02 0.41% 96.00% 90.54% 78.01 0.41% 89.03% 95.38% 94.45% 95.01% 89.14% 90.14% 88.98% 76.01 0.76% 78.02 0.01 0.71% 88.93% 96.71% 90.98% 75.71% 88.62% 95.02 0.54% 74.01 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.76% 81.02 0.27% 95.84% 88.01 0.93% 95.02 0.54% 77.01 0.69% 94.51% 96.39% 89.93% 96. Total 89.01 0.21% 78.70% 87.75% 96.42% 78.02 0.34% 95.02 0.87% 76.02 0.01 0.02 0.00% 88.28% 90.58% 88.02 0.02 0.02 0.86% 95.70% 89.31% 78.02 0.02 Corrida 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.93% 94.93% 95.70% 89.02 0.87% 79.03% 95.26% 89.02 0.31% 75.55% 88.75% 95.62% 95.

02 0.75% 97.02 0.55% 93.72% 150 Datos experimentales L.87% 80. Total 89.55% 88.01 0.00% 90.02 0.02 0.02 0.02 0.01 0.41% 95.17% 97.04 Corrida 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.34% 95.69% 94.01 0.01% 90.10% 77.02 0.01 0.04 0.51% 96.02 0.67% 88.69% 96.02 0.43% 88.71% 90.01 0.02 0.01 0.28% 89.69% 96.01 0.01 0.41% 96.58% 96.86% 95.01 0.86% 95.34% 95.65% 78.76% 76.98% 77.27% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.27% 95.29% 90.02 0.21% 77.34% 96.01 0.87% 89.01 0.27% 96.54% 79.28% 91.93% 96.01 0.02 0.31% 81.43% 81.57% 89.21% 77.99% 90.10% 80.02 0.02 0.01 0.01 0.51% 96.10% 73.54% 78.01 0.31% 77.75% 77.02 0.02 0.01 0.65% 78.01 0.43% 91.02 0.01 0.27% 96.16% 86.98% 77.01 0.01% 89.57% 89. Ent.98% 79.01 0.02 0.02 0. Eval.93% 95.01 0.51% 97.03% 95.34% 95.86% 90. 77.69% 94.14% 90.21% 79.87% 78.21% 78.01 0.02 0.04 0.02 0.71% 89.42% 88. 172 197 166 173 171 153 235 376 195 147 337 281 156 162 224 169 161 194 196 223 204 169 236 193 143 165 Aciertos Aciertos Prom.02 0.43% 79. Federico Bertona .09% 76.65% 76.84% 90.71% 89.21% Aciertos Prom. Prom.02 0.84% 89. Ent.58% 91.02 0.02 0.01 0.02 Max Mutación 0.00% 90.21% 79.

42% 88.17% 96.04 0.88% 79.43% 79.02 0.02 0. Eval.02 0.02 0.21% 79.04 0.42% Aciertos Prom.27% 95.02 0.71% 91.93% 96.58% 90.02 0.04 0.71% 90.27% 96.79% 95.04 0.54% 77.51% 97.00% 89.65% 78. 77.04 0.04 0.98% 79.99% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.02 0.57% 90.87% 90.87% 91.04 0.58% 89.02 0. Federico Bertona Datos experimentales 151 .43% 76.04 0.75% 96.72% 88.02 0.43% 77.65% 76.98% 75.04 0. Prom.04 0.04 0.45% 94.04 0.58% 90.12% L.03% 96.02 Max Mutación 0.30% 90.02 0.21% 80.04 0.10% 77.04 0.27% 96.86% 90.69% 96.04 0. Ent.21% 79.12% 90.65% 80.02 0.69% 96.10% 78.00% 90.04 0. Total 90.13% 89.02 0.02 0.04 0.51% 96.01% 90.58% 89.86% 90.02 0.58% 89.58% 90.34% 96.17% 96.27% 96.04 0.99% 96.04 0.02 0.04 0.02 0.43% 89.69% 95.02 0.75% 96.02 0.02 0.02 0.99% 90.31% 78.04 0.10% 96.02 0.65% 74.04 0.04 Corrida 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom. 154 184 152 143 148 141 161 185 132 184 155 211 171 180 266 391 331 235 308 157 172 164 391 240 224 197 Aciertos Aciertos Prom.04 0.04 0.75% 97.21% 78.43% 77.65% 77.54% 80.04 0.34% 96.02 0.75% 97.65% 80.02 0.87% 89. Ent.65% 77.29% 88.43% 79.75% 96.02 0.88% 79.02 0.62% 96.

84% 88.04 0.04 0.02 0.04 0.02 0.87% 89.10% 95.04 0.99% 96. 79.28% 89.04 0.70% 90.04 0.08 0.02 0.34% 96.27% 95. Prom.45% 91.88% 79.17% 95.27% 94.45% 152 Datos experimentales L.57% 91.02 0.04 0.65% 80.54% 80.65% 80.04 0.43% 77.02 0.86% 95.82% 96.04 0.58% 89.02 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.02 0.02 0.86% 90.04 0.17% 96.04 0.51% 95.87% 89.72% 91.31% 77.08 Corrida 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI Tiempo Prom.04 0.02 0.88% 76.87% 90.98% 76. 161 147 146 157 174 207 161 169 187 191 232 165 158 206 184 137 149 202 157 159 208 776 164 213 254 334 Aciertos Aciertos Prom.02 0.87% 90.02 0.43% 89.21% 80.02 0.02 0.04 0.75% 96.04 0.31% 76.98% 79.75% 96. Total 90.21% 80.43% 78.21% 79.10% Aciertos Prom.75% 96. Eval.10% 96.43% 78.17% 96.87% 79.65% 80.14% 90.21% 78.04 0.08 0.43% 78.04 0.43% 80.86% 89.02 0.08 0.86% 96.16% 90.04 0.04 0.10% 81.04 0.04 0.43% 89.02 0.42% 89.58% 96. Ent.42% 89.04 0.88% 79. Federico Bertona .04 0.99% 97.01% 91.02 0.57% 90.04 Max Mutación 0.58% 96.10% 96.02 0.02 0.02 0.43% 90.98% 78. Ent.69% 96.75% 97.51% 95.02 0.75% 96.93% 96.03% 96.04 0.71% 88.86% 90.04 0.02 0.04 0.01% 91.43% 77.21% 78.08 0.

69% 97.08 0.08 0.86% 90.87% 88.30% 89.21% 80.04 0.08 Corrida 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Ent? SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.04 0.08 0.08 0.08 0.74% 90.31% 77.86% 90. Eval.59% 91.88% 81.04 0.58% 91.32% 89.08 0.08 0.17% 96. 77.65% 83.04 0.29% 89.28% 90.58% 90.32% 76.01% 89.41% 96.43% 81.99% 96.98% 80.88% 79.86% 95. Prom.04 Max Mutación 0.75% 95.98% 78.87% 79.08 0. Total 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.04 0.88% 80.17% 96.08 0.04 0.04 0.08 0.45% 90.08 0.32% 80. 155 615 210 234 182 286 306 225 158 467 469 601 775 225 365 194 270 492 311 178 370 192 311 336 155 224 Aciertos Aciertos Prom.04 0.65% 75.08 0.42% 91.88% Aciertos Prom.08 0.17% 96.04 0. Federico Bertona Datos experimentales 153 .08 0.10% 80.04 0.10% 97.75% 95.08 0.88% 79.87% 92.34% 96.76% 80.04 0.08 0.86% 95.13% 90.04 0. Ent.08 0.69% 96.43% 89.16% 89.04 0.88% 76.32% 79.08 0.58% 96.45% 96.04 0. Ent.58% 94.16% 90.88% 78.08 0.58% 91.08 0.21% 96.86% 91.13% 91.93% 96.04 0.10% 76.04 0.45% 95.08 0.47% 97.88% 80.08 0.98% 76.58% 97.04 0.88% 78.04 0.23% 96.08 0.30% 91.93% 96.08 0.75% 96.84% 91.04 0.43% 79.04 0.04 0.08 0.04 0.72% 90.04 0.82% 96.87% L.04 0.88% 82.75% 97.04 0.

005 0.34% 96.29% 90.27% 96.10% 76.29% 91.43% 78.45% 89.99% 88.04 0.93% 95.01 0.65% 76.01 0.005 Max Mutación 0.57% 88.08 0.45% 95.04 0.04 0. Ent.04 0.62% 95.51% 96.005 0.09% 79.08 0.93% 97.98% 79.08 0.65% 78.08 0.43% 75.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.08 0.04 0.54% 80.005 0.99% 96.71% 89.00% 90.08 0.31% 74.76% 78.86% 90.58% 91.69% 96.10% 95.42% 90.04 0.93% 96.32% 77.08 0. Total 90.68% 89.98% 78.00% 89. Ent.08 0.72% 88. 80.79% 94.00% 90.34% 95.04 0.45% 97. Eval.99% 91.43% 78.08 0.04 0.08 0.64% 78.51% 96.43% 90.93% 96.04 0.31% 76.65% 75.58% 97.17% 95. Prom.04 0.04 0.04 0.01 0.04 0.32% 78.08 0.01 0. 170 207 702 408 226 149 775 282 164 735 127 166 196 214 341 290 353 206 533 236 230 200 154 274 189 227 Aciertos Aciertos Prom.10% 95.08 0.99% 96.01 0.43% 80. Federico Bertona .03% 95.71% 87.08 0.04 0.76% 76.08 0.10% 77.005 0.04 0.21% 96.86% 95.74% 90.08 0.04 0.65% 81.01% 91.04 0.01% 88.04 0.01 0.43% 80.04 0.08 0.005 0.99% 90.21% 78.54% 79.08 0.65% 78.13% 154 Datos experimentales L.005 0.70% 90.08 0.29% 89.08 0.82% 97.58% 88.09% Aciertos Prom.01 Corrida 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 Ent? SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.34% 96.41% 89.10% 95.

64% 78.01 0.98% 78.69% 95.005 0.71% 89.79% 96.65% Aciertos Prom.10% 96.69% 95.31% 76.01 0.005 Max Mutación 0.005 0.88% 74.65% 74.005 0.005 0.01 0.005 0.01 0.005 0.005 0.005 0.01 0.76% 78.76% 78.28% 89.005 0.87% L.64% 77.01 0.01 0.14% 87.01 0. Total 90.01 0.76% 76.005 0.01 0.71% 89.005 0.01 0.76% 76. Prom.005 0.99% 89.28% 88.69% 95.28% 88.43% 88.005 0.43% 78.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0. Eval.10% 95.34% 95.17% 96.005 0.54% 79.01 0.01 0.01 0.01 Corrida 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 Ent? SI SI SI SI SI SI NO SI NO NO SI SI NO SI SI SI SI SI SI SI NO SI SI SI SI NO Tiempo Prom.27% 95.01 0.43% 90.01 0.01 0.57% 88.93% 96.99% 89.79% 94.01 0.005 0. Ent.54% 77.01 0.01 0.98% 76.01 0.86% 95.42% 89.01 0.86% 95.005 0.54% 78.28% 89.69% 95.68% 89.27% 95.005 0.005 0.28% 89.10% 95.41% 89.86% 89. 80.71% 88.005 0.005 0.98% 77.54% 80.70% 90.42% 90.51% 96.17% 96.005 0.01 0.86% 95.76% 77.86% 94.51% 95.51% 95.42% 90.29% 89. 221 198 182 192 273 201 775 228 774 775 305 204 775 224 236 276 214 178 227 185 773 191 157 244 247 774 Aciertos Aciertos Prom.98% 76.21% 77.21% 79. Ent.31% 78.005 0.005 0.03% 94.01 0.005 0.34% 96.87% 78.26% 89.43% 78.01 0.86% 90. Federico Bertona Datos experimentales 155 .10% 96.21% 77.10% 95.005 0.58% 89.

29% 89.97% 156 Datos experimentales L.005 0.86% 95.01 0. Eval.54% 76.65% 77. Federico Bertona .76% 76. Ent.43% 73.99% 95.10% 95.65% 80.98% 77.01 0.01 0.28% 88.01 0.01 0.45% 95.29% 89.005 0.57% 90.98% 78.69% 95. 260 164 219 296 172 217 173 775 183 218 775 775 159 214 198 221 776 775 165 144 234 181 149 179 239 138 Aciertos Aciertos Prom.99% 88.27% 95.01 0.64% 77.27% 94.01 0.01 0.02 0.01 0.005 0.005 0.01 0.01 0.97% 95.51% 96. 77.21% 77.71% 89.01 0.005 0.01 0.01% 90.01 0.10% 95.005 0.31% 76.42% 90.01 0.005 0.76% 76.45% 96.01 0.005 0.54% 80.01 0.98% 82.005 0.005 0.28% 88.99% 88.02 0.28% 89.01 0.75% 95.27% 96.005 0.70% 89.01 0.01 0. Total 89.43% 79.45% 95.10% 95.76% 77.28% 89.86% 95.02 0.27% 95.01 0.09% 76.02 0.65% 76.76% 78.23% 95.01 0.31% 78. Ent.005 0.29% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.21% 76.99% 91.99% 90.99% 88.09% 78.01 0.02 0. Prom.86% 96.51% 96.01 Max Mutación 0.76% 78.69% 96.03% 95.54% Aciertos Prom.86% 89.45% 95.02 Corrida 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 Ent? SI SI SI SI SI SI SI NO SI SI NO NO SI SI SI SI NO NO SI SI SI SI SI SI SI SI Tiempo Prom.57% 89.86% 88.01 0.57% 89.51% 95.005 0.02 0.17% 95.00% 88.31% 76.02 0.27% 96.005 0.005 0.57% 89.005 0.55% 89.01 0.76% 78.005 0.76% 77.86% 87.02 0.

02 0.17% 96.02 0.02 0.43% 90.01 0.58% 90.14% 89.29% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.76% 78.02 0.10% 97.69% 95.01 0.01 0.00% 90.01 0.01 0.02 0.76% 76.02 0.02 0.21% 78.29% 89.54% 79.02 0.10% 79.21% 79.65% 80.01 0.34% 96.21% 77.51% 95.01 0.75% 95.86% 96.02 0.02 0.75% 96.01 0.45% 95.02 0.02 0.51% 96. 78.02 0.58% 89.01 0.02 0.13% 89.01 0.57% 90.02 0.75% 96.65% 83.99% 95.93% 96.02 0. 138 152 228 775 221 215 207 229 181 199 206 251 167 137 160 200 775 773 185 198 224 773 156 262 217 132 Aciertos Aciertos Prom.14% 89.43% 80.01 0.65% 76.34% 95.01 0.21% Aciertos Prom.34% 96.21% 76.57% 90.01 0.75% 96. Ent.68% 90.58% 90.98% 79.75% 95. Eval.02 Corrida 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 Ent? SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI NO NO SI SI SI NO SI SI SI SI Tiempo Prom.98% 77.14% 90.57% 90. Total 89.01 0.58% 91.01 0.01 0.02 0.10% 95.01 0.02 0.76% 78.42% L.43% 90. Federico Bertona Datos experimentales 157 .27% 95.02 0.28% 87.88% 80.02 0.54% 78.01 0.01 0.00% 90.43% 78.76% 77. Prom.69% 95.02 0.88% 89.01 Max Mutación 0.21% 79.01 0.76% 79.75% 96.01 0.54% 79.17% 95.02 0.01 0.02 0.75% 79.01 0.58% 90.29% 90.98% 79.28% 90.10% 95.45% 93.10% 96.06% 96.02 0.72% 90.01 0.02 0. Ent.01 0.76% 78.57% 90.

87% 80.43% 77.57% 89.88% 80. Ent.01 0.04 0.02 0.02 0.04 0.02 0.87% 89.21% 80.16% 90.27% 96.57% 89. Ent.09% 76.01 0.16% 89.10% 95.01 0.88% 80.01 0.34% 97.58% 96.76% 77. Total 90.01 0.57% 158 Datos experimentales L.76% 74.54% 79.21% 78.93% 95.02 0.43% 79.86% 95.98% Aciertos Prom.27% 95. Federico Bertona .98% 80.21% 78.01 0.86% 96.87% 76.99% 96.01 0.01 0.04 0.58% 95.42% 90.88% 80.01 0. 153 218 774 143 193 264 256 220 269 148 153 207 773 152 195 217 280 173 172 257 774 774 198 222 167 136 Aciertos Aciertos Prom.69% 96.32% 76.45% 96.02 0.29% 89. 78.65% 78.02 0.86% 89.69% 95.02 0.00% 91.04 0.04 Corrida 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 Ent? SI SI NO SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI NO NO SI SI SI SI Tiempo Prom. Eval.59% 89.58% 90.13% 91.02 0.04 0.01 0.02 0.65% 77.02 0.01 0. Prom.54% 79.13% 89.02 0.76% 78.88% 79.02 0.28% 87.57% 90.02 0.02 0.00% 90.71% 89.54% 76.02 0.02 0.86% 96.01 0.02 0.29% 90.43% 77.01 0.02 0.10% 96.02 Max Mutación 0.34% 95.29% 90.02 0.51% 94.04 0.21% 77.01 0.02 0.93% 95.01% 91.75% 96.68% 89.02 0.75% 95.87% 91.02 0.98% 78.04 0.42% 89.57% 89.02 0.27% 96.99% 97.17% 96.38% 94.04 0.02 0.99% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.51% 96.04 0.01 0.04 0.02 0.43% 90.

02 0.65% 78.02 0.01% 89.10% 96.04 0. Eval.51% 95.76% 79.87% 78.14% 90.86% 90.04 0.58% 88. 170 204 137 169 242 206 179 215 173 258 212 277 230 263 775 149 172 341 168 159 187 151 158 170 242 184 Aciertos Aciertos Prom.02 0.99% 95.45% 95.57% 89.04 0.43% 76.86% 96. Prom.43% 76.69% 96. Federico Bertona Datos experimentales 159 .29% 90.04 0.04 0.04 0.02 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0. Total 89.71% 91.02 0.02 0.02 0.04 0.69% 96.04 0.51% 96.72% 89.10% 96.99% 90.98% 78.02 0.69% 96.87% 89.02 0.21% 80.93% 96.04 0.04 0.21% 79.02 0.14% 89.29% 89.43% 77.04 0.04 0.21% 78.65% 77.04 0.75% 97.10% 96.17% 96.04 0.70% 90.13% 91.31% 78.76% 75.30% 90.10% 76.17% 96.86% L.43% 90.13% 90.04 0.02 0.14% 90.02 0.02 0.21% 77.65% 77.02 0.02 0.04 0.45% 96. 78.88% 80.04 0.04 0.02 0.04 Corrida 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.02 0.21% 80.43% 79.04 0.02 0.75% 96.65% 76.02 0. Ent.02 Max Mutación 0.04 0.04 0.14% 89.02 0.88% 81.27% 95.04 0.41% 96.62% 96.21% Aciertos Prom.02 0.71% 90.14% 89.02 0.45% 95.42% 90.02 0.01% 88.02 0.75% 95.98% 78. Ent.51% 96.51% 96.32% 78.34% 94.54% 79.02 0.04 0.34% 97.86% 89.71% 91.04 0.43% 79.04 0.

42% 89.30% 91.00015625 0.16% 90.13% 88.84% 88.14% 89.00015625 0. 642 575 550 716 418 679 393 433 Aciertos Aciertos Prom.00015625 0.88% 79.00015625 0.02 0.04 0.98% 77.51% 96. Ent.58% 90.01% 91.04 0.04 0.02 0.00015625 0.09% 80.02 0. Eval.86% 96. 78. Total 91.02 0.75% 97.87% 77.75% 97. Eval.87% 76.86% 94.02 0.99% 96.17% 97.00015625 0.16% Datos experimentales L.97% 90.43% 91.99% 96.69% 95.04 Corrida 38 39 40 41 42 43 44 45 46 47 48 49 50 Ent? NO SI SI SI SI NO NO SI NO SI SI SI SI Tiempo Prom.21% Aciertos Prom.34% 95.02 Max Mutación 0.10% 79. Total 89.10% Aciertos Prom.04 0.86% 95.04 0. Prom.69% 96. 80.04 0.93% 96.76% 78.31% 78.31% 76.86% 91.65% 78.00015625 0.88% 78. Ent.42% Min Mutación 0. Ent.43% 89.51% 95.88% 78.00015625 Corrida 1 2 3 4 5 6 7 8 Ent? SI SI SI SI SI SI SI SI Tiempo Prom.98% 77.42% 89.21% 94.88% 76. Prom.00015625 Max Mutación 0.04 0.00015625 0.00015625 0.00015625 0.04 0.88% 80.28% 91.01% 87.51% 94.02 0.01% 90.00015625 0.43% 80.02 0.02 0.00015625 0.00015625 0. Ent.02 0.58% 90.00015625 0.04 0.02 0.51% 96.87% 78.27% 95.04 0.04 0.93% 96.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación Binaria Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme 160 Min Mutación 0.10% 75.55% 89.04 0.88% 79.02 0. 775 146 280 296 202 772 773 159 773 229 238 167 207 Aciertos Aciertos Prom.51% 95.42% 89. Federico Bertona .17% 96.02 0.

14% 89. Ent.00015625 0.00015625 0.00015625 0.00015625 0.00015625 0.98% 78.54% 79.00015625 0.41% 89.00015625 0.99% 96.00015625 0.10% 95.99% 89.76% 78.00015625 0.69% 95.17% 95.00015625 0.58% 88.00015625 0.51% 94.10% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.43% 89.93% 95.00015625 0.00015625 0.42% 89.14% 89.58% 95.34% 95.69% 95.00015625 0.93% 95.14% 90.00015625 0.86% 89.13% 89.00015625 0.00015625 0. Federico Bertona Datos experimentales 161 .54% 77.00015625 0.00015625 Max Mutación 0.14% 90.86% 95.00015625 0. Total 89.00015625 0.00015625 0.00015625 0.75% 94.42% 90.00015625 0.34% 95.93% 95.00015625 0.42% 78.00015625 0.54% 89.51% 94.87% 76.58% 95.00015625 0.00015625 0.00015625 0.54% 79.00015625 0.00015625 0.00015625 0.00015625 0.00015625 0.00015625 0.62% 93.00015625 0.54% 80.13% 90.43% 77.00015625 0.51% 96.34% 95.13% 89.28% 88.54% 77.00015625 0.57% 89.00015625 0.98% 78.00015625 Corrida 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 Ent? SI SI NO NO SI SI SI SI SI SI SI SI SI SI NO SI SI NO SI SI SI SI SI SI SI SI Tiempo Prom.00015625 0.09% 75.98% Aciertos Prom.71% L.00015625 0.98% 78.71% 88. Ent.00015625 0.84% 90.51% 95. Eval.54% 77.00015625 0.97% 78.00015625 0.00015625 0.20% 79.76% 80.57% 89.76% 79. 277 501 898 898 296 231 244 573 266 539 403 289 376 399 897 432 304 899 277 738 950 371 483 307 521 463 Aciertos Aciertos Prom.86% 90.00015625 0.21% 79.00015625 0.87% 89.00015625 0.76% 78.42% 80. 78.64% 79.27% 95.69% 94. Prom.00015625 0.69% 95.00015625 0.34% 94.00015625 0.31% 80.28% 90.76% 77.57% 87.31% 78.71% 89.75% 95.

27% 94.69% 95.00015625 0.0003125 0.00015625 0. Federico Bertona .27% 95.64% 76.00015625 0.00015625 0.00015625 0.00015625 0.03% 94.10% 95.0003125 Max Mutación 0.75% 95.57% 89.00015625 0.0003125 0.69% 95.31% 79.41% 96.51% 95.76% 76.76% 77.86% 88.27% 94.31% 78.0003125 0.0003125 0.0003125 0. Ent.00015625 0.00015625 0.54% 78.00015625 0. 339 325 895 324 279 547 225 893 341 315 360 193 600 432 530 425 607 349 218 271 241 722 421 598 635 787 Aciertos Aciertos Prom.00015625 0.00015625 0.99% 95.00015625 0.28% 88.00015625 0. Eval.09% 78.57% 89.70% 88.69% 95.45% 96.54% 77.55% 89.13% 88.13% 88.00015625 0. Ent.88% 81.00015625 0.87% 89.00015625 0.20% 77.69% 94.0003125 Corrida 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 Ent? SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.00015625 0.31% 80.54% 77.0003125 0.51% 95.99% 90.0003125 0.13% 162 Datos experimentales L.99% 89.0003125 0.0003125 0. Total 90.00015625 0.14% 89.54% 78.98% 77.00015625 0.64% 77.00015625 0.0003125 0.30% 90.45% 95.58% 89.0003125 0.71% 91.00015625 0.00015625 0. Prom.27% 95.13% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.00015625 0.27% 95.64% 77.0003125 0.10% 95.79% 95.12% 89.00015625 0.54% 77.0003125 0.0003125 0.00015625 0.51% 95.65% 79.42% 89.76% 78.76% 76.54% Aciertos Prom.09% 74.00015625 0.76% 78.34% 97.00015625 0.43% 88.93% 95. 80.0003125 0.17% 95.31% 77.27% 95.00015625 0.51% 95.0003125 0.10% 78.57% 89.28% 88.12% 90.0003125 0.00015625 0.00015625 0.57% 89.76% 77.0003125 0.00015625 0.26% 88.99% 89.

93% 94.43% 76.0003125 0.45% 94.0003125 0.17% 95.0003125 0.86% 88.21% 95.0003125 0.42% 89.0003125 0.17% 94.99% 88.28% 87. Ent.0003125 0.0003125 0.0003125 0.41% 95.0003125 0.53% Aciertos Prom.13% 88.69% 93.0003125 0.86% 94.00% 90.54% 76.0003125 0.0003125 0.0003125 0. 77.0003125 0.72% 86.42% 89.29% 90.26% 87.41% 79.20% 78.42% 76.0003125 0.0003125 0.29% 89.0003125 0.87% 79.09% 79.57% 90.0003125 0.31% 81.09% 80.0003125 0. Eval.31% 78.67% 90.12% 89.21% 76.0003125 Max Mutación 0.0003125 0.54% 77.76% 77.0003125 0.0003125 0.34% 95.58% 94.93% 95.03% 94.42% 80.0003125 0.09% 78.42% 80.00% 88.0003125 0.51% 95.0003125 0.34% 94.0003125 0.42% 90.64% 78.0003125 0.0003125 0.51% 94.27% 95.17% 96.31% 81.00% 88.20% 78. Federico Bertona Datos experimentales 163 .69% 95.0003125 0.0003125 0.28% 90.0003125 0.13% 89.03% 92.41% 89.0003125 0.41% 95.84% 88.0003125 0.0003125 Corrida 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 Ent? SI SI SI SI SI SI NO SI NO SI SI SI NO SI SI SI SI SI SI SI SI SI SI NO SI SI Tiempo Prom.69% 95.0003125 0. Total 88. Ent.99% 89.0003125 0.27% 93.0003125 0.83% 89.12% 88.87% 77. 397 605 428 328 336 487 904 456 897 429 450 823 898 185 673 426 260 470 537 454 397 305 370 900 372 631 Aciertos Aciertos Prom.0003125 0.0003125 0.20% 80.0003125 0.09% 79.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.0003125 0.42% 75.83% L.51% 94. Prom.0003125 0.51% 96.0003125 0.0003125 0.75% 94.99% 89.09% 78.97% 77.0003125 0.0003125 0.0003125 0.34% 95.0003125 0.0003125 0.0003125 0.0003125 0.

000625 0.000625 0.13% 89.000625 0.000625 0.0003125 0. Ent.0003125 0.000625 0.0003125 0. Eval.99% 90.57% 90.000625 0.57% 89.000625 0.0003125 0.000625 0.34% 95.09% 75.000625 0.28% 89.12% 89.000625 0.0003125 0.42% 78. 416 900 208 401 597 896 325 520 564 153 886 334 176 449 904 340 484 426 424 434 586 346 501 458 291 901 Aciertos Aciertos Prom.70% 89.0003125 0.0003125 0.000625 0.10% 94. Total 89.28% 89.86% 90.0003125 0.0003125 0.31% 78.0003125 0.51% 94.27% 95.09% 77.000625 0.21% 78.93% 94.13% 88.10% 94.31% 78.0003125 0.76% 80.75% 96.0003125 0.69% 95.42% 78.76% 78.000625 0.0003125 0.0003125 0.21% 78.99% 89.0003125 0.64% 79.0003125 0.0003125 0.10% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.51% 95.000625 0. Federico Bertona .99% 89.86% 96.00% 88.42% 89.43% 88.84% 88.39% 89.000625 0.0003125 0.23% 164 Datos experimentales L.0003125 0.45% 95.14% 89.10% 95.0003125 0.000625 Max Mutación 0.0003125 0.000625 0. 78.0003125 0.09% 77.0003125 0.57% 88.76% 77.40% Aciertos Prom.93% 94.93% 95.000625 0.10% 95.75% 80.0003125 0.54% 78.0003125 0.09% 76.62% 93.55% 90.20% 80.0003125 0.42% 88.000625 0. Prom.54% 78.57% 89.58% 95.000625 0.0003125 0.00% 86.99% 94.57% 88.76% 78. Ent.28% 87.54% 78.000625 0.69% 95.20% 76.34% 95.000625 0.58% 95.51% 95.87% 79.98% 76.64% 79.64% 77.69% 94.000625 0.51% 90.0003125 0.000625 Corrida 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 Ent? SI NO SI SI SI NO SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI NO Tiempo Prom.86% 94.

000625 0.17% 95.000625 0.20% 77.88% 79.86% 88.000625 0.000625 0.000625 0.000625 0.34% 94.68% 87.000625 0.20% 75.43% 90.68% 89.000625 0. Federico Bertona Datos experimentales 165 .01% 89.000625 0.000625 0.000625 0.93% 95.000625 Max Mutación 0.000625 0. Eval.54% 79.42% 89. Prom.000625 0.84% 87.000625 0.62% 94.000625 0.29% 91.21% 80.000625 0.000625 0.70% 90.29% 90.69% 95.000625 0.93% 95.14% 90.000625 0. Ent.98% 75.09% 75.000625 0.69% 94.000625 0.43% 80.28% 90.31% 79.58% 95.000625 0.000625 0.000625 0.000625 0.75% 95.000625 0.000625 0.76% 80.76% 77. Total 88.000625 0.62% 94.000625 0.000625 0.14% 88.000625 0.21% 76.75% 95.000625 0.55% 89.72% 89.13% 90.76% 80.31% 76.62% 95.28% 90.58% 95.87% 78.03% 96.86% 88.99% 95.000625 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Min Mutación 0.000625 0.42% 78.93% 95.69% 94. 75.58% 95. Ent.54% 80.000625 0.21% 78.58% 96.54% 77.000625 0.000625 0.000625 0.00% L.29% 89.55% 90.03% 95.98% 79.000625 0.10% 96.86% 89.57% 88.000625 0.98% 78.69% 95.000625 0.000625 0.75% 95.54% 80. 527 902 376 548 468 820 634 472 913 556 369 741 676 459 582 502 454 535 908 560 803 290 462 300 359 416 Aciertos Aciertos Prom.42% 78.000625 0.76% 77.54% Aciertos Prom.55% 89.000625 0.000625 0.10% 96.62% 95.000625 0.54% 80.000625 0.000625 0.17% 96.29% 90.000625 0.00% 90.000625 0.000625 Corrida 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 Ent? SI NO SI SI SI SI SI SI NO SI SI SI SI SI SI SI SI SI NO SI SI SI SI SI SI SI Tiempo Prom.

54% 76.0003125 0.45% 96.000625 0.000625 0.27% 95.34% 95.0003125 0.97% 78.000625 0. 81.27% 93.72% 87.68% 88.000625 0.63% Aciertos Prom.42% 79.84% 88.10% 95.26% 89.57% 90.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación uniforme Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.10% 95.20% 77.62% 95.10% 94.0003125 0.75% 95.99% 88.54% 81.00015625 0.0003125 0.75% 79.00015625 0. 385 661 585 758 415 599 517 306 486 538 651 499 801 905 486 902 831 899 900 371 363 380 897 902 897 898 Aciertos Aciertos Prom.08% 76.26% 89.00015625 0.39% 89.00015625 0.000625 0.000625 0.58% 89.69% 93.00% 90.54% 80.30% 78.000625 0.0003125 0.87% 79.00015625 0.31% 76.57% 88.87% 79.0003125 0.000625 0.65% 76.41% 95.76% 77.58% 94. Total 90.70% 88.42% 88.54% 79.000625 0.75% 96.00015625 0.75% 93.000625 0.0003125 0.76% 79.75% 94.0003125 0.76% 75.75% 95. Ent.000625 0.0003125 0.28% 87.00015625 0.55% 89.69% 92.31% 78.09% 77.00015625 0. Prom.00015625 Max Mutación 0.87% 78.00015625 0. Ent.000625 0.14% 88.000625 0.000625 0.51% 95.000625 0. Eval.000625 0.86% 95.00015625 0.000625 0.51% 95.54% 75.000625 0.21% 77.71% 89.00015625 0.26% 90.00015625 0.55% 87.53% 78.72% 89.0003125 0.31% 79.57% 90.10% 93.76% 78.000625 0.57% 88.000625 0.0003125 0.000625 0.00015625 0.28% 90.03% 94.0003125 0.0003125 0.86% 93.000625 0.39% 166 Datos experimentales L.000625 0.97% 89.34% 95. Federico Bertona .41% 95.000625 0.21% 94.00% 87.0003125 Corrida 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI NO SI NO NO SI SI SI NO NO NO NO Tiempo Prom.

87% 78.84% 89.0003125 0.00015625 0.0003125 0.19% 78.00% 88.54% 80.00015625 0.00015625 0.00015625 Max Mutación 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.10% 95.00015625 0.21% 76.99% 89.0003125 0.58% 90.45% 95.21% 78.99% 96.00015625 0.99% 86.0003125 0.75% 77.70% 89.53% 76.03% 93.23% 90.68% 87.31% 93.0003125 Corrida 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 Ent? NO SI NO NO SI NO NO NO NO SI NO NO NO SI NO SI SI NO NO SI NO SI NO NO SI SI Tiempo Prom.10% 88.26% 88.0003125 0.69% 95.00015625 0.69% 94.70% 88.00015625 0.76% Aciertos Prom.54% 89.0003125 0.10% 90.75% 77.41% 95.0003125 0.09% 79.0003125 0.00015625 0.00015625 0.41% 80.00015625 0.93% 93.0003125 0.09% 77.19% 79.34% 96.20% 72.65% 80.45% 95. 904 214 903 898 569 901 901 904 898 802 901 898 902 423 970 215 749 899 898 380 902 194 897 898 286 318 Aciertos Aciertos Prom.00015625 0.84% 88.86% 90.0003125 0.69% 95. Federico Bertona Datos experimentales 167 .00015625 0.00015625 0.0003125 0.54% 77.00015625 0.0003125 0.83% 87.00015625 0.31% 76.00015625 0.70% 87.00015625 0.42% L.97% 78.00015625 0.58% 94. Ent.42% 88.00015625 0.00015625 0.69% 92.00015625 0.28% 87.10% 94.0003125 0.0003125 0.87% 80.30% 76.51% 92. Prom.75% 93.0003125 0.87% 87.31% 77.34% 94.45% 93.00015625 0.0003125 0.58% 95.29% 89.30% 76.0003125 0. Total 88.08% 81.0003125 0.27% 93.17% 92.69% 95.0003125 0. 78. Eval.00% 87.00015625 0.0003125 0.54% 88.45% 93.0003125 0. Ent.31% 79.0003125 0.0003125 0.51% 95.42% 87.00015625 0.69% 96.54% 77.0003125 0.97% 90.0003125 0.00015625 0.42% 77.

39% 87.51% 78.10% 90.000625 0.45% 90.29% 77.38% 91.0003125 Max Mutación 0.13% 87.10% 93.93% 91.0003125 0.06% 77.01% 89.69% 93.64% 77.57% 87.21% 79.96% 75.0003125 0. Total 88.10% 92.00% 89. Prom.86% 78.0003125 0. Ent.000625 0.75% 95.51% 94.20% 73.86% 91.03% 91.87% 76.81% 87. 78.00015625 0.000625 0.97% 86.99% 89.76% 79.83% 84.81% 85.54% 89.19% 78.09% 75.36% 87.70% 87.64% 80.75% 95.23% 95.000625 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.0003125 0.000625 0.93% 86.85% 76.07% 78.63% 74.10% 94.68% 85.17% 91.0003125 0.93% 94.0003125 0.00015625 0.34% 95.06% 76.83% 168 Datos experimentales L.0003125 0.30% Aciertos Prom. Eval.0003125 0.35% 85.000625 0.85% 80.000625 Corrida 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Ent? NO SI NO SI SI SI NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.00015625 0.00015625 0.07% 88.0003125 0.55% 84.000625 0.0003125 0.0003125 0.38% 88.29% 77.86% 78.0003125 0.000625 0.000625 0.69% 92.94% 87.0003125 0.0003125 0.0003125 0.0003125 0.00015625 0.000625 0.00015625 0.0003125 0.69% 96. Federico Bertona .83% 85.00015625 0.00015625 0.0003125 0.0003125 0. Ent.86% 76.03% 92.54% 79.000625 0.000625 0.0003125 0.31% 82.08% 76.71% 90.80% 86.69% 89.0003125 0. 902 311 899 312 320 344 901 901 898 898 910 913 912 912 916 915 908 913 910 915 913 912 915 915 912 912 Aciertos Aciertos Prom.000625 0.0003125 0.000625 0.00015625 0.86% 92.0003125 0.62% 89.0003125 0.96% 78.21% 94.00015625 0.55% 91.07% 85.99% 92.0003125 0.000625 0.86% 89.

62% 91. Prom.97% 86. Federico Bertona Datos experimentales 169 .96% 77.0003125 0.0003125 0.86% 91. Ent.000625 0.27% 92.000625 0.51% 90. 915 913 913 917 908 909 912 910 911 916 911 913 982 913 912 913 916 916 911 909 910 911 916 914 911 916 Aciertos Aciertos Prom.39% 89.10% 86.52% 76.80% 86.40% 77.63% 78.08% 77.52% 78.52% 78.42% 80.000625 0.000625 0.29% 80.74% 78.10% 91.40% Aciertos Prom. Total 84.0003125 0. Ent.0003125 0.52% 88.0003125 0.000625 0.52% 85.000625 0.96% 77.0003125 0.41% 87.000625 0.000625 0.69% 92.27% 91.000625 0.38% 86.0003125 0.51% 90.38% 87.0003125 0.0003125 0.0003125 0.000625 0.51% 91.07% 75.58% 95. Eval.75% 88.54% 86.0003125 0.25% 86.63% 78.0003125 0.0003125 0.74% 80.0003125 Max Mutación 0.000625 0.0003125 0.36% 87.42% 87.09% 79.19% 77.81% 87.51% 88.41% 88.75% 79.18% 82.0003125 0.17% 91.000625 0.39% 82.39% 87.51% 93.000625 Corrida 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 Ent? NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.86% 80.41% 86.000625 0.96% 77. 76.93% 87.27% 91.0003125 0.000625 0.000625 0.000625 0.27% 91.0003125 0.29% 78.0003125 0.0003125 0.0003125 0.64% 93.99% 91.83% 85.86% 89.000625 0.29% 77.000625 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.0003125 0.00% 85.25% 87.96% 77.34% 91.69% 91.23% 90.000625 0.0003125 0.0003125 0.27% 89.000625 0.0003125 0.000625 0.23% 86.58% 92.000625 0.96% 80.81% 90.51% 90.17% 91.0003125 0.27% 94.000625 0.000625 0.23% L.000625 0.67% 86.

51% 90. Ent.000625 0.000625 Max Mutación 0.39% 82.0003125 0.27% 85.51% 85.85% 77.00125 0.83% 79.63% 80.10% 83.29% 78.0003125 0.000625 0.000625 0.17% 87.08% 74.0003125 0.91% 87.29% 82.75% 90.000625 0.000625 0.51% Aciertos Prom.00125 0.68% 87.62% 79.000625 0.00125 0.0003125 0.05% 79.79% 89. Eval.00125 Corrida 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Ent? NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.35% 84.00125 0.82% 90.00125 0.03% 88.07% 81.62% 89.27% 93.96% 84.19% 87.0003125 0.000625 0.67% 87.34% 91.99% 90.00125 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.49% 80.00125 0.83% 83.71% 80.00125 0.93% 95.51% 86. 78.68% 87.75% 88.69% 93.64% 90.68% 85.000625 0.000625 0.000625 0.00125 0.86% 91.00125 0.75% 88.12% 86. Prom.98% 77.85% 76.06% 87.67% 87.000625 0. Total 86.74% 81.62% 78. Federico Bertona .39% 82.000625 0.79% 89.000625 0.00125 0.35% 170 Datos experimentales L.06% 79.0003125 0.000625 0. 913 912 916 910 909 913 912 912 919 924 926 922 922 920 925 923 923 925 921 925 923 928 923 926 924 925 Aciertos Aciertos Prom.51% 75.63% 78.82% 89.0003125 0.08% 76.000625 0.00125 0.000625 0.94% 84.00125 0.00% 87.000625 0.00125 0.000625 0.29% 77.23% 90. Ent.85% 77.51% 87.00125 0.68% 86.10% 88.34% 91.00125 0.000625 0.10% 91.00125 0.35% 85.69% 90.0003125 0.17% 91.000625 0.61% 84.000625 0.73% 79.40% 74.000625 0.000625 0.64% 91.000625 0.96% 86.000625 0.54% 84.64% 85.96% 82.

00125 0.00125 0.000625 0.29% 78.93% 92.000625 0.93% 89. Eval.38% L.83% 87.29% 80.52% 83.75% 89.80% 84.52% 79.00125 0.74% 78.34% 91.91% 84.52% 85.00125 0.000625 0.00125 0.000625 0.10% 86.000625 0.93% 86.000625 0.17% 78.35% 86.10% 90.75% 90.33% 86. Total 85. 79.52% 80.40% 74.00125 0.00125 0.62% 85.85% Aciertos Prom.96% 87.000625 0.79% 88.62% 87. Prom.00125 0.00125 0.000625 0.000625 0.00125 0.00125 0.17% 81.67% 86.34% 91.25% 88.34% 90.000625 0.58% 89.00125 0.85% 73.41% 89.38% 83. 921 923 927 925 923 926 922 923 925 924 920 924 921 925 921 924 921 923 926 926 924 924 922 924 925 924 Aciertos Aciertos Prom.58% 91.85% 79.00125 0.17% 77.93% 88.00125 0.000625 0.29% 82.10% 91.54% 85.000625 0.000625 0.00125 0.00125 0.19% 80.06% 79.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Min Mutación 0.96% 81.62% 79. Ent.55% 88.65% 83.000625 0.62% 88.00125 0.000625 0.00125 0.82% 91.69% 90.10% 89.25% 87.80% 86.96% 75.000625 0.23% 83.00125 0.23% 89.000625 Max Mutación 0. Ent.39% 79.00125 0.000625 0.00125 0.000625 0.000625 0.34% 90. Federico Bertona Datos experimentales 171 .39% 78.12% 86.51% 77.14% 89.29% 76.00125 Corrida 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 Ent? NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO Tiempo Prom.51% 84.00125 0.20% 86.000625 0.00125 0.75% 89.96% 73.00125 0.63% 78.23% 87.84% 79.000625 0.27% 88.03% 88.07% 78.000625 0.17% 88.67% 86.000625 0.000625 0.000625 0.00125 0.

000078125 0.03% 95.85% 78. Eval.23% 93.28% 88.87% 78.000078125 0.41% 90.27% 95.42% 88.00015625 0.00015625 0.14% 89.00015625 0.30% 79.00015625 0.10% 94.000078125 0.53% 77. Ent.000078125 0.99% 89.000078125 0.00125 0.51% 93.36% 88.00125 0.28% 89.93% 95.97% 77.00015625 0.000078125 0.93% 94.14% 87.07% 85.95% 78.13% 88.000078125 0.000625 0.00015625 0. Prom.000625 0.00015625 0.42% 77.00015625 0.75% 85.87% 76.31% 78. Federico Bertona .84% 88.26% 89.26% 88.34% 94.00015625 0. 80.87% 79.69% 93.00015625 0.69% 94.00015625 Corrida 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Ent? NO NO NO NO NO NO SI NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO SI NO Tiempo Prom.76% 76.17% 89.86% 94.000625 0.41% 90.00125 0.69% 94.69% 90.000078125 0.31% 79.000078125 Max Mutación 0.00015625 0.10% 93.58% 95.83% 88.000625 0.20% 81.31% 78.87% 77.51% 88.99% 87.00015625 0.00015625 0.71% 89.00125 0.23% 86.97% 80.00125 0.09% 82. Total 86.83% 172 Datos experimentales L.000078125 0. 921 924 924 922 921 925 266 899 898 896 902 898 901 898 897 896 895 900 896 906 901 897 895 897 350 903 Aciertos Aciertos Prom.00015625 0.39% 77.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal creciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.17% 94.87% 76.000078125 0.000078125 0.000078125 0.14% 88.000078125 0.09% 78.62% 79.00015625 0.18% 73.41% 94.23% 86.00015625 0.00015625 0.000078125 0.20% Aciertos Prom. Ent.55% 88.86% 87.69% 95.51% 77.08% 78.34% 93.09% 80.000078125 0.75% 88.03% 94.42% 89.51% 90.00125 0.20% 82.00015625 0.000078125 0.000078125 0.000625 0.55% 89.000078125 0.00015625 0.75% 95.000078125 0.000625 0.

54% 80.000078125 0.000078125 0.75% 94.51% 94.42% 75.00015625 0.55% 89.00015625 0.20% 78.98% 78.00015625 0.00015625 0.51% 95.000078125 0.09% 78.99% 93.00015625 0.00015625 0.41% 78.21% 93.00015625 0.84% 88.000078125 0.58% 95.58% 94.00015625 0.93% 94.000078125 0.75% 95.25% 88.13% 87.87% 78.93% 94.20% 77.28% 90.55% 89.000078125 0.000078125 0.00015625 0.98% Aciertos Prom.000078125 0.000078125 0.00015625 0.09% 79.000078125 0.00015625 0.69% 92.000078125 0.21% 78.20% 79.42% 87.64% 77.00015625 0.000078125 0.13% 88.000078125 Max Mutación 0.75% 80. Prom.97% 79.93% 94.97% 78.000078125 0.00015625 0.51% 95.00015625 0.000078125 0.84% 88.57% 88.12% 89.00015625 0.00015625 0.64% 80.54% 77.25% 89.00015625 0.00015625 0.93% 94.000078125 0.00015625 Corrida 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 Ent? NO NO NO SI NO NO NO NO NO SI NO NO NO NO NO NO SI NO NO NO NO NO NO NO NO NO Tiempo Prom. Ent. Total 89.31% 77.00015625 0.09% 78.10% 95.00015625 0.99% 90.14% 88.71% 88.00015625 0. 79. Eval.69% 95.51% 95.000078125 0.99% 89.42% 78.00015625 0.000078125 0.000078125 0.000078125 0.71% 90.51% 93.86% 94.58% 89.000078125 0.00015625 0.57% 89.000078125 0.99% 87. 896 901 898 299 897 896 899 899 898 221 897 899 896 896 902 897 295 895 896 895 893 897 898 898 900 900 Aciertos Aciertos Prom.00015625 0.09% 77.97% 80.27% 93.86% L.000078125 0. Federico Bertona Datos experimentales 173 . Ent.000078125 0.34% 95.64% 78.96% 76.54% 80.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.83% 88.00015625 0.13% 89.86% 89.75% 95.27% 94.26% 89.17% 91.000078125 0.69% 95.000078125 0.17% 96.14% 88.

00015625 0.00015625 0.00% 90.75% 95.86% 88.09% 76.75% 95.00015625 0.00015625 0.0003125 0.34% 94.93% 95.0003125 0.45% 95.0003125 0.13% 89.0003125 0.00015625 0.000078125 0.29% 88.58% 94.43% 89.00015625 0.00015625 0.76% 79.93% 94.00015625 0.00015625 0.69% 94.57% 89.68% 90.0003125 0.21% 78.70% 90.0003125 0.00015625 0.42% 90.00015625 0.42% 77.0003125 0.00015625 0.08% 80.00015625 0.58% 89.42% 89.69% 95.27% 95.54% 78.09% 77.76% 80.0003125 0.45% 96.42% 87.28% 90. Federico Bertona .09% 80.31% 81.31% 77.99% 95.42% 79.99% 89.00% 89.00015625 0.0003125 0.58% 95.86% 90.21% Aciertos Prom.17% 93.0003125 0.55% 89. Prom.00015625 0.09% 79.00015625 0.76% 79.00015625 0.09% 76.13% 88.000078125 0.0003125 Corrida 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 Ent? NO NO NO NO NO SI SI SI NO NO SI NO SI SI NO SI NO NO SI SI NO SI NO SI NO NO Tiempo Prom.76% 79.00015625 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.34% 95.31% 80.00015625 0.69% 93. Total 89.58% 95.71% 174 Datos experimentales L.00015625 0.0003125 0.000078125 0.55% 89.34% 94.97% 80.86% 95.0003125 0.00015625 0. Eval.93% 95.42% 77.93% 95.87% 80.0003125 0.69% 96.0003125 0.98% 80.0003125 0. 78.54% 78. 898 895 897 899 898 299 310 250 897 897 204 896 225 200 900 328 903 897 306 298 897 268 894 271 897 898 Aciertos Aciertos Prom. Ent.42% 90.00015625 Max Mutación 0.99% 95.000078125 0.43% 89.0003125 0.00015625 0.0003125 0. Ent.58% 95.00015625 0.00015625 0.0003125 0.0003125 0.0003125 0.00% 89.42% 77.09% 76.42% 88.28% 89.28% 89.00015625 0.82% 95.42% 77.69% 94.0003125 0.

0003125 0.13% 87.0003125 0.31% 78.10% 95.00015625 0.69% 94.86% 87.76% 78. 77.00015625 0.75% 79.74% 79.0003125 0.00% 89.00015625 0.00015625 0.75% 95.99% 89.00015625 0.0003125 0.09% 76.00015625 0.63% 76.84% 88.10% 95.00015625 0.0003125 0.08% 77.00015625 0.62% 93.31% 76.38% 90.31% 75.0003125 Corrida 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 Ent? NO NO SI NO NO NO SI NO NO SI NO SI SI NO NO NO SI NO SI SI NO NO NO NO NO NO Tiempo Prom. Ent.54% 78.75% 95.75% 93.0003125 0.0003125 0.84% L.0003125 0.00015625 0.0003125 0.54% Aciertos Prom.00015625 0.0003125 0.57% 89.30% 80.10% 90.99% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.0003125 0.00015625 0.0003125 0.00015625 0.0003125 0.93% 95.00015625 0.76% 80.75% 93.0003125 0.87% 86.0003125 0.00015625 Max Mutación 0.42% 78.99% 96.0003125 0.00015625 0.99% 88.0003125 0.54% 78.45% 91.45% 95.97% 79.00015625 0. Ent.45% 93.41% 77.0003125 0.86% 95.34% 95.00015625 0.75% 95.09% 79.55% 88.00015625 0.70% 90.86% 87.00015625 0.00015625 0.0003125 0.69% 95.14% 89.21% 76.93% 93.42% 88. Prom. Total 88.25% 87.10% 94.87% 76.0003125 0.0003125 0.75% 79.58% 95.70% 89.93% 94.0003125 0. 898 899 311 898 902 896 226 904 895 265 901 286 305 896 898 896 296 896 196 235 900 897 897 897 898 897 Aciertos Aciertos Prom.00015625 0.75% 95.10% 96.31% 78.62% 95.27% 92.86% 89.00015625 0.31% 79.86% 92.0003125 0. Federico Bertona Datos experimentales 175 .00015625 0.28% 88.00015625 0.00015625 0.55% 89.43% 78.0003125 0.10% 88.31% 75.0003125 0.14% 90.10% 88. Eval.71% 88.00015625 0.42% 79.

98% 80.83% 89.000625 0.000625 0.00015625 0.31% 78.58% 89.00015625 0.000625 0.21% 79.000625 0.00% 90.53% 77.75% 93.10% 95.0003125 0.0003125 0.86% 176 Datos experimentales L.75% 78.69% 94.0003125 Max Mutación 0.29% 88.53% 80.42% 87.10% 89.67% 87.10% 95.000625 0.28% 89.000625 0.000625 0.0003125 0.86% 93.69% 95.93% 95.09% 78.34% 95.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.75% 95.13% 89.000625 0.69% 93.13% 87.58% 96.00% 89.21% 79.55% 90.0003125 0.99% 88.000625 0.57% 89.0003125 0.98% 79.0003125 0.34% 95.51% 94.0003125 0.41% 90. Total 90.30% 78.75% 95.000625 0.0003125 0.98% 79.31% 78. Ent.0003125 0. Federico Bertona .93% 95.98% 76.62% 93.10% 95.000625 Corrida 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Ent? NO SI SI NO SI NO SI NO NO NO NO NO SI SI NO SI SI NO SI SI NO SI SI SI NO NO Tiempo Prom.0003125 0.0003125 0.0003125 0.39% 88.000625 0. Prom.0003125 0.21% 92.000625 0.42% 79. 895 205 226 902 223 901 175 899 897 905 900 900 261 180 904 185 279 902 260 356 905 346 264 291 909 909 Aciertos Aciertos Prom.0003125 0.86% 75.0003125 0.27% 95.000625 0.000625 0. Eval.09% 77.29% 89.51% 95.21% 77.72% 90.0003125 0.42% 88.69% 94.000625 0.0003125 0.31% 80.000625 0.20% 80.09% 76.12% 86.54% 78.64% 77.000625 0.0003125 0.03% 93.09% Aciertos Prom.42% 89.0003125 0.93% 95.57% 89.17% 96.58% 96.0003125 0.000625 0.000625 0.0003125 0.28% 88.75% 75.70% 90. 78.0003125 0.0003125 0.000625 0.72% 90.000625 0.09% 78.76% 77.000625 0.000625 0.0003125 0.17% 95.0003125 0. Ent.

000625 0.000625 0.64% 79.98% 79.0003125 0.34% 95.93% 95.86% 87.000625 0.42% 90.99% 95.93% 96.0003125 0.13% 89.34% 93.79% 95.98% 80.86% 95.34% 96.000625 0.0003125 0. 901 255 165 900 263 902 216 905 900 896 245 281 299 905 292 904 283 323 234 202 171 291 289 283 224 904 Aciertos Aciertos Prom.42% 78.51% 96.31% Aciertos Prom.31% 80.34% 95.86% 80. Total 87.000625 0.0003125 0.99% 93.31% 78.99% 89.000625 0.000625 0.09% 78.000625 0.57% 90.0003125 0.000625 0.0003125 0.42% 90.54% 77.83% 89.0003125 0.14% 90.000625 0.76% 78.34% 95.000625 0.0003125 0.93% 95.53% 78.43% 88.54% 78.58% 96.86% 80.0003125 0.0003125 0.31% 78.29% 89.70% 90.65% 79.0003125 0.10% 92.58% 90. Ent.000625 0.000625 0.0003125 Max Mutación 0.000625 0.93% 95.000625 0.0003125 0.70% 89.0003125 0.29% 88.0003125 0.21% 79.30% 76. Federico Bertona Datos experimentales 177 .0003125 0.69% 93.0003125 0.0003125 0.0003125 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Función Mutación Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Mutación lineal decreciente Min Mutación 0.34% 95.0003125 0.00% L.88% 74.21% 74.87% 90.0003125 0.71% 88.0003125 0.0003125 0.79% 96.0003125 0.17% 94.69% 94.41% 88.0003125 0.51% 94.71% 89.0003125 0.14% 89.99% 95.09% 80.000625 0. Eval.17% 95.84% 88.12% 88.51% 92. 78.43% 79.000625 Corrida 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Ent? NO SI SI NO SI NO SI NO NO NO SI SI SI NO SI NO SI SI SI SI SI SI SI SI SI NO Tiempo Prom.000625 0.000625 0.64% 79.41% 90.68% 90.000625 0.76% 80.43% 88.42% 89.87% 79.000625 0. Prom.000625 0.000625 0.000625 0.000625 0.75% 77.000625 0.75% 94. Ent.

27% 95.27% 96.31% 89.13% 178 Datos experimentales L. Prom.74% 528 79.87% 169 77.1] Inicialización Random Selectiva [-1.58% 226 81.01% 154 77.1] Inicialización Random Selectiva [-1.69% 95.43% 90.00% 181 80.27% 94.17% 96.98% 89.86% 172 77.1] Inicialización Random Selectiva [-1. Ent.57% 190 80.1] Inicialización Random Selectiva [-1.27% 96.43% 91.1] Inicialización Random Selectiva [-1.70% 162 77.1] Inicialización Random Selectiva [-1.17% 96.99% 96.1] Inicialización Random Selectiva [-1.99% 96.1] Inicialización Random Selectiva [-1.34% 96.1] Inicialización Random Selectiva [-1.1] Inicialización Random Selectiva [-1.30% 219 80.43% 90.87% 237 78.1] Inicialización Random Selectiva [-1.21% 90.69% 95.58% 96.29% 142 77.21% 89.51% 96.1] Inicialización Random Selectiva [-1.75% 96.1] Inicialización Random Selectiva [-1.1] Inicialización Random Selectiva [-1.64% 89.Entrenamiento de redes neuronales basado en algoritmos evolutivos A. Aciertos Aciertos Prom.1] Inicialización Random Selectiva [-1.99% 96. Eval.13% 251 78.69% 96.43% 89. Ent. Aciertos Prom.43% 90.27% 96.10% 96.1] Inicialización Random Selectiva [-1.93% 96. Total 191 77.27% 96.88% 91.1] Corrida Ent? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.21% 90.00% 154 80. Federico Bertona .87% 181 79.65% 90.43% 90.1] Inicialización Random Selectiva [-1.1] Inicialización Random Selectiva [-1.21% 90.29% 181 78. Valores de inicialización Función Inicialización Inicialización Random Selectiva [-1.87% 88.87% 138 77.42% 198 80.1] Inicialización Random Selectiva [-1.32% 91.65% 89.31% 89.6.21% 89.88% 90.14% 217 77.88% 90.86% 135 80.41% 97.57% 250 80.1] Inicialización Random Selectiva [-1.57% 163 77.1] Inicialización Random Selectiva [-1.17% 94.

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-1,1] L. Federico Bertona

Corrida Ent? 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 744 80.17% 97.32% 91.30% 145 78.51% 96.21% 90.00% 253 76.86% 96.88% 89.86% 173 78.93% 96.21% 90.14% 238 73.97% 95.76% 88.12% 175 76.86% 95.54% 88.99% 154 78.51% 96.21% 90.00% 388 79.34% 97.10% 90.87% 197 79.75% 96.43% 90.58% 351 77.69% 97.10% 90.29% 227 79.75% 96.88% 90.87% 234 79.75% 96.88% 90.87% 175 80.58% 96.65% 91.01% 685 80.99% 96.43% 91.01% 176 78.51% 96.21% 90.00% 204 78.10% 96.21% 89.86% 191 76.03% 96.88% 89.57% 171 80.17% 95.54% 90.14% 195 77.69% 95.54% 89.28% 139 76.45% 95.31% 88.70% 193 82.23% 95.98% 91.16% 201 77.69% 96.88% 90.14% 256 78.51% 96.88% 90.43% 147 76.45% 96.43% 89.42% 236 79.34% 96.43% 90.43% 172 77.69% 96.21% 89.71% 195 76.03% 96.43% 89.28% 179

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random Selectiva [-1,1] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] 180

Corrida Ent? 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 161 78.10% 95.76% 89.57% 190 80.99% 96.65% 91.16% 199 80.17% 95.76% 90.29% 168 77.69% 96.43% 89.86% 236 79.34% 96.88% 90.72% 219 78.10% 95.76% 89.57% 218 80.58% 96.21% 90.72% 240 74.79% 95.31% 88.12% 243 80.17% 97.32% 91.30% 246 78.10% 97.10% 90.43% 373 78.51% 95.54% 89.57% 163 76.45% 95.98% 89.13% 196 80.99% 96.88% 91.30% 207 78.10% 95.98% 89.71% 164 78.93% 96.88% 90.58% 251 79.34% 96.21% 90.29% 193 76.03% 95.76% 88.84% 282 78.10% 96.21% 89.86% 149 76.45% 95.98% 89.13% 272 78.10% 96.21% 89.86% 196 79.34% 94.64% 89.28% 346 80.58% 96.65% 91.01% 189 77.27% 96.43% 89.71% 170 76.03% 96.43% 89.28% 191 75.62% 95.31% 88.41% 275 74.38% 95.54% 88.12% 214 76.86% 96.43% 89.57% L. Federico Bertona

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random Selectiva [-0.01,0.01] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] L. Federico Bertona

Corrida Ent? 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 306 78.93% 95.98% 90.00% 248 78.51% 96.43% 90.14% 310 80.99% 97.10% 91.45% 323 79.34% 96.43% 90.43% 282 75.21% 95.09% 88.12% 158 78.51% 95.76% 89.71% 319 78.93% 96.43% 90.29% 421 76.45% 97.10% 89.86% 214 78.10% 96.21% 89.86% 248 79.34% 96.43% 90.43% 278 79.75% 97.32% 91.16% 173 78.10% 95.09% 89.13% 224 78.51% 97.10% 90.58% 266 75.21% 96.43% 88.99% 226 76.03% 95.09% 88.41% 135 76.03% 95.54% 88.70% 188 78.93% 95.54% 89.71% 202 75.21% 95.76% 88.55% 309 79.34% 96.88% 90.72% 182 80.17% 95.76% 90.29% 187 78.51% 95.31% 89.42% 198 78.51% 95.98% 89.86% 228 76.45% 95.98% 89.13% 244 74.79% 96.65% 88.99% 162 78.93% 96.21% 90.14% 197 78.93% 95.09% 89.42% 154 78.10% 96.65% 90.14% 181

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] 182

Corrida Ent? 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 417 79.34% 96.43% 90.43% 214 77.27% 95.54% 89.13% 318 80.99% 97.32% 91.59% 147 80.17% 96.43% 90.72% 157 76.86% 95.98% 89.28% 175 77.69% 96.65% 90.00% 340 76.86% 96.43% 89.57% 270 76.45% 96.21% 89.28% 281 79.34% 96.65% 90.58% 169 76.86% 96.21% 89.42% 239 80.17% 97.10% 91.16% 191 80.58% 96.43% 90.87% 239 76.86% 96.88% 89.86% 216 79.34% 96.21% 90.29% 255 79.75% 97.10% 91.01% 302 78.93% 97.32% 90.87% 230 79.34% 95.98% 90.14% 485 78.10% 92.86% 87.68% 154 75.62% 95.76% 88.70% 163 79.75% 96.43% 90.58% 166 79.34% 94.87% 89.42% 269 79.75% 96.88% 90.87% 232 80.58% 95.98% 90.58% 152 79.75% 97.32% 91.16% 174 80.17% 96.65% 90.87% 265 80.17% 96.88% 91.01% 138 78.93% 96.65% 90.43% L. Federico Bertona

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-1,1] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] Inicialización Random [-0.01,0.01] L. Federico Bertona

Corrida Ent? 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 151 78.51% 96.65% 90.29% 121 78.51% 95.09% 89.28% 184 76.86% 95.76% 89.13% 163 77.27% 94.64% 88.55% 162 79.34% 96.65% 90.58% 138 76.45% 96.43% 89.42% 342 75.62% 95.31% 88.41% 209 77.69% 96.21% 89.71% 151 81.41% 96.88% 91.45% 137 76.03% 95.76% 88.84% 197 78.51% 96.43% 90.14% 171 79.75% 96.88% 90.87% 163 75.62% 96.21% 88.99% 144 78.93% 97.10% 90.72% 150 78.51% 95.54% 89.57% 229 76.86% 96.21% 89.42% 205 76.03% 96.43% 89.28% 166 78.10% 96.21% 89.86% 168 79.75% 96.88% 90.87% 211 76.86% 96.21% 89.42% 207 78.93% 95.98% 90.00% 236 75.62% 93.97% 87.54% 227 81.82% 95.98% 91.01% 254 74.79% 95.09% 87.97% 302 78.10% 96.43% 90.00% 379 77.27% 96.88% 90.00% 240 76.86% 95.98% 89.28% 183

Datos experimentales

Prom.01.01] Inicialización Random [-0.29% 214 77.21% 89.01] Inicialización Random [-0.01.0.51% 96.01.34% 96.10% 96.54% 90.71% 323 81.0.0.01.69% 94.10% 91.86% 198 78.13% 211 79.43% L.14% 246 75.27% 96.84% 204 79.58% 96.01] Inicialización Random [-0.97% 96.34% 96.43% 90.98% 88. Ent.34% 97.31% 89.27% 96.65% 90.0.0.62% 95.01] Inicialización Random [-0.10% 96.88% 91.01] Inicialización Random [-0.0.55% 215 78. Ent.01.01] Inicialización Random [-0.01] Inicialización Random [-0.71% 232 79.01.01.29% 273 80.17% 95.0.51% 95.01% 233 78.01.0.01.01] Inicialización Random [-0.79% 96.82% 96.0.57% 240 80.01] Inicialización Random [-0.01] Inicialización Random [-0.43% 89.01.0.29% 280 79.87% 88.01.70% 244 78.01] Inicialización Random [-0.01] Inicialización Random [-0.0.0.01.01] Inicialización Random [-0.01] Inicialización Random [-0.01] Inicialización Random [-0.01] Inicialización Random [-0.45% 202 78.26% 155 77.01.58% 222 78.21% 90.10% 96.29% 377 79.75% 97.00% 184 80.0.01.01] 184 Corrida Ent? 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.01.01] Inicialización Random [-0.01] Inicialización Random [-0.0.01.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Inicialización Inicialización Random [-0.16% 150 74.01] Inicialización Random [-0.57% 461 73.93% 95.84% 185 76.76% 89.0.65% 90.21% 89.0.01.75% 96.01.01] Inicialización Random [-0.01] Inicialización Random [-0.21% 88.01] Inicialización Random [-0. Eval.0.0.26% 227 78.01] Inicialización Random [-0.21% 90.54% 89.01] Inicialización Random [-0.10% 90.01.09% 88.01] Inicialización Random [-0.0.01.97% 95.0. Aciertos Prom.01.98% 88.65% 90.88% 90.58% 96.62% 95. Total 215 79.0.01% 186 73.0.01.65% 91. Aciertos Aciertos Prom.0.93% 96.86% 95.10% 96.34% 96.0.65% 91.87% 453 77.58% 161 75.01.0.86% 185 78.01.01.01.01.43% 88.43% 89. Federico Bertona Datos experimentales .43% 90.0.0.01] Inicialización Random [-0.

0.0.29% 259 76.1.1] Inicialización Random Selectiva [-0.01] Inicialización Random [-0.43% 154 78.1.1.12% 315 76.31% 89.1] Inicialización Random Selectiva [-0. Total 236 73.0.55% 95.21% 95.98% 88.29% 261 76.01] Inicialización Random [-0.01% 180 78.01.1] Inicialización Random Selectiva [-0.0.98% 90.0.01] Inicialización Random [-0.58% 95.71% 194 78.65% 90.88% 90.98% 89.01] Inicialización Random [-0.01.00% 262 78.0.1.69% 96.1] Inicialización Random Selectiva [-0.0.88% 89.43% 222 79.0.29% 237 75.0.0.10% 95.0. Eval. Aciertos Aciertos Prom.71% 235 78.1] Inicialización Random Selectiva [-0.70% 290 79.86% 154 78.21% 95.71% 239 80.10% 95.87% 299 80.88% 90.0.01] Inicialización Random [-0.1] L.01.88% 90.1] Inicialización Random Selectiva [-0.55% 351 78.01.1] Inicialización Random Selectiva [-0.43% 90.65% 90.51% 96.88% 90.69% 96.01] Inicialización Random [-0.65% 89.98% 89.01] Inicialización Random [-0.10% 96.01] Inicialización Random [-0.98% 89.1] Inicialización Random Selectiva [-0.58% 159 75.98% 88. Federico Bertona Corrida Ent? 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Inicialización Inicialización Random [-0.1.65% 89.45% 96.1.01.86% 96. Aciertos Prom.1.0.01.0.71% 238 79.01] Inicialización Random [-0.03% 96.01] Inicialización Random [-0.54% 88.54% 88.51% 96.14% 205 79.01.01] Inicialización Random [-0.29% 179 77.42% 172 76.10% 91.98% 90.1.75% 96. Ent.31% 88.0.1.0.93% 95.21% 90.45% 95.65% 89.1.84% 190 78.0.1] Inicialización Random Selectiva [-0.76% 90.0.17% 95.75% 97.01] Inicialización Random Selectiva [-0.1.1] Inicialización Random Selectiva [-0.0.41% 202 78.0.71% 424 77.0.01] Inicialización Random [-0.51% 96.29% 299 78.01. Prom.0.57% 185 Datos experimentales .10% 96.86% 96.01] Inicialización Random [-0.0.65% 90.01.01.01.01.0.14% 224 76.43% 90.0.01.00% 324 76.03% 95.01.01] Inicialización Random [-0.51% 95.75% 96.01.51% 96.0.01] Inicialización Random [-0. Ent.0.75% 95.01.

Prom.1] Inicialización Random Selectiva [-0.26% 183 80.09% 88.0.1] Inicialización Random Selectiva [-0.62% 95.0.21% 96.14% 95.1.99% 96.45% 95.34% 96.28% 217 77.54% 88.1] Inicialización Random Selectiva [-0.0.0.17% 96.1.43% 89. Ent.65% 90.1] Inicialización Random Selectiva [-0.0.84% 172 81.98% 90.1] Inicialización Random Selectiva [-0.83% 191 77.45% 95.1] Inicialización Random Selectiva [-0.1.1] Inicialización Random Selectiva [-0.1.86% 160 76.03% 96.1] Inicialización Random Selectiva [-0.43% 89.76% 89.45% 96.86% 231 76.58% 96.1. Aciertos Aciertos Prom. Federico Bertona Datos experimentales .1.0.1.31% 89.1] 186 Corrida Ent? 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.0.42% 256 79.21% 90.1] Inicialización Random Selectiva [-0.71% 182 76.86% 345 78.0.1] Inicialización Random Selectiva [-0.1] Inicialización Random Selectiva [-0.1.0.0.0.41% 97.0.41% 145 76.1.1.69% 96.0.71% L.09% 88.1.43% 89.21% 88.84% 139 80.1] Inicialización Random Selectiva [-0.1.45% 95.1] Inicialización Random Selectiva [-0.28% 207 78.0.0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Inicialización Inicialización Random Selectiva [-0.0.51% 95.1] Inicialización Random Selectiva [-0.88% 89.1.51% 96.10% 95. Total 162 76.1.27% 96.70% 185 78.76% 89.43% 90.76% 87.1] Inicialización Random Selectiva [-0.1.0.0.1.1] Inicialización Random Selectiva [-0.87% 278 78.0.1.59% 222 76.0.1] Inicialización Random Selectiva [-0.0.03% 95.1] Inicialización Random Selectiva [-0.93% 95.0.1] Inicialización Random Selectiva [-0.0.1] Inicialización Random Selectiva [-0.1.1.0.0. Ent.03% 96.1.31% 88.98% 89.21% 89.57% 175 76.72% 209 76.45% 96.0. Eval.10% 91.28% 164 78.86% 95.1] Inicialización Random Selectiva [-0.1] Inicialización Random Selectiva [-0.86% 95.14% 197 75.1] Inicialización Random Selectiva [-0.0.1] Inicialización Random Selectiva [-0.43% 90.1.70% 329 76.09% 88.51% 95.70% 303 78.1.13% 273 75.1.1.98% 89.43% 90.88% 91.93% 95.00% 187 80.14% 252 76.43% 89.1.30% 322 73.09% 88.1.1] Inicialización Random Selectiva [-0.58% 208 78.93% 96.1] Inicialización Random Selectiva [-0.1. Aciertos Prom.

1.00% 187 Datos experimentales .5] Inicialización Random Selectiva [-5.93% 96.1] Inicialización Random Selectiva [-0.43% 88.16% 278 80.1] Inicialización Random Selectiva [-0.5] Inicialización Random Selectiva [-5.99% 775 78.43% 252 80.54% 88.98% 89.1] Inicialización Random Selectiva [-0.0.88% 91.1.29% 362 76.28% 774 78.21% 97. Aciertos Prom.45% 96.88% 90.5] Inicialización Random Selectiva [-5.1] Inicialización Random Selectiva [-0.1.87% 311 76.1.43% 197 78.1] Inicialización Random Selectiva [-0.5] Inicialización Random Selectiva [-5.84% 277 78.51% 96.43% 267 75.75% 96.10% 95.0.21% 91.1.58% 96.10% 89.43% 239 78.73% 85.43% 183 78. Federico Bertona Corrida Ent? 39 40 41 42 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI NO SI SI SI NO SI NO SI SI SI SI SI Tiempo Prom.43% 90.28% 335 75.5] Inicialización Random Selectiva [-5.80% 236 78.32% 90.17% 95.1] Inicialización Random Selectiva [-0.87% 202 79.43% 90.21% 96.13% 219 78.29% 775 79.1.10% 96.27% 96.32% 89.57% 287 80.0.1] Inicialización Random Selectiva [-0.88% 90.70% 205 81.1. Ent.5] Inicialización Random Selectiva [-5.5] Inicialización Random Selectiva [-5.45% 96.1] Inicialización Random Selectiva [-0.5] L.58% 252 78. Aciertos Aciertos Prom.03% 95.88% 90.5] Inicialización Random Selectiva [-5.1.93% 96.57% 441 82.21% 89.74% 159 77.1] Inicialización Random Selectiva [-0.98% 90.0.5] Inicialización Random Selectiva [-5.00% 254 76.31% 89.86% 302 76.1.65% 90.1.5] Inicialización Random Selectiva [-5.Entrenamiento de redes neuronales basado en algoritmos evolutivos Función Inicialización Inicialización Random Selectiva [-0.98% 89. Total 194 78.5] Inicialización Random Selectiva [-5.0.75% 95.93% 96.62% 97.0.0.1.0.69% 96.14% 186 77.5] Inicialización Random Selectiva [-5.09% 88.43% 90.1.65% 90.51% 95.93% 97.43% 90.98% 90.28% 550 77.0.0.0.98% 90.1] Inicialización Random Selectiva [-5. Eval.5] Inicialización Random Selectiva [-5.1] Inicialización Random Selectiva [-0. Prom.45% 95.0.82% 96.23% 96.5] Inicialización Random Selectiva [-5.00% 255 75.21% 90.27% 95.51% 96.51% 89. Ent.1] Inicialización Random Selectiva [-0.17% 95.21% 89.

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] 188

Corrida Ent? 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 SI NO NO NO NO NO SI SI SI SI SI SI SI NO SI SI SI NO SI SI SI SI NO SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 333 79.75% 97.32% 91.16% 775 81.82% 96.43% 91.30% 774 77.69% 96.65% 90.00% 773 81.41% 96.43% 91.16% 776 80.58% 96.65% 91.01% 774 82.64% 96.21% 91.45% 234 79.34% 95.09% 89.57% 433 77.27% 96.65% 89.86% 302 75.62% 97.10% 89.57% 362 80.17% 96.21% 90.58% 232 79.75% 95.98% 90.29% 145 78.93% 96.43% 90.29% 232 83.06% 96.21% 91.59% 774 80.17% 96.65% 90.87% 249 79.34% 97.10% 90.87% 551 78.51% 96.43% 90.14% 267 76.45% 95.98% 89.13% 774 80.99% 96.65% 91.16% 205 78.93% 96.88% 90.58% 716 76.03% 96.65% 89.42% 233 82.23% 96.43% 91.45% 360 74.79% 94.87% 87.83% 773 80.17% 95.31% 90.00% 607 77.27% 97.54% 90.43% 763 79.34% 96.65% 90.58% 159 79.75% 95.98% 90.29% 229 78.93% 94.64% 89.13% L. Federico Bertona

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random Selectiva [-5,5] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] L. Federico Bertona

Corrida Ent? 43 44 45 46 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 SI SI SI SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 710 80.17% 96.65% 90.87% 280 80.99% 95.98% 90.72% 469 75.21% 95.31% 88.26% 402 76.03% 95.76% 88.84% 776 75.62% 90.85% 85.51% 340 80.58% 97.32% 91.45% 162 78.51% 96.65% 90.29% 236 76.86% 95.54% 88.99% 200 79.34% 96.43% 90.43% 225 75.21% 93.97% 87.39% 252 80.99% 96.65% 91.16% 310 78.93% 95.76% 89.86% 177 79.34% 96.88% 90.72% 185 78.51% 96.43% 90.14% 204 80.58% 96.88% 91.16% 251 78.10% 96.21% 89.86% 184 76.03% 96.43% 89.28% 280 79.75% 96.88% 90.87% 151 76.03% 94.64% 88.12% 184 79.75% 95.54% 90.00% 185 77.27% 95.54% 89.13% 245 78.10% 97.32% 90.58% 336 78.51% 95.98% 89.86% 153 77.27% 95.31% 88.99% 252 76.03% 95.31% 88.55% 734 80.17% 96.88% 91.01% 175 78.10% 95.98% 89.71% 189

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] 190

Corrida Ent? 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 315 80.99% 96.65% 91.16% 298 78.10% 96.43% 90.00% 229 75.62% 94.87% 88.12% 232 76.45% 95.98% 89.13% 223 76.86% 95.98% 89.28% 195 78.93% 96.43% 90.29% 311 79.34% 95.31% 89.71% 217 78.51% 96.21% 90.00% 214 77.27% 95.98% 89.42% 216 80.17% 96.88% 91.01% 216 77.69% 95.98% 89.57% 309 78.93% 95.09% 89.42% 181 78.10% 96.21% 89.86% 196 74.79% 95.54% 88.26% 236 77.27% 93.75% 87.97% 345 78.51% 97.10% 90.58% 213 76.03% 96.65% 89.42% 255 81.82% 95.76% 90.87% 158 80.17% 94.87% 89.71% 256 79.75% 96.88% 90.87% 183 80.17% 96.65% 90.87% 175 75.21% 95.09% 88.12% 263 74.38% 95.09% 87.83% 285 77.27% 96.43% 89.71% 236 77.69% 96.88% 90.14% 226 76.86% 96.65% 89.71% 226 77.69% 96.43% 89.86% L. Federico Bertona

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-0.1,0.1] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] L. Federico Bertona

Corrida Ent? 47 48 49 50 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 SI SI SI SI NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 233 79.75% 96.65% 90.72% 189 71.90% 94.87% 86.81% 223 77.69% 96.43% 89.86% 217 79.34% 96.88% 90.72% 776 80.17% 95.98% 90.43% 776 80.58% 94.64% 89.71% 774 78.51% 94.64% 88.99% 773 77.69% 92.63% 87.39% 782 74.79% 93.97% 87.25% 776 72.73% 96.43% 88.12% 774 74.79% 95.98% 88.55% 772 78.51% 93.30% 88.12% 780 76.45% 95.54% 88.84% 775 81.82% 96.65% 91.45% 775 78.93% 94.87% 89.28% 775 74.79% 94.87% 87.83% 777 74.38% 90.85% 85.07% 775 79.34% 93.08% 88.26% 776 75.21% 93.30% 86.96% 777 78.51% 96.21% 90.00% 774 77.27% 96.88% 90.00% 779 72.31% 87.72% 82.32% 774 82.64% 93.97% 90.00% 774 82.23% 96.65% 91.59% 775 76.03% 96.43% 89.28% 777 79.75% 97.10% 91.01% 776 80.17% 95.98% 90.43% 191

Datos experimentales

Entrenamiento de redes neuronales basado en algoritmos evolutivos

Función Inicialización Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] Inicialización Random [-5,5] 192

Corrida Ent? 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 NO NO NO SI NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO NO SI NO NO NO NO NO NO

Tiempo Prom. Aciertos Aciertos Prom. Aciertos Prom. Ent. Prom. Eval. Ent. Total 775 77.27% 96.88% 90.00% 774 78.51% 96.65% 90.29% 779 76.45% 92.86% 87.10% 644 82.23% 97.10% 91.88% 779 80.99% 95.76% 90.58% 773 78.93% 95.54% 89.71% 774 78.51% 93.30% 88.12% 775 79.75% 94.42% 89.28% 780 78.51% 95.54% 89.57% 776 79.75% 94.42% 89.28% 775 79.34% 96.43% 90.43% 775 73.97% 87.72% 82.90% 777 79.34% 95.09% 89.57% 775 75.62% 97.32% 89.71% 780 76.45% 95.76% 88.99% 775 75.62% 93.08% 86.96% 774 78.93% 93.08% 88.12% 775 80.99% 94.64% 89.86% 773 79.34% 95.31% 89.71% 775 79.34% 97.32% 91.01% 641 78.10% 97.32% 90.58% 780 79.75% 94.87% 89.57% 776 78.93% 95.31% 89.57% 777 79.34% 95.54% 89.86% 774 76.45% 96.21% 89.28% 774 76.86% 96.21% 89.42% 773 77.69% 95.98% 89.57% L. Federico Bertona

Datos experimentales

78% 95.84% 91.30% 91.20% 91.33% 80.78% 94. Ent.45% 83.01% 84.21% 89.33% 95.57% 92.49% 88.93% 90. Eval.71% 84.32% 78.43% 92.88% 87.46% 82.03% 80.99% 79.61% 93.26% 94.99% 94.43% 84. Federico Bertona Corrida 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.20% 91.46% 85.46% 84. Aciertos Prom.47% 93.75% 92.84% 92.33% 93. Total 83.06% 94.Entrenamiento de redes neuronales basado en algoritmos evolutivos A.30% 82.71% 92.61% 94. 711 815 498 271 351 737 301 287 316 474 478 291 508 389 485 468 327 275 458 294 318 365 352 318 260 Aciertos Aciertos Prom.74% 78.04% 86.04% 84.78% 93.68% 93.06% 94.61% 94.47% 93.11% 93.75% 90.7.38% 92.90% 78.16% 84.61% 193 Datos experimentales .06% 94.90% 83.75% 92.12% 91.20% 91.38% 91.29% 92.46% 84.43% 94.78% 95.57% 92. Prom.51% 95.57% 92.75% 84.45% 84.06% 94. Comparación de ambos métodos Tipo Algoritmo Entrenamiento Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético L.33% 95.06% 94. Ent.57% 92.48% 82.47% 93.99% 91.96% 94.43% 81.02% 92.16% 92.

30% 81.16% 81.20% 92.58% 76.03% 81. 556 637 819 408 207 460 524 424 275 403 279 313 248 275 392 454 226 339 888 436 338 352 410 274 599 568 520 Aciertos Aciertos Prom.88% 94.71% 93.01% 78.06% 93.16% 82. Federico Bertona .71% 94.46% 81.03% 81.75% 84.42% 80.75% 89.43% 93.74% 84. Ent.04% 85.99% 94.48% 90.72% 194 Datos experimentales L.65% 93.06% 93.66% 91.45% 83.78% 94.12% 91.19% 79.59% 81.43% 94.57% 92.72% 80.02% 91.84% 91.33% 92.29% 93.78% 95.88% 93.16% 84.48% 91.61% 84.93% 91. Aciertos Prom.84% 91.88% 92.30% 91.33% 94.93% 91.39% 90. Prom.33% 92.78% 94.62% 84.93% 90.84% 91.57% 92.78% 94.01% 84.02% 92.09% 92.32% 83.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Algoritmo Entrenamiento Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Algoritmo genético Red Neuronal Red Neuronal Corrida 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 1 2 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.06% 95.20% 92. Ent.51% 94.38% 91.29% 93.61% 93. Total 80.43% 93.45% 83.93% 92.48% 91. Eval.59% 79.51% 95.01% 84.88% 93.59% 84.02% 91.17% 85.06% 94.16% 94.88% 93.20% 92.

33% 82.75% 92. Prom.75% 92. 571 573 531 894 686 481 528 704 791 436 703 883 527 482 450 571 763 366 459 448 881 763 395 482 392 1.03% 84.192 378 Aciertos Aciertos Prom.93% 92.75% 84. Aciertos Prom.20% 92.03% 84. Ent.19% 81.75% 92.57% 92.06% 94.61% 83.74% 84.20% 91.03% 78.57% 92.06% 94.51% 94.66% 91.02% 92.81% 92.06% 94.61% 84.88% 94.57% 92.78% 94.38% 92.33% 84.06% 94.93% 92.93% 90.72% 82.26% 95.71% 94.57% 92. Federico Bertona Datos experimentales 195 .78% 94.33% 94.88% 92.30% 90.11% 91.61% 83.78% 94.03% 84.57% 92.90% 85. Ent.99% 93.30% 78.78% 94.75% 86.32% 84. Eval.46% 84.96% 94.06% 94.57% 92.71% 84.78% 94.17% L.74% 84.06% 93. Total 84.02% 92.61% 79.16% 94.93% 93.75% 92.33% 94.93% 89.51% 94.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Algoritmo Entrenamiento Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Corrida 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 Ent? SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.29% 93.47% 93.03% 84.61% 81.61% 94.78% 95.90% 81.61% 94.57% 92.93% 92.78% 95.46% 76.43% 85.

59% 80.48% 91.33% 94.06% 93.88% 93.51% 94. Federico Bertona .02% 92.33% 81.75% 92.72% 84.47% 93.43% 95.21% 90.78% 93.84% 91.04% 83.84% 91.66% 91.917 474 338 841 682 410 1. 683 2.84% 91.57% 90.78% 94.29% 93.560 571 575 463 633 1.75% 92.65% 92.66% 91.38% 92. Total 85. Prom.04% 85.14% 84.06% 94. Aciertos Prom.03% 83.06% 92. Eval.51% 95.88% 81.33% 92.61% 84.Entrenamiento de redes neuronales basado en algoritmos evolutivos Tipo Algoritmo Entrenamiento Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Red Neuronal Corrida 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Ent? SI NO SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI SI Tiempo Prom.43% 93.88% 95.29% 92.93% 93.06% 95.88% 92.88% 93.87% 84.33% 94.61% 94.78% 95.30% 196 Datos experimentales L.75% 92.33% 84.90% 81.93% 93.32% 85.46% 81.16% 82.46% 83.17% 80.57% 90.88% 84.531 570 Aciertos Aciertos Prom.046 444 663 439 927 489 656 1.04% 84.45% 84.51% 94.29% 93.06% 93. Ent. Ent.

4 se muestra la pantalla del sistema y se describen los comandos implementados mediante los cuales el usuario interactúa con éste. En la sección B. B. Finalmente deberá generar estadísticas detalladas sobre el proceso de entrenamiento que permitan realizar comparaciones entre ambos métodos. quien selecciona las condiciones en que se realizan los distintos experimentos.2 se presenta el resultado del análisis de los requerimientos a través de casos de uso. el actor que inicia el proceso es el usuario del sistema.1. tomando como base lo expuesto en la sección de análisis y adjuntando las estructuras de datos y las estructuras de los archivos generados por estos programas.5 se detallan algunas tareas de mantenimiento y se hace una breve reseña sobre la gestión de configuración del software. Finalmente. Análisis A continuación se presentan los casos de uso [Booch et al. como se observa en la Figura B.3 se presenta el diseño de la solución detallando los programas realizados. en la sección B.2. Además deberá dar al usuario la posibilidad de decidir qué algoritmo de entrenamiento utilizar. quien decide la topología de la red que se utilizarán durante los próximos experimentos. En la sección B. Los mismos corresponden a la interacción con el usuario del sistema. B.1.. En la sección B.2.1.1 se describen los requerimientos en los cuales se ha basado el desarrollo de este software. Requerimientos Como objetivo principal del trabajo se ha determinado que el sistema debe poder entrenar redes neuronales con conexión hacia delante. Federico Bertona Metodología de software 197 . B. L.Entrenamiento de redes neuronales basado en algoritmos evolutivos Apéndice B: Metodología de software El presente anexo tiene como objetivo describir el proceso de ingeniería de software aplicado en este trabajo para obtener los resultados y conclusiones que se expusieron en los capítulos 7 y 8. En la sección B. Seleccionar topología En este caso de uso. 2000] más relevantes obtenidos durante el análisis del software. También se presentan cada una de las pruebas realizadas para verificar que el software entrega los resultados esperados.

2.2. Seleccionar topología B.4. El usuario del sistema selecciona los distintos parámetros con los que desea ejecutar el algoritmo de entrenamiento.3. Seleccionar tipo de entrenamiento También en este caso de uso. 2.3. Esto se observa en la Figura B. Figura B. dar de alta manualmente cada uno de los ejemplos o importar el listado de ejemplos desde un archivo.2. quien selecciona uno de los posibles algoritmos de entrenamiento para utilizar en los próximos experimentos. Configurar algoritmo de entrenamiento B. el actor que inicia el proceso es el usuario del sistema.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B. Configurar algoritmo de entrenamiento Nuevamente en este caso de uso.3. el actor que inicia el proceso es el usuario del sistema.1.2. La Figura B.4 muestra gráficamente lo dicho anteriormente.2. 198 Metodología de software L. Cargar ejemplos de entrenamiento También en este caso de uso. Federico Bertona . Figura B. Para ello dispone de dos opciones. como se muestra en la Figura B. También selecciona la cota máxima de error admisible. quien dará de alta el conjunto de ejemplos de entrenamiento que se utilizarán para entrenar la red neuronal. los cuales variarán de acuerdo al algoritmo de entrenamiento seleccionado en el caso de uso anterior. el actor que inicia el proceso es el usuario del sistema. Seleccionar tipo de entrenamiento B.

el actor que inicia el proceso es el usuario del sistema. Para ello dispone de dos opciones. como se muestra en la Figura B.2. A su vez. Figura B.5. Cargar ejemplos de entrenamiento B.6.6. en este caso de uso el actor (usuario del sistema) inicia el proceso de entrenamiento de la red neuronal. Figura B. se generan las estadísticas sobre el desempeño del método a lo largo del proceso.6. quien dará de alta el conjunto de ejemplos de evaluación que se utilizarán para evaluar la calidad de la red neuronal una vez entrenada. Entrenar Red Neuronal L. Dicho entrenamiento se realizará utilizando el método de entrenamiento seleccionado mediante los casos de uso “Seleccionar tipo de entrenamiento” y “Configurar algoritmo de entrenamiento”.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B. Cargar ejemplos de evaluación B. Esta situación se representa gráficamente en la Figura B.5.5. Federico Bertona Metodología de software 199 . Entrenar red neuronal Finalmente. Cargar ejemplos de evaluación En este caso de uso. dar de alta manualmente cada uno de los ejemplos o importar el listado de ejemplos desde un archivo.4.2.

h resource. El programa utilizado para realizar todo el desarrollo del sistema fue Visual C++ 6. Estructura de directorios El sistema se desarrollo utilizando la siguiente estructura de directorios. Federico Bertona Tesis 200 . Instalación de los archivos fuente del sistema El sistema desarrollado para esta tesis se encuentra distribuido en varios archivos fuente.1.dsw EasyTrain.cpp EasyTrain. se seleccionó un equipo Intel Pentium IV.cpp EasyTrainDoc.3. B.1.3. B.dsp EasyTrain.cpp MainFrm.3.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.1. de acuerdo a lo indicado en la tabla B.8 GHz con 512 MB de memoria corriendo un Sistema Operativo Windows 2000 SP4. Plataforma El sistema se ha implementado utilizando el lenguaje de programación C++.cpp EasyTrainView. 2. Para desarrollar el sistema y realizar los experimentos.0.1.h EasyTrain.reg EasyTrainDoc.1. Tesis Debug MySources Release Res B.2.3.cpp Diálogos. Directorio Archivo Diálogos.h MainFrm.rc EasyTrain.h Metodología de software L. Cada uno de ellos implementa un módulo particular.h EasyTrainView. la cual deberá ser respetada para instalar y compilar los archivos fuentes.h EasyTrain. Para su compilación se deben instalar los siguientes archivos y directorios. Diseño En esta sección se describen las pautas seguidas para el diseño del sistema de manera tal de cumplir con las funcionalidades establecidas en la etapa de análisis.

h Capa.h Evaluacion.h Seleccion.cpp Rrnn.h ListaCromosomas.cpp ListaCromosomas. y son utilizados para guardar archivos intermedios durante el proceso de compilación de los archivos fuente.h StdAfx.h Cromosoma.h Objetos.h Rrnn.cpp ListaEjemplos. Estructura de archivos MySources Res Los directorios Debug y Release inicialmente se encuentran vacíos. Esta división en capas o módulos se realizo para facilitar el desarrollo del sistema.ico EasyTrainDoc.ico Toolbar.cpp Seleccion.cpp Evaluacion. Se utilizo un enfoque L.h Include.2.h Inicializar.cpp Include.cpp Inicializar.cpp Cruza.h AlgoritmoGenetico.cpp AlgoritmoGenetico.cpp Lista.h ListaEjemplos.cpp Mutacion. Federico Bertona Metodología de software 201 .h Ejemplo.cpp StdAfx.cpp Capa.1.cpp Cromosoma.h Mutacion.h Cruza.cpp Ejemplo. Archivos y bloques constitutivos del sistema El sistema está formado por varias capas.3.h Lista.bmp Tabla B.h EasyTrain.cpp AlgoritmoEntrenamiento.Entrenamiento de redes neuronales basado en algoritmos evolutivos Directorio Archivo AlgoritmoEntrenamiento. B.

rc) • EasyTrain. En cada clase se implementa el comportamiento de un cuadro de diálogo frente a cada una de las acciones del usuario. contiene la inicialización de la aplicación.Entrenamiento de redes neuronales basado en algoritmos evolutivos ascendente. Esta clase es muy importante ya que hereda las características de la clase CWinApp (define el funcionamiento básico de una aplicación en el entorno Windows) 202 Metodología de software L. Estos archivos se modificaron a través de la interfaz gráfica (GUI) del sistema así como también modificando el código fuente de los mismos. Las funciones principales de estos archivos están relacionadas con la interacción entre el usuario y el sistema. • EasyTrain.cpp: Incluye la implementación de la clase CEasyTrainApp. se explican brevemente la función de cada archivo y cuando se considere necesario se comentarán los métodos más importantes. Cada uno de estos módulos está contenido en un archivo fuente individual. • Diálogos. A continuación se hace una referencia a las mismas: • Diálogos. Dado que las clases que implementan no están directamente relacionadas con el objetivo de esta tesis. El paradigma de programación utilizado fue la programación orientada a objetos. Federico Bertona .dsw: Este archivo define el espacio de trabajo (Workspace) donde se encontrará el proyecto. B. En esta definición se declara para cada clase cual es la definición gráfica que se utilizará (y que se define en el archivo EasyTrain. • EasyTrain.dsp: Este archivo define el proyecto en Visual C++. Archivos generados por Visual C++ El siguiente conjunto de archivos se genera automáticamente durante la generación de un nuevo proyecto. El espacio de trabajo es el objeto de mayor nivel en Visual C++ y permite agrupar uno o más proyectos relacionados en un ambiente común.h: Se realiza la definición de la clase CEasyTrainApp. desarrollando inicialmente capas con funcionalidades básicas.cpp: En este archivo se implementan las clases relacionadas con los cuadros de diálogos de la aplicación. las cuales se integran en capas superiores para cumplir con las funcionalidades necesarias. que se suma a los archivos que se generan automáticamente en todo proyecto de Visual C++.2. El método más importante. Contiene la estructura de archivos y carpetas utilizadas en el proyecto. • EasyTrain. InitInstance.h: Es en este archivo donde se definen las clases relacionadas con cada uno de los cuadros de diálogo que se implementan en el sistema.3.1. Los cuadros de diálogo del sistema permiten al usuario el ingreso de datos y la configuración de los métodos de entrenamiento.

las barras de herramienta.cpp: Contiene la implementación de la clase CMainFrame. • MainFrm. Entre sus métodos más importantes se encuentran la serialización de documentos (guardar y abrir documentos) y la generación de nuevos documentos. • StdAfx. Para cada una de las opciones del menú se generó un método encargado de procesar el mensaje. Esta clase será la encargada de la manipulación de los datos de la aplicación.h: En este archivo se encuentran todas las constantes referentes a la GUI del sistema desarrollado. Su función principal es desplegar gráficamente la información en pantalla (muestra el conjunto de ejemplos. Permite incluir cabeceras comunes.reg: Este archivo se utiliza para definir las entradas que se ingresan al registro de Windows.h para poder utilizar todas las cabeceras precompiladas de Visual C++.cpp: Incluye al archivo StdAfx. • EasyTrain.h: Archivo de cabeceras. • MainFrm.h: En este archivo se define la clase CEasyTrainDoc. Esta clase se utiliza para el despliegue de datos en pantalla. En este caso en particular las entradas que se ingresarán al registro definen la extensión de archivos default y permiten abrir archivos mediante doble clicks. Esta clase define el marco donde se dibuja la ventana principal del sistema.h: Contiene la definición de la clase CMainFrame.cpp: En este archivo se implementa la clase CEasyTrainDoc.cpp: En este archivo se realiza la implementación de la clase CEasyTrainView.). etc. • StdAfx. • EasyTrainDoc. • EasyTrainView. Se definen los cuadros de diálogo. Federico Bertona Metodología de software 203 . Otos métodos muy importantes definidos en esta clase son los referentes al manejo de los mensajes generados a través del menú. etc. A su vez se definen en esta clase los manejadores de menú.h: Este archivo contiene la definición de la clase CEasyTrainView. la representación gráfica de la topología de la red neuronal. • EasyTrainView. Se definen los identificadores de los objetos gráficos del sistema. El método más importante es OnCreate donde se definen las características de la ventana principal. L. • EasyTrainDoc.Entrenamiento de redes neuronales basado en algoritmos evolutivos • EasyTrain. • Resource.rc: Este archivo contiene la definición gráfica de cada uno de los objetos que hacen a la GUI del sistema.

2. hasta que el nivel de entrenamiento sea aceptable o la cantidad de generaciones supere el máximo admisible. CRRNN. Luego.3. CListaEjemplos. Federico Bertona . utilizando el soporte provisto por las clases CRRNN y CAlgoritmoGenetico. CListaEjemplos.2. independientemente del método de entrenamiento utilizado. que son quienes realizan efectivamente el entrenamiento de la red neuronal.cpp se implementa la clase CAlgoritmoGenetico.cpp: En este archivo se realiza el desarrollo de la clase CAlgoritmoEntrenamiento. Archivos generados para este trabajo El siguiente conjunto de archivos definen las funcionalidades más importantes desarrolladas en este trabajo. Entre los atributos más importantes encontramos encapsulados objetos de las siguientes clases: CPoblacion. La interfaz de esta clase es muy rica en procedimientos.h: El objetivo de la clase CAlgoritmoEntrenamiento. el método run realiza una sesión de entrenamiento completa mediante sucesivas llamadas al método step. CFuncionEvaluacion. Entre los diversos métodos que se implementan se destaca el método step. Mediante llamados a distintos procedimientos de estas clases de soporte se realiza el entrenamiento de una red neuronal basado en el uso de algoritmos genéticos. que se define en este archivo. CFuncionEvaluacion. y que se utilizan para personalizar las características de los objetos mencionados previamente. El desarrollo de este conjunto de métodos es sencillo. y se describen a continuación: • AlgoritmoEntrenamiento. Dentro de esta clase se encuentran encapsulados objetos de las clases CRRNN. que produce una nueva generación a partir de la existente mediante la aplicación de los operadores genéticos. • AlgoritmoGenetico. utilizando como soporte varias de las clases que se describen a continuación. que dan soporte a esta clase para llevar a cabo sus funcionalidades. y que se describen a continuación. • AlgoritmoEntrenamiento. CFuncionCruza y CFuncionMutacion.cpp: En el archivo AlgoritmoGenetico. CAlgoritmoGenetico y CListaEjemplos. CFuncionCruza y CFuncionMutacion realizan las operaciones genéticas necesarias sobre los cromosomas pertenecientes a la población (CPoblacion) hasta alcanzar el nivel de entrenamiento adecuado. ya que gran parte de la funcionalidad es provista por las clases de menor nivel. Los objetos de las clases CFuncionInicializar. la clase CAlgoritmoGenetico.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. • AlgoritmoGenetico. CFuncionSeleccion. Existen también en esta clase atributos para cada uno de los parámetros variables de los algoritmos de entrenamiento. CFuncionSeleccion. 204 Metodología de software L.h: En este archivo se define una de las clases más importantes de este trabajo. Esta clase realiza todos los procesos necesarios para entrenar una red neuronal. es proveer de una interfaz común para el entrenamiento de redes neuronales. CFuncionInicializar.

En esta clase L. que se define en este archivo. que variará para cada una de las clases derivadas y que. • Cromosoma. Federico Bertona Metodología de software 205 .Entrenamiento de redes neuronales basado en algoritmos evolutivos ya que existen diversos parámetros ajustables del método de entrenamiento.h: La clase CCromosoma es una de las clases fundamentales para el entrenamiento de redes neuronales con conexión hacia delante basado en algoritmos evolutivos. calcula en base al error producido por la red neuronal la variación a realizar sobre cada uno de los pesos sinápticos. La clase CCapa es una clase virtual. que recibe como parámetro dos valores e inicializa la cadena de valores del cromosoma con valores aleatorios en el rango definido por estos dos valores. el método propagar_error realiza la variación de los pesos sinápticos correspondientes de acuerdo a su incidencia sobre el error total obtenido. Además de las funciones descriptas previamente se encuentran implementadas otras funciones auxiliares que permiten la manipulación de los datos encapsulados en la clase. que toma como parámetro un conjunto de entradas a la capa y produce la salida correspondiente. Entre los métodos más importantes se destacan los asociados al entrenamiento de la red neuronal. En esta capa se definen las funciones comunes que realizan todas las capas de las redes neuronales con conexión hacia delante. por lo que no se pueden instanciar objetos de esta clase. y que se heredan en las clases derivadas. es proveer una interfaz común para las capas de los distintos tipos de redes neuronales con conexión hacia delante. Uno de los métodos más importantes implementados es el método init_random. y se define en este archivo. • Capa.h: El objetivo de la clase CCapa.cpp: En este archivo se implementan los métodos para manipular los valores de los atributos de la clase CCromosoma. como por ejemplo CCapaBackpropagation. • Cromosoma. Entre ellos encontramos al método evaluar. es el método calcular_delta.cpp: La clase CCapa y sus clases derivadas se implementan en este archivo. El método calcular_variacion_pesos. Entre sus atributos más importantes se encuentran el vector donde se almacenan los valores del cromosoma y el atributo fitness que indica el valor de adaptación del cromosoma. Para ello es necesario definir las clases derivadas que implementen la lógica propia de cada tipo de red neuronal. tomando como parámetro un número. Otro método importante. Otros métodos muy utilizados son aquellos que permiten obtener o asignar el valor de adaptación del individuo tras ser evaluado y los que permiten obtener o asignar los valores de error producido tras ser evaluado el individuo. que tomando como parámetros la salida deseada y la capa siguiente calcula cual es la variación correspondiente a cada capa de acuerdo a su incidencia en el error total. y el método funcion_activacion. devuelve el valor de la función de activación para dicho número. • Capa. y que varía de acuerdo al tipo de red neuronal. Por último.

• Evaluacion. y para guardar sus valores en disco.cpp: En este archivo se encuentran implementadas todas las funcionalidades definidas en el archivo Ejemplo. • Ejemplo. El ejemplo se almacena en un vector de tipo de dato double. De esta manera. y el vector que contiene todos los puntos de cruza posibles. durante una sesión de entrenamiento. Se mantienen también en memoria la cantidad de entradas y de salidas que contiene el ejemplo. la cual recibe como parámetro. que se utiliza para calcular los distintos puntos de cruza posibles de acuerdo a la definición dada en la sección 6. Se define la clase abstracta CFuncionCruza.h. Luego. comunes a todas las clases de operadores de cruza. • Ejemplo. la cual se utiliza para mantener en memoria cada uno de los ejemplos. Se definen los métodos para obtener y asignar valores al ejemplo. donde cada una pertenece a una de las variantes descriptas en la sección 6.h: Este archivo contiene la definición de la clase CEjemplo.cpp: En este archivo se implementan los servicios definidos en el archivo Evaluacion. • Cruza.h: La clase CFuncionEvaluacion que se define en este archivo se utilizará para realizar la evaluación.h. inicialización del mismo con valores aleatorios. Dentro de esta estructura. ya sean de entrenamiento o de validación. Es en esta clase donde se definen diferentes métodos. de los individuos que componen la población. Específicamente. así como también para almacenar y obtener los ejemplos en archivos. Federico Bertona . se implementan cuatro variantes del operador de cruza. que tomando como parámetros dos cromosomas padres realiza la cruza de ellos y devuelve los descendientes.cpp: Es en este archivo donde se implementan cada una de las clases definidas en el archivo Cruza.1. que calcula el valor de adaptación de todos los individuos de una población. Sin duda los dos atributos más importantes de esta clase son la topología de la red neuronal. seguidas por los valores de salida esperados.5. También se define un método abstracto llamado cruzar. • Cruza.5. 206 Metodología de software L.h. que se utiliza en cada uno de los operadores. el vector contiene una cantidad de posiciones equivalentes a la cantidad de entradas y salidas. • Evaluacion. El método más importante de la clase CFuncionEvaluacion es evaluar.h: En este archivo se definen las clases necesarias para experimentar con el uso de diferentes operadores de cruza. cada una de las cuales sobrescribe el método cruzar.1. las primeras posiciones corresponden a las entradas. se definen diferentes clases de operadores de cruza.Entrenamiento de redes neuronales basado en algoritmos evolutivos se definen también métodos para modificar los valores del objeto.

La clase CFuncionInicializar. así como también las relacionadas con el movimiento a través de la estructura de datos. la clase CNodo y la clase CLista. la longitud de los cromosomas que la componen. Luego. • Inicializar. • Lista. Por último.Entrenamiento de redes neuronales basado en algoritmos evolutivos • Include. Federico Bertona Metodología de software 207 .h. de acuerdo a las características explicadas en la sección 6.h: En este archivo se definen las clases encargadas de generar la población inicial de un algoritmo genético.h: En este archivo se definen la interfaz de dos clases distintas utilizadas para mantener información en memoria. que definen la lógica con que funciona la clase. y el rango de valores de inicialización de cada cromosoma. La primera se utiliza para almacenar datos dentro de una lista doblemente enlazada. También se implementa la lógica para obtener los nodos que se encuentran situados a su derecha y a su izquierda. que se define en la clase CLista. • Inicializar. • ListaCromosomas.h: En este archivo se definen todas las constantes que se utilizan a lo largo del proyecto. • Include. define una clase abstracta con las características comunes de las funciones de inicialización implementadas. bajas y modificaciones de registros.cpp: En este archivo se implementan las funciones comunes que se definen en el archivo descripto a continuación y que se utilizan en los distintos módulos que componen el sistema.cpp: Es en este archivo donde se implementan los métodos definidos en el archivo ListaCromosomas. Por último se definen en este archivo las funciones para almacenar las estadísticas del proyecto. retornando en ambos casos un objeto de la clase CPoblacion. En ambos casos se definen los atributos (datos) y los métodos asociados. • Lista.cpp: En este archivo se implementan las funcionalidades que provee el módulo de inicialización.cpp: En este archivo se realiza la implementación de las clases CNodo y CLista. Para la clase CFuncionInicializar se implementan funcionalidades que afectan las características de la población resultante como por ejemplo la cantidad de individuos. Por su parte. se implementan para cada una de las clases el método inicializar. se hace una instanciación explicita de la clase CLista para las clases CEjemplo y CCromosoma. para la clase CLista se implementan todas las funcionalidades relacionadas con altas.7. ya que estas clases utilizan la funcionalidad de Templates provistas por el lenguaje C++. La mayor parte L. En la clase CNodo se implementa toda la lógica para insertar datos y modificarlos.1. Las clases CFuncionInicializarRandom y CFuncionInicializarRandomSelectiva sobrescriben el método inicializar de acuerdo a las características de cada implementación. En este archivo también se definen un conjunto de funciones simples que se utilizan en los diferentes módulos del proyecto.

h. el movimiento a lo largo de la estructura. la clase abstracta CFuncionMutacion contiene gran cantidad de métodos. se implementan tres variantes del operador de mutación.cpp: Es en este archivo donde se implementan cada una de las clases definidas en el archivo Mutacion.h: En este archivo se define el conjunto de clases que permiten realizar experimentos sobre varios tipos de operadores de mutación. donde cada una pertenece a una de las variantes descriptas en la sección 6.h: Esta clase define la estructura de datos que contendrá el conjunto de ejemplos que el usuario ingresa para el entrenamiento de una red neuronal.cpp: Es en este archivo donde se implementan los métodos definidos en el archivo ListaEjemplos. Esta clase se apoya en las clases CEjemplo y CLista para implementar sus funcionalidades.Entrenamiento de redes neuronales basado en algoritmos evolutivos de las funcionalidades que provee esta clase se implementan utilizando como soporte un objeto de la clase CLista definida previamente. 208 Metodología de software L. La principal diferencia entre los operadores es la manera en que actualizan la probabilidad de mutación. • ListaEjemplos. como se describe en la sección 6. Federico Bertona . que tomando como parámetro un cromosoma (objeto de la clase CCromosoma) realizan la mutación numérica o la mutación binaria del cromosoma. y entre los métodos más importantes se destacan mutar_numerica y mutar_bit. Dado que entre los diferentes operadores de mutación a estudiar se encuentran gran cantidad de similitudes. • Mutacion.6.6. y métodos para persistir la información en disco. • ListaEjemplos. El único atributo que se define en esta clase es un objeto de la clase CLista. El resto de las funcionalidades se encuentran implementadas para la clase CFuncionMutacion.h. Específicamente. los cuales heredan sus clases derivadas. El método mutar toma un objeto de la clase CPoblacion y realiza la mutación de todos los cromosomas que pertenecen a la misma. La mayor parte de las funcionalidades que provee esta clase se implementan utilizando como soporte un objeto de la clase CLista definida previamente. las cuales incluyen las altas. • Mutacion.1. bajas y modificaciones de ejemplos. bajas y modificaciones de cromosomas. las cuales incluyen las altas.1. y otros métodos relacionados con el movimiento a lo largo de la estructura. El único atributo que definido en esta clase es un objeto de la clase CLista. Esta clase se apoya en las clases CCromosoma y CLista para implementar sus funcionalidades. En este archivo se define CPoblacion como sinónimo de CListaCromosomas.h: Esta clase define la estructura de datos que contendrá el conjunto de cromosomas (población) que se utilizará durante una sesión de entrenamiento de una red neuronal basada en algoritmos evolutivos. • ListaCromosomas.

Esta clase es una clase virtual que sólo se utiliza para aplicar el concepto de polimorfismo sobre todas las clases que quieran utilizar listas. y un vector de objetos de tipo CCapa.cpp: En este archivo se implementan cada una de las clases definidas en el archivo Seleccion. • Rrnn. Por último. que se utilizan para ajustar las características de la sesión de entrenamiento. Específicamente. que define una interfaz común para todas las redes neuronales con conexión hacia delante. se definen diferentes clases de operadores de selección. También se encuentran diversos métodos para evaluar ejemplos y patrones de entrada. llamado seleccionar. se implementan cuatro variantes del operador de selección.cpp: La implementación de la clase CRRNN y sus clases derivadas se lleva a cabo en este archivo. para cada clase se implementan el método entrenar. y los que permiten persistir en disco la información de los objetos. Luego. cada clase derivada deberá sobrescribir únicamente el método entrenar. Se define la clase abstracta CFuncionSeleccion. devuelve la población de individuos que sobreviven y pasan a la próxima generación. De la clase CRRNN derivarán las clases específicas para cada topología como por ejemplo CBackPropagation. cada una de las cuales sobrescribe el método seleccionar. que tomando como parámetro el máximo error admisible entrena una red neuronal. Como se mencionó previamente gran parte de las funcionalidades provistas por este grupo de clases se definidas en la clase CRRNN. que tomando como parámetro la población actual (objeto de la clase CPoblacion). L. Entre los diversos métodos que se implementan encontramos aquellos que permiten la manipulación de estos atributos. • Rrnn.h. • Seleccion. dejando para las clases derivadas las implementaciones específicas de cada red neuronal.Entrenamiento de redes neuronales basado en algoritmos evolutivos • Objetos. donde cada una pertenece a una de las variantes descriptas en la sección 6.h: En este archivo se definen las clases necesarias para experimentar con el uso de diferentes operadores de selección. llamada CRRNN. el conjunto de ejemplos de entrenamiento y de evaluación que se utilizarán durante una sesión de entrenamiento (ambos son objetos de la clase CListaEjemplos). para ajustarlo a las características propias de la topología. También se definen algunos atributos extras. que mediante polimorfismo implementan la lógica de cada capa. Dado que se utilizan como soporte las clases derivadas de CCapa y el polimorfismo que proporciona el paradigma de programación utilizado.1. donde se definen la cantidad de capas (y neuronas por capa) de la red neuronal. La mayoría de los métodos se implementan a nivel de la clase CRRNN y se heredan en todas las clases derivadas. Federico Bertona Metodología de software 209 .4. • Seleccion. las cuales deben sobrescribir el método entrenar. Entre los atributos más importantes de la clase se encuentran la topología.h: En este archivo se define la clase CObjeto.h: En este archivo se define una clase abstracta. que contiene un único método.

manteniendo la definición.3. La principal ventaja de este esquema de capas es que permite.3. y que cada una de ellas realice una implementación diferente de la misma.h que posee funciones comunes a todos los bloques o funciones que no son específicas de un bloque (no se muestra para facilitar la comprensión del diagrama ya que todos los bloques se relacionan con él). De esta manera. Luego. Diagrama de interacción de módulos (*) La doble separación entre los módulos Red Neuronal y Algoritmo Genético representa una iteración lateral entre ambas clases. Estos a su vez hacen uso de una población que está representada en el módulo Lista Cromosomas. el módulo Algoritmo de Entrenamiento define una capa abstracta para entrenar redes neuronales.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. Esta interacción se produce ya que el cromosoma debe ser convertido en una red neuronal para ser evaluado en el módulo Evaluación. El módulo Algoritmo Genético utiliza los módulos Inicialización. Por su parte. Cruza y Mutación como soporte para entrenar la red neuronal. 210 Metodología de software L.7 se muestra un esquema que representa cómo interactúan los módulos vistos en la sección anterior.2.3. Selección. De esta manera. En la figura se muestra que existe una interacción lateral del módulo Algoritmo Genético con el módulo Red Neuronal. B. Cada módulo está representado por un archivo fuente.7.3. permite definir varias clases que compartan una definición común. Federico Bertona . No se representa el archivo include. Este último a su vez está implementado sobre las funcionalidades provistas en los módulos Lista y Ejemplo. al utilizar el paradigma de programación orientado a objetos. A su vez. Estructuras de datos En esta sección se explica con mayor nivel de detalle cada una de las estructuras de datos utilizadas en el proyecto. Esquema de interacción de bloques En la figura B. Evaluación. el ambiente es apropiado para la evaluación de diferentes algoritmos. Algoritmo Entrenamiento Algoritmo Genético (*) Red Neuronal(*) Inicialización Evaluación Selección Cruza Mutación Lista Ejemplos Capa Lista Cromosomas Cromosoma Lista Ejemplos Objeto Figura B. el módulo Red Neuronal requiere de los servicios prestados por los módulos Capa y Lista Ejemplo para llevar a cabo el entrenamiento de la red neuronal. dependiendo de las opciones de entrenamiento que seleccione el usuario invoca al módulo Algoritmo Genético o Red Neuronal. quien a su vez dispone de las funcionalidades prestadas por los módulos Lista y Cromosoma. modificar la implementación de una de las capas.

Entrenamiento de redes neuronales basado en algoritmos evolutivos

B.3.3.1. Lista
CLista
Primero Último Actual Cant_elementos Pos

CNodo
Datos Derecha Izquierda

Figura B.8. Listas Esta estructura de datos se utiliza para mantener el listado de individuos (cromosomas) que pertenecen a una determinada población, así como también para mantener en memoria el set de datos de entrenamiento y de evaluación. La clase CLista, que se muestra en la figura B.8, implementa una lista de datos doblemente enlazada. Contiene una conjunto de punteros (Primero, Último y Actual) a estructuras de datos del tipo CNodo. De esta manera permite moverse en la lista en diferentes posiciones. A su vez almacena la cantidad de elementos y la posición actual dentro de la lista para facilitar el desplazamiento por posiciones (numero de orden). La clase CNodo contiene un puntero a un objeto de la clase CObjeto (ver figura B.8). De esta manera, y utilizando polimorfismo, esta estructura de datos soporta objetos de cualquier clase, siempre que dicha clase extienda la clase CObjeto. A su vez, la clase CNodo contiene dos punteros (Izquierda y Derecha) a los nodos que se encuentran antes y después de él en la lista. B.3.3.2. Ejemplo
CEjemplo
Ejemplo Nro_inputs Nro_Outputs

Figura B.9. Ejemplos Esta clase se utiliza para mantener en memoria cada uno de los ejemplos (ya sean de entrenamiento o de evaluación). Extiende la clase CObjeto para poder ser utilizada en estructuras del tipo Lista. Contiene un vector con el conjunto de valores de entrada y salida deseada, así como también la cantidad de valores que corresponden a entradas y la cantidad que corresponden a las salidas deseadas (ver figura B.9).

L. Federico Bertona

Metodología de software

211

Entrenamiento de redes neuronales basado en algoritmos evolutivos B.3.3.3. Cromosoma
CCromosoma
Longi Cadena Fitness Max_error Min_error

Figura B.10. Cromosoma Esta clase se utiliza para mantener en memoria cada uno de los individuos que componen una determinada población. Extiende la clase CObjeto para poder ser utilizada en estructuras del tipo Lista (que representan a la población). Tal como se observa en la figura B.10, está compuesto por cinco atributos: la longitud del cromosoma, la cadena de genes que representa, el valor de adaptación (fitness) del individuo, y el máximo y mínimo error cometido.

B.3.4. Formato de los archivos de estadísticas
Durante una sesión de entrenamiento se almacenan los datos generados por el tras cada iteración en un archivo de log llamado “step_result.std”. La estructura del mismo se detalla en la Figura B.11. Step Max Error Min Error Error Error Hits Hits Hits Error Train Test Total Train Test Total Figura B.11. Estructura de archivo de estadísticas Train Time

El primer campo (step) contiene el número de iteración realizada. El campo Max Error contiene el error máximo que produce la red sobre el set de entrenamiento. Corresponde a la máxima diferencia entre la salida deseada y la salida obtenida para algún ejemplo del set de entrenamientos. Análogamente, Min Error contiene el mínimo error que produce la red neuronal sobre el set de entrenamiento. El campo Error Train contiene el error cuadrático medio que produce la red sobre el set de entrenamiento. Del mismo modo, el campo Error Test contiene el error cuadrático medio que produce la red neuronal con respecto al set de evaluación. El campo Error Total representa el error cuadrático medio sobre el total de ejemplos (set de entrenamiento y set de evaluación). El campo Hits Train contiene el porcentaje de aciertos (cantidad de ejemplos bien clasificados sobre el total), evaluados sobre el set de entrenamiento. Los campos Hits Test y Hits Total son similares pero se calculan sobre el set de evaluación y sobre el total de ejemplos respectivamente. Por último, el campo train time contiene el tiempo transcurrido en segundos desde el comienzo de la sesión de entrenamiento hasta el instante en que se 212 Metodología de software L. Federico Bertona

Entrenamiento de redes neuronales basado en algoritmos evolutivos registran las estadísticas. Como se mencionó en el capítulo 7, este campo se utiliza para hacer comparables las estadísticas de los distintos métodos de entrenamiento. Los valores de una misma línea del archivo de estadísticas corresponden a una misma iteración y se encuentran separados por tabulaciones.

B.4. Implementación
B.4.1. Pantallas
El sistema desarrollado consiste en una aplicación Windows. La pantalla principal del sistema se muestra en la figura B.12. Esta es la única ventana del sistema, ya que el resto de la aplicación se maneja a través de cuadros de diálogo. La información que se despliega en esta pantalla dependerá de la opción seleccionada en el menú Ver. Todas las funcionalidades implementadas se encuentran en el menú de la aplicación, y las más importantes contienen un icono dentro de la barra de herramientas de la aplicación.

Figura B.12. Pantalla Principal

L. Federico Bertona

Metodología de software

213

Entrenamiento de redes neuronales basado en algoritmos evolutivos

B.4.2. Funciones implementadas
A continuación se detalla el conjunto de funciones implementadas, y su organización en el menú de la aplicación (Figura B.13). Luego, se explica en detalle cada una de ellas. Nuevo Abrir Guardar Guardar Como Exportar pesos Importar ejemplos de entrenamiento Importar ejemplos de evaluación Imprimir Presentación preliminar Configurar impresora Salir Barra de herramientas Barra de estado Ejemplos de entrenamiento Ejemplos de evaluación Red Neuronal Errores de entrenamiento Errores de evaluación Topología Ejemplos de entrenamiento Red Ejemplos de evaluación Entrenar Evaluar Configurar Ayuda Algoritmo Genético Red Neuronal Tipo de entrenamiento Acerca de Figura B.13. Estructura del menú Agregar Modificar Eliminar Agregar Modificar Eliminar

Archivo

Ver

B.4.2.1. Menú Archivo > Nuevo Crea un nuevo documento. El documento se crea totalmente vacío y se resetean todos los opciones a sus valores default.

214

Metodología de software

L. Federico Bertona

Entrenamiento de redes neuronales basado en algoritmos evolutivos B.4.2.2. Menú Archivo > Abrir Abre un cuadro de diálogo standard de Windows para seleccionar el archivo que se desea abrir, como se muestra en la figura B.14.

Figura B.14. Abrir Archivo B.4.2.3. Menú Archivo > Guardar Guarda las modificaciones realizadas sobre un archivo existente. En caso de que el archivo no haya sido guardado previamente el procedimiento es similar a la opción Guardar como que se explica a continuación. B.4.2.4. Menú Archivo > Guardar Como Abre un cuadro de diálogo standard de Windows para ingresar el nombre con el que se desea guardar el archivo, como se muestra en la figura B.15.

Figura B.15. Guardar archivo L. Federico Bertona Metodología de software 215

En la figura B.2. Menú Archivo > Exportar Pesos Abre un cuadro de diálogo standard de Windows para ingresar el nombre con el que se desea guardar el archivo que contiene el conjunto de pesos.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. Figura B.16 se muestra el diálogo mencionado previamente. Figura B. Estos ejemplos son importados como ejemplos de entrenamiento. Importar ejemplos 216 Metodología de software L.6.4.17. como se muestra en la figura B. Federico Bertona .17.16. Exportar pesos B.4. Menú Archivo > Importar Ejemplos de Entrenamiento Abre un cuadro de diálogo standard de Windows para seleccionar el archivo que contiene el conjunto de ejemplos.2.5.

Figura B.7.4. Menú Archivo > Imprimir Abre un cuadro de diálogo standard de Windows para imprimir. B. Desde este diálogo se puede imprimir el documento.18.8.18. L. Menú Archivo > Presentación Preliminar Abre un cuadro de diálogo standard de Windows para obtener una vista previa de la impresión (ver figura B.2.2. Menú Archivo > Importar Ejemplos de Evaluación Esta opción es similar a la anterior sólo que los ejemplos son importados como ejemplos de evaluación.4.19). Federico Bertona Metodología de software 217 .4.2.9. como el que se muestra en la figura B.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. Imprimir B.

Menú Archivo > Configurar Impresora Abre un cuadro de diálogo standard de Windows para configurar la impresora. Federico Bertona .2.19.10.20.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B. como el que se muestra en la figura B. Figura B.4.2. Todas estas están relacionadas con la forma en que se visualiza la información en pantalla: 218 Metodología de software L.11. Configurar Impresora B.20. Menú Ver Este menú contiene varias opciones. Presentación preliminar B.4.

Topología B. Errores de evaluación: Despliega en la pantalla principal el set de datos de evaluación junto con el error cometido por la red neuronal al clasificarlo. Barra de estado: Habilita/Deshabilita la barra de estado. Ejemplos de evaluación: Despliega en la pantalla principal el set de datos de evaluación. Menú Red > Ejemplos de entrenamiento > Agregar Abre un cuadro de diálogo donde el usuario puede ingresar los valores de entrada y salida deseada del nuevo ejemplo de entrenamiento.21 se pueden observar las distintas características de la topología que se pueden configurar. Red Neuronal: Muestra gráficamente en la pantalla principal la topología de la Red Neuronal. Menú Red > Topología Abre un cuadro de diálogo donde el usuario puede definir la topología de la red neuronal que desea entrenar. L. B.13.2. Ejemplos de entrenamiento: Despliega en la pantalla principal el set de datos de entrenamiento. Federico Bertona Metodología de software 219 . Errores de entrenamiento: Despliega en la pantalla principal el set de datos de entrenamiento junto con el error cometido por la red neuronal al clasificarlo.Entrenamiento de redes neuronales basado en algoritmos evolutivos • • • • • • • Barra de herramientas: Habilita/Deshabilita la barra de herramientas.4. Figura B.22.2.21. como se muestra en la figura B. En la figura B.4.12.

220 Metodología de software L. El usuario debe seleccionar en primer lugar cual es el número de ejemplo a modificar (ver figura B. Agregar Ejemplo B.22. Menú Red > Ejemplos de entrenamiento > Modificar Permite al usuario modificar uno de los ejemplos de entrenamiento ya ingresados.14.2.24) donde el usuario visualiza los valores actuales e ingresa los nuevos valores.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B. Federico Bertona .23). Seleccionar ejemplo Una vez seleccionado el ejemplo se despliega un cuadro de diálogo (figura B. Figura B.4.23.

23.25. Menú Red > Ejemplos de entrenamiento > Eliminar Permite al usuario eliminar uno de los ejemplos de entrenamiento ya ingresados. como se muestra en la figura B.24.15. Figura B.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B.25. Eliminar ejemplo L. El usuario debe seleccionar en primer lugar cual es el número de ejemplo a eliminar. como se muestra en la figura B.4. Federico Bertona Metodología de software 221 . Una vez seleccionado el ejemplo se despliega un cuadro de diálogo donde el usuario visualiza los valores actuales y confirma o cancela la operación solicitada. Modificar ejemplo B.2.

Entrenamiento de redes neuronales basado en algoritmos evolutivos B.4.4. Una vez verificado que las opciones sean las deseadas. como se muestra en la figura B. el usuario puede iniciar una sesión de entrenamiento haciendo click en el botón Run. Cada una de ellas funciona de la misma manera que las descriptas en las ultimas 3 secciones.26.17.2. Menú Red > Evaluar Esta opción permite al usuario evaluar la respuesta que produce una red neuronal previamente entrenada sobre un patrón de entrada determinado (ver figura B. Modificar y Eliminar).15. 222 Metodología de software L. Menú Red > Entrenar Despliega un cuadro de diálogo donde se visualizan todas las opciones seleccionadas del algoritmo de entrenamiento.2. sólo que lo hace sobre el conjunto de ejemplos de evaluación B.2. Federico Bertona . Entrenar Red Neuronal B.4. Figura B.26.27).16. Menú Red > Ejemplos de Evaluación Esta opción del menú tiene a su vez tres subopciones (Agregar.

Evaluar ejemplo B.Entrenamiento de redes neuronales basado en algoritmos evolutivos Figura B.18. El conjunto de parámetros configurables se observa en la figura B.28. Menú Configurar > Algoritmo Genético Despliega un cuadro de diálogo donde el usuario puede ingresar los valores deseados para cada uno de los parámetros que componen el algoritmo de entrenamiento basado en algoritmos genéticos. Configurar algoritmo genético L.4. Federico Bertona Metodología de software 223 .28.27.2. Figura B.

Figura B. Configurar Red Neuronal B. Figura B.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.29.2.19. Menú Configurar > Tipo Entrenamiento Despliega un cuadro de diálogo donde el usuario puede ingresar el tipo de algoritmo de entrenamiento deseado y la cota máxima de error admitido.30. como se muestra en la figura B. Menú Configurar > Red Neuronal Despliega un cuadro de diálogo donde el usuario puede ingresar los valores deseados para cada uno de los parámetros que componen el algoritmo de entrenamiento propio de la topología de la red neuronal. como se muestra en la figura B.4.29.30.4. Federico Bertona . Configurar tipo de entrenamiento 224 Metodología de software L.2.20.

4.2.4.3. Plan de pruebas B.4.3. Solamente se realizan pruebas parciales del sistema. sabiendo cuál debe ser el resultado final.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.3. por tratarse de un simulador cuyos resultados son no determinísticos. Federico Bertona Metodología de software 225 .3 – Especificación de los casos de prueba. Bueno: Cuando el resultado obtenido luego de realizada la prueba no fue el resultado citado Procedimiento pruebas L. probar Método de prueba a Prueba por comparación de resultados y adivinación de errores.4.4. en la misma se presenta el plan de pruebas y posteriormente el desarrollo de las mismas. Algoritmo de entrenamiento Funcionamiento del algoritmo de entrenamiento de la red neuronal.4.3.3.3.1. Plan de pruebas Objetivo de la prueba Objetos a probar Características a probar Detectar errores de programación y funcionamiento del algoritmo de entrenamiento. registrándose las diferencias que se detecten entre el resultado esperado y el obtenido. Muy bueno: Cuando el resultado obtenido luego de realizada la prueba es parecido al resultado citado en la sección B. La prueba se hará sobre plataforma Windows. Cantidad de pruebas a 12 utilizar Características a no Performance (velocidad de ejecución) del algoritmo de entrenamiento. Métodos de prueba a Se compararán los resultados obtenidos con los resultados esperados al hacer el cálculo del utilizar algoritmo en forma manual. Pruebas En esta sección se presenta el detalle de pruebas utilizadas para la validación de la solución. utilizar Tabla B. debido a que resulta imposible probar el sistema completo.3 – Especificación de los casos de prueba. Criterios para la Los criterios para la aprobación de las pruebas aprobación de las se describen a continuación: Excelente: Cuando el resultado obtenido luego pruebas de realizada la prueba es idéntico al resultado citado en la sección B. B.2. Documento de diseño de la prueba de Las pruebas serán llevadas a cabo de acuerdo a lo descripto en la sección B.3 – Especificación de los casos de prueba.

4. pero ha provocado anomalías en el funcionamiento del programa. pero ha provocado anomalías graves en el funcionamiento del programa tales como la salida del sistema o “colgarse”.3. pero no ha provocado anomalías en el funcionamiento del programa.3 – Especificación de los casos de prueba.3.3.4. Tabla B. Diseño de la prueba 226 Metodología de software L.3 – Especificación de los casos de prueba. Regular: Cuando el resultado obtenido luego de realizada la prueba no fue el resultado citado en la sección B. Malo: Cuando el resultado obtenido luego de realizada la prueba no fue el resultado citado en la sección B. Federico Bertona .Entrenamiento de redes neuronales basado en algoritmos evolutivos en la sección B.3 – Especificación de los casos de prueba.4.3.

Los resultados esperados se especifican en la sección B.4. L. Los resultados esperados se especifican en la sección B.0xDA00C580 (valor equivalente en TCromosoma) equivalente en Parámetro 0xDA00C580 value= -15.3.1 (valor TPeso) 3 4 5 Cruzar dos cromosomas 6 Cruzar dos cromosomas 7 Cruzar dos cromosomas Un objeto de tipo CCromosoma con los valores especificados en la sección B.4. Los resultados esperados se especifican en la sección B.7. Especificación de los casos de prueba ÍTEM 1 2 OBJETIVO Transformar un valor del tipo TPeso en un tipo TCromosoma Transformar un valor del tipo TCromosoma en un tipo TPeso Transformar un cromosoma en la red neuronal que representa.4.3.7. Cruzar dos cromosomas ACCIÓN Ejecutar la función de transformación ToTCromosoma con la entrada especificada Ejecutar la función de transformación FromTCromosoma con la entrada especificada Ejecutar la función de morfogénesis con la entrada especificada Ejecutar el método de cruza de la clase CFuncionCruzaUniforme para dos cromosomas Ejecutar el método de cruza de la clase CFuncionCruzaBinomial para dos cromosomas Ejecutar el método de cruza de la clase CFuncionCruzaSimple para dos cromosomas Ejecutar el método de cruza de la clase CFuncionCruzaMultiPuntos para dos cromosomas ENTRADA Parámetro 15.4. Dos objetos de tipo CCromosoma con los valores especificados en la sección B.4.7.3.3.3.3. Federico Bertona Metodología de software 227 .4.3.7.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.7. Los resultados esperados se especifican en la sección B.7.3.3. Dos objetos de tipo CCromosoma con los valores especificados en la sección B.1 value= RESULTADO ESPERADO .7. Los resultados esperados se especifican en la sección B.7.3.3. Dos objetos de tipo CCromosoma con los valores especificados en la sección B.4.4.7.7.4.4.3. Dos objetos de tipo CCromosoma con los valores especificados en la sección B.4.

Un objeto de tipo Entrenar una red CAlgoritmoEntrenamie Los resultados esperados se neuronal con el método Ejecutar el método run de la clase nto con los valores especifican en la sección basado en algoritmos CAlgoritmoEntrenamiento especificados en la B.7. Calcular el error Un objeto de tipo cuadrático medio que Ejecutar el método Los resultados esperados se CRRNN con los produce una red evaluar_ejemplos de la clase especifican en la sección valores especificados neuronal sobre un set de CRRNN B.4.3.3.7. datos de entrenamiento Un objeto de tipo Entrenar una red CAlgoritmoEntrenamie Los resultados esperados se Ejecutar el método run de la clase neuronal con el método nto con los valores especifican en la sección CAlgoritmoEntrenamiento clásico especificados en la B.3.7.4.3.4.4.4.4.7. 9 10 11 12 Un objeto de tipo Actualizar los pesos tras CAlgoritmoEntrenamie Los resultados esperados se Ejecutar el método run de la clase la presentación de un nto con los valores especifican en la sección CAlgoritmoEntrenamiento patrón de entrenamiento especificados en la B.4. sección B.2.1 Inicializar cromosomas Ejecutar el método init_random de Máximo=0.7. sección B. genéticos sección B.4. en la sección B. Tabla B.3. Especificación de los casos de prueba 228 Metodología de software L.0001 con valores aleatorios en la clase CCromosoma Mínimo=-0.3.7. Federico Bertona .3.0001 un rango OBJETIVO ACCIÓN RESULTADO ESPERADO Red neuronal con la topología especificada y con valores de pesos variando dentro del rango.3.7.7.Entrenamiento de redes neuronales basado en algoritmos evolutivos ÍTEM 8 ENTRADA Topología=2.4.

L.4.4.3.3.7. Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma clase CFuncionCruzaSimple para dos con los valores especificados en la cromosomas sección B.7.3. Los resultados esperados se especifican en la sección B.4.4. Los resultados esperados se especifican en la sección B.7.3. Red neuronal con la topología especificada y con valores de pesos variando dentro del rango. Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma clase CFuncionCruzaUniforme para con los valores especificados en la dos cromosomas sección B. Los resultados esperados se especifican en la sección B.0001 clase CCromosoma RESULTADO ESPERADO 0xDA00C580 TCromosoma) (valor equivalente en -15.4.4. Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma clase CFuncionCruzaBinomial para con los valores especificados en la dos cromosomas sección B.7.7.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.1 (valor equivalente en TPeso) Los resultados esperados se especifican en la sección B.7.3.3. Especificación del procedimiento de prueba ÍTEM 1 2 3 4 5 6 7 8 ACCIÓN ENTRADA Ejecutar la función de transformación ToTCromosoma con la entrada Parámetro value= -15.4.1 especificada Ejecutar la función de transformación FromTCromosoma con la entrada Parámetro value= 0xDA00C580 especificada Un objeto de tipo CCromosoma Ejecutar la función de morfogénesis con los valores especificados en la con la entrada especificada sección B.4.7.4.3.7. Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma clase CFuncionCruzaMultiPuntos con los valores especificados en la para dos cromosomas sección B.4. Los resultados esperados se especifican en la sección B.3.0001 Ejecutar el método init_random de la Mínimo=-0.3. Topología=2.3.2.1 Máximo=0.4.7.7.4.3. Federico Bertona Metodología de software 229 .

sección B.5. sección B.3.7.4.7. Un objeto de tipo CRRNN con los Ejecutar el método evaluar_ejemplos Los resultados esperados se especifican valores especificados en la de la clase CRRNN la sección B.3.3.5.1 RESULTADO OBTENIDO 0xDA00C580 -15.3.7.3. Tabla B.1 Ejecutar la función de transformación ToTCromosoma con la entrada Parámetro value= -15.4.4.3.7.Entrenamiento de redes neuronales basado en algoritmos evolutivos ÍTEM 9 10 11 12 ENTRADA RESULTADO ESPERADO Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los Los resultados esperados se especifican CAlgoritmoEntrenamiento valores especificados en la la sección B.4. sección B. Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los Los resultados esperados se especifican CAlgoritmoEntrenamiento valores especificados en la la sección B.3.7.4.3.7. Informe de los casos de prueba ejecutados ÍTEM 1 2 ACCIÓN ENTRADA RESULTADO ESPERADO 0xDA00C580 -15.4.7.4.7. sección B. Especificación del procedimiento de prueba ACCIÓN en en en en B. Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los Los resultados esperados se especifican CAlgoritmoEntrenamiento valores especificados en la la sección B.1 especificada Ejecutar la función de transformación FromTCromosoma con la entrada Parámetro value= 0xDA00C580 especificada 230 Metodología de software L. Federico Bertona .4.3.4.

7.3.Entrenamiento de redes neuronales basado en algoritmos evolutivos ÍTEM ACCIÓN ENTRADA RESULTADO ESPERADO 3 Los resultados Un objeto de tipo CCromosoma con Ejecutar la función de morfogénesis esperados se los valores especificados en la con la entrada especificada especifican en la sección B.7.4.4.3.4.3. sección B. 4 5 6 RESULTADO OBTENIDO Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.7.3. Los resultados Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma esperados se clase CFuncionCruzaUniforme para con los valores especificados en la especifican en la dos cromosomas sección B. sección B.4. Los resultados Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma esperados se clase CFuncionCruzaSimple para dos con los valores especificados en la especifican en la cromosomas sección B.3.4.4. L.7.3.4.3.4.7.3.4.7. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.3. Federico Bertona Metodología de software 231 .7. Los resultados Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma esperados se clase CFuncionCruzaBinomial para con los valores especificados en la especifican en la dos cromosomas sección B.7. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.4.7. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.4.7.3.7. sección B. sección B.3.7.4.3.

4.3. 10 os resultados Un objeto de tipo CRRNN con los Ejecutar el método evaluar_ejemplos esperados se valores especificados en la sección de la clase CRRNN especifican en la B.3. Los resultados esperados se especifican en la sección B.7.4.7.2.4.4.0001 especificada y con valores de pesos variando dentro del rango.Entrenamiento de redes neuronales basado en algoritmos evolutivos ÍTEM ACCIÓN ENTRADA RESULTADO ESPERADO 7 Los resultados Ejecutar el método de cruza de la Dos objetos de tipo CCromosoma esperados se clase CFuncionCruzaMultiPunto para con los valores especificados en la especifican en la dos cromosomas sección B.7.3.7. Red neuronal con la topología Máximo=0.3. 232 Metodología de software L.7.3.3.3.7.0001 clase CCromosoma 9 Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los CAlgoritmoEntrenamiento valores especificados en la sección B. Federico Bertona .4. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.3.4.4.4. RESULTADO OBTENIDO Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.3.4. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.4. sección B.7.1 Ejecutar el método init_random de la Mínimo=-0.3. sección B.7. 8 Topología=2.7.7.

3. 12 RESULTADO OBTENIDO Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.7.3.4.4. 11 Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los CAlgoritmoEntrenamiento valores especificados en la sección B.3.7.4. Informe de los casos de prueba ejecutados L. Un objeto de tipo Ejecutar el método run de la clase CAlgoritmoEntrenamiento con los CAlgoritmoEntrenamiento valores especificados en la sección B.7.7.3.7.4.3. Los resultados esperados se especifican en la sección B. Federico Bertona Metodología de software 233 . Tabla B.7.6.3. Los resultados obtenidos son coincidentes con los esperados y se especifican en la sección B.4.4.Entrenamiento de redes neuronales basado en algoritmos evolutivos ÍTEM ACCIÓN ENTRADA RESULTADO ESPERADO Los resultados esperados se especifican en la sección B.

5 Peso 4.2.5.0 = 0.1] Cromosoma=[0.100000 Peso 3.100000 Tabla B.25.1 = -0.4.3 = 0.2.7.25 Peso 3.1 = -1. Informe de la prueba Tras una serie de iteraciones.1.2.1 = -0. Federico Bertona .5 Umbral 3= -0.0 = 0. basándose en los criterios definidos en la sección B.6.4.1 0xDA00C580 Valor de entrada: -15.-0.0. se concluye que el resultado de las pruebas es excelente.-0.250000 Peso 3. Se dan por cumplimentadas las pruebas y se anexa en la sección B.5.7 el detalle de las 12 pruebas realizadas.7. donde se fueron detectando y corrigiendo errores.001 Umbral 4= -1 NEURONA 0 Peso 2.0 = 0. Detalle de la prueba Nº 2 Ítem Acción Entrada Resultado Esperado Ítem Acción Entrada 3 Ejecutar la función de morfogénesis Cantidad de capas=3 Topología= Backpropagation [2.0.4.2.0 = 0.3.100000 Resultado Obtenido Valor obtenido: DA00C580 Tabla B.4.2 Peso 2.-1.1 Peso 3.001.0. Detalle de la prueba Nº 1 Ítem Acción Entrada Resultado Esperado 2 Transformar un TCromosoma en un TPeso 0xDA00C580 -15.000000 Resultado Esperado Resultado Obtenido 234 Metodología de software L.200000 NEURONA 1 Peso 2. las pruebas resultaron satisfactorias para los 12 casos estudiados.8.1.3.1 = -1 Umbral 2= 0.-1] Peso 2. Por lo tanto. Anexo con pruebas realizadas 1 Transformar un TPeso en un TCromosoma -15. B.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.3.2 Peso 4.2 = 1. ya que en todos los casos se obtuvieron los resultados especificados.1 Valor de entrada: DA00C580 Resultado Obtenido Valor obtenido: -15.3.

0.00 -1.25.2 = 1.7.00 -1.00 -1.00 -1.-0. -1.00 -0.10 -1.500000 Umbral 3= -0.2.50 -0. 1= (0. tomando los puntos de cruza posibles.001.20 -1.1) Cantidad de capas=3 Cualquier cruza valida. -1. -1.0. -1.20 -1.25.Entrenamiento de redes neuronales basado en algoritmos evolutivos Umbral 2= 0.-0.00 -1.001.2. 1= (0.2.2. -1.1.-0. Federico Bertona 6 Ejecutar el método de cruza de la clase CFuncionCruzaSimple Cromo.00 -1. -1) Entrada Topología=(2.50 -0.5.9.6.1.-1.00 -1.8.-1) Cromo.4.00 -1.00 -0.1. -1.00 Tabla B.0.50 1.5.25 0.8.2.00 -1.00 -1. para Resultado Esperado esta topología son los siguientes: Puntos de cruza (0.200000 NEURONA 3 Peso 4.-1.3 = 0. para Resultado Esperado esta topología son los siguientes: Puntos de cruza (0.00 0.2.5. 2= (-1.7. Detalle de la prueba Nº 4 Ítem 5 Ejecutar el método de cruza de la clase Acción CFuncionCruzaBinomial Cromo.10. 2= (-1.-0. -1. -1.2. tomando los puntos de cruza posibles.00 Tabla B. 1= (0.5.2.-1) Metodología de software 235 .0. -1.0.9) 0. Los puntos de cruza posibles. Detalle de la prueba Nº 3 4 Ejecutar el método de cruza de la clase Acción CFuncionCruzaUniforme Cromo.20 0.00 0.001.0.-1) Cromo.00 Resultado Obtenido -1.11.50 -1.10 -1.5.-0.-1.500000 NEURONA 2 Peso 4. -1.0.000000 Tabla B.001000 Umbral 4= -1. -1) Entrada Topología=(2.1.00 -1. Los puntos de cruza posibles.25 0.1) Cantidad de capas=3 Cualquier cruza valida.4.00 Resultado Obtenido -1.5.00 0.1.0.20 -1.9) 0.00 -1.00 -1.2. -1.6.00 -1. -1.2.00 1.25.1. -1.-0. -1.0. Detalle de la prueba Nº 5 Ítem Ítem Acción Entrada L.

00 -1.00 0. -1.0.10 -1.9) 0.20 -0.00 -1.25 0.10 -1.20 0. Detalle de la prueba Nº 6 7 Ejecutar el método de cruza de la clase Acción CFuncionCruzaMultiPuntos Cromo. -1.000067 Peso 3.20 -1.2.2.000076 236 Metodología de software L.00 -1.8. -1.50 -0.50 -1.00 Tabla B. Federico Bertona Resultado Esperado Resultado Obtenido .25.4.00 -1.-1.000011 Umbral 3= -0. -1.-1) Cromo.00 Resultado Obtenido -1.1.25 0.2.50 1.4.8.2.00 0.0.6. 2= (-1.000027 Peso 3.00 1. Detalle de la prueba Nº 7 Ítem Ítem Acción Entrada 8 Ejecutar el método init_random de la clase cromosoma Topología=(2.7.20 -1.1) Cantidad de capas=3 Cualquier cruza valida. -1) Topología=(2. para Resultado Esperado esta topología son los siguientes: Puntos de cruza (0. 2= (-1. -1. -1.2.00 -1.001. -1.0001 Valor mínimo de inicialización: -0.00 -1. -1. Los puntos de cruza posibles.00 -1. -1.13.00 -1.000098 Umbral 2= -0. tomando los puntos de cruza posibles.00 -1.00 Resultado Obtenido -1.6. -1.00 -0.Entrenamiento de redes neuronales basado en algoritmos evolutivos Cromo.00 -1.5.0.0001 Una red neuronal con la topología indicada. para Resultado Esperado esta topología son los siguientes: Puntos de cruza (0. cuyos pesos sinápticos iniciales se encuentren dentro del rango determinado. NEURONA 0 Peso 2.00 -1.5. 1= (0. -1.1 = 0. -1.50 -0.-0. -1) Entrada Topología=(2. tomando los puntos de cruza posibles.1) Cantidad de capas=3 Valor máximo de inicialización: 0.-0.2.7.00 -1. -1. -1.1) Cantidad de capas=3 Cualquier cruza valida.00 -1.0 = -0.00 Tabla B.00 0.000071 NEURONA 1 Peso 2. Los puntos de cruza posibles.00 -1.00 -1.9) 0.12.2.1.0 = -0.1 = -0.

500000 Umbral 3= -0.3 = -0. Detalle de la prueba Nº 9 L.1 = -1.000000 Umbral 2= 0.0 = 0.2 = 1.0.250000 Peso 3.499977 NEURONA 2 Peso 4.2 = 1.2 = -0.971465 NEURONA 0 Peso 2.0 = 0.1 = -0.526370 Umbral 3= -0.214637 Peso 4.000023 Resultado Obtenido Umbral 2= 0.200000 Peso 2.0) Red inicial: Peso 2.250000 Peso 3.000099 NEURONA 3 Peso 4. Detalle de la prueba Nº 8 Ítem Acción 9 Ejecutar el método run de la clase CalgoritmoEntrenamiento Topología=(2.000098 Umbral 4= -0.200000 NEURONA 1 Peso 2.0 = 0.971465 Tabla B.15. Federico Bertona Metodología de software 237 Entrada Resultado Esperado .013386 Umbral 4= -0.2 = 1.2.000023 Umbral 2= 0.0 = 0.100000 Peso 3.1 = -1.013386 Umbral 4= -0.526370 Umbral 3= -0.250000 Peso 3.000024 Tabla B. Los valores de los pesos tras una aplicación del algoritmo son los siguientes: Peso 2.214637 NEURONA 3 Peso 4.500000 Peso 4.1 = -0.000000 Red neuronal tras la aplicación del algoritmo backpropagation.499977 Peso 4.3 = 0.3 = 0.1) Cantidad de capas=3 Ejemplo (1.3 = 0.200000 Peso 4.0 = 0.126370 Peso 3.Entrenamiento de redes neuronales basado en algoritmos evolutivos NEURONA 2 Peso 4.200000 Peso 2.001000 Umbral 4= -1.1 = -1.1 = -0.126370 Peso 3.14.0 = 0.

1)} Tipo Entrenamiento: RRNN Máximo error rms: 0.676036 Peso 4.1 = 0.2.0). (1.01 Error rms = 0. Red obtenida: NEURONA 0 Peso 2.01 Red Neuronal entrenada con error rms<0.0.3 = -1.1.0 = -1.1) Cantidad de capas=3 Ejemplos {(0.0).288126 Peso 3. Detalle de la prueba Nº 10 Ítem Ítem Acción 11 Ejecutar el método run de la CAlgoritmoEntrenamiento Topología=(2. (0. (1.741078 Entrada Peso 2.120917 Tabla B.3 = 0. Federico Bertona .1 = -1.0).0).1 = -0. (1.256081 Peso 3.1.0.314117 Peso 3.0 = -1.658615 Umbral 3= 1.286642 NEURONA 1 Peso 2.0 = -0.2.0).1.009997 Resultado Esperado Resultado Obtenido El error rms es: 0.222432 NEURONA 3 Peso 4.16.2 = 0.009997 Tabla B.1)} Red inicial: Peso 2.296435 Resultado Obtenido Umbral 2= -0. Detalle de la prueba Nº 11 clase Entrada Resultado Esperado 238 Metodología de software L. (0.2 = -1.741409 Umbral 2= -2.0).1 = -1.083380 Umbral 4= -1.040693 Peso 4.1.1) Cantidad de capas=3 Ejemplos {(0. (1.016420 Umbral 4= -1.497676 NEURONA 2 Peso 4.0 = 0.263248 Umbral 3= -2.151829 Error rms = 0.Entrenamiento de redes neuronales basado en algoritmos evolutivos 10 Ejecutar el método evaluar_ejemplos de la clase Acción CRRNN Topología=(2.009879.0.320710 Peso 3.17.0.

. .927385 NEURONA 2 Peso 4.1.009938.0. L.0.0 = 0.198176 Resultado Obtenido Umbral 2= 0.0).3 = -0.0). B. Federico Bertona Metodología de software 239 .0 = 8.Control de la configuración. .1)} Tipo Entrenamiento: AGS Máximo error rms: 0.18.2 = 2.01 Red Neuronal entrenada con error rms<0.098954 NEURONA 1 Peso 2.477970 Peso 3.Entrenamiento de redes neuronales basado en algoritmos evolutivos Ítem Acción 12 Ejecutar el método run de la CAlgoritmoEntrenamiento Topología=(2.1) Cantidad de capas=3 Ejemplos {(0.2.475004 Umbral 3= 3.244734 Umbral 4= -0.1 = 0. Para ello se describen algunos puntos relacionados con la gestión de configuración.Generación de informes de estado. . Red obtenida: NEURONA 0 Peso 2.Identificación de la configuración.1 = 9. Mantenimiento En esta sección se exponen algunas cuestiones referentes al mantenimiento de la aplicación.Ciclo de vida del Software: Modelo de espiral. B.1.1.471516 Peso 3.Nombre de la aplicación: EasyTrain. (0.1. (1.01 Error rms = 0.5.Objetivo de la Aplicación: Entrenar redes neuronales con conexión hacia delante. (1.436489 Tabla B. Gestión de configuración Las actividades de Gestión de Configuración que se realizarán en este proyecto son: .109279 NEURONA 3 Peso 4.5.1.5. Detalle de la prueba Nº 12 clase Entrada Resultado Esperado B. Identificación de la configuración .0).

Requerimientos .4).3.7).6).5).Especificación de los casos de prueba (Sección B.4. Codificación .3.5.Informe de los casos de prueba ejecutados (Sección B. .3.Entrenamiento de redes neuronales basado en algoritmos evolutivos .4. .Informe de la prueba (Sección B.Especificación del procedimiento de prueba (Sección B.3.Control de la Configuración (Sección B.1).4. dado que es una sola persona. Implementación .4. .3).Identificación de la Configuración (Sección B.Fases del Ciclo de vida: Se enumeran las fases para este proyecto y se determinan los productos que se espera obtener al final de cada una de ellas: 1.Documento de diseño de la prueba (Sección B.4. el tesista. Mantenimiento .2).3.Generación de Informes de Estado (Sección B. .1).4.2).Código fuente de los principales programas diseñados.3).4.5. 240 Metodología de software L.Pantallas (Sección B.4.1). se ha definido una sola línea base para todo el proceso de Desarrollo. En este caso el criterio es que.3). . programas y diseño de archivos (Sección B.2).Documento de especificación de requerimientos donde se detallan todas las funcionalidades requeridas para poder cumplir con el objetivo del sistema (Sección B. Federico Bertona .3. 3.1. . . . 5.1. .Comandos implementados (Sección B.Líneas Base establecidas: Para el desarrollo del presente trabajo se han acotado las líneas base como los elementos de configuración definidos.2).Anexo con pruebas realizadas (Sección B.1).Especificación de plataforma. . quien realiza la documentación del proyecto y la programación. 4. .3. 6.4. Análisis .Casos de uso (Sección B.5.1. Programación e Implementación cuyas fases y elementos de configuración se detallaron anteriormente.Plan de pruebas (Sección B. 2. Diseño .

1. La decisión tomada queda registrada en la Base de Datos de Cambios.Generación de la orden de cambio: El informe generado durante la evaluación de la solicitud de cambio.Análisis de la solicitud de cambio: Cada solicitud de cambio debe ser analizada y se debe decidir si se rechaza o se acepta el cambio.5.1. a través de la modificación de manuales y documentos que deban reflejar el cambio. L. y el costo estimado. se registra y se realiza el control de la modificación. se somete a análisis asignándole la prioridad y los recursos necesarios.Prueba e implementación del cambio: Se certifica que el cambio funciona correctamente y se procede a su implementación. se completa la correspondiente solicitud. . Se emite una Orden de Cambio. Federico Bertona Metodología de software 241 .Realización del cambio: Se realiza el cambio. Control de configuración Utilizando como fuente de información. La evaluación realizada.3 Generación de informes de estado A continuación se detallan algunos de los informes que incluyen la Gestión de Configuración y los datos relevantes que incluye cada uno. control y seguimiento una Base de Datos de Cambios. . se la ingresa en la Base de Datos de cambios. las repercusiones que dicho cambio genera en otros elementos.5.Generación de una solicitud de cambio: Ante el requerimiento de un cambio funcional o un reporte de error. se debe realizar la evaluación técnica de la misma.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. . B.Evaluación de la solicitud de cambio: Si se decide la aceptación de la solicitud de cambio.Ingreso de la solicitud a la Base de Datos de cambios: Una vez recibida la solicitud de cambio. se implementa el siguiente mecanismo para el control de los mismos: . .2. emitiendo un informe en donde se exprese el esfuerzo requerido para satisfacer el pedido. . queda registrada en la Base de Datos de Cambios. .

5.1.1. Solicitud de cambios Sistema: EasyTrain Fecha: dd/mm/aaaa Pedido por: Resultado de la evaluación: ACEPTADO | RECHAZADO Cambio solicitado: Solución propuesta: Elementos del producto software afectados por el cambio: Documentación anexa presentada: Solución propuesta por el área de desarrollo: Tiempo estimado en horas (análisis.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. programación y prueba e implementación): Cronograma de desarrollo e implementación: Plan de pruebas: Figura B. Solicitud de cambios 242 Metodología de software L.3.31. Federico Bertona .

Registro de cambios Sistema: EasyTrain Fecha: dd/mm/aaaa Pedido por: Nro.5.3.5.2. solicitud de cambio: Cambio a realizar: Elementos del producto software afectados por el cambio: Tiempo estimado en horas (análisis. Federico Bertona Metodología de software 243 .33. solicitud de cambio: Fecha de solicitud: dd/mm/aaaa Descripción breve del problema: Fecha de evaluación: dd/mm/aaaa Resultado de la evaluación: ACEPTADO | RECHAZADO Comentarios: Prioridad asignada: ALTA | MEDIA | BAJA Estado actual del pedido: Fecha de terminación: dd/mm/aaaa Figura B. programación y prueba e implementación): Comentarios del cambio: Fecha de entrega: dd/mm/aaaa Figura B.3.32.3. Registro de cambios L.Entrenamiento de redes neuronales basado en algoritmos evolutivos B.1. Orden de cambios B.1. Orden de cambios Sistema: EasyTrain Fecha: dd/mm/aaaa Pedido por: Nro.

3.34.3.1. Registro de instalaciones B. Registro de instalaciones Sistema: EasyTrain Fecha: dd/mm/aaaa Nro.35.5. solicitud de cambio: Descripción breve del problema: Fecha de evaluación: dd/mm/aaaa Versión instalada: Figura B. Federico Bertona .Entrenamiento de redes neuronales basado en algoritmos evolutivos B.1.5.5. Informe de estado de cambios 244 Metodología de software L.4. Informe de estado de cambios Sistema: EasyTrain Fecha: dd/mm/aaaa Fecha desde: dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa Fecha hasta: dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa Figura B.

6.Entrenamiento de redes neuronales basado en algoritmos evolutivos B. Informe de instalación Fecha hasta: dd/mm/aaaa L.36.3.1. Informe de instalación Sistema: EasyTrain Fecha: dd/mm/aaaa Fecha desde: dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa dd/mm/aaaa Figura B.5. Federico Bertona Metodología de software 245 .

Sign up to vote on this title
UsefulNot useful