You are on page 1of 11
Introduccién a Redes Neuronales Artificiales Eduardo Rivera* Resumen Este articulo muestra una breve reseila historica sobre cémo surgieron las redes neurona- les, para luego hacer énfasi pues en los conceptos basicos que son necesarios para que se comprender cémo interactian las diferentes partes que componen una neurona bisica y a una red neuronal. También se realiza una comparacién entre el proceso de aprendizaje de neuronas entrenadas con “La ley de Hebb” y regla de entrenamiento para un perceptrén, ambas usadas en una aplicacién de reconocimiento simple Palabras clave Introduccion En la actualidad existen muchas aplica- ciones que involucran inteligencia artificial, pero hablar del tema es demasiado amplio, ya que éste involucra varias areas: algorit- ‘mos genéticos, légica difusa, redes bayesia- nas, redes neuronales, etc., ‘Aunque se han realizado muchos avan- ces, se sigue estando limitado en el aspecto de lograr inteligencia artificial comparada con la del ser humano, Uno de los aspectos en el que se ha logrado avances significati- vos es el campo de las redes neuronales, el cual permite aprender patrones, permitiendo cierto grado de flexibilidad, basindose en procesos simples. Antecedentes Muchos autores coinciden en que el mo- delo neuronal artificial, como se conoce actualmente, fue planteado por primera vez por Alan Turing en 1936 y que la primera Ingeniero en Electronica, Profesor de la Escuela de Electrénica de la Universidad Don Bosco. Redes neuronales, concepts bisicos , arquitectura tipica de una red neuronal, Perceptrin, aprendizaje de Hebb, comparaci centre aprendizajes Hebb y Per- ceptron, reconocimiento de caracteres implementacién de una red fue tanzada por Warren McCulloch y Walter Pitts en 1943 Dicho sistema consistia en una red neuronal simple basada en circuitos eléctricos Otto hecho relevante fue la publicacién, en 1949 por Donald Hebb, del libro “La organizacién del comportamiento”, en el que se establece una conexién entre psicologia y fisiologia. Un aporte adicional de este libro fue la regla de aprendizaje basica para neu- ronas simples Durante el verano de 1951, Marvin Minsky y Dean Edmonds montaron a pri- ‘mera maquina de redes neuronales, com- puesta basicamente por 300 tubos al vacio y tun piloto automatico de un bombardero B-24 (Herrera 1998). Después de su Red Neuronal, Minsky escribié su tesis doctoral acerca de ésta. En ella describia "cerebros mucho mayores", exponiendo que si se realizaba este proyecto a gran escala, con miles o millones de neu- ronas mas y con diferentes censores y tipos de retroalimentacién la maquina podria ser capaz de razonar. Mas él sabia que la reali- _ Zacién de esta Red Neuronal era imposible y Universidad Don Bosco- Geutifica 6 60 decidié buscar otra forma de crear inteligen- cia En 1957 (Hilera 1995), Frank Rosenblatt empez6 a desarrollar un modelo de red neu- ronal que contenia una sola neurona y tenia un aprendizaje basado en la regla de Hebb, siendo considerada ésta la red més antigua y que todavia sigue siendo utilizada en su for- ‘ma evolucionada que involucra capas milti- ples. Entre sus caracteristicas bisicas se pueden mencionar que era capaz de genera- lizar, es decir reconocer 0 identificar patro- nes que no se le hubieran enseftado, utilizar "" niimero de entradas y una sola salida Esta red, aunque era un gran avance para la ‘emulacién del comportamiento de las neuro- nas humanas, tenia ciertas limitaciones, entre las que sobresale el hecho que no podia cla- car patrones que no tuvieran una separa- bilidad lineal, es decir que si se pudieran ubicar los patrones a reconocer en un plano cartesiano, éstos podrian ser separados por una linea recta, por lo que el plano quedaria dividido en dos partes que representarian las dos clasificaciones que podria realizar el Perceptron. Conceptos bisicos. {Qué es una red neuronal? © Existen diferentes definiciones del tér- ‘mino red neuronal: © Una forma de computacién inspirada en modelos biol6gicos. (Hilera 1995, Free: ‘man 1993, Principe 1994) * Elemento computacional de procesa- miento, como unidades similares @ las del cerebro humano, que tienen la capa- cidad de procesar informacién y apren- der de ella, (Hilera 1995) ‘© Un sistema de computacién que consiste en un gran nimero de elementos sim- ples, elementos de proceso muy interco- nectados, los cuales procesan informa- cién por medio de su estado dinémico como respuesta a entradas externas. (Hilera 1995) Cada uno de estos conceptos es valido y hace referencia a elementos de proceso indi- Eduardo Rivera viduales y a formas de algoritmos, esto es debido a que la mayoria de tipos de redes neuronales han sido creadas con el objetivo de emular en cierto grado la inteligencia artificial, lo que provoca que la mayoria de los disefios generados, sea orientada a algo- ritmos que puedan ser facilmente implemen- tados en cualquier lenguaje de programa- cién, aunque también pueden ser puestos en funcionamiento en forma de hardware {Qué partes componen una neuron: Como puede verse en la Figura I, una neurona artificial esta compuesta de tres partes: Entradas, micleo y salidas. Las entradas reciben los datos o pardme- tros que le permiten decidir a la neurona si estard activa 0 no, normalmente se represen- tan como xI...xn. Entre la entrada y el niicleo aparecen los pesos(wl, w2...wn), que representan la me- ‘moria de la red, Las salidas devuelven la respuesta de la neurona, es decir si esta activa 0 no, repre- sentadas comiinmente como y1...yn. Figura I Partes de una neurona simple, En el niicleo se realizan todas las opera- ciones necesarias para determinar Ia salida de la neurona; el proceso que se realiza en el niicleo varia dependiendo de la red neuronal que se este trabajando. Es importante men- cionar que la salida del micleo es pasada por Universidad Don Bosco- Géewtifica 6 Introduccion a redes neuronales artificiales una funcién de transferencia; entre las mas usadas tenemos: COCA Figura 2 Representacion de la funcién identidad Mdentidad Esta representada por la férmula GQ) fay=x Simplemente representa que la salida calculada de la neurona ser directamente fo que tenga la red como respuesta (ver Figura , Escalon unitario Esta definida por las siguientes ecuaciones a) [roo @ En este caso se tienen dos posibilidades: para valores menores que 0 la salida de la red sera 0 y en caso contrario |. Esto se pue- de comparar con un control todo 0 nada, es decir la neurona esta inactiva, lo que siz ca que no contribuye con la respuesta de la que tiene et 100% de in- Muencia en ta salida de la red Esta fluneién esta representada en la Figura red, o esté acti 3 61 Escalén Unitario Bipolar Su. comportamiento esti determinado por las ecuaciones, Figura 3 Representacion de la funeién escalén unitario f= xe a {7 [fya-1 x8 Es similar al escalén unitario, con la di- ferencia que toma el valor de -1 en lugar de 0 para valores menores que @. Tiende a ser mas usada que el escalén unitario debido a {que no genera confusion cuando la salida es 0. Ver Figura 4 | jgura 4 Representacion de la funcién escalon unitario bipolar Sigmoidat Unipolar En este caso la cetiacion (4), nos ayuda a representar valores mas parecidos a los de tuna neurona real, ya que permite valores entre Oy 1. Universidad Don Bosco- Geentéfica 6 6 a f@= Ite Esta funcién suele aplicarse cuando a la salida de la red neuronal se requiera de Figura 5. Representacién de la funcién sigmoidal valores andlogos, es decir diferentes de 0 y 1, Bl valor de o indica el valor de ia pendiente de la curva, En la figura 5 se muestra la funcién sigmoidal para un valor deo=3 Sigmoidal bipolar Es similar a la sigmoidal unipolar, con la diferencia de que toma valores entre -I y 1. (6) f= 2. Ive Solo tiende a ser una mejora de la sigmoidal original. I+. Figura 6 Representacién de la funcién sigmoidal bipolar Eduardo Rivera Tangencial El comportamiento de esta funcién es parecido a la sigmoidal bipolar y mantiene la representacién de sefiales andlogas compren- didas entre -1 y 1, con la diferencia que no tiene un valor 6 que le ayude a controlar la pendiente de la funcién. © =r e La funcién de transferencia a utilizar es definida en cada uno de los diferentes algoritmos de redes neuronales, por el creador del mismo, y lo tinico que determina s si la salida tendra valores binarios (0 y 1 6 -1 y 1) 0 comprendidos dentro de un rango (entre Oy L oentre-1 y 1). Enire la entrada y el nacleo existe un valor que determina el aprendizaje de la neurona. Dicho niimero es llamado peso y representa la memorizacién de los datos que han sido aprendidos. Este valor junto con las entradas es el que determina si una entrada influiré o no en la salida. Figura 7 Representacién de fa funcién tangencial Estructura de una red neuronal {Qué partes componen a una red neuronal? Segiin las definicionesmencionadas anteriormente, esté compuesta por varios elementos procesales (neuronas), que forman un todo, Las partes principales se muestran en Ia Figura 8 en la cual podemos ver que tenemos; neuronas de entradas, ocultas, Universidad Don Bosco- Géeutifica 6 Introducci6n a redes neuronales artificiales salidas y las interconexiones. (Hilera 1995, Freeman 1993, Principe 1994) Las neuronas de entradas son transparentes, es decir no realizan ningiin proceso, s6lo dejan pasar la informacién que se quiere manejar en la red. ba SS, Figura 8 Capas de una red neuronal Las neuronas ocultasreciben las entradas y tienen la funcién de proporcionar un mejor aprendizaje 0 separacién de lo aprendido en categorias. Las neuronas ccultas pueden o no estar presentes en una red y su incorporacién depende de dos factores: Primero de la topologia con la que se esté trabajando y segundo de la complejidad de los patrones que deben ser aprendidos por la red. Si se determina que se requiere una capa de neuronas ocultas, debe surgir la siguiente pregunta: {Cudntas neuronas debe tener? El mimero de neuronas de la capa oculta es variable para cada aplicacién y no existe ninguna formula que permita definir su cantidad. La mayoria de autores coinciden en que sélo la experiencia en el entrena- miento puede proporcionar una idea de cuintas neuronas ocultas es necesario poner 63 en una aplicacién especifica. En algunos casos puede ser necesario poner mas de una capa de neuronas ocultas para poder realizar la aplicacién deseada. Por lo general dos capas son suficientes. (Hilera 1995, Freeman 1993) Las neuronas de salida se encargan de proporcionar ta salida del sistema indicando, segiin su aprendizaje, una respuesta correcta © incorrecta a lo aprendido. Las capas de neuronas ocultas y de salida estin compuestas de elementos proce- sales como los mostrados en la Figura | Ventajas y Desventajas Ventajas de las redes neuronales + El procesado de la informacién es local, es decir que al estar compuesto por unidades individuales de procesamiento cada neurona realiza su activacién, dependiendo de sus entradas y pesos y de que todas las neuronas de una capa frabajan en forma paralela y_propor- cionan una respuesta al mismo tiempo. (Hilera 1995, Freeman 1993) ‘+ Los pesos son ajustados basindose en la experiencia, lo que significa que se le tiene que enseiar a la red lo que necesita saber antes de ponerla en funciona- miento. (Hilera 1995, Freeman 1993) ‘© Los pesos pueden tener la funcién de activacién 0 inhibicién, es decir que son parte importante en la determinacién de si una neurona esti activa o no. (Hilera 1995, Freeman 1993) ‘© Las neuronas son tolerantes a fallos, si parte de la red no trabaja, s6lo dejar de funcionar la parte para la que dicha neurona sea significativa; el resto tendri su comportamiento normal. (Hilera 1995, Freeman 1993) ‘+ Las neuronas pueden reconocer patrones que no han sido aprendidos, sélo deben tener cierto parecido con el conoci- miento previo que tenga la red. Dicho de otra forma: si la entrada presenta alguna alteracién la red podra identificarla siempre y cuando se mantenga cierto Universidad Don Bosco- Géeutifica 6 grado de similitud entre lo aprendido y lo mostrada en Ia entrada a la red (Hilera 1995, Freeman 1993) © Operacién en tiempo real, los algoritmos de las redes neuronales son bastante eficientes una vez que la red ha sido entrenada, por Io que su respuesta es casi inmediata, (Hilera 1995, Freeman 1993) Desventajas de las redes neuronales © Complejidad de aprendizaje para gran- des tareas, cuanto mas cosas se necesite que aprenda una red, més complicado seri ensefarle, (Hilera 1995, Freeman 1993) ‘* Tiempo de aprendizaje elevado. Esto depende de dos factores: primero si se inerementa la cantidad de patrones a identificar o clasifiear y segundo si se requiere mayor flexibilidad o capacidad de adaptacion de la red neuronal para reconocer patrones que sean sumamente parecidos, se deberd invertir mas tiempo cen lograr que la red converja a valores de pesos que representen lo que se quicra ensefiar. (Hilera 1995, Freeman 1993) © No permite interpretar to que se ha aprendido, la red por si sola proporciona una salida, un nimero, que no puede ser interpretado por ella misma, sino que se requiere de la intervenciin del programador y de la aplicacién en si para encontrarle un significado a. ta ida proporcionada. (Hilera 1995, Freeman 1993) © EBlevada cantidad de datos para el entrenamiento, cuanto mas flexible se requiera que sea la red neuronal, mis informacidn tendra que ensenarsele para que tealice de forma adecuada la iden- tificacion, (Hilera 1995, Freeman 1993) Red con aprendizaje de Hebb Regla de aprendizaje de Hebb. e basa en el modelo de la figura 1. y esté definido por los siguientes pasos(Hilera 1995, Freeman 1993, Principe 1994): Eduardo Rivera |. definir los patrones a enseiiar a la red 2. definir la cantidad de entradas. 3. definir las salidas que se desea en la red 4. los pesos comienzan con un valor de cero 5. poner en las entradas de la red un pa- tron a ser aprendido 6. calcular Ia salida de la neurona usando fa formula donde: “y" ¢s la salida de la neurona, “x? son las entradas, “w;" son los pesos y “n” la cantidad de entradas que tiene la neuro- na. 7. se pasa la salida por una funcién de transferencia escalén unitaria unipolar 6 bipolar 8. se iguala “y” a la salida deseada para el patron de entrada 9. se moditican los pesos formula ssindose en la (8) w; (nuevo) = w)(viei0) +xiy 10. se verifica si han pasado todos los pa- trones que se requiere la red aprenda. Si la respuesta es no, se retrocede al numeral 5 11. si la respuesta e: uniento. EI ejemplo mas tipico para ilustrar este entrenamiento es tratar de hacer que el sistema aprenda el comportamiento de una compuerta AND (ver Tabla 1), s de hacer notar que en Tabla | la variable xy no cambia debido a que tiene la funcién de ajuste de ta red y permanece constante durante todo el aprendizaje y funcionamiento, termina el entre- Universidad Don Bosco- Geentifica 6 Introducci6n a redes neuronales artficiales Tabla 1 Comportamiento de una compuerta AND de dos entradas xe |T eT | 1 ati fa} Resulta evidente que con esta tabla ya'se han definido algunos de los pardmetros que se requieren de la red: la cantidad de entradas (3), la salida (1) y la cantidad de patrones a reconocer (4, que es el niimero de combinaciones posibles para una compuerta AND de 2 entradas), por lo tanto fo iinico que faltaria es proceder a generar el entrenamiento de la red(ver Tabla 2). Tabla 2 Entrenamiento de una neurona usando la regla de aprendizaje de Hebb. 65 mostradas en Tabla 3. Las salidas deseadas y—I para la “o”. serian 1 para la “x” trones, la “o” y la Tabla 3 Patrones de entrada Xo [x1 [xp [xs [xu [xs [Xe [x7 [xe ee ee tir Party [rt ff Tabla 4 Entrenamiento de pesos para aprender los we lw [wy [an [x - ojo fo i 1 a =I ojo 2a =I a ar 2 [2 [2 | La primera fila de Tabla 2 representa los valores iniciales de los pesos, asi como también los valores de la primera secuencia que debe aprender la neurona. La Tabla 2 en general muestra los cambios que suften los pesos a lo largo del entrenamiento y los valores finales con los que se puede verificar el proceso de aprendizaje simplemente aplicando los pasos 5 y 6 de la regla de aprendizaje. Otro ejemplo tipicosuele ser el reconocimiento de patrones como los de la Figura 9 En este caso las entradas serian 10, tomando en cuenta el ajuste, Ia salida 1 y 2 los patrones a reconocer. Para poder ingresar los valores a una neurona, se puede adoptar que un punto es I y un asterisco es -1, esto resuelve entonces que las entradas serian las patrones “x" y “o" Wo] wi | wa [ws [wa | ws | We | Wo | we | wo o [0 Jo [o [o fo fo fo fo Jo fi 1 ft [afi Vy-lft [tft - 1 0222 222 22 En la tiltima fila de Tabla 4, tenemos los pesos resultantes del entrenamiento. Es de hacer notar que ef peso wy, de la tabla 4, se mantuvo en su valor original(0), Jo que se puede interpretar que no es influyente en el resultado de esta aplicacién y que bastan las entradas para realizar el reconocimiento. También se puede observar en Tabla 4, que los valores de los pesos alternan los signos, es decir que todos los pesos impares tienen signo positivo y los pesos pares signo negativo, representando la influencia de cada neurona en la salida de ta red. Una vez encontrados los pesos finales es recomendable probar patrones diferentes para definir el comportamiento de la neurona, es decir si es factible que identifique como valido algin patron que no Universidad Don Bosco- Geutifica 6 66 sea exactamente igual a los originales que se le ensefiaron. RK kak aXe aXe ka k& Figura 10. Variantes de los patrones de en- trenamiento de la Figura 9 Para probar la red, se toman los iltimos pesos de Tabla 4, que son los que quedan como resultado del entrenamiento y se procede a calcular la salida de la red, aplicando los pasos 6 y 7 del aprendizaje, con lo que se puede determinar si la respuesta es valida de acuerdo a lo que se le ‘queria ensefar( ver Tabla3). Tabla S Patrones aleatorios de prueba. Xp [x1 [x2 [x3 [x4 [xs [xa [x7 [xe [x0 1 fs a fati f-ti [ati {i tit ft fi fa fafa fafa [af Los patrones de Tabla 5 corresponden a los mostrados en la Figura 10, tomando en ‘cuenta que para el primero la salida obtenida con los pesos de Tabla 4 es 1 y para el segundo la salida es -1. Lo interesante es que la red acepta, dentro de cierto rango, variaciones en la entrada, es decir que puede generalizar a pesar de que la informacién de entrada ha sido alterada. A éste fenémeno se le denomina plasticidad de Ia neurona. Esta caracteristica suele perderse a medida que el patrén que se ponga en la entrada tienda a ser demasiado diferente al original. Como se puede observar en ambos ejemplos, con el aprendizaje de Hebb, el entrenamiento es simple y no repetitivo, se realiza el entrenamiento exactamente un numero de veces igual a la cantidad de patrones que se quiere clasificar. Eduardo Rivera También se puede dar el caso que wo pierda su valor de ajuste, a medida que el sistema tiende a tener mis entradas que le permitan diferenciar lo que se le quiere ensefiar, con lo que cuantas mas entradas tenga la red menos necesario sera el valor de ajuste Wy para una correcta identificacién. Se puede dar el caso que la red no aprenda lo que se le quiere ensefiar, debido a que sean sefiales demasiado parecidas entre si, con lo que la red tenderia a confundirse. Por otro lado este tipo de red tiene la aacteristica de tener una sola salida, lo que sus posibles aplicaciones. Aunque no le quita el valor que tiene desde el punto de vista pedagigico para comprender los conceptos necesarios para explicar el funcionamiento de una red neuronal. Aprendizaje con el Perceptrén Al igual que Hebb, se basa en la estructura de la Figura 7 y su algoritmo de entrenamiento esta definido como (Hilera 1995, Principe 1994): 1. Asignar valores iniciales a los. pesos, ajuste y umbral (0), por simplicidad se sugiere que inicien en cero. 2. Establecer un valor al factor de aprendizaje oa (95@S1), ge recomienda iniciar en uno y si es necesario decrementarlo. 3. Presentar un dato de entrada, por lo general esta compuesto del patron a entrenar junto con la salida esperada 4, Calcular la salida basindose en la ecuacion: Yx,w-0 Donde: xi es la iésima entrada, wi es el igsimo peso, 8 es el umbral , n es la cantidad de entradas que tiene la red 5. Se pasa la salida por una funcién esealn unitaria unipolar o bipolar. 6. Se compara la salida obtenida con Ia deseada. Si son iguales se contintia al paso 8. Universidad Don Bosco- Gientifica 6 Introducei6n a redes neuronales artificiales 7. Si las salidas no son iguales se ‘modifican los pesos con la ecuacién (10) (10) wi(nuevo) = w,(viejo) + a* 1x, Donde: @ es el factor de aprendizaje, t es la salida deseada y x; es la entrada correspondiente. 8. Se verifica si ya pasaron todos los patrones, si la respuesta es no se procede al paso 3. 9. Si han ocurrido cambios en los pesos en alguno de los patrones de entrada se inicia el contador de patrones, se incrementa el contador de épocas y se procede al paso 3. 10. Se termina el proceso, quedando los valores de los pesos, que representan el aprendizaje realizado. Para probar el sistema se efectiian los pasos del 3 al 6, pero con la diferencia de que en lugar de saltar al paso 8, se deberia mostrar un mensaje dependiendo de ta aplicacién que se estegimplementando, por ejemplo: “patrén identificado”; “identificacién adecuada”, identificacién errénea”, dependiendo del caso. Basandose en la Tabla | se entrenard un perceptron para.—=—sobservar su comportamiento. Se tomaré ¢ cuenta que los valores de umbral (0) son 0 y de factor de aprendizaje (a) de 1 ‘Tabla 6 Entrenamiento de una neurona usando la regla de aprendizaje de Perceptrén. o7 ‘Tercera iteracion 22 aceon T 222 a 2 2 2 ff) fi fh fa 2 2 2 ft fa fa fa 2 2 En Tabla 6, se muestra en la dtima fila los pesos finales a los que se llegaron después de tres iteraciones, los cuales indican los valores con los que la red aprendié a comportarse como una compuerta and. El otro entrenamiento es para los patrones de la Figura 9, que estan representados en Tabla 3, siempre tomando en consideracién que los valores de umbral (@) son cero y de factor de aprendizaje (a) de 1 Tabla 7 Entrenamiento de pesos para aprender los patrones “x” y “0” wo | wy | we | wa [ ws | ws | wo | ws | ws [ wo 0 [o fo fo fo fo fo Jo fo fo fi rit q-t{t f-rfa [ri f-r fe q- 1 Piatt fat ih [afi Segunda iteracién Vi yah fr er fr fr rit q-tfe [rf f-rfa f-rfe f- 1 Piatt fh Pah [afr wo [wi [wo [xo [xr [xe Primera iteracion oO 0 oO I 1 1 1 oO 0 oO L 1 =l = -1 1 1 ok 1 -l 2 0 oO 1 -1 -1 3 1 1 Segunda iteracion 3 it |i i iii] 222 I 2 2 2 1 -1 I -1 2 2 2 1 zl -1 E2_[2~ [2 Aunque We mantiene un valor diferente de cero, siempre resulta poco influyente para los patrones que aprendié la red y podrfa no ser tomado en cuenta, debido a que a medida existan mas entradas el ajuste pierde su valor. Los pesos finales de la segunda iteracién de Tabla 7, tienden a tener signos alternados, es decir un valor es positivo y otro negativo, Similar a lo que se realiz6 con Hebb, es recomendable probar la red con valores que presenten ciertas variaciones a los originales, Para lo que se tomaré la Figura 10 y los patrones presentados en Tabla 5. Universidad Don Bosco- Gieatiféca 6 Tabla 8 Patrones aleatorios de prueba. Xo [x1 [x2 [xs [xa [xs [xe [x7 [xe [x0 Eduardo Rivera Tabla 9 Caracteristicas de las redes de Hebb y perceptrén Vf fart far fi af far ft Tt Molo de) Newona pica Neto ic 1 Vit jt j-tii Lyd f-t jt neurona, Entradas Tas requeridas | Las requeridas Los patrones de Tabla 8, representan el rae | penal cambio de 2 de las entradas de la red y el Prey ne ne sistema sigue dando una respuesta valida, a Cileulo dela 7 ri pesar de los cambios realizados, es decir que salida =Yix*W y_in=Dx para la primera de las entradas la reconoce = 7” como una “o” y la segunda como una “x”. Este tipo de red tiene una tinica salida. Modificacion | yy (nuevo) =| w, (nuevo) Entre mas patrones se tengan que ensefiar a de pesos la red més dificil sera entrenarla; por otro Factor de No tiene a lado si en algin momento la red no logra faprendizaje _ aprender, se recomienda variar el factor de Func de Esealin unite: Escalon unita- aprendizaje, teduciendo este valor se puede | *# feunipsaro | Ho unipoaro disminuir 0 incrementar la cantidad de Tteraciones | Noexisten | Las necesarlas iteraciones que se requieran para lograr un para lograr el correcto aprendizaje de la red neuronal aprendizaje Cabe mencionar que aunque ambos tienen un proceso de aprendizaje facil de Comparacién implementar en cualquier lenguaje de programacién o incluso en una simple hoja de clculo de Excel. Suelen ser tomados como punto de partida, de cualquier curso introductorio de redes neuronales, debido a su simplicidad y a la facilidad para explicar los conceptos necesarios para entender el funcionamiento de otras redes. Conclusiones La caracteristica principal de las redes neuronales es su capacidad para aprender y retener la informacién aprendida, sin nece- sidad de mantener una base de datos cuando esti en funcionamiento. Esta red tiene el factor de aprendizaje como parimetro de control. Esto no es una garantia para que la red aprenda y puede darse el caso de que nunca se Hegue a valo- res de pesos que permitan dar por finalizado el entrenamiento, por lo que es recomenda- ble tener un control sobre el nimero de ite~ raciones permitido, para que éste no tienda al infinito. En Tabla 9, se muestra la comparacién de los dos algoritmos de aprendizaje. Ambos algoritmos nos brindan un aprendizaje satisfactorio para los. ejemplos utilizados. Sus diferencias radican solamente en las formulas para calcular la salida, el cileulo de los pesos nuevos, cuando existe un error en la salida deseada, en las itera- ciones necesarias para el aprendizaje y en el factor de aprendizaje que brinda cierta flexi- bilidad si no se encuentran pesos adecuados que cumplan las expectativas de la aplica- cidn que se este realizando. Al ser similares, tienen la misma dificul- tad, respecto al tipo de problemas que pue- den resolver, lo cual los limita a aplicaciones que tengan una separacién lineal. Las redes neuronales no estan disefiadas para resolver todos los problemas de recono- cimiento, pero brindan una aproximacién a Ja capacidad de reconocimiento del ser humano. Tanto el entrenamiento de Hebb como et del Perceptrén, proporcionan un aprendizaje ripido y aunque ambas son redes neuronales Universidad Don Bosco- Ceetifica 6 Introduccion a redes neuronales antificiales no necesariamente Hegan a valores de pesos iguales, pero si a valores que mantengan la misma tendencia. La flexibilidad en el comportamiento de las redes neuronsles, permite decidir si una entrada presente se parece lo suficiente a lo que tiene aprendido, siempre y cuando ef patrén de entrada mantenga la cantidad de informacion necesaria para poder ser identi- ficado, El factor de aprendizaje permite acelerar el proceso de entrenamiento de la red neuro- nal Sélo la experiencia puede permitir el co- nocer valores adecuados para inicializar las variables de un Perceptrén, Existen casos en los que tanto Hebb co- ‘mo Perceptrén no son capaces de aprender. como por ejemplo el comportamiento de una compuerta ligiea Xor. La entrada de ajuste xy es usada por el entrenamiento de Hebb y Perceptrén, como un valor que ayuda en fa salida cuando la ted tiene pocas entradas, por lo que a medida que en las aplicaciones se tengan m das, ya no se hace necesario y se puede om tir en el pro namiento. Se recomienda tener enidado con las ite- raciones, a la hora de entrenar un Perceptrén, debido a que si el factor de aprendizaje no es el adecuado Ia red puede tardar mucho en aprender 0 nunca llegar a pesos que satis gan las salidas, por lo que se deberia poner un limite en las iteraciones y permitir que se modifique el factor de aprendizaje o los va- lores iniciales de los pesos para reiniciar el entrenamiento En el Perceptron ef nimero de patrones que se quiera ensefar no tiene ninguna rela- cidén con el niimero de iteraciones que tarda- rit la red en realizar el aprendizaje. Aunque el entrenamiento de Hebb no lo especilica, siempre es recomendable probar os final todos los patrones que se le han enseiiado 2 lared, Los pesos cumplen la funcion de memo- rizar lo que se le ha enseitado a la red 10 de entrenamiento y funcio- el funcionamiento de tos pe con oo Bibliografia Fausett Laurene,Pundamentals of neural networks:Architectures, algorithms and applications, New Jersey, Prentice Hall, 1994 Freeman James, Redes neuronales: Algorit- mos, aplicaciones y téenicas de progra- macién, Delaware, Addison Wesley, 1993 Gail A Carpenter and Stephen Grossberg, Pattern Recognition by Self-Organizing Neural Networks, A Bradford Book, The MIT Press, Cambridge, Massachusetts, London, 1991 Gomez Efién, Sistema de reconoeimiento de notas musicales para flauta dulce sopra- no, Universidad Don Bosco, Fl Salvador, 2004. Herrera Herbert. Amoldo, Aplicacion de redes neuronales al pronéstico de poten- cia eléetrica, tesis Universidad Centroa- mericana José Simeén Cafas, 1998. Hilera José, Redes Neuronales Artficiales Fundamentos, Modelos _y_ aplicaciones, Delaware, Addison Wesley, 1995 Ifeachor Emmanuel C. Artificial Neural Networks in Biomedicine.New York, Springer-Verlag, 2000. Principe José, Neural and adaptative sys- tems: Fundamentals through simulations. New York, John Wiley, 2000 Rao Vallury B, C++ Neural Networks and fuzzy logia, Segunda edicién, Mand T Books, 1995. Paginas Web Consultadas hipswww,monoge redesneuro.shiml comvtrabajos/redesneura Junio 2005, Gustavo Luis hup.//ww.domotica nevi" www monogralias.co mitfabajos redesneuro redesneuro.shiml. Junio 2005, Gustavo Luis Pavia hupy/eruzrojaguayas.org inteligencia Historia’ 2 {de 201A Jum. Julio 2008. http: club.tclepolis.com/alimaya/intro.htm Julio 2005, hup‘www.gessraupm.es/invy ‘torial him septicmbre 2008. ral/ann2/annt Universidad Don Boseo- Céentifica 6

You might also like