You are on page 1of 22

ANTECEDENTES

Las primeras explicaciones tericas sobre el cerebro y el pensamiento fueron dadas


por algunos filsofos griegos, como Platn y Aristteles, quienes fueron apoyados despus
por Descartes y filsofos empiristas.
Alan Turing, en 1936, fue el primero en estudiar el cerebro como una forma de ver
el mundo de la computacin, pero quienes primero concibieron algunos fundamentos de la
computacin neuronal fueron Warren McCulloch y Walter Pitts, Estos dos investigadores
propusieron un modelo matemtico de neurona. En este modelo cada neurona estaba dotada
de un conjunto de entradas y salidas. Cada entrada est afectada por un peso. La activacin
de la neurona se calcula mediante la suma de los productos de cada entrada y la salida es
una funcin de esta activacin.
Despus otras teoras inciales fueron expuestas por Donald Hebb, quien en 1949
defini dos conceptos muy importantes y fundamentales que han pesado en el campo de las
redes neuronales:

El aprendizaje se localiza en las sinapsis o conexiones entre las neuronas.

La informacin se representa en el cerebro mediante un conjunto de neuronas


activas o inactivas.

Pero solo hasta 1957 Frank Rosenblatt comenz el desarrollo del Perceptrn, esta es
la red neuronal ms antigua; utilizndose hoy en da para aplicacin como identificador de
patrones. Este modelo era capaz de generalizar, es decir, despus de haber aprendido una
serie de patrones poda reconocer otros similares, aunque no se le hubiesen presentado en el
entrenamiento.
Ms adelante en 1959 Widrow desarroll la Teora sobre la Adaptacin Neuronal y
el Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline). Es la primera
aplicacin de las redes a problemas reales: filtros adaptativos para eliminar ecos en las
lneas telefnicas.
Stephen Grossberg en 1967 realiz una red: Avalancha, que consista en elementos
discretos con actividad que vara en el tiempo que satisface ecuaciones diferenciales
continuas, para resolver actividades como reconocimiento continuo de habla y aprendizaje
de los brazos de un robot.
Hasta 1982 el crecimiento se fren pero surgieron luego investigaciones sobre redes
como la de Marvin Minsky y Seymour Papert, despus James Anderson desarroll el
Asociador Lineal, en Japn Kunihiko Fukushimika y Teuvo Kohonen que se centraron en
Redes Neuronales para el reconocimiento de patrones; en USA John Hopfield tambin
realiz importantes investigaciones.

Existen muchos grupos con sede en diferentes universidades de todo el mundo que
estn realizando trabajos de investigacin en el rea de las redes neuronales artificiales.
Cada grupo tiene diferente nfasis y motivacin con los neurlogos, psiclogos del
conocimiento, fsicos, programadores y matemticos. Todos ellos ofrecen nuevos puntos de
vista e intuiciones en esta rea de la tcnica.
Grossberg continua trabajando en compaa de Carpenter en la Universidad de
Boston, mientras Teuvo Kohonen est en la Universidad de Helsinki. Uno de los mayores
grupos de investigacin de los ltimos aos ha sido el grupo PDP (Parallel Distributed
Processing) formado por Rumelhart, McClelland y Hinton.
Rumelhart de la Universidad de Stanford es uno de los principales impulsores de la
red ms utilizada en la mayora de las aplicaciones actuales, la famosa red neuronal
Backpropagation. En la Universidad de Carnegie-Mellon, el grupo de investigacin a la
cabeza con McClelland destaca por el estudio de las posibles aplicaciones de la
Backpropagation. Y en la Universidad de Toronto, Hinton y Sejnowski han desarrollado
una mquina llamada Boltzman que consiste en la red de Hopfield con dos modificaciones
significativas.
Bart Kosko ha diseado una red llamada BAM (Bidirectional Associate Memory)
basado en la red de Grossberg. Por ltimo indicar la existencia de grandes grupos de
investigacin como los de California Institute of Technology, Massachussets Institute of
Technology, University of California Berkeley y University of California San Diego.
Conviene no olvidar el esfuerzo econmico y tcnico que estn realizando las
empresas privadas tanto en USA como en Japn y en la Comunidad Econmica Europea.
Como botn de muestra de las inversiones en estos pases baste conocer que slo en USA
se gasta ms de 100 millones de dlares al ao.

BASES TEORICAS

Las Redes Neuronales Artificiales,


inspiradas en las redes neuronales biolgicas
elementos que se comportan de forma similar
comunes. Estos elementos estn organizados
cerebro humano.

RNA (Artificial Neural Networks) estn


del cerebro humano. Estn constituidas por
a la neurona biolgica en sus funciones ms
de una forma parecida a la que presenta el

Las RNA al margen de "parecerse" al cerebro presentan una serie de caractersticas


propias del cerebro. Por ejemplo las RNA aprenden de la experiencia, generalizan de
ejemplos previos a ejemplos nuevos y abstraen las caractersticas principales de una serie
de datos.

Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio o
experiencia. Las RNA pueden cambiar su comportamiento en funcin del entorno.
Se les muestra un conjunto de entradas y ellas mismas se ajustan para producir unas
salidas consistentes.

Generalizar: extender o ampliar una cosa. Las RNA generalizan automticamente


debido a su propia estructura y naturaleza. Estas redes pueden ofrecer, dentro de un
margen, respuestas correctas a entradas que presentan pequeas variaciones debido
a los efectos de ruido o distorsin.

Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.


Algunas RNA son capaces de abstraer la esencia de un conjunto de entradas que
aparentemente no presentan aspectos comunes o relativos.

Enfoque Biolgico:
La neurona es la unidad fundamental del sistema nervioso y en particular del
cerebro.
Cada neurona es una simple unidad procesadora que recibe y combina seales desde
y hacia otras neuronas. Si la combinacin de entradas es suficientemente fuerte la salida de
la neurona se activa. La siguiente figura muestra las partes que constituyen una neurona.

El cerebro consiste en uno o varios billones de neuronas densamente


interconectadas.
El axn (salida) de la neurona se ramifica y est conectada a las dendritas (entradas)
de otras neuronas a travs de uniones llamadas sinapsis. La eficacia de la sinapsis es
modificable durante el proceso de aprendizaje de la red.
Elemento Procesador:
En las Redes Neuronales Artificiales, RNA, la unidad anloga a la neurona
biolgica es el elemento procesador,PE (process element). Un elemento procesador tiene
varias entradas y las combina, normalmente con una suma bsica. La suma de las entradas
es modificada por una funcin de transferencia y el valor de la salida de esta funcin de
transferencia se pasa directamente a la salida del elemento procesador.
La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE)
mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las
conexiones neuronales.
La siguiente figura representa un elemento procesador de una red neuronal artificial
implementada en un ordenador.

Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de


una forma concreta. El inters de las RNA no reside solamente en el modelo del elemento
PE sino en las formas en que se conectan estos elementos procesadores. Generalmente los
elementos PE estn organizados en grupos llamados niveles o capas. Una red tpica consiste
en una secuencia de capas con conexiones entre capas adyacentes consecutivas.
Existen dos capas con conexiones con el mundo exterior. Una capa de entrada,
buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida que
mantiene la respuesta de la red a una entrada. El resto de las capas reciben el nombre de
capas ocultas. La siguiente figura muestra el aspecto de una Red Neuronal Artificial.

Arquitecturas de Redes Neuronales Artificiales:


La arquitectura de las redes neuronales artificiales hace referencia a la organizacin
y disposicin de las neuronas en la red formando capas de procesadores interconectados
entre s a travs de sinapsis unidireccionales.
Las arquitecturas neuronales pueden clasificarse atendiendo a distintos criterios:
a) Segn el nmero de capas
Redes Neuronales Monocapas: se corresponde con la red neuronal ms sencilla
ya que tiene una capa de neuronas que proyectan las entradas a una capa de
neuronas de salida donde se realizan diferentes clculos, se establecen
conexiones laterales. Una aplicacin tpica de este tipo de redes es como
memorias asociativas y clusterizaciones.

Redes Neuronales Multicapas: es una generalizacin de la anterior existiendo un


conjunto de capas intermedias entre la entrada y la salida (capas ocultas). La
capa a la que pertenece la neurona puede distinguirse mediante la observacin
del origen de las seales que recibe y el destino de la seal que genera. Este tipo
de red puede estar total o parcialmente conectada.

b) Segn el flujo de datos en la red

Redes Neuronales Unidireccionales o de Propagacin Hacia


Adelante (Feedforward): en esta red la propagacin de las
seales se produce en un sentido solamente, no existiendo la
posibilidad de realimentaciones, es decir, la informacin circula
en un nico sentido, desde las neuronas de entrada hacia las
neuronas de salida de la red. Lgicamente estas estructuras no
tienen memoria.

Redes Neuronales de Propagacin Hacia Atrs (Feedback): esta


red viene caracterizada por la existencia de lazos de
realimentacin. Estos lazos pueden ser entre neuronas de
diferentes capas, neuronas de la misma capa (conexiones
laterales) o, ms sencillamente, entre una misma neurona. Las
redes de propagacin hacia atrs que presentan lazos cerrados
se denominan sistemas recurrentes. Esta estructura recurrente
la hace especialmente adecuada para estudiar la dinmica de
sistemas no lineales.

c) Segn el tipo de respuesta de la red


Redes heteroasociativas. Estas redes al asociar informacin de entrada con
informacin de salida, precisan al menos de dos capas, una para captar y retener
la informacin de entrada y otra para mantener la salida con la informacin
asociada.
En cuanto a su conectividad existen redes heteroasociativas con conexiones
hacia delante o feedforward, redes con conexiones hacia atrs o feedback y
redes con conexiones laterales. Redes utilizadas para tareas de clasificacin,
redes empleadas para la asociacin de patrones, etc.
Redes autoasociativas. Este tipo de redes asocia una informacin de entrada con
el ejemplar ms parecido de los almacenados conocidos por la red; Se pueden
implementar con una sola capa de neuronas. En cuanto a la conectividad en este
tipo de redes existen conexiones laterales entre las neuronas y en algunos casos
conexiones autorrecurrentes. Suelen emplearse en tareas de filtrado de
informacin, para analizar las relaciones de vecindad entre los datos
considerados (clustering) y para resolver problemas de optimizacin
d) Segn el grado de conexin
Redes Neuronales Totalmente Conectadas: en este caso todas las neuronas de
una capa se encuentran conectadas con las de la capa siguiente (redes no
recurrentes) o con las de la anterior (redes recurrentes).
Redes Parcialmente Conectadas: en este caso no se da la conexin total entre
neuronas de diferentes capas.

Modelos de Redes Neuronales Artificiales:

En todo modelo artificial de neurona se tienen cinco elementos bsicos:


a) Conjunto de entradas (Xj). Estas pueden ser provenientes del exterior o de otras
neuronas artificiales.
b) Pesos sinpticos o conjunto de conexiones (Wij). Determinan el comportamiento de
la neurona. Representan el grado de comunicacin entre la neurona artificial j y la
neurona artificial i.
El peso sinptico define la fuerza de una conexin sinptica entre dos neuronas, la
neurona presinptica i y la neurona postsinptica j. Los pesos sinpticos pueden
tomar valores positivos, negativos o cero. En caso de una entrada positiva, un peso
positivo acta como excitador, mientras que un peso negativo acta como inhibidor.
En caso de que el peso sea cero, no existe comunicacin entre el par de neuronas.
Mediante el ajuste de los pesos sinpticos la red es capaz de adaptarse a cualquier
entorno y realizar una determinada tarea.
c) Sumador o regla de propagacin (Hi). Se encarga de sumar todas las entradas
multiplicadas por los respectivos pesos sinpticos, es decir, integra la informacin
proveniente de las distintas neuronas artificiales y proporciona el valor del potencial
postsinptico de la neurona i.
d) Funcin de activacin no lineal (Ai). Provee el estado de activacin actual de la
neurona i en base al potencial resultante y al estado de activacin anterior de la
neurona. Sin embargo, en la mayora de los modelos se suele ignorar el estado
anterior de la neurona, definindose el estado de activacin en funcin del potencial
resultante para limitar la amplitud de la salida de la neurona.
e) Funcin de Salida (Yi). Representa el valor de la salida actual de la neurona i, en
base al estado de activacin de la neurona.
Las entradas y salidas de una neurona pueden ser clasificadas en dos grandes
grupos, binarias o continuas. Las neuronas binarias (digitales) slo admiten dos valores
posibles. En general en este tipo de neurona se utilizan los siguientes dos alfabetos
{0,1} o {-1,1}. Por su parte, las neuronas continuas (analgicas) admiten valores dentro
de un determinado rango, que en general suele definirse como [-1, 1].

La seleccin del tipo de neurona a utilizar depende de la aplicacin y del modelo


a construir.

NEURONA i
X1

X2

Wi1
Wi2
Wij

Xj

Pesos

Hi

Ai

Yi

Funcin de Salida
Funcin de Activacin
Regla de Propagacin

Entradas

Existe una serie de modelos de redes neuronales artificiales, algunos de ellos son:

Perceptrn: Es la red ms antigua creada por Frank Rosenblatt en 1957 para el


reconocimiento de caracteres impresos con una desventaja que no puede reconocer
caracteres complejos.

Backpropagation: Es la red ms popular, con numerosas aplicaciones con xito,


facilidad de aprendizaje y muy potente. Fue creada por Paul Werbos, David Parker
y David Rumelhart entre los aos 1974-1985; para la sntesis de voz desde texto,
control de robots, prediccin y reconocimiento de patrones. Sus limitaciones son
que necesita mucho tiempo para el aprendizaje y muchos ejemplos.

Hopfield: Puede implementarse en VLSI (integracin a muy gran escala) y fcil de


conceptualizar, fue creada por John Hopfield en 1982 para la reconstruccin de
patrones y optimizacin con la limitante en cuanto a capacidad y estabilidad.

Memoria asociativa bidireccional: Es una red de arquitectura y aprendizaje


simple, creada por Bart Kosko en 1985 para las memorias heteroasociativa de

acceso por contenido con la desventaja en cuanto a la capacidad de almacenamiento


y que los datos deben ser codificados.

Neocognitron: Es una red insensible a la traslacin, rotacin y escala. Fue creada


por Fukusima entre los aos 1987-1984 para el reconocimiento de caracteres
manuscritos. Sus limitaciones son que requiere muchos elementos de proceso,
niveles y conexiones.

Estructura de las Redes Neuronales Artificiales:


Las neuronas artificiales se combinan en estructuras que estn compuestas por un
conjunto de capas. De esta manera, la informacin se encuentre distribuida a lo largo de las
sinapsis de la red, dndole a este sistema cierta tolerancia a fallos. Se pueden distinguir tres
tipos de capas:
a) Capa de entrada: Reciben informacin proveniente de las fuentes externas de la
red, que pueden provenir desde sensores o de otros sectores del sistema. Acta
como buffer de entrada, almacenando la informacin bruta suministrada a la red o
realizando un sencillo pre-proceso de la misma.
b) Capa oculta: Son aquellas cuyas entradas y salidas se encuentran dentro del
sistema, es decir son internas de la red no tienen contacto con el exterior. Son las
que reciben informacin desde otras neuronas artificiales. En ellas es donde se
realiza la representacin de la informacin almacenada. Pueden estar
interconectadas de distintas maneras, lo que determina junto con su nmero las
distintas tipologas de redes. Principalmente son las encargadas de extraer, procesar
y memorizar la informacin.
c) Capa de salida: Transfieren la informacin recibida de la red hacia el exterior o
fuera de la red. Acta como interfaz o buffer de salida, almacenando la respuesta de
la red para que pueda ser leda.

Clasificacin de las Redes Neuronales Artificiales:


a) Segn los algoritmos de entrenamiento, de ah los Algoritmos Supervisados y No
Supervisados.

Los Algoritmos Supervisados: requieren aparear cada vector de entrada con


determinado vector objetivo, el cual representa el vector de salida deseado (par
de entrenamiento). Al aplicrsele una entrada a la red, se calcula la salida y se
compara dicho resultado con el vector objetivo correspondiente, la diferencia
entre ellos arroja un Error con el que se procesa nuevamente la informacin,
varindose los pesos, hasta lograr Minimizar el Error.

Los Algoritmos No Supervisados no tienen mecanismo para comparar una


salida deseada con una real. El conjunto de entrenamiento consta de los vectores
de entrada, siendo el algoritmo de entrenamiento el que vara pesos de la red
hasta lograr Vectores de Salida Consistentes. O sea, la red es autnoma, de los
datos de entrada la red busca sus propiedades y aprende a reflejar stas en la
salida.

b) Segn el mecanismo de aprendizaje. Los criterios que se siguen para cambiar el


valor asignado a las conexiones cuando se pretende que la red aprenda una nueva
informacin se conoce como la regla de aprendizaje. De forma general, se suelen
considerar dos tipos de reglas de aprendizaje para las redes neuronales: La regla de
aprendizaje supervisado, y no supervisado.

Aprendizaje supervisado: En el proceso de aprendizaje supervisado, el


entrenamiento de la red es controlado por un agente externo (supervisor) que
determina la respuesta que debera generar la red a partir de una entrada
determinada. La salida es comparada con la deseada y en caso de que no
coincidan se procede a modificar los pesos de las conexiones, con el fin de
conseguir que la salida obtenida se aproxime a la deseada. Existen diferentes
formas de llevar a cabo el aprendizaje supervisado:
Aprendizaje por correccin de error. Este tipo de aprendizaje consiste en
ajustar los pesos de las conexiones de la red en funcin de la diferencia entre

los valores deseados y los obtenidos en la salida de la red; es decir en


funcin del error cometido en la salida.
Aprendizaje por refuerzo. En el aprendizaje por refuerzo el entrenamiento se
realiza sin conocer exactamente la salida deseada para una determinada
entrada. Existe una relacin de entrada-salida a travs de un proceso de xito
o fracaso, produciendo una seal (seal de refuerzo) que mide el buen
funcionamiento del sistema.
Los pesos se ajustan en base a la seal de refuerzo basndose en un
mecanismo de probabilidades. "Si una accin tomada por el sistema de
aprendizaje es seguida por un estado satisfactorio, entonces la tendencia del
sistema a producir esa particular accin es reforzada. En otro caso, la
tendencia del sistema a producir dicha accin es disminuida". La funcin del
supervisor es ms la de un crtico que la de un maestro.
Aprendizaje estocstico. Durante el entrenamiento de la red se realizan
cambios aleatorios e los valores de los pesos de las conexiones de la red y se
evala su efecto a partir de la salida deseada y de distribuciones de
probabilidad.

Aprendizaje no supervisado: El aprendizaje no supervisado se caracteriza


porque la red no recibe influencia externa para ajustar los pesos de las
conexiones entre sus neuronas. La red no conoce ninguna relacin entre las
entradas y las salidas que debe generar, por ello, suele decirse que estas redes
son capaces de auto-organizarse. El xito de este tipo de aprendizaje se logra
buscando en el conjunto de datos de entrada, caractersticas, regularidades,
correlaciones o categoras que se puedan establecer entre ellos.

c) Segn su modo de operacin. Cuando se habla del modo de operacin de una red
neuronal se est haciendo referencia a la manera en que la red neuronal procesa los
estmulos externos y crea la respuesta de salida. Puede considerarse a una red
neuronal como perteneciente a una de dos grandes categoras, como lo son las redes
estticas y las dinmicas.

Redes estticas: Son redes que toman problemas resueltos para construir
sistemas que toman decisiones y que a dems pueden realizar clasificaciones,
tomando aquellos problemas que no tienen solucin computacional e
implementado algoritmos para su solucin.

Las redes estticas producen un mapa de datos a datos y es por ello que se
utilizan como aproximadores universales de funciones. Debido a su modo de
funcionamiento, estas redes tienen una capacidad limitada para sintetizar
funciones dependientes del tiempo en comparacin con lo que exponen las redes
dinmicas.
Entre este tipo de redes encontramos la red Perceptron y las redes multicapa,
con las cuales se resuelven los problemas de clasificacin de patrones no
separables linealmente.

Redes dinmicas: Son las utilizadas para sintetizar un comportamiento


dinmico, es decir algo que evoluciona en el tiempo, para lo cual se alimenta la
red con muestras pasadas por todas las variables involucradas en la solucin del
problema.
Este tipo de redes responde de manera diferente ante diferentes secuencias de
entradas, haciendo uso de manera implcita o explcita de la variable tiempo.
Este aspecto las hace en principio ms idneas que las redes estticas para la
sntesis de funciones en las que aparezca de alguna manera el parmetro tiempo.
Algunas Redes dinmicas por naturaleza son las redes recurrentes tipo Hopfield
(DNN-H) y las redes recurrentes tipo multicapa (DNN-M).

Otras redes neuronales: Son redes que se caracterizan por no tener un par
entrada salida asociado, sino que extraen caractersticas de las entradas sin que
se conozca la salida. Estas redes asocian una respuesta a una entrada en
particular mediante un procedimiento simple, Entre este tipo de redes
encontramos las red de Kohonen, las memorias asociativas bidireccionales
BAM y la red de funciones radiales.

HERRAMIENTAS Y TECNOLOGIAS
El resurgimiento de la computacin neuronal en los ltimos aos se ha producido
por el desarrollo terico de nuevos modelos matemticos del comportamiento del cerebro y
por el desarrollo de nuevas tecnologas que ya estn siendo utilizadas en una gran variedad
de aplicaciones comerciales.
Entre los avances o desarrollos tecnolgicos que permiten la realizacin de la
computacin neuronal destacan los programas software de simulacin, los aceleradores
hardware, los chips de silicio y los procesadores pticos.
Simuladores Software: constituyen una de las formas ms verstiles con las que se
pueden implementar redes neuronales. Estos programas constituyen todo un sistema de
desarrollo y realizacin de prototipos de redes neuronales. Estos programas se utilizan para
disear, construir, entrenar y probar redes neuronales artificiales para resolver problemas
complejos y problemas del mundo real.
Los primeros simuladores software se ejecutaban en ordenadores de grandes
prestaciones y el avance de los ordenadores personales en capacidad de procesado y
capacidad de memoria hace posible que exista una serie de simuladores software de
grandes prestaciones que corren sobre ordenadores personales. Entre otros paquetes
software se incluye Neural Works, Neuralyst, Explore Net y Kwowledge Net.
Aceleradores Hardware: la naturaleza paralela de la computacin neuronal se
presta a realizar diseos concretos y a medida de dispositivos fsicos, aceleradores
hardware, que aceleren la ejecucin de los clculos. Los aceleradores hardware para los
sistemas de computacin neuronal son dispositivos fsicos constituidos por diferentes
procesadores interconectados que ayudan a la realizacin y ejecucin del comportamiento
de las RNA. Una de las ventajas de los aceleradores hardware diseados especficamente
para la computacin neuronal es el aumento de la velocidad de procesado. Esta
caracterstica permite la utilizacin de las RNA en aplicaciones de tiempo real.
Robert Hecht-Nielsen desarroll el acelerador hardware Mark III que constaba de
8100 procesadores y trabajaba como un perifrico de un VAX. La mayora de las casas
comerciales dedicadas al diseo de las RNA han desarrollado diferentes tarjetas basadas en
los diferentes procesadores existentes, diseadas para trabajar en el entorno de un
ordenador personal PC y presentando un progresivo ratio de actualizaciones de
interconexiones por segundo.
Chips de Silicio: Otro de los campos de la investigacin en el mundo de las RNA al
margen de los simuladores software y aceleradores hardware, es la integracin de todos los
componentes de computacin neuronal en un chip de silicio. Un ejemplo concreto es el

chip Electronic Neural Network (EEN) de la compaa AT&T que contiene 256
transistores-neuronas y ms de 100.000 resistencias-sinapsis. Actualmente este chip est
siendo utilizado para aplicaciones de compresin del ancho de banda de imgenes de vdeo
para poder ser transmitidas por una lnea telefnica. Existen muchas compaas y centros
de investigacin que estn trabajando en el desarrollo de circuitos integrados que realizan
computacin neuronal. La mayora de las aplicaciones de estos chips est siendo la
simulacin de procesos sensitivos como la visin de imgenes y la audicin de sonidos.

APLICABILIDAD
El principal rasgo de esta tecnologa es que ha sido aplicada a un inmenso conjunto
de problemas, pertenecientes a diversas reas del conocimiento, muchos de los cuales
parecan ser demasiado complicados de resolver en modelos tericos o para los cuales se
careca de un modelo matemtico apropiado.
Hay muchos tipos diferentes de redes neuronales, cada uno de los cuales tiene una
aplicacin particular ms apropiada. Las redes neuronales han encontrado muchas
aplicaciones con xito en la visin artificial, reconocimiento de textos manuscritos, en la
simulacin de centrales de produccin de energa, en la deteccin de explosivos, en la
identificacin de blancos de radares, en el procesado de seales e imgenes, reconocimiento
de voz y caracteres, sistemas expertos, anlisis de imgenes mdicas, control remoto,
control de robots, inspeccin industrial, en exploracin cientfica se utilizan redes
neuronales en los vehculos de investigacin espacial, en la biometra para distinguir
personas segn patrones corporales tales como su huella, rostro, pupila y otros, la deteccin
de clulas cancerosas, lesiones neurolgicas y cardiacas, prospecciones geolgicas,
prediccin de audiencias televisivas, para jugar a diferentes juegos (ajedrez, backgammon,
bridge), compresin de datos, predicciones meteorolgicas, o comprobacin de fallos en
equipos. Entre otros.

Tesis UDO

Para el ao 2009, los estudiantes Luis Antonio Cordero y Enoes Carolina Medina de
la Universidad de Oriente Ncleo Anzotegui, desarrollaron el proyecto titulado
Desarrollo de una Aplicacin que Permita Evolucionar Redes Neuronales
Artificiales para Resolver Problemas de Clasificacin, para optar al ttulo de
Ingeniero en Computacin. Este proyecto se realiz con el propsito de desarrollar
un software que le brinde al usuario una solucin expresada como una Red
Neuronal Artificial que puede ser obtenida de dos formas: Algoritmo Gentico y
Algoritmo Backpropagation; que el usuario puede elegir que mtodo usar. Esta
aplicacin se realiz utilizando tecnologas de software libre, rigindose por el
decreto 3390, el cual dispone que La Administracin Pblica Nacional deber
emplear prioritariamente Software Libre desarrollado con Estndares Abiertos, en
todos sus Sistemas, Proyectos y Servicios Informticos. El desarrollo del proyecto
estuvo dirigido por la metodologa OMT (Object Modeling Technique), la cual
utiliza el anlisis y el diseo orientado a objetos por medio del Lenguaje de

Modelado UML. Para construir el software se utiliz JAVA como lenguaje de


programacin.

Para el ao 2009, los estudiantes Yubraska Karina Montaa Torres y Giuseppe


Daniele Sifontes Lopardo de la Universidad de Oriente Ncleo Anzotegui,
desarrollaron el proyecto titulado Desarrollo de una Aplicacin para el
Reconocimiento Facial mediante Redes Neuronales Artificiales, para optar al
ttulo de Ingeniero en Computacin. Este proyecto se realizo con el propsito de el
usuario podr indicar los rostros que la aplicacin debe memorizar durante el
aprendizaje, tambin podr seleccionar algunos parmetros de las redes neuronales,
como son: el nmero de capas y el nmero de neuronas empleadas por cada capa y
el factor de aprendizaje, una vez configurados todos estos parmetros se podr dar
inicio al entrenamiento de las redes neuronales perceptrn multicapa y funcin de
base radial, una vez finalizado el entrenamiento se genera un archivo con todos los
pesos, umbrales y dems resultados obtenidos durante el entrenamiento, necesarios
para que las redes logren el reconocimiento, este archivo es denominado memoria y
se actualiza cada vez que se encuentra una mejor solucin a un problema, por lo
tanto, se puede entrenar tantas veces como se desee en busca de una mejor solucin.
Una vez que las redes neuronales artificiales se encuentren entrenadas estas sern
capaces de identificar o verificar con un alto grado de acierto los sujetos aprendidos.
El anlisis y diseo de la aplicacin fue realizado utilizando el lenguaje grfico
UML (Unified Modeling Language). Para el desarrollo de esta aplicacin se utiliz
el lenguaje de cuarta generacin Java 1.6 y la herramienta JCreator Pro V3.

Para el ao 2001, los estudiantes Rosa Lrida Lunar Fernndez y Antonio Da Silva
Moreira de la Universidad de Oriente Ncleo Anzotegui, desarrollaron el proyecto
titulado Diseo de un Sistema Basado en Redes Neuronales para el Control de
un Vehculo para optar al ttulo de Ingeniero en Computacin. Este proyecto se
realiz con el propsito de disear un sistema que permita el control de un vehculo
basado en Redes Neuronales. El sistema consta de dos subsistemas: uno en bajo
nivel encargado de controlar la circuitera o hardware del vehculo y otro en alto
nivel que lleva el control basado en el algoritmo Backpropagation de Redes
Neuronales. Este proyecto utiliz para el subsistema de control del hardware el
Lenguaje Ensamblador y para el subsistema de control neuronal los diagramas de
Lenguaje Unificado para el Modelado de objeto (UML), y se define con una
Programacin Orientada a Objetos con el Lenguaje de Programacin Borland C++.

Para el ao 1997, los estudiantes Sarbjit Singh Kaur y Franklin Ysaccis Betancourt
de la Universidad de Oriente Ncleo Anzotegui, desarrollaron el proyecto titulado
Simulador de Redes Neurales Competitivas con Aprendizaje no Supervisado
del Tipo SOM y ART1 para optar al ttulo de Ingeniero en Computacin. Este

proyecto se realiz con el propsito de modelar Redes Neuronales competitivas de


aprendizaje no supervisado del tipo SOM (Self Organizing Map) y ART1
(Adaptative Resonance Theory), con la finalidad de evaluar su aplicacin en la
solucin de problemas de categorizacin o agrupamiento. El aspecto ms resaltante
de este simulador es un Asistente para Redes Neuronales; este asistente gua al
usuario a travs del diseo de la red, haciendo sugerencias durante el proceso y
encapsulando muchos detalles. El simulador fue diseado para operar en ambiente
MS-Windows con cdigo de 32 bits y fue desarrollado bajo una arquitectura
Orientada a Objetos y codificado en el Lenguaje de Programacin C++.

Para el ao 1994, la estudiante Melisendra Trejo Padrino de la Universidad de


Oriente Ncleo Anzotegui, desarroll el proyecto titulado Diseo e Implantacin
de un Simulador de una Red Neuronal Backpropagation, para optar al ttulo de
Ingeniero en Computacin. Este proyecto se realiz con el propsito de simular e
implementar el algoritmo Backpropagation, puede simular redes de hasta cinco
niveles y utilizar una de tres funciones de activacin (threshold, sigmoide y tangente
hiperblica). Fue desarrollado en el Lenguaje de Programacin C.

BIBLIOGRAFA
http://ocw.uv.es/ingenieria-y-arquitectura/1-2/libro_ocw_libro_de_redes.pdf
https://books.google.co.ve/books?
id=X0uLwi1Ap4QC&printsec=frontcover&hl=es&source=gbs_ge_summary_r&c
ad=0#v=onepage&q&f=false
http://www.ciberesquina.una.edu.ve:8080/2014_2/350_E.pdf