You are on page 1of 3

Introducción

1.1 Acerca de las redes neuronales. El hombre se ha caracterizado siempre por su búsqueda constante de nuevas vías para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como por ejemplo, a la construcción de máquinas calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resultan tediosas cuando se realizan a mano. Uno de los primeros en acometer esta empresa fue Charles Babbage, quien trató infructuosamente de construir una máquina capaz de resolver problemas matemáticos. Posteriormente otros tantos intentaron construir máquinas similares, pero no fue hasta la Segunda Guerra Mundial, cuando ya se disponía de instrumentos electrónicos, que se empezaron a recoger los primeros frutos. En 1946 se construyó la primera computadora electrónica, ENIAC. Desde entonces los desarrollos en este campo han tenido un auge espectacular. Estas máquinas permiten implementar fácilmente algoritmos para resolver multitud de problemas que antes resultaban engorrosos de resolver. Sin embargo, se observa una limitación importante: ¿qué ocurre cuando el problema que se quiere resolver no admite un tratamiento algorítmico, como es el caso, por ejemplo, de la clasificación de objetos por rasgos comunes? Este ejemplo demuestra que la construcción de nuevas máquinas más versátiles requiere un enfoque del problema desde otro punto de vista. Los desarrollos actuales de los científicos se dirigen al estudio de las capacidades humanas como una fuente de nuevas ideas para el diseño de las nuevas máquinas. Así, la inteligencia artificial es un intento por descubrir y describir aspectos de la inteligencia humana que pueden ser simulados mediante máquinas. Esta disciplina se ha desarrollado fuertemente en los últimos años teniendo aplicación en algunos campos como visión artificial, demostración de teoremas, procesamiento de información expresada mediante lenguajes humanos... etc. Las redes neuronales son más que otra forma de emular ciertas características propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atención aquellos problemas que no pueden expresarse a través de un algoritmo, se observará que todos ellos tienen una característica en común: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que una forma de aproximarse al problema consista en la construcción de sistemas que sean capaces de reproducir esta característica humana. En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la neurona”.
5

Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un componente relativamente simple del ser humano, pero cuando millares de ellas se conectan en forma conjunta se hacen

1949 . un neurofisiólogo. Una primera clasificación de los modelos de redes neuronales podría ser.1 Historia de las redes neuronales. la neurona se dispara o activa. Aun hoy. Como ya se sabe. _ Tienen capacidad de aprender y mejorar su funcionamiento. el secreto de la “inteligencia” -sin importar como se defina. Así.Alan Turing. Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona es estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un cierto umbral. incluyendo imágenes. es bien conocido que los humanos son capaces de aprender.se sitúa dentro de estas neuronas interconectadas y de su interacción. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa . También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Su arquitectura está fuertemente ligada a las necesidades de las aplicaciones para la que es diseñada. atendiendo a su similitud con la realidad biológica: 1) El modelo de tipo biológico. el pensamiento tiene lugar en el cerebro. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales. Ellos modelaron una red neuronal simple mediante circuitos eléctricos. _ Consisten de unidades de procesamiento que intercambian datos o información. manuscritos y secuencias de tiempo (por ejemplo: tendencias financieras). En sus series de ensayos. y Walter Pitts. un matemático. _ Se utilizan para reconocer patrones. este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación.muy poderosas.Karl Lashley. Este modelo no tiene por qué guardar similitud con los sistemas biológicos. pasando una señal hacia el axon. Aprendizaje significa que aquellos problemas que inicialmente no pueden resolverse.. encontró que la información no . los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch.Boletín de Matemática Biofísica 5: 115-133). 2) El modelo dirigido a aplicación. Posteriores investigaciones condujeron al descubrimiento de que estos procesos son el resultado de eventos electroquímicos. 6 2 Reseña Histórica 2. Este comprende las redes que tratan de simular los sistemas neuronales biológicos.Donald Hebb. desarrollando una regla de como el aprendizaje ocurría. Por lo tanto. 1950 . pueden ser resueltos después de obtener más información acerca del problema. las Redes Neuronales.. Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico. quienes. así como las funciones auditivas o algunas funciones básicas de la visión. 1936 . que consta de billones de neuronas interconectadas. También. en 1943. Sin embargo.

Comenzó el desarrollo del Perceptron. después de haber aprendido una serie de patrones podía reconocer otros similares.Marvin Minsky/Seymour Papert. aunque no se le hubiesen presentado en el entrenamiento. 1969 . bajo ciertas condiciones. 1959 . En este libro confirmó que. por ejemplo.era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.Karl Steinbeck: Die Lernmatrix. 1956 . utilizándose hoy en día para aplicación como identificador de patrones. su incapacidad para resolver el problema de la función OR-exclusiva y. ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles. Sin embargo. en general.Congreso de Dartmouth. Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales. 1957 . el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron). Red neuronal para simples realizaciones técnicas (memoria asociativa). es decir. Esta es la red neuronal más antigua. tenía una serie de limitaciones. era incapaz de clasificar clases no separables linealmente. 1961 .Frank Rosenblatt. Este modelo era capaz de generalizar. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.Bernard Widroff/Marcian Hoff.Frank Rosenblatt: Principios de Neurodinámica. tales como . 1960 . Desarrollaron el modelo Adaline (ADAptative LINear Elements).