Estudiante: Erick Zúñiga Romero

Profesor: Jorge Hernández Aguilar

Materia: Utilización Del Software

Tema: Investigación Redes Neuronales

Fecha: 16 de mayo del 2011

Los científicos llevan años estudiándolo y se han desarrollado algunos modelos matemáticos que tratan de simular su comportamiento. Estos modelos se han basado sobre los estudios de las características esenciales de las neuronas y sus conexiones.¿Qué son las redes neuronales? El cerebro es uno de las cumbres de la evolución biológica. sin instrucciones explícitas para ello. . los modelos de neuronas iniciales se han ido complicando. ya que es un gran procesador de información. Se han implementado en computadoras y equipos especializados para ser simulados. combinarla o compararla con la información almacenada y dar respuestas adecuadas. Entre sus características podemos destacar. introduciendo nuevos conceptos llegando a ser un paradigma de computación (equivalente a las máquinas de Turing) basado en el comportamiento de las neuronas. Con el paso de los años. que es capaz de procesar a gran velocidad grandes cantidades de información procedentes de los sentidos. Además es de destacar su capacidad para aprender a representar la información necesaria para desarrollar tales habilidades. son muy interesantes por su capacidad de aprender y asociar patrones parecidos lo que nos permite afrontar problemas de difícil solución con la programación tradicional. Aunque estos modelos no son más que aproximaciones muy lejanas de las neuronas biológicas.

Como se puede ver en la siguiente ilustración. La neurona artificial se comporta como la neurona biológica pero de una forma muy simplificada. Por las entradas Xi llegan unos valores que pueden ser enteros. La función de ponderación suele ser una la suma ponderada de las entradas y los pesos sinápticos. Los pesos que hay en las sinapsis Wi. la red neuronal. Cada neurona se representa como una unidad de proceso que forma parte de una entidad mayor. ponderadas por unos pesos Wi .Las neuronas artificiales son modelos que tratan de simular el comportamiento de las neuronas biológicas. De forma que la unión de estos valores (Xi y Wi) equivalen a las señales químicas inhibitorias y excitadoras que se dan en las sinapsis y que inducen a la neurona a cambiar su comportamiento. Como se ve la ilustración. La salida de función de ponderación llega a la función de activación que transforma este valor en otro en el dominio que trabajen las salidas de las neuronas. que representan como los impulsos entrantes son evaluados y se combinan con la función de red que nos dará el nivel de potencial de la neurona. reales o binarios. . dicha unidad de proceso consta de una serie de Entradas Xi. Estos valores equivalen a las señales que enviarían otras neuronas a la nuestra a través de las dendritas. La salida de la función de red es evaluada en la función de activación que da lugar a la salida de la unidad de proceso. Suele ser una función no lineal como la función paso o sigmoidea aunque también se usa funciones lineales. que equivalen a las dendritas de donde reciben la estimulación. Estos valores son la entrada de la función de ponderación o red que convierte estos valores en uno solo llamado típicamente el potencial que en la neurona biológica equivaldría al total de las señales que le llegan a la neurona por sus dendritas. equivaldrían en la neurona biológica a los mecanismos que existen en las sinapsis para transmitir la señal.

Normalmente se usa como función de propagación la suma ponderada de las entradas multiplicadas por los pesos. En ella. Otra regla de propagación usada es la distancia euclídea. Esta función es normalmente creciente monótona y podemos citar las funciones más comunes: Lineal: Algunas redes neuronales usan esta función de activación como el Adeline por su eficiencia y facilidad. con el estado actual de la neurona para conseguir el estado futuro de activación de la neurona. como el Perceptron multicapa con retropropagación. Función de activación: La función de activación combina el potencial postsinaptico.1] se usa la función signo. es muy común que las redes neuronales no tomen su propio estado como un parámetro y que por tanto no se considere. Funciones en el modelo de Neurona Artificial. Escalón: Esta función es la más usada para redes neuronales binarias ya que no es lineal y es muy simple. Algunas redes que usan esta función son el Perceptrón y Hopfield. Es utilizada en redes no supervisadas para que se ajuste a los patrones. Hiperbólicas o tangenciales: Las redes con salidas continuas. usan esta función ya que su algoritmo de aprendizaje necesita una función derivable. Sin embargo. . Para redes que trabajan en el rango [-1. Usada en los mapas de kohonen y algunas redes competitivas. Suele ser la función identidad aunque hay sistemas en que no es así pero estos sistemas sobrepasan el nivel de esta introducción así que nos quedamos con lo más sencillo suponemos que la salida devuelve la identidad. que nos proporciona la función de propagación. los pesos sinápticos funcionan de manera distinta al anterior ya que lo que hacen es aproximarse lo máximo posible al vector de entrada. En esta función se interpreta como un regulador de las señales que se emiten entre neuronas al ponderar las salidas que entran a la neurona.El valor de salida cumpliría la función de la tasa de disparo en las neuronas biológicas. Función de propagación o ponderación Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis en el potencial de la neurona.

las redes de neuronas artificiales o redes neuronales. Existen algunas redes que transforman su estado de activación en una salida binaria y para eso usan la función escalón antes mostrada como salida. Otra opción. En este apartado veremos las estructuras más comunes que forman las neuronas para formar redes.Función de Salida: Esta función convierte el estado de la neurona en la salida hacia la siguiente neurona que se transmite por las sinapsis. A partir de su situación dentro de la red se pueden distinguir tres tipos de capas: De entrada: estas capas reciben la información desde el exterior. Niveles de Neuronas: La distribución de neuronas dentro de la red se realiza formando niveles o capas de un número determinado de neuronas cada una. esto es. De Salida: estas envían la información hacia el exterior Ocultas: son capas que solo sirven para procesar información y comunicar otras Capas. Las redes con este tipo de salidas no tienen un comportamiento determinista. de manera que la salida es el propio estado de activación de la neurona. Para ello abordare el tema desde dos vistas distintas el número de capas y la forma de interconexión de las capas. Usualmente no se considera y se toma la identidad. Estructuras de las Redes Neuronales Artificiales Las neuronas artificiales como unidades independientes no son muy eficaces para el tratamiento de la información y se agrupan en estructuras más grandes. consiste en usar funciones probabilísticas como en la máquina de Boltzman. .

Tras plantearlo de diferentes modos nuestro marco de trabajo se ha diseñado de manera que puede usarse de las dos maneras. También se usa en algunas redes de aprendizaje competitivo.Según algunos autores. Unión Lineal: Consiste en unir cada neurona con otra neurona de la otra capa. Este tipo de unión se usa menos que el anterior y suele usarse para unir la capa de entrada con la capa procesamiento. . podemos usar las capas de entrada y salida para procesar o simplemente como sensores. las capas de entrada y de salida no son validas para producir procesamiento. si la capa de entrada se usa como sensor. Este tipo de conexionado es el más usado en las redes neuronales. Si miramos más detenidamente observamos que estas uniones a nivel de capa forman distintas estructuras. se usa en todo tipo de uniones desde el Perceptron multicapa a las redes de Hopfield o BAM. Forma de Conexión de las Capas Las neuronas se conectar unas a las otras usando sinapsis. Podemos distinguir varias como: Unión Todos con Todos: Consiste en unir cada neurona de una capa con todas las neuronas de la otra capa. y son usadas solo como sensores.

Se puede observar en la siguiente figura. Las conexiones laterales son conexiones entre neuronas de la misma capa. Además las capas se organizan para formar la estructura de la red. hacia atrás o conexiones laterales. Las neuronas se agrupan formando capas.Predeterminado: Este tipo de conexionado aparece en redes que tienen la propiedad de agregar o eliminar neuronas de sus capas y de eliminar también conexiones. este tipo de conexión son muy comunes en las redes mono capa. no tienen ninguna conexión hacia atrás. y feedback o hacia atrás que si permiten este tipo de conexiones. Si la red admite que las neuronas tengan conexiones a sí mismas se dice que la red es auto recurrente. Esto sirve para clasificar las redes en feedforward o hacia delante. que pueden tener muy distintas características. La jerarquía de las redes neuronales: . Si establecemos un orden en las capas podemos establecer conexiones hacia delante. Clasificación respecto a la Topología La topología o arquitectura de una red consiste en la organización y disposición de las neuronas en la red.

Donde podemos ver que las neuronas se agrupan para formar capas y las capas se unen entre ellas formando redes neuronales. las capas están ordenadas por el orden en que reciben la señal desde la entrada hasta la salida y están unidas en ese orden. Las Redes Neuronales Multicapa Las redes multicapa están formadas por varias capas de neuronas (2. Para unirse las neuronas crean conexiones laterales para conectar con otras neuronas de su capa. la red BRAIN-STATE-IN-A-BOX o memoria asociativa y las maquinas estocásticas de Botzmann y Cauchy. son adecuadas para ser implementadas mediante hardware. existen algunas que permiten que las neuronas tengan conexiones a sí mismas y se denominan autorecurrentes.). Usualmente. Por el contrario existen algunas redes en que las capas aparte del orden normal algunas capas están también unidas desde la salida hasta la entrada en el orden inverso en que . Las redes monocapa han sido ampliamente utilizada en circuitos eléctricos ya que debido a su topología.. Entre las redes neuronales monocapa. Estas redes se pueden a su vez clasificar atendiendo a la manera en que se conexionan sus capas. Las Redes MonoCapa Las redes monocapa son redes con una sola capa.. Ese tipo de conexiones se denominan conexiones feedforward o hacia delante. Las redes más representativas son la red de Hopfield.3. Para clasificar por la topología usaremos el número de capas en Redes Monocapas o Redes Multicapas. usando matrices de diodos que representan las conexiones de las neuronas.

feedback o retroalimentadas. El aprendizaje de las redes neuronales. Las conexiones de este tipo se llaman conexiones hacia atrás. modifican el valor de los pesos sinápticos en función de las entradas disponibles y con ello optimizan la respuesta de la red a las salidas que deseamos. El proceso usual del algoritmo es que la red ejecuta los patrones iterativamente. La primera. es el proceso de presentar los patrones a aprender. Esto implica que una capa no puede tener conexiones a una que reciba la señal antes que ella en la dinámica de la computación. La regla de aprendizaje consiste en algoritmos basados en formulas matemáticas. es la información no volátil que se mantiene para recordar los patrones aprendidos y se encuentra almacenada en los pesos sinápticos.viajan las señales de información. cambiando los pesos de las sinapsis. . Clasificación de las Redes Neuronales respecto al Aprendizaje Las redes neuronales manejan dos tipos de información. es la información volátil. Redes con conexiones hacia adelante: Como decíamos antes. Madaline. que usualmente son llamados patrones de muestra o entrenamiento. El segundo tipo de información que manejan las redes neuronales. hasta que convergen a un conjunto de pesos óptimos que representan a los patrones lo suficientemente bien. se encuentra almacenada en el estado dinámico de las neuronas. Este tipo de redes contienen solo conexiones entre capas hacia delante. a la red y el cambio de los pesos de las conexiones sinápticas usando una regla de aprendizaje. El aprendizaje se basa en el entrenamiento de la red con patrones. que se refiere a los datos que se están usando y varían con la dinámica de la computación de la red. Redes con conexiones hacia atrás: Este tipo de redes se diferencia en las anteriores en que si pueden existir conexiones de capas hacia atrás y por tanto la información puede regresar a capas anteriores en la dinámica de la red. Ejemplos de estas redes son Perceptron. sus pesos sinápticos se ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento que le hemos mostrado. Este Tipo de redes suelen ser bicapas Ejemplos de estas redes son las redes ART. Adaline. Bidirectional Associative Memory (BAM) y Cognitron. que usando técnicas como minimización del error o la optimización de alguna "función de energía". Backpropagation y los modelos LQV y TMP de Kohonen. Esto es. entonces mostrará una respuesta satisfactoria para esos patrones.

Podemos distinguir tres tipos de aprendizaje. Tipos de Redes Neuronales y y y y y y y El Perceptron Simple. Aprendizaje no supervisado. el modo más intuitivo es el Aprendizaje supervisado. que usa una formula híbrida. consiste en no presentar patrones objetivos. hay que destacar que algunas redes no tienen un aprendizaje iterativo como el descrito en el párrafo anterior de presentar los patrones una y otra vez hasta que la red se establece para dar resultados correctos.Sin embargo. como en la red de Hopfield. Red neuronal Competitiva Simple. Redes Neuronales competitivas ART2.Existe otro tipo de aprendizaje. y dejar a la red clasificar dichos patrones en función de las características comunes de los patrones. si no que los pesos de las sinapsis son calculados previamente a partir de los patrones. . el supervisor no enseña patrones objetivos si no que solo le dice se acierta o falla en su respuesta ante un patrón de entrada. que consiste en que la red dispone de los patrones de entrada y los patrones de salida que deseamos para esa entrada y en función de ellos se modifican los pesos de las sinapsis para ajustar la entrada a esa salida. Otro modo de aprendizaje. redes neuronales autoorganizadas : Mapas de Kohonen. Redes Neuronales Online ART1. si no solo patrones de entrada. El Perceptron Multicapa. La Red de Hopfield.

Organigrama redes neuronales .

redes-neuronales.org Redes Neuronales Artificiales y sus Aplicaciones Autor: Xabier Basogain Olabe .Bibliografía http://www.com http://es.netfirms.wikipedia.

Sign up to vote on this title
UsefulNot useful