You are on page 1of 14

“Año de la lucha contra la corrupción e impunidad”

UNIVERSIDAD NACIONAL DE PIURA


FACULTAD DE INGENIERÍA DE MINAS
ESCUELA DE INGENIERÍA DE MINAS

CURSO:

MODELOS Y SIMULACIÓN DE MINAS


TEMA:

MODELAMIENTO DE SISTEMAS INTELIGENTES Y REDES


NEURONALES ARTIFICIALES

DOCENTE: Ing. Martín Zeta Flores

ALUMNO: Chiroque Preciado, Cristhiam Armando

CICLO ACADÉMICO: IX

PIURA – PERÚ
2019
Neurona biológica
Reseña biológica del cerebro
El cerebro humano se puede considerar como uno de los más sofisticados, lo que le
permite tener una de las gamas más extensas de comportamientos diferentes entre sí del
reino animal. Aunque no sea proporcionalmente el de mayor tamaño; pues lo superan los
cerebros de varias otras especies animales, como los de algunas especies de delfines o de
roedores. Pero sí es el que posee el más alto índice de encefalización del reino animal,
pues alcanza el grado siete mientras que algunos cetáceos el número cuatro.
El cerebro humano se divide en cinco partes bien definidas: el bulbo raquídeo, el cerebelo,
los dos hemisferios y el cuerpo calloso que los une. A su vez estas partes se subdividen
en zonas que cumplen, cada una, roles particulares.
En el hombre, como ya se ha podido comprobar científicamente, existen tres clases de
neuronas: las sensitivas, las interneuronas y las neuronas motoras. Estas clases se dividen,
a su vez, en subclases más especializadas. Entre ellas podemos citar las sensitivas donde
se encuentran neuronas con terminaciones ciliadas, que sirven para detectar las
vibraciones del aire u olores, o las que están asociadas con células sensitivas
especializadas como las fotorreceptoras.
El análisis del funcionamiento del cerebro humano, es importante considerar que éste se
apoya sobre todo en la recepción y el procesamiento de los datos que le mandan las
neuronas sensitivas, situadas en las diversas partes del cuerpo de cada ser. Dichas
neuronas se ubican en todo el cuerpo del individuo. Pero, las que mayor importancia
tienen para establecer el contacto con el medio ambiente son las que están situadas en los
órganos que constituyen los distintos sentidos. Los estímulos, de origen externo o interno
a la persona, son captados por medio de varias clases de receptores que pueden ser de tipo
químico-receptor, foto-receptor, termo-receptor o mecánico-receptor.
Como ya se comprobó, científicamente, los receptores transforman los estímulos
recibidos en señales energéticas. Cuando éstos no integran una neurona sensitiva, en
algunos casos, las transmiten a células sensitivas especializadas que las amplifican y las
transmiten a su vez a las neuronas sensitivas con las cuales están directamente conectadas,
lo que implica que el cerebro humano nunca recibe directamente los estímulos captados
por los receptores sino únicamente los productos de sus efectos sobre las neuronas
sensitivas. Éstos son mandadas al encéfalo por medio del axón de las neuronas sensitivas,
o a otras neuronas que los transmiten a dicho encéfalo por medio de su propio axón. En
cada una de estas etapas son amplificadas, como lo demuestran los distintos estudios
realizados sobre este tema.
Cada variedad de receptores capta una clase particular de estímulos. Cualquiera sea la
forma bajo la cual se manifiestan, sea calorífica, mecánica, luminosa, etc., éstos son
transformados por los receptores en señales energéticas de tipo electro-químico, como lo
comprueban las experiencias realizadas sobre este hecho. Por supuesto, estas señales,
productos de los efectos generados por los estímulos sobre los receptores pueden ser
extremadamente variables en diferencia de potencial, intensidad y frecuencia, por tener
orígenes muy diversos, según la clase de receptores que los han captados.
Como cada neurona sensitiva transmite estas señales por medio de su único axón al
encéfalo, se puede afirmar que éstas son recibidas por las neuronas receptoras cerebrales
bajo la forma de una única señal.

Características de las neuronas biológicas


El cerebro humano promedio cuenta con aproximadamente mil millones de neuronas.
Asimismo, durante las sinapsis cada una de estas neuronas recibe en promedio alrededor
de 1000 estímulos de entrada y genera alrededor de 1000 estímulos de salida. En este
sentido: la principal ventaja del cerebro humano promedio recae en su conectividad,
interpretada como la capacidad del mismo para realizar diferentes procedimientos lógicos
a la vez. Sin embargo, su principal debilidad recae en la velocidad de procesamiento de
la información, siendo las computadoras en este sentido, muchísimo más rápidas.
La mayor parte de las neuronas posee una estructura arbórea formada en su mayor parte
por dendritas que, conectadas a otras neuronas, se encargan de recibir los estímulos de
entrada neuronales mediante uniones denominas sinopsis. Algunas neuronas tienen una
estructura que las comunica con miles de neuronas más, mientras otras sólo pueden
comunicarse con unas cuantas a su alrededor.

Las tres partes importantes de la estructura de una neurona son:


 Ramas de Extensión o Dendritas: Las dendritas, tienen la función de recibir las
informaciones (impulsos nerviosos) de otras neuronas y conducirlos al cuerpo o
soma para que sean procesados. Poseen una forma similar a las raíces de los
árboles.

 Cuerpo de la Neurona: El cuerpo o soma, posee una forma piramidal o cilíndrica,


éste es el núcleo de la célula nerviosa. Las informaciones que provienen de las
dendritas son procesadas, generando nuevos impulsos que se retransmiten. El
cuerpo celular es como un procesador de informaciones, sumando el potencial
eléctrico que viene de las dendritas. Este es el responsable de proveer las
funciones necesarias de la neurona.

 Axón: El axón de una neurona, generalmente es único y se puede prolongar por


distancias comparables a las dimensiones del organismo. También es responsable
de llevar los impulsos generados en el cuerpo de la neurona hasta la sinapsis. El
axon puede ser visto como una vía de transporte, o una línea de transmisión. Tiene
una forma lisa, con pocas ramificaciones.

Además, se define la sinapsis:


 Una sinapsis consiste en un terminal pre-sináptico, por donde llega un estímulo
proveniente de otra célula. En la región inter-sináptica, el estímulo nervioso que
llega a la sinapsis se transfiere a la membrana dendrital a través de sustancias
conocidas como neurotransmisores. El resultado de esta transferencia es una
alteración en el potencial eléctrico de la membrana post - sináptica. Dependiendo
de la naturaleza de los neurotransmisores y por la naturaleza de los receptores
químicos que los reciben en el otro lado de la sinapsis, la señal será excitatoria o
inhibitoria.

Actualmente no sé conoce con certeza la verdadera forma de interacción de las neuronas.


En general, una neurona recibe estímulos de entrada mediante las dendritas, estos
estímulos son procesados en el cuerpo de la misma para posteriormente emitir un estímulo
de salida mediante el axón. Este último estímulo utiliza diferencias de potencial eléctrico
u ondas de corriente las cuales dependen fundamentalmente del potencial de la neurona.
Asimismo, la neurona utiliza la función de escalón y la función de activación para
determinar la salida que debe emitir de acuerdo a los estímulos recibidos.
Procesos de desarrollo con Redes Artificiales Neuronales (RNAs)
Fundamentos de las RNAs
Las redes neuronales artificiales (también conocidas como sistemas conexionistas) son
un modelo computacional vagamente inspirado en el comportamiento observado en su
homólogo biológico. Consiste en un conjunto de unidades, llamadas neuronas artificiales,
conectadas entre sí para transmitirse señales. La información de entrada atraviesa la red
neuronal (donde se somete a diversas operaciones) produciendo unos valores de salida.
Cada neurona está conectada con otras a través de unos enlaces. En estos enlaces el valor
de salida de la neurona anterior es multiplicado por un valor de peso. Estos pesos en los
enlaces pueden incrementar o inhibir el estado de activación de las neuronas adyacentes.
Del mismo modo, a la salida de la neurona, puede existir una función limitadora o umbral,
que modifica el valor resultado o impone un límite que se debe sobrepasar antes de
propagarse a otra neurona. Esta función se conoce como función de activación.
Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de forma
explícita, y sobresalen en áreas donde la detección de soluciones o características es difícil
de expresar con la programación convencional. Para realizar este aprendizaje automático,
normalmente, se intenta minimizar una función de pérdida que evalúa la red en su total.
Los valores de los pesos de las neuronas se van actualizando buscando reducir el valor de
la función de pérdida. Este proceso se realiza mediante la propagación hacia atrás.
El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro
humano, aunque las redes neuronales son más abstractas. Las redes neuronales actuales
suelen contener desde unos miles a unos pocos millones de unidades neuronales.
Las redes neuronales, tal como se utilizan en la inteligencia artificial, han sido
consideradas tradicionalmente como modelos simplificados de procesamiento neuronal
en el cerebro, a pesar de que la relación entre este modelo y la arquitectura biológica del
cerebro se debate; no está claro en qué medida las redes neuronales artificiales reflejan el
funcionamiento cerebral.

Diseño de las RNAs


Los modelos de redes neuronales en la inteligencia artificial se refieren generalmente a
las redes neuronales artificiales (RNA); estos son modelos matemáticos esencialmente
simples que definen una función f:X→Y o una distribución más X o ambos X e Y. Pero
a veces los modelos también están íntimamente asociadas con un algoritmo de
aprendizaje en particular o regla de aprendizaje. Un uso común de la frase "modelo ANN"
es en realidad la definición de una clase de tales funciones.
El funcionamiento consiste en aplicar un conjunto de entradas, cada una representando la
salida de otra neurona, o una entrada del medio externo, realizar una suma ponderada de
estos valores y filtrar este valor con una función. En la Fig. se muestra una neurona
artificial.
Las entradas, que podemos llamar vector X, corresponden a las señales que llegan. Cada
señal se multiplica por un peso que tiene asociado, w1, w2, . . ., wn. Los pesos los
podemos llamar vector W, cada peso corresponde a la "intensidad" o fuerza de la
conexión. Estas multiplicaciones se suman, esta "adición" corresponde al cuerpo de una
neurona biológica. Esta es una suma algebraica de las entradas ponderadas, entonces:

En la Fig. se observa que existen variables comprendidas desde x1 hasta xn, también se
tiene pesos desde w1 hasta wn, las variables se multiplican por los pesos correspondientes
y el resultado de la sumatoria de los productos ingresa a la neurona, el cual es enviado al
exterior mediante una función de activación.
Funciones de activación
La señal Net (salida) generalmente se procesa por medio de una función de activación F,
la cual producirá una señal que será la salida (Out) de la neurona.
La función F también puede ser alguna otra función que simule mejor las características
no lineales de transferencia de una neurona biológica.
Si F reduce el rango de Net de manera que Out nunca salga de algún límite,
independientemente de lo grande que sea Net, entonces F es una función sigmoidal, una
función de este tipo es la función logística.
La función de activación se encarga de transforma el valor de red expresado por la función
de base u (w, x). Las funciones de activación más comunes son:
Función lineal:

Los valores de salida obtenidos por medio de esta función de activación serán: a·(gini -
Θi), cuando el argumento de (gini - Θi) esté comprendido dentro del rango (-1/a, 1/a). Por
encima o por debajo de esta zona se fija la salida en 1 o –1, respectivamente. Cuando a =
1 (siendo que la misma afecta la pendiente de la gráfica), la salida es igual a la entrada.
Función sigmoidea:

Los valores de salida que proporciona esta función están comprendidos dentro de un
rango que va de 0 a 1. Al modificar el valor de g se ve afectada la pendiente de la función
de activación.
Función tangente hiperbólica:

Los valores de salida de la función tangente hiperbólica están comprendidos dentro de un


rango que va de -1 a 1. Al modificar el valor de g se ve afectada la pendiente de la función
de activación.
Para explicar porque se utilizan estas funciones de activación se suele emplear la analogía
a la aceleración de un automóvil. Cuando un auto inicia su movimiento necesita una
potencia elevada para comenzar a acelerar. Pero al ir tomando velocidad, éste demanda
un menor incremento de dicha potencia para mantener la aceleración. Al llegar a altas
velocidades, nuevamente un amplio incremento en la potencia es necesario para obtener
una pequeña ganancia de velocidad. En resumen, en ambos extremos del rango de
aceleración de un automóvil se demanda una mayor potencia para la aceleración que en
la mitad de dicho rango.
Los aspectos más característicos de las estructuras son la estructura de conexión, el
tamaño de la red y la elección entre (All Class in One Network -Todas las Clases en Una
Red) y OCON (One Class in One Network - Una Clase en Una Red).

 Estructuras de conexión

Una red neuronal está determinada por la neurona y la matriz de pesos. El


comportamiento de la red depende en gran medida del comportamiento de la
matriz de pesos. Hay tres tipos de capas de neuronas: la de entrada, las ocultas y
la de salida. Entre dos capas de neuronas existe una red de pesos de conexión, que
puede ser de los siguientes tipos: Hacia delante, hacia atrás, lateral y de retardo.
1. Conexiones hacia delante: Los datos de las neuronas de una capa inferior
son propagados hacia las neuronas de la capa superior por medio de las
redes de conexiones hacia adelante.

2. Conexiones hacia atrás: Los datos de las neuronas de una capa superior
son propagados hacia las neuronas de la capa inferior por medio de las
redes de conexiones hacia adelante.

3. Conexiones con retardo: los elementos de retardo se incorporan en las


conexiones para implementar modelos dinámicos y temporales, es decir,
modelos que precisan de memoria.

 Tamaño de las redes neuronales

El Tamaño de las Redes depende del Número de Capas y del Número de Neuronas
Ocultas por Capa.

1. Número de capas: En una Red Multicapa, hay una o más capas de neuronas
ocultas entre la entrada y la salida. El número de capas se cuenta a menudo
a partir del número de capas de pesos en vez de las capas de neuronas).

2. Número de unidades ocultas: El Número de Unidades Ocultas está


directamente relacionado con las capacidades de la red. Para que el
comportamiento de la red sea correcto se tiene que determinar
apropiadamente el número de neuronas de la capa oculta.

 Aproximaciones ACON frente OCON

Normalmente, cada nodo de salida se usa para representar una clase. Si tomamos
un problema de reconocimiento alfanumérico, habrá 36 clases y 36 nodos de
salida. Dado un patrón de entrada en la fase de prueba, el ganador es normalmente
el nodo que tiene el valor más alto a la salida.

 ALL CLASS IN ONE NETWORK – ACON: Todas las clases son reconocidas
dentro de una única Súper Red.

 ONE CLASS IN ONE NETWORK – OCON: En algunos casos es ventajoso


descomponer esta Súper Red en varias Subredes más pequeñas. La
descomposición más extrema es la llamada OCON donde una Subred se dedica
para una sola clase. Aunque el número de Subredes en la estructura OCON es
relativamente largo, cada una de ellas tiene un tamaño menor que la red ACON.

Entrenamiento o aprendizaje de las RNAs:


Es el proceso por el que una RNA actualiza los pesos (y, en algunos casos, la arquitectura)
con el propósito de que la red pueda llevar a cabo de forma efectiva una tarea determinada.
Hay tres conceptos fundamentales en el aprendizaje:
 Paradigma de aprendizaje: información de la que dispone la red.
 Regla de aprendizaje: principios que gobiernan el aprendizaje.
 Algoritmo de aprendizaje: procedimiento numérico de ajuste de los pesos.
Una RNA puede aprender de varias formas. La principal finalidad es que, dado un
determinado conjunto de entradas, se produzca un conjunto esperado de salidas, para
realizar tal tarea, existen métodos para determinar la fuerza de las conexiones de la red.

Una manera es definir y atribuir explícitamente los pesos a cada una de las conexiones de
la RNA, usando el conocimiento de un experto, como en el caso de las redes
bidireccionales. Otra forma es entrenar a la red con un algoritmo de entrenamiento, que
ira automáticamente ajustando los pesos de la red. Para el entrenamiento, existen dos
técnicas, el aprendizaje supervisado y el aprendizaje no supervisado.

 Supervisado: la red trata de minimizar un error entre la salida que calcula y la


salida deseada (conocida), de modo que la salida calculada termine siendo la
deseada.
En el aprendizaje supervisado, se presenta a la red pares de entradas y salidas,
donde las entradas llevarán a la red a producir una salida, que será comparada con
la salida deseada, ver Fig.

En caso que la respuesta producida por la red sea diferente de la respuesta esperada, la
red genera un error, éste se usa para calcular el ajuste de los pesos sinápticos. Los pesos
son alterados para aproximar los resultados de las salidas esperadas. Ese proceso se repite
con todo el conjunto de entrenamiento, hasta que la red obtenga un error aceptable o
ningún error. Al final del entrenamiento, cuando el aprendizaje de la red no converge, se
aumenta el número de épocas de entrenamiento, alterar el número de neuronas de cada
capa o el número de capas de la red.
 No supervisado o autoorganizado: la red conoce un conjunto de patrones sin
conocer la respuesta deseada. Debe extraer rasgos o agrupar patrones similares.
Se presenta a la red sólo las entradas, dejando de lado las salidas deseadas. Se
utiliza un esquema tal que, para ejemplo de cosas semejantes, la red responde de
modo semejante. La red se encamina iterativamente, en un proceso interno, propio
de categorización de la información de entrada, también conocido como "data
clustering", donde los datos de entrada son clasificados en categorías en las
salidas.

Un algoritmo utilizado para este tipo de entrenamiento no supervisado es el algoritmo


Backpropagation
Algoritmo Backpropagation
Este algoritmo lo desarrollaron a partir de estudios anteriores con el fin de crear una red
que aprendiera las relaciones existentes entre pares de datos. Existe por lo menos una
capa intermedia, la regla backpropagation (BP) o el algoritmo BP comenzó a ser usado
cuando, en 1986 Rumelhart, desarrollaron el modelo actual.
El proceso básico necesita que el patrón de información incluya tanto los datos de entrada
(input) como los datos de salida (output). Inicialmente a partir de las neuronas de la capa
de entrada se van propagando los datos de las variables input, por el resto de las neuronas
y conexiones en función de los pesos que inicialmente son aleatorios. A partir del
algoritmo de aprendizaje, estos pesos se irán modificando hasta producir determinados
outputs. En el proceso de entrenamiento se presentan simultáneamente a la red patrones
de datos input - output, ya que cada valor de entrada tiene su correspondiente valor de
salida.
La importancia de este proceso consiste en que a medida que se entrena la red, las
neuronas de las capas intermedias se organizan a sí mismas, de tal modo que las distintas
neuronas aprenden a reconocer distintas características del espacio total de entrada.
Después del entrenamiento, cuando se le presenta un patrón arbitrario de entrada que
contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán
con una salida activa, si la nueva entrada contiene un patrón que se asemeje a aquella
característica que las neuronas individuales hayan aprendido a reconocer durante su
entrenamiento. Y a la inversa, las unidades de las capas ocultas tienen una tendencia a
inhibir su salida si el patrón de entrada no contiene la característica, para la cual ha sido
entrenada.

You might also like