You are on page 1of 2

Treinamento de uma Rede Neural Artificial utilizando BackPropagation Considere a seguinte Rede Neural para implementar o XOR.

A funo de ativao utilizada nesta rede representada pela equao 1: f (u)= onde e = 2,7183.... X0 = 1 X0 = 1
w=-0,46 G= w=-0,07 G= w=0,78 G=

1 Equao 1 (1+ eu)

H1
w=-0,22 G=

x1

w=0,22 G=

w=0,10 G=

O1
w=0,58 G=

x2

w=0,94 G= w=0,46 G=

H2

A primeira etapa consiste em calcular o erro de toda a rede. O mtodo mais utilizado para calcular esse erro o Mean Squared Error (MSE) ou em portugus: Erro Mdio Quadrtico. 1 MSE= (Y di Y i)2 Equao 2 P i=0 Na Equao 2, i o ndice do padro de entrada, P o nmero de padres, Y di o valor desejado para a sada do padro i e Y i o que a rede obteve como resposta para o padro de entrada i. A tabela 1 mostra os resultados dos clculos dos erros (deltas) e dos erros elevados ao quadrado (delta2). Tabela 1 Erros Quadrticos x0 x1 x2 dj Y (dj-Y) (dj-Y)2 1 1 1 1 0 0 1 1 0 1 0 1 0 0,73 1 0,74 1 0,76 0 0,76 -0,73 0,26 0,24 -0,76 0,5329 0,0676 0,0576 0,5776
P

Para obter o erro mdio quadrtico basta somar todos os erros quadrticos e calcular a mdia, no nosso caso o resultado ser: 0,308925. Isso significa que a rede possui 30,8% de erro. O prximo passo realizar o clculo dos deltas para as camadas. O valor ser utilizado para o clculo do gradiente, que representa a direo em que os pesos devem fluir para obter uma reduo

no erro apresentado pela rede. A frmula utilizada para calcular o para a camada de sada apresentada na Equao 3. s=f ' ( x)E Equao 3 Nesta equao, f' a derivada da funo de ativao e E o erro para a camada de sada. O erro para a camada de sada calculado atravs da mesma forma utilizada para um nico Perceptron como mostra a equao 4.
E=Y dY Equao 4

Aps o clculo do para a camada de sada inicia-se o clculo do para as camadas ocultas. Como nas camadas ocultas no possvel calcular o valor exato do erro, o da camada de sada utilizado como base para esse clculo, como mostra a Equao 5.
o =f ' ( x) wikk Equao 5

Nesta equao o valor da derivada da funo de ativao multiplicado pelo somatrio da multiplicao de wik por k onde wik o valor do peso que liga o neurnio atual (que se pretende calcular o delta) ao prximo neurnio que possui o valor delta calculado (k). Com base no valor de delta, possvel calcular o valor do Gradiente para cada peso da Rede Neural. Como mencionado anteriormente, o Gradiente representa a direo em que os pesos devem fluir para obter uma reduo no erro apresentado pela rede. A frmula para o clculo do Gradiente apresentada na equao 6. E = kY i Equao 6 w ik Com base nos gradientes calculados realizada a atualizao dos pesos da rede neural atravs da frmulas apresentadas nas equaes 7 e 8, onde a equao 7 calcula o valor w com base na taxa de aprendizado , no gradiente associado ao peso (equao 6), no momentum e no w anterior; e a equao 8 realiza a atualizao do peso com base no valor anterior do peso e o valor calculado pela equao 7. w (t )= E + w(t1) Equao 7 wik

w(t + 1 )=w(t )+ w(t ) Equao 8 Frmulas E=Y dY =f ' (x)E o =f ' (x) wikk E = kY i w ik w (t )= E + w(t1) wik
s

w(t + 1 )=w(t )+ w(t ) 1 MSE= (Y di Y i )2 P i=0 f (u)= 1 1+2,7183u


P

f ' (u)=f (u)(1f (u))

You might also like