Professional Documents
Culture Documents
Backpropagation
Backpropagation
2/24/13
2/24/13
Multiple Layer
1 X 1 v 1 v 1 1 2 v 2 v 1 2 2 v 0 1Z 1 1 w 1 1 w 21 w 01 Y 1 Output Layer bi as
X 2 input Layer
2/24/13
v 1 0 2Hidden Layer
Z 2
1 1 0 0
Y X 2
Review Perceptron : OR
X1 X2 net
1 Y, 1 jika net >=1, 0 jika net <
X1 1
1 1 0 0
X2
1 1 0 0
X2
-1
Problem XOR
X1 X2 1 1 0 0 1 0 1 0 0 1 1 0
F(0,0) = 0 F(1,0) = 1
Y
F(0,1) = 1 F(1,1) = 0
GAGAL!
2/24/13
Solusi
XOR
Ternyata
1
Y
-1
X2
-1
Z2
2
2/24/13
Tabel
2/24/13
tahapan :
1. Feedforward pola pelatihan yang diinput 2. perhitungan dan propagasi balik kesalahan 3. penyesuaian bobot (weight). Untuk mendapatkan bobot akhir
2/24/13
Fungsi Aktivasi
2/24/13
Fungsi Aktivasi
Fungsi bipolar
2/24/13
Fungsi Aktivasi
2/24/13
Contoh Kasus
Misal akan dibuat arsitektur JST Back Propagation mengenali angka 1-9 dengan 5 neuron pada hidden layer dengan fungsi tansig (tan sigmoid) dan 4 neuron pada output dengan fungsi purelin (pure linear)
2/24/13
function
NN()
%ada
rangeinput=[0
1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1; 0 1 ];
2/24/13
angka1=[0;
1; 0;
1; 1; 0; 0; 1; 0; 0; 1; 0; 1; 1; 1]; 1; 1; 0; 0; 1; 0; 1; 1;
angka2=[1;
2/24/13
train(net, p, t);
datatesting)
Latihan
Input
training
data
2/24/13
Input
testing data
2/24/13
neuron
Input
: 15 neurons layer : 5 neurons layer : 4 neurons layer : purelin (linear) layer : tansig (sigmoid)
Hidden Output
Hidden Output
2/24/13