You are on page 1of 62

Jaringan Syaraf Tiruan

(JST)
Jaringan Syaraf Secara Biologis Jaringan Syaraf Secara Biologis
Misbahuddin Jaringan Syaraf Tiruan 2
Komponen
J i S f Ti (JST) Jaringan Syaraf Tiruan (JST)
Input Input
Bobot
Pemroses Pemroses
Output
Output ke
neuron-

Fungsi Aktivasi
Output
Bobot
Input dari
Bobot
neuron-
neuron
yang lain

Output Input dari


Neuron-
neuron
yang lain
Misbahuddin Jaringan Syaraf Tiruan 3
Struktur Neuron JST
Jaringan Syaraf Sederhana
x
1
w
Ja ga Sya a Sede a a
x
2
F
w
1
w
2
y_in
y
x
F
w
n
y
x
n
N
w x in y

=
i
i
i
w x in y

=
=
1
_
Misbahuddin Jaringan Syaraf Tiruan 4
Jaringan Syaraf Sederhana dgn bias
x
1
w
x
2
F
w
1
w
2
y_in
y
x
F
w
n
y
b
N
x
n
1
b w x in y
i
N
i
i
+ =

=1
_
Misbahuddin Jaringan Syaraf Tiruan 5
Jaringan Syaraf Sederhana
dgn neuron output lebih dari 1 dgn neuron output lebih dari 1
b
1
x
1
N
1
F
w
11
w
12
y_in
1
y
1
w
21
x
2
w
21
w
22
w
31
F
y in
2
x
3
w
32
N
2
F
y_
2
y
2
b
2
m j b w x in y
j ij
N
i
i j
,... 2 , 1 _
1
= + =

2
Misbahuddin Jaringan Syaraf Tiruan 6
i 1 =
Contoh: Misalkan terdapat jaringan syaraf dgn 3 input (x
1
,x
2
dan x
3
) serta memiliki 2 output (y
1
dan y
2
). Jika (x
1
=3, x
2
= 5
3
) p (y
1
y
2
) (
1
,
2
dan x
3
= 1) Hitung y_in :
x
1
N
1
F
w
11
=0,2
W
12
=0,1
y_in
1
y
1
W =0 1
3
x
2
W
21
=0,1
W
22
=-0,2
W
31
=0,5
F
y in
2
5
x
3
W
32
=-0,5
N
2
31
,
F
y_
2
y
2
1
y_in1 = (3)(0,2)+(5)(0,1)+(1)(0,5)=1,6
y in2 = (3)(0 1)+(5)(-0 2)+(1)(-0 5)=-1 2
Misbahuddin Jaringan Syaraf Tiruan 7
y_in2 (3)(0,1)+(5)( 0.2)+(1)( 0,5) 1,2
Arsitektur Jaringan Syaraf
1. Jaringan Syaraf Lapisan Tunggal (single layer)
b
1
x
1
N
1
F
w
11
w
12
y_in
1
y
1
w
21
x
2
w
21
w
22
w
31
F
y in
2
x
3
w
32
N
2
F
y_
2
y
2
b
2
m j b w x in y
j ij
N
i j
,... 2 , 1 _ = + =

2
Misbahuddin Jaringan Syaraf Tiruan 8
j ij
i
i j
1

=
Arsitektur Jaringan Syaraf
2. Jaringan Syaraf banyak Lapisan (multilayer)
x
w
i
z in
w
y
1
x
1
x
2
N
1
w
ij
y_in
1
z
1
F1
N
1
z_in
1
F2
.
.
.
.
w
jk
x
2
N
K
F1
y_in
K
N
L
F2
z_in
L
.
.
.
.
.
.
.
.
w
KL
y
K
N
2 1

z
L
K

x
N
w
NK
K j w x in y
ij
i
i j
,... 2 , 1 _
1
= =

=
L k w x in z
jk
j
j k
,... 2 , 1 _
1
= =

=
F2( i )
Misbahuddin Jaringan Syaraf Tiruan 9
y
j
= F1(y_in
j
)
z
k
= F2(z_in
k
)
Fungsi Aktivasi Fungsi Aktivasi
1. Fungsi Undak Biner (Hard Limit) 1. Fungsi Undak Biner (Hard Limit)
1
y
{
0 , 0 < x jika
y
x
{
,
0 , 1
=
j
x jika
y
0
x
Misbahuddin Jaringan Syaraf Tiruan 10
Fungsi Aktivasi Fungsi Aktivasi
2. Fungsi Bipolar (Symetric Hard Limit) 2. Fungsi Bipolar (Symetric Hard Limit)
1
y
{
0 , 1 x jika
y
0
x
{
,
0 , 1 <
=
j
x jika
y
0
x
-1
Misbahuddin Jaringan Syaraf Tiruan 11
Fungsi Aktivasi Fungsi Aktivasi
3. Fungsi Linear (identitas)
y
x y =
1
x y =
0
x
1
-1
-1
Misbahuddin Jaringan Syaraf Tiruan 12
Fungsi Aktivasi Fungsi Aktivasi
4. Fungsi Saturasi Linear 4. Fungsi Saturasi Linear
1
y
0 0
5 , 0
0
; 1

k
x jika
x
5 , 0
5 , 0 5 , 0
; 0
5 , 0

+ =
x jika
x jika x y
0 5 0 5
0
x
0,5 -0,5
Misbahuddin Jaringan Syaraf Tiruan 13
Fungsi Aktivasi Fungsi Aktivasi
5. Fungsi Simetrik Saturasi Linear 5. Fungsi Simetrik Saturasi Linear
y
1 1
1 ; 1

k
x jika
1
1
1 1
; 1

=
x jika
x jika x y
0
x
1
-1
-1
Misbahuddin Jaringan Syaraf Tiruan 14
Fungsi Aktivasi Fungsi Aktivasi
6. Fungsi Sigmoid Biner 6. Fungsi Sigmoid Biner
y
= 0,5
= 0,2
x f y = =
1
) (
x
e
x f y

+ 1
) (
x
Misbahuddin Jaringan Syaraf Tiruan 15
Algoritma Pembelajaran Algoritma Pembelajaran
1. Pembelajaran terawasi (supervised learning) j ( p g)
- Output yang diharapkan telah diketahui sebelumnya.
- Satu pola input akan diberikan ke satu neuron pada lapisan input
- Pola ini dirambatkan di sepanjang jaringan syaraf hingga
sampai ke neuron pada lapisan output.
- Pola output akan dibandingkan dengan pola target.
- Bila terjadi perbedaan antara pola output dan pola target, maka
disini muncul error.
- Pembelajaran akan terus dilkakukan hingga error kecil - Pembelajaran akan terus dilkakukan hingga error kecil.
Misbahuddin Jaringan Syaraf Tiruan 16
Algoritma Pembelajaran Algoritma Pembelajaran
2. Pembelajaran tak terawasi (unsupervised learning) j ( p g)
- Tidak memerlukan target output
- Tidak dapat ditentukan hasil yang seperti apakah yang diharapkan
selama proses pembelajaran selama proses pembelajaran.
- Selama proses pembelajaran, Nilai bobot disusun dalam range
tertentu tergantung pada nilai input yang diberikan.
- Tujuan pembelajaran adalah mengelompokkan unit-unit yang
hampir sama dalam suatu area tertentu.
- Pembelajaran ini biasanya sangat cocok untuk klasifikasi pola.
Misbahuddin Jaringan Syaraf Tiruan 17
Algoritma Pembelajaran Hebb Algoritma Pembelajaran Hebb
Pembelajaran dilakukan dgn cara memperbaiki nilai bobot
d iki hi jik d 2 h b d sedemikian rupa sehingga jika ada 2 neuron yang terhubung dan
keduanya pada kondisi on pada saat yg sama, maka antara bobot
keduanya dinaikkan.
Nilai bobot baru diperoleh : Nilai bobot baru diperoleh :
w
ij
= w
ij
+ x
i
t
j
Dgn x
i
: variabel input ke-i,
t
j
: variabel output ke-j
w
ij
: bobot yg menghubungkan input ke-i menuju ke neuron ke-j
Nilai bobot bias baru:
b
j
= b
j
+ t
j
Misbahuddin Jaringan Syaraf Tiruan 18
Secara umum algoritma.
P b l j h bb Pembelajaran hebb
Misalkan digunakan pasangan vektor input Misalkan digunakan pasangan vektor input
s, vektor output t, dan vektor testing x,
maka algoritma pemb Hebb adalah: maka algoritma pemb. Hebb adalah:
1. Inisialisasi semua bobot:
0 d i 1 2 d j 1 2 w
ij
= 0; dgn i=1,2,,n dan j=1,2,,m
2. Untuk setiap pasangan input-output (s-t)
lakukan langkah2 sbb:
Misbahuddin Jaringan Syaraf Tiruan 19
Lanjutan
Al i P b l j H bb Algoritma Pembelajaran Hebb
a Set input dgn nilai sama dgn vektor input: a. Set input dgn nilai sama dgn vektor input:
x
i
= s
i
(i = 1,2, , n)
b. Set output dgn nilai sama dgn vektor output
y
i
= t
i
(j = 1,2, , m)
c. Perbaikan bobot:
w
ij
= w
ij
+ x
i
y
j
dgn catatan bahwa nilai bias selalu 1
Misbahuddin Jaringan Syaraf Tiruan 20
g
Contoh Contoh
Misalkan dibuat JST untuk melakukan Misalkan dibuat JST untuk melakukan
pembelajaran terhadap fungsi OR dgn input
dan target bipolar sbb:
Input Bias Target p g
-1 -1 1 -1
-1 1 1 1
1 -1 1 1
1 1 1 1
Misbahuddin Jaringan Syaraf Tiruan 21
1 1 1 1
Arsitektur Jaringan Arsitektur Jaringan
x
1
w
1
N
F
w
1
w
2
y_in
y
x
2
w
2
b
1
Misbahuddin Jaringan Syaraf Tiruan 22
Proses Pembelajaran Proses Pembelajaran
Sesuai algoritma bobot awal dan bobot Sesuai algoritma, bobot awal dan bobot
bias sama dgn 0.
Pada data ke-1
w
1
= 0 + (-1)(-1) = 1
w
2
= 0 + (-1)(-1) = 1
2
( )( )
b = 0 + (-1) = -1
Misbahuddin Jaringan Syaraf Tiruan 23
Lanjutan .
P P b l j Proses Pembelajaran
Pada data ke-2
Pada data ke-4
Pada data ke 2
w
1
= 1 + (-1)(1) = 0
w = 1 + (1)(1) = 2
w
1
= 1 + (1)(1) = 2
w
2
= 1 + (1)(1) = 2
w
2
= 1 + (1)(1) = 2
b = -1 + (1) = 0
P d d t k 3
2
( )( )
b = 1 + (1) = 2
Pada data ke-3
w
1
= 0 + (1)(1) = 1
w
2
= 2 + (-1)(1) = 1
b = 0 + (1) = 1
Misbahuddin Jaringan Syaraf Tiruan 24
Proses Pengujian 1 Proses Pengujian 1
Misal kita ambil data ke-2 (x
1
= -1 x
2
=1) Misal kita ambil data ke 2, (x
1
= 1, x
2
=1)
y_in = (2)(-1)+(2)(1)+2 = 2
D M k F i Akti i Dgn Menggunakan Fungsi Aktivasi
Bipolar, diperoleh output :
F(2) = 1 karena 2 > 1
jadi nilai output y = 1 sama dgn nilai j p y g
targetnya.
Misbahuddin Jaringan Syaraf Tiruan 25
Proses Pengujian 2 Proses Pengujian 2
Misal kita ambil data ke-1 (x
1
= -1 x
2
=-1) Misal kita ambil data ke 1, (x
1
= 1, x
2
= 1)
y_in = (2)(-1)+(2)(-1)+2 = -2
D M k F i Akti i Dgn Menggunakan Fungsi Aktivasi
Bipolar, diperoleh output :
F(-2) = -1 karena -2 < -1
jadi nilai output y = -1 sama dgn nilai j p y g
targetnya.
Misbahuddin Jaringan Syaraf Tiruan 26
Algoritma Pembelajaran
PPerceptron
Perceptron biasanya digunakan untuk Perceptron biasanya digunakan untuk
klasifikasi suatu pola tertentu yg sering
dikenal dgn pemisahan secara linear dikenal dgn pemisahan secara linear
F i kti i dib t d iki Fungsi aktivasi dibuat sedemikian rupa
sehingga terjadi pembatasan antara
d h itif d d h tif daerah positif dan daerah negatif
Misbahuddin Jaringan Syaraf Tiruan 27
Pembatasan Linear dgn perceptron Pembatasan Linear dgn perceptron
+
+
Daerah
x
2
Daerah
positif
-
-
Daerah
negatif negatif
X
1
X
1
Misbahuddin Jaringan Syaraf Tiruan 28
Lant..
F i Ak i i P Fungsi Aktivasi Perceptron
Garis pemisah antara daerah positif dn Garis pemisah ,antara daerah positif dn
daerah negatif memiliki persamaan :
w x + w x + b = 0 w
1
x
1
+ w
2
x
2
+ b = 0
Daerah Positif:
w
1
x
1
+ w
2
x
2
b
Daerah Negatif g
w
1
x
1
+ w
2
x
2
< -b
Misbahuddin Jaringan Syaraf Tiruan 29
Algoritma Pemb. Perceptron
S U Secara Umum
Pembelajaran dilakukan secara berulang j g
sampai tdk terjadi kesalahan (error) utk
mendptkan bobot-bobot akhir.
E d l h li ih d Error adalah selisih antara output dgn target yg
diharapkan.
Diperlukan pembatasan lama perulangan Diperlukan pembatasan lama perulangan,
apabila perulangan belum juga tdk terjadi error.
Pembatasan lama perulangan disebut e batasa a a pe u a ga d sebut
maksimum epoh.
1 epoh artinya 1 kali perulangan
Misbahuddin Jaringan Syaraf Tiruan 30
Lanjutan Lanjutan
Laju pembelajaran (learning rate) Laju pembelajaran (learning rate)
dipengaruhi oleh parameter yg
disimbolkan dgn atau yg bernilai disimbolkan dgn atau yg bernilai
antara 0 dan 1.
Bobot diperoleh dgn rumus : Bobot diperoleh dgn rumus :
w
ij
= w
ij
+ x
i
t
j
b
j
= b
j
+ t
j
Misbahuddin Jaringan Syaraf Tiruan 31
Algoritma Pemb Perceptron Algoritma Pemb. Perceptron
1 Inisialisasi 1. Inisialisasi
a. Bobot input variabel ke-i menuju ke
k j ( ) d b b t j k neuron ke-j (w
ij
) dan bobot menuju ke
neuron ke-j (bj) sama dgn nol.
b. Set learning rate : (0 < 1)
c Set Maksimum epoh (MaxEpoh) c. Set Maksimum epoh (MaxEpoh)
Misbahuddin Jaringan Syaraf Tiruan 32
2. Tetapkan epoh = 0;
3. Selama kondisi berhenti bernilai false,
lakukan langkah-langkah sbb:
a. Utk setiap pasangan pembelajaran
s
k
t
k
dgn k = 1,2,3,,n, kerjakan:
k k
g , , , , , j
(i) Set input dgn nilai sama dgn vektor
input : x
ki
+ s
ki
; dgn k=1,2,,m input : x
ki
s
ki
; dgn k 1,2,,m
(ii) Hitung respon utk unit output:
m
b i
ij
i
i j j
w x b in y

=
+ =
1
_
Dengan j = 1,2,,c
Misbahuddin Jaringan Syaraf Tiruan 33
{ atau biner ouput untuk y
j
in y jika
in y jika j
, ;
0 _ , 1
0 0

<
= { p y
j
in y jika j
, ;
0 _ , 0 <
{ bipolar ouput untuk y
j
j
in y jika
in y jika j
;
0 _ , 1
0 , 1

<
= {
j
in y jika j 0 _ , 1 <
(iii) Perbaiki bobot dan bias jika terjadi error dgn (iii) Perbaiki bobot dan bias jika terjadi error dgn
formula sbb:
jika y
j
t
kj
j y
j kj
w
ij
= w
ij
+ (t
kj
y
kj
) x
ki
bj bj (t ) bj = bj + (t
kj
y
kj
)
jika tidak, tidak akan terjadi perubahan pada
w dan b
Misbahuddin Jaringan Syaraf Tiruan 34
w dan b.
b Test kondi si berhenti ; j i ka tdk terj adi b. Test kondi si berhenti ; j i ka tdk terj adi
perubahan bobot atau jumlah error absolut
ti d t l tih d t d setiap data pelatihan sama dgn not, dan
epoh < MaxEpoh, maka kondisi behenti
FALSE jik ih j di b h FALSE, namun jika masih terjadi perubahan
atau epoh > MaxEpoh, maka kondisi berhenti
TRUE.
Misbahuddin Jaringan Syaraf Tiruan 35
Contoh Contoh
Misalkan kita ingin membuat jaringan syaraf Misalkan kita ingin membuat jaringan syaraf
untuk melakukan pembelajaran terhadap fungsi
OR dgn input dan target biner sbb:
Input Bias Target p g
0 0 1 0
0 1 1 1 0 1 1 1
1 0 1 1
1 1 1 1
Misbahuddin Jaringan Syaraf Tiruan 36
1 1 1 1
x
1
w
1
y in
F(y_in)
w
2
y_in
y
xw + b
x
2
b
1
Misalkan MaxEpoh = 50; learning rate = 1;
w =0; w = 0; b=0; total error E =0 w
1
=0; w
2
= 0; b=0; total error E =0.
Fungsi Aktivasi yg digunakan adalah Fungsi
Undak Biner;
Misbahuddin Jaringan Syaraf Tiruan 37
;
Proses Pelatihan Proses Pelatihan
Pada epoh ke-1 p
Data ke-1
y_in = (0)(0) + (0)(0) + 0 =0;
F(0) 1 y = F(0) = 1
Karena y=1 sedangkan t
1
=0, maka terjadi error,
t
1
y = -1 --> (total error absolut E=1) sehingga t
1
y 1 (total error absolut E 1), sehingga
perlu perbaikan bobot:
w
1
= 0 + (1)(-1)(0) = 0
0 (1)( 1)(0) 0 w
2
= 0 + (1)(-1)(0) = 0
b = 0 + (1)(-1) = -1
Misbahuddin Jaringan Syaraf Tiruan 38
Data ke-2 : mohon dilanjutkan Data ke 2 : mohon dilanjutkan
Misbahuddin Jaringan Syaraf Tiruan 39
Pembelajaran Backpropagation Pembelajaran Backpropagation
Secara Umum Pembelajaran Backpropagation : j p p g
Bangkitkan bobot secara acak (nilai antara -1
dan +1) dan +1)
Pilih sepasangan vektor input-output
Berikan vektor input ke input JST Berikan vektor input ke input JST.
Hitung output JST
Hitung error, selisih output JST dan target JST
Perbaharui (update) bobot pada JST hingga
error menjadi minimum.
Misbahuddin Jaringan Syaraf Tiruan 40
Arsitektur Backpropagation Arsitektur Backpropagation

1.k
w
11 k
w
11 j
I I Comp x T

1
y
1

2 k
w
22 k
11.k
w
22 j
11.j
I
1j

1j
I
1k

1k
Comp
C
x
1
T
1
T

q k
2.k
y
2
w
k
22.k
w
h j
w
22.j
I
2j

2j
I
I
2k

2k
I
Comp
C
x
2
T
2

r k
q.k
y
q
w
nr k
w
pq.k
w
hp.j
w
j
I
pj

pj
I
I
qk

qk
I
Comp
C
x
h
x
T
q
T

r.k
y
r
nr.k
w
mn.j
I
nj

nj
I
rk

rk
Comp
x
m
Layer ke i
Index h
1
Layer ke j
Index p
1
Layer ke k
Index q
1
T
r
Misbahuddin Jaringan Syaraf Tiruan 41
1 m
m node
1 n
n node
1 r
r node
Menghitung Bobot pada Neuron
Lapisan output Lapisan output

q.k
w
pq.k
w
hp.j
I I
Comp
x T

q
q
y
q
I
pj

pj
I
qk

qk
Comp
x
h
T
q
i
j k
Sinyal error () pada lapisan ke k:
[T ] =
q
= [T
q

q.k
]
Square error :

2
q
= [T
q

q.k
]
2
Misbahuddin Jaringan Syaraf Tiruan 42
Koreksi bobot pada lapisan output (ke k) :
2
1
q
q p
w
2
. k . pq
w

dengan :
l i t

.. 1
k pq
w
.

= learning rate
q p.

k q k q q
q
I
. .
2
2

2
k pq
k q
k q
k q
k q
q
k pq
q
w I w
.
.
.
.
. .

=

.. 2
k q q q
T
2
.
2
] [


=



k q k q . .

] [ 2T =
3
Misbahuddin Jaringan Syaraf Tiruan 43
] [ 2
.k q q
T =
.. 3
ARSITEKTUR
I
k q
e
k q
1
.
) 1 (
.
+
=

k q k q
I I
. .

=

) ( ) 1 ( ) 1 (
. .
2

k q k q
I I
e e ) ( ) 1 ( ) 1 (
. .
+ =
k q k q
e e
2
) 1 (
. .


+ =
k q k q
I I
e e

) 1 ( + = e e
k
k q
2
.
1


=
k q
k q
.
.

=
) 1 (
. . k q k q
=
4
Misbahuddin Jaringan Syaraf Tiruan 44
n
j p k pq
w



k pq
p
j p k pq
k pq
k q
w w
I
.
1
. .
.
.


=
j p .
=
pq pq
. 5
2
Jadi turunan parsial square error diperoleh dgn subtitusi
terhadap bobot pers (3), (4), dan (5) ke dalam pers (2):
j p k q k q k q q
k pq
q
T
w
. . . .
.
2
) 1 ( ] [ 2 =

k pq.
j p k q k q q k q
T
. . . .
) 1 ( ] [ 2 =
6
Misbahuddin Jaringan Syaraf Tiruan 45
. 6
Jadi koreksi bobot pada lapisan ke k diperoleh dgn
mensubtitusi pers (6) ke dalam pers (1) :
q
q p
w
2
. k . pq
w

p ( ) p ( )
k pq
q p
w
.
pq

T ) ) 1 ( ) ( 2 ( =
j p k q k q q k q pq
T
. . . .
) ) 1 ( ) ( 2 ( =
j p k pq pq . .
=
dengan:
. 7
) 1 ( ) ( 2
. . . . k q k q q k q k pq
T =
dengan:
Misbahuddin Jaringan Syaraf Tiruan 46
q q q q pq
w N w N w ) ( ) 1 ( = +
8
B b t b d l i k k di l h d
k pq k pq k pq
w N w N w
. . .
) ( ) 1 ( = +
8
Bobot yang baru pada lapisan ke k diperoleh dgn
mensubtitusi pers (7) ke dalam pers (8) :
j k k k
N w N w ) ( ) 1 ( = +
j p k pq pq k pq k pq
N w N w
. . . .
) ( ) 1 ( +
9 9
Misbahuddin Jaringan Syaraf Tiruan 47
Menghitung Bobot pada Neuron
Lapisan tersembunyi (hidden layer) Lapisan tersembunyi (hidden layer)
q=1

2
I
2k

1k
Comp
T
1

q w
pr.k
w
pq.k
w
hp.j
I
pj

pj
I
qk

qk
Comp
x
h
T
q
T
q=r

r
I
rk

rk
Comp
Layer ke i
Index h
Layer ke j
Index p
Layer ke k
Index q
T
r
1 m
m node
1 n
n node
1 r
r node
Misbahuddin Jaringan Syaraf Tiruan 48
Dengan cara yang sama dgn pers (1) koreksi bobot
pada lapisan tersembunyi (ke j) :
10
q
p h p h
w
2
. .
w

dengan :
l i t

.. 10
j hp
w
.

= learning rate
p h.

Total mean square error :


.. 11

= =
r
k q q
r
q
T
2
.
2 2
] [
q
I I
2
2


= = q
k q q
q 1
.
1
j hp
j p
j p
j p
j p
k q
k q
k q
k q
q
j hp
q
w
I
I
I
I w
.
.
.
.
.
.
.
.
. .

12
Misbahuddin Jaringan Syaraf Tiruan 49
j p j p j p q q j p
.. 12
r
q
k q q
q
T
1
2
.
2
] [

13
k q k q . .

=


T
2
2 ] [ 2 = =

13
q
k q q
T
.
2 ] [ 2 = =
) 1 (
. .
.
.
k q k q
k q
k q
I
=


.. 14
h
j p k pq
w
I
. .


15
k pq
j p
p
j p
k q
w
I
.
.
1
.
.
=

=
. 15
Misbahuddin Jaringan Syaraf Tiruan 50
) 1 (
. .
.
j p j p
j p
I
=



.. 16
m
x w


. j p
I
h
j hp
h
h j hp
j hp
j p
x
w
x w
w
I
=


=1
.
.
. 17
j hp j hp . .
Jadi turunan parsial square error terhadap bobot
diperoleh dgn mensubtitusi pers (13) (14) (15) (16) dan

r
2
diperoleh dgn mensubtitusi pers (13), (14), (15), (16) dan
(17) ke dalam pers (11):

=
=

r
q
h j p j p k pq k q k q k q q
j hp
x w T
w
1
. . . . . .
.
2
) 1 ( [ )] 1 ( [ ) ( ) 2 (

18
Misbahuddin Jaringan Syaraf Tiruan 51
18
Jadi koreksi bobot pada lapisan ke j diperoleh dgn
mensubtitusi pers (18) ke dalam pers (10):
q
p h j hp
w
2
. .
w

p ( ) p ( )
j hp
p j p
w
.

=

r
x w T ) 1 ( [ )] 1 ( [ ) ( ) 2 (

=

= q
h j p j p k pq k q k q k q q p h
x w T
1
. . . . . . .
) 1 ( [ )] 1 ( [ ) ( ) 2 (

=
=
q
j hp h pq
x
1
.

dengan:
. 19
dengan:
( ) ) 1 ( [ )] 1 ( [ ) ( ) 2 (
. . . . . . . j p j p k pq k q k q k q q j hp
w T =
Misbahuddin Jaringan Syaraf Tiruan 52
w N w N w ) ( ) 1 ( = +
20
Bobot ang bar pada lapisan ke j diperoleh dgn s btit si pers (19)
j hp j hp j hp
w N w N w
. . .
) ( ) 1 ( = +
20
Bobot yang baru pada lapisan ke j diperoleh dgn subtitusi pers (19)
ke dalam pers (20) :

=
= +
r
q
j hp h p h j hp j hp
x N w N w
1
. . . .
) ( ) 1 (
21
= q 1
Misbahuddin Jaringan Syaraf Tiruan 53
Algoritma Backpropagasi
Inisialisasi bobot awal (ambil bobot awal dgn
nilai random yg cukup kecil) nilai random yg cukup kecil).
Tetapkan Maksimum Epoh, Target error, dan
learning rate () learning rate ().
Inisialisasi Epoh = 0;
Kerjakan langkah-langkah berikut selama Kerjakan langkah-langkah berikut selama
(Epoh < Maksimum Epoh) & (MSE < Target error)
1 Epoh = Epoh + 1 1. Epoh = Epoh + 1
2. Untuk tiap-tiap pasangan elemen yg akan
dilakukan pembelajaran Kerjakan:
Misbahuddin Jaringan Syaraf Tiruan 54
dilakukan pembelajaran, Kerjakan:
Feedforward:
a Tiap-tiap input (x
h
h=1 2 3 m) a. Tiap tiap input (x
h
, h 1,2,3,,m)
menerima sinyal x
h
dan meneruskan
sinyal tersebut ke semua unit pada y p
lapisan yg ada di atasnya (lapisan
tersembunyi).
b. Tiap-tiap unit pada lapisan
tersembunyi (I
p.j
, p= 1,2,3,,n)
j l hk i l i l i t
j
menjumlahkan sinyal-sinyal input
terbobot:
j hp
m
h
h j p j p
w x b I
.
1
. .
=
+ =
Misbahuddin Jaringan Syaraf Tiruan 55
gunakan fungsi aktivasi untuk menghitung
sinyal outputnya:
1
=
j p
I
j p
e
.
1
.

+
=
dan kirimkan sinyal tersebut ke semua unit di
lapisan atasnya (unit-unit output).
c. Tiap-tiap unit output (I
q.k
q = 1,2,3,,r)
menjumhkan sinyal-sinyal input terbobot.
k pq
n
p
j p k q k q
w b I
.
1
. . .
=
+ =
Misbahuddin Jaringan Syaraf Tiruan 56
p 1
gunakan fungsi aktivasi untuk menghitung sinyal gunakan fungsi aktivasi untuk menghitung sinyal
outputnya :
1
k q
I
k q
e
.
1
1
.

+
=
dan kirim sinyal tersebut ke semua unit di
lapisan atasnya (unit-unit output) lapisan atasnya (unit unit output).
Catatan: Catatan:
Langkah (b) dilakukan sebanyak jumlah lapisan
tersembunyi
Misbahuddin Jaringan Syaraf Tiruan 57
tersembunyi.
Backpropagation p p g
d. Tiap-tiap unit output (
q k
, q=1,2,3,,r) p p p (
q.k
q )
menerima target pola yg berhubungan
dengan pola input pembelajaran, hitung
informasi errornya: informasi errornya:
) 1 ( ) ( 2
k k k k
T =
kemudian hitung koreksi bobot (yg nantinya
) 1 ( ) ( 2
. . . . k q k q q k q k pq
T
kemudian hitung koreksi bobot (yg nantinya
akan digunakan untuk memperbaiki nilai
w
pq.k
):
Misbahuddin Jaringan Syaraf Tiruan 58

j p k pq pq k pq
w
. . .
=
Lakukan langkah (d) sebanyak jumlah
lapisan tersembunyi, yaitu menghitung p y , y g g
informasi error dan koreksi bobotnya dari
suatu lapisan tersembunyi ke lapisan
tersembunyi sebelumnya.
Misbahuddin Jaringan Syaraf Tiruan 59
Ti ti it t b i ( 1 2 3 ) e. Tiap-tiap unit tersembunyi (
p.j
, p=1,2,3,,n)
menjumlahkan delta inputnya (dari unit-unit yg
berada pada lapisan di atasnya): p p y )
( )

= =
=
r
q
j p j p k pq k q k q k q q
r
q
j hp
w T
1
. . . . . .
1
.
) 1 ( [ )] 1 ( [ ) ( ) 2 (
Hitung koreksi bobotnya :

=
r
j hp h pq j hp
x w

= q
j hp h pq j hp
1
. .

Misbahuddin Jaringan Syaraf Tiruan 60
f Tiap-tiap unit output (
k
q=1 2 3 r) f. Tiap tiap unit output (
q.k
, q 1,2,3,,r),
hitung perbaikan bobot (bobot yg baru)
w (N+1) = w (N) + w w
pq.k
(N+1) = w
pq.k
(N) + w
pq.k
Tiap-tiap unit tersembunyi (
p.j
,
p=1,2,3,,n) hitung perbaikan bobotnya:
w
hp.j
(N+1) = w
hp.j
(N) + w
hp.j
Misbahuddin Jaringan Syaraf Tiruan 61
3 Hitung MSE 3. Hitung MSE
Misbahuddin Jaringan Syaraf Tiruan 62

You might also like