You are on page 1of 6

79

Optimasi Training Neural Network


Menggunakan Hybrid Adaptive Mutation
PSO-BP
Salnan Ratih Asriningtias, Harry Soekotjo Dachlan, dan Erni Yudaningtyas

memorisasi dan generalisasi yang optimum dengan hasil


AbstractOptimization of training neural network yang lebih akurat dibandingkan dengan metode yang.
using particle swarm optimization (PSO) and genetic
algorithm (GA) is a solution backpropagations problem. Kata KunciAdaptive Mutation, Backpropagation,
PSO often trapped in premature convergent (convergent Particle Swarm Optimization, Training Neural Network.
at local optimum) and GA takes a long time to achieve
convergent and crossover makes worse the results. In this I. PENDAHULUAN
research adaptive mutation particle swarm optimization
and backpropagation (AMPSO-BP) is used for training
the neural network of the iris plant, breast cancer, wine, N EURAL NETWORK adalah proses pengolahan
informasi yang terinspirasi dari sistem kerja
jaringan syaraf biologis manusia. Neural network terdiri
glass identification and pima indian diabetes. The addition
of PSO with adaptive mutation to prevent premature dari input layer, hidden layer dan output layer, dimana
convergent and BP to increase the efficiency of local masing-masing layer memiliki sejumlah unit yang
searching. AMPSO-BP training results will be compared saling terhubung antar layer dan memiliki bobot.
with the GA and BP. The test results showed AMPSO-BP
Hasil output dan kesimpulan neural netwok
is able to optimize the process of training the neural
network. AMPSO-BP more rapidly achieve the minimum didasarkan pada pengalaman saat melakukan proses
error (global minimum), fast convergent and have the pembelajaran (training). Proses training neural nework
ability memorization and generalization with more diawali dengan memberikan nilai bobot awal. Informasi
accurate results than the other methods. yang sudah diketahui hasilnya dimasukkan ke dalam
unit pada lapisan input. Bobot-bobot ini digunakan
Index TermsAdaptive Mutation, Backpropagation, untuk mengingat pola informasi yang telah diberikan.
Particle Swarm Optimization, Training Neural Network.
Pengaturan bobot diatur secara terus menerus sampai
diperoleh hasil yang diharapkan. Tujuan training neural
AbstrakOptimasi Training neural network
menggunakan Particle Swarm Optimization (PSO) dan network adalah untuk mencapai kemampuan memanggil
Genetic Algorithm (GA) merupakan solusi untuk kembali secara sempurna sebuah pola yang telah
mengatasi kelemahan dari backpropagation (BP). PSO dipelajari (memorisasi) dan menghasilkan nilai output
masih sering terjadi premature convergent (konvergen yang bisa diterima terhadap pola-pola yang serupa
pada solusi optimum lokal), sedangkan GA membutuhkan (tidak sama) yang disebut sebagai generalisasi [1].
waktu yang lama untuk mencapai konvergen dan
Hal yang mempengaruhi kinerja training neural
crossover memungkinkan memperoleh hasil yang lebih
buruk. Pada penelitian ini metode hybrid adaptive mutation network adalah penentuan arsitektur neural network
particle swarm optimization dan backpropagation (AMPSO- (jumlah layer dan unit) dan algoritma pembelajaran.
BP) digunakan untuk training neural network pada iris Tidak ada ketentuan yang pasti dalam menentukan
plant, breast cancer, wine, glass identification dan pima arsitektur neural network, tetapi ukuran arsitektur yang
indian diabetes. Penambahan PSO dengan adaptive terlalu kecil berakibat neural network tidak mampu
mutation untuk mencegah premature convergent dan
belajar dan sebaliknya ukuran arsitektur yang terlalu
penggabungan dengan BP untuk meningkatkan efisiensi
pencarian (local searching). Hasil training AMPSO-BP besar akan bersifat lemah dalam generaslisasi dan
akan dibandingkan dengan GA dan BP. Hasil pengujian memakan banyak waktu training [2].
menunjukkan AMPSO-BP mampu mengoptimalkan Algoritma pembelajaran yang umum digunakan
proses training neural network. AMPSO-BP lebih cepat adalah backpropagation (BP), tetapi algoritma ini
mencapai nilai eror minimum (fast convergent) yang memiliki banyak kelemahan. Kelemahan-kelemahan BP
bersifat global minimum dan memiliki kemampuan
diantaranya hanya bagus dalam aplikasi tertentu [3],
sering terjebak pada lokal minimum, membutuhkan
Salnan Ratih Asriningtias adalah mahasiswa Program Studi waktu yang lama untuk mencapai konvergen dan
Magister Teknik Elektro, Universitas Brawijaya, Malang, Indonesia
(085646582021; email salnanratih@gmail.com). memiliki kemampuan yang rendah dalam belajar
Harry Soekotjo Dachlan adalah dosen Program Studi Magister sehingga menghasilkan output yang tidak akurat [4].
Teknik Elektro, Universitas Brawijaya, Malang, Indonesia (email : Banyak penelitian yang telah dikembangkan untuk
harrysd@brawijaya.ac.id).
Erni Yudaningtyas adalah dosen Program Studi Magister Teknik memperbaiki kelemahan BP diantaranya menggunakan
Elektro, Universitas Brawijaya, Malang, Indonesia (email : metode Particle Swarm Optimizatian (PSO) dan
erni_yudaningtyas@yahoo.co.id).

Jurnal EECCIS Vol. 9, No. 1, Juni 2015


80

Genetic Algorithm (GA). Training neural network parikel (pbest). Persamaan yang digunakan untuk
menggunakan PSO membutuhkan sedikit parameter dan memperbarui kecepatan dan posisi dapat dilihat pada
membutuhkan waktu yang lebih cepat untuk mencapai persamaan (1) dan (2):
konvergen [5], tetapi lemah dalam pencarian lokal dan v'id *vid c1 * r *( pid xid ) c2 * r *(gid xid ) (1)
sering terjadi premature convergent (konvergen pada
solusi optimum lokal) karena memiliki ruang pencarian x'id xid vid (2)
yang terbatas [6]. Training neural network dimana i adalah partikel ke-i dan d adalah dimensi ke-d.
menggunakan GA lebih optimal dibandingkan dengan v adalah kecepatan partikel. adalah inertia weight.
PSO karena adanya faktor mutation dan crossover yang c1 adalah learning rate untuk komponen cognition
menyebabkan ruang pencarian solusi GA lebih besar (kecerdasan individu) dan c2 adalah learning rate untuk
untuk menghasilkan solusi baru [7], tetapi GA komponen social (kecerdasan sosial antar individu). p
membutuhkan waktu yang lama untuk mencapai adalah pbest dan g adalah gbest. r adalah bilangan acak
konvergen dan proses crossover pada GA dalam interval (0,1).
memungkinkan hasil yang lebih buruk [8]. C. Adaptive Mutation pada PSO
Fokus dalam penelitian ini adalah optimasi training PSO merupakan teknik berbasis populasi dengan
neural network menggunakan data klasifikasi yaitu iris mengatur posisi dan kecepatan yang mengacu pada
plant, breast cancer, glass identification, wine dan pima partikel yang terbaik untuk mencapai solusi. Posisi
indian diabetes. Metode yang diusulkan adalah hybrid selanjutnya yang akan ditempuh partikel dipengaruhi
adaptive mutation particel swarm optimization dan oleh posisi terbaik partikel sebelumnya dan posisi
backpropagation (AMPSO-BP). Particle swarm terbaik oleh semua partikel. Jika posisi terbaik tidak
optimization (PSO) digunakan untuk meningkatkan terjadi perubahan di local optimum, maka partikel akan
convergent rate dan mendapatkan solusi optimum cepat konvergen di posisi terbaiknya. Hal ini
global. Adaptive mutation pada PSO berfungsi untuk menyebabkan terjadinya konvergen di local optimum
memperlebar ruang pencarian PSO untuk mencegah yang disebut sebagai premature convergent. Premature
premature convergent. Backpropagation (BP) convergent dapat dicegah dengan mengubah posisi
digunakan untuk meningkatkan efisiensi pencarian terbaik saat ini dengan posisi baru menggunakan proses
lokal. mutasi.
Mutasi pada PSO dilakukan dengan menambahkan
II. LANDASAN TEORI angka random dengan range (0,1) pada gbest.
A. Backpropagation (BP) Penggunaan mutasi pada PSO masih belum mampu
BP adalah metode berbasis penurunan gradien untuk mencegah local optimum, karena terlalu kecil
meminimalkan kuadrat eror hasil keluaran [9]. BP dapat menjangkau ruang pencarian secara menyeluruh. Solusi
meningkatkan efisiensi pencarian dan bersifat local baru untuk mengatasi terbatasnya jangkauan partikel
optimization. yang dimutasi adalah dengan menambahkan ukuran
BP melakukan dua tahap perhitungan. Perhitungan mutasi yang terkait dengan ukuran ruang pencarian
maju untuk menghitung eror antara nilai output dan yang disebut adaptive mutation. Persamaan adaptive
target dan perhitungan mundur yang mempropagasikan mutation pada PSO dapat dilihat pada persamaan (3)
balik eror tersebut dari output ke input untuk [11].
memperbaiki bobot-bobot pada semua unit. Metode ini gbestj (t 1) gbestj (t) [bj (t) a j (t)] rand() (3)
hanya melakukan perubahan bobot beradasarkan fungsi Dimana gbest adalah vektor gbest partikel. j adalah
eror, maka kombinasi bobot yang mampu dimensi ke-j partikel. a j (t ) adalah nilai minimum
meminimalkan fungsi eror dinggap sebagai solusi
dimensi ke-j partikel. b j (t ) adalah nilai maksimum
permasalahan. Fungsi aktivasi yang digunakan dalam
BP adalah fungsi sigmoid biner yang memiliki interval dimensi ke-j partikel.
0 sampai 1.
III. METODE PENELITIAN
B. Particle Swarm Optimization (PSO)
PSO adalah teknik berbasis populasi (sejumlah A. Data
partikel) dengan mengatur posisi dan kecepatan yang Data digunakan untuk proses training dan pengujian
mengacu pada partikel yang optimum untuk mencapai metode training neural network. Data yang digunakan
solusi [10]. PSO dimulai dengan membangkitkan adalah data skunder berupa dataset dengan kategori
partikel (solusi) secara acak dan setiap partikel permasalahan klasifikasi yang diambil dari [12].
dievaluasi dengan menggunakan fungsi fitness. Partikel Deskripsi dari data-data tersebut diantaranya:
Iris plant: dikenal sebagai literatur database
akan terbang mengikuti partikel yang optimum dari satu
untuk pengenalan pola. Data ini terdiri dari 3
posisi ke posisi yang baru dengan cara menambahkan
kelas dimana masing-masing kelas terdiri dari 50
kecepatan (v) ke posisi (x) untuk mendapatkan posisi
data. Masing-masing kelas merupakan tipe iris
baru (x).
plant yaitu iris setosa, iris versicolour dan iris
Perubahan posisi dan kecepatan masing-masing
verginica. Pembagian data ke dalam 3 kelas
partikel dipengaruhi oleh posisi terbaik yang diperoleh
didasarkan 4 jenis atribut.
semua partikel (gbest) dan posisi terbaik masing-masing

Jurnal EECCIS Vol. 9, No. 1, Juni 2015


81

Breast cancer: database yang berisi diagnosa hidden layer, sehingga arsitektur neural network dapat
penyakit kanker payudara dari university of dilihat dalam Gambar 1.
Wisconsin Hospital, Medison oleh Dr. William
H. Wolberg. Data ini terdiri dari 2 kelas (benign
dan malignant) yang merupakan jenis dari breast
cancer. Total jumlah data adalah 699 dengan 10
jenis atribut.
Wine: data hasil dari analisis kimia dari wine
yang berkembang di wilayah italia tetapi dengan
3 pengolahan yang berbeda. Hasil analisis
menunjukkan terdapat 13 unsur yang ditemukan
dalam masing-masing tiga jenis wine yang
berbeda. Total jumlah data adalah 178.
Glass identification: database yang berisi
klasifikasi tentang tipe glass. Data ini
mendukung investigasi kriminal. Data ini dibagi
ke dalam 7 kelas dengan 10 jenis atribut. Total Gambar 1. Arsitektur Neural Network. Arsitektur neural
jumlah data adalah 214. network terdiri atas x = input unit, z = hidden unit, y=output
Pima indian diabetes: database yang berisi data unit, b1 dan b2 adalah bias, vij = bobot antara layer i (input)
dan layer j(hidden), wjk = bobot antara layer j(hidden) dan
pasien yang terkena penyakit diabetes. Semua layer k (output)
pasien berjenis kelamin perempuan dengan usia
21 tahun yang merupakan keturunan Pima Solusi yang diperoleh dari training neural network
Indian. Pasien dibagi ke dalam 2 kelas yaitu adalah berupa bobot yang nantinya akan digunakan
positif (terkena diabetes) dan negatif (tidak dalam aplikasi. Penentuan nilai bobot dalam training
terkena diabetes) yang didasarkan pada 8 jenis neural network menggunakan AMPSO-BP memiliki
atribut dengan jumlah data sebanyak 768. langkah yang berbeda dengan menggunakan BP. Dalam
Data hanya digunakan 70% untuk proses training AMPSO-BP solusi direpresentasikan ke dalam partikel
neural network dan sisanya digunakan untuk proses dimana 1 partikel merupakan 1 solusi dan 1 partikel
pengujian atau aplikasi. Normalisasi data dilakukan memiliki dimensi. Bobot yang menjadi solusi training
untuk mengoptimalkan proses training neural network. neural network akan direpresentasikan ke dalam
Dengan adanya normalisasi data, semua data akan dimensi partikel. Struktur dimensi partikel dalam
diubah nilainya dalam kisaran 0 dan 1. training neural network yang didasarkan pada
B. AMPSO-BP untuk Training Neural Network persamaan (5) dan Gambar 1. dapat dilihat dalam
Gambar 2.
Langkah pertama dalam proses training neural
network adalah penentuan arsitektur neural network
yang disesuaikan dengan jenis data yang digunakan.
Gambar 2. Struktur dimensi partikel. Dimensi partikel terdiri dari
Arsitektur meliputi jumlah layer dan jumlah unit pada vij = bobot antara input layer dan hidden layer, v0j = bias pada
masing-masing layer serta penentuan jumlah bobot dan hidden layer, wjk = bobot antara hidden layer dan output layer
bias pada neural network. Jumlah layer yang akan dan w0k = bias pada output layer
digunakan adalah 3 layer yang terdiri dari 1 input layer,
1 hidden layer dan 1 output layer. Dalam proses training, jumlah partikel yang
Jumlah unit pada input layer dan output layer digunakan lebih dari 1 partikel dan setiap partikel
disesuaikan dengan permasalahan untuk masing-masing membawa solusi. Untuk menentukan partikel mana
jenis data. Jumlah unit pada hidden layer ditentukan yang memiliki solusi terbaik, setiap partikel memiliki
dengan persamaan (4)[13]. nilai fitness yang dievaluasi menggunakan fungsi
H 3M (4)
fitness. Nilai fitness adalah ukuran kualitas suatu
partikel sedangkan fungsi fitness adalah fungsi yang
Dimana H adalah jumlah unit pada hidden layer dan M digunakan untuk evaluasi partikel untuk mendapatkan
adalah jumlah unit pada input layer. Sebagai contoh nilai fitness. Fungsi fitness dalam training neural
diketahui 2 unit input dan 1 unit output maka jumlah network adalah fungsi untuk menghitung nilai error
unit hidden adalah 6 unit. Dalam aristektur terdapat atau selisih nilai antara nilai target dan nilai input.
bobot dan bias. Perhitungan jumlah bobot dan bias Fungsi yang digunakan adalah mean squared error
ditentukan dengan persamaan (5)[14]. (MSE) yang dapat dilihat dalam persamaan (6).
w mxn 1xn nxq 1xq (m 1)n (n 1)q

(5)
(tk ,1 ok ,l )2
N M

Dimana w adalah jumlah bobot dan bias, m adalah MSE k 1 l (6)


jumlah unit input, n adalah jumlah unit hidden dan q NM
adalah jumlah unit output. Penambahan nilai 1 adalah Dimana N adalah jumlah pola input, M adalah jumlah
penambahan 1 unit untuk bias. Sesuai persamaan (5) unit input, t adalah nilai target dan o adalah nilai output.
maka ada penambahan 1 unit pada input layer dan Training neural network merupakan proses

Jurnal EECCIS Vol. 9, No. 1, Juni 2015


82

perubahan bobot (dimensi) dengan memberikan nilai direpresentasikan oleh gbest. Untuk mencegah
input dan membandingkan nilai output dengan nilai premature convergent dilakukan proses mutasi
target. Perubahan bobot dipengaruhi oleh perubahan (adaptive mutation) pada gbest yang sesuai dengan
posisi dan kecepatan masing-masing partikel yang persamaan (3). Adaptive mutation merupakan proses
sesuai dengan persamaan (1) dan (2). Pada setiap mutasi yang menggunakan ukuran ruang pencarian yaitu
generasi, posisi dan kecepatan partikel dipengaruhi oleh pada pbest partikel. Proses mutasi pada gbest hanya
pbest dan gbest partikel. Perubahan dilakukan secara dilakukan pada dimensi tertentu berdasarkan
berkelanjutan hingga mencapai kriteria penghentian probabilitas mutasi (Pm) yang telah ditentukan.
tertentu. Detail proses training neural network
C. Inisisialisasi Parameter Training Neural Network
menggunakan AMPSO-BP dapat dilihat dalam Gambar
3. Parameter yang digunakan dalam AMPSO-BP dapat
dilihat dalam Tabel 1
start
TABEL I
INISIALISASI PARAMETER
Penentuan arsitektur neural
network
Inisialisasi posisi partikel (x) Metode Parameter
Inisialisasi kecepatan partikel (v)
secara random
N
PSO = 0.8
v = rand (-2,2)
Evaluasi nilai fitness partikel bobot (w) = rand (0,1)
jumlah partikel (t) = 20
c1 = c2 = 2
r1 = r2 = rand (0,1)
Y
fitness partikel Update kecepatan Vmax = 2
< Pbes
Pm = 0.02
Modifikasi Pbes
Pbes = x
BP = 0.5
Update posisi
N
fitness partikel
N
< Gbes
IV. HASIL DAN PEMBAHASAN
Y Mutasi Gbest Max iterasi?
Mx= gbest + (max-
Modifikasi Gbest min)*rand() A. Perbandingan Nilai Error Training
Gbest = x N Y
Nilai error training neural network untuk semua data
fitness mutasi Memperoleh Bobot dengan semua metode dalam 10 iterasi dapat dilihat
N
< Gbes
Eror <=0.01
dalam Tabel 2.
Y
TABEL II
BP local
ERROR TRAINING
Modifikasi Gbest optimization
Gbest = Mx
N Data AMPSO-BP GA BP
N
-14
Iris Plant 9.4x10 11.119 0.3307
Eror <=0.01 Eror ==0.01 Breast Cancer 0.0048 78.170 1.4x10-5
Y
Glass 0.0067 6.5494 0.1297
Y Identification
N
Y
Wine 0.1888 12.709 0.2352
Pima Indian 0.0057 65.579 0.0063
Y
Diabetes
Max Iterasi
Bobot Baru

Berdasarkan Tabel 2. Nilai error training neural


end
network untuk AMPSO-BP paling baik jika
dibandingkan dengan metode yang lain untuk
Gambar 3. Detail Proses Training Neural Network Menggunakan keseluruhan data.
AMPSO-BP
B. Perbandingan Waktu Training
Terdapat beberapa macam kriteria penghentian untuk
Waktu training neural network untuk semua data
proses training yang bisa digunakan, diantaranya [15]:
dengan semua metode dalam 10 iterasi dapat dilihat
Proses training berhenti dengan nilai fitness atau
dalam Tabel 3.
error tertentu.
Berdasarkan Tabel 3. waktu proses training berbeda-
Proses training berhenti dalam jumlah iterasi
beda untuk masing-masing data dan metode. Hal ini
tertentu.
disebabkan proses training untuk masing-masing
Proses training berhenti jika mengalami
metode berbeda. Berdasarkan proses training terdapat
konvergen yaitu terjadi kemiripan nilai untuk
tiga jenis metode diantaranya metode hybrid yaitu
semua partikel atau dalam beberapa iterasi tidak
global optimization dan local optimization (AMPSO-
terjadi perubahan nilai.
BP), metode global optimization (GA), dan metode
Proses training berhenti dengan batasan waktu
local optimization (BP). Metode hybrid lebih lama jika
tertentu.
dibandingkan dengan metode global optimization.
Hasil dari training neural network berupa bobot yang
Dalam jumlah iterasi maksimum yang sama metode

Jurnal EECCIS Vol. 9, No. 1, Juni 2015


83

global optimization lebih cepat dibandingkan dengan D. Perbandingan Jumlah Iterasi Terhadap Error,
local optimization, karena proses perubahan bobot pada Waktu dan CEP
local optimization dilakukan di setiap data sedangkan Nilai error training neural network untuk data iris
pada metode global optimization dilakukan di semua plant dengan jumlah iterasi yang berbeda dapat dilihat
data. Selain proses training lama waktu training dalam Tabel 5.
dipengarui jumlah data dan kompleksitas arsitektur TABEL V
neural network. Semakin banyak jumlah data training ITERASI TERHADAP EROR TRAINING
maka proses training membutuhkan waktu lebih lama Iterasi AMPSO-BP GA BP
dan semakin kompleks arsitektur neural network maka -14
proses training juga membutuhkan waktu lebih lama. 10 9.4x10 11.119 0.3307
30 0.3333 8.8295 0.3300
TABEL III 50 0.0042 12.834 0.3297
WAKTU TRAINING

Data AMPSO-BP GA BP Proses training yang melibatkan proses global


optimization (AMPSO-BP dan GA), semakin banyak
Iris Plant 57 m 50 s 20 m 35 s 131 m 34 s
Breast Cancer 994 m 15 s 262 m 32 s 59 s
iterasi belum tentu memperoleh nilai error semakin
Glass Identification 1303 m 16 s 248 m 59 s 1377 m kecil. Hal ini disebabkan proses global optimization
Wine 385 m 5 s 275 m 13 s 682 m 33 s melibatkan proses yang bersifat random atau acak.
Pima Indian 312 m 6 s 202 m 50 s 11 s Setiap kali melakukan proses training, hasil training
Diabetes
pertama dengan selanjutnya kemungkinan berbeda
walaupun dalam jumlah iterasi yang sama. Berbeda
dengan BP, dengan proses training yang berbeda,
C. Perbandingan Nilai CEP (Classification Error semakin banyak iterasi maka nilai error semakin kecil.
Percentage) Dapat disimpulkan bahwa proses metode local
Perbandingan nilai CEP training neural network optimization (BP) bersifat lebih stabil dibandingkan
untuk 10 iterasi dapat dilihat dalam Tabel 4. dengan global optimization.
Berdasarkan Tabel 4. rata-rata nilai CEP untuk Waktu training neural network untuk data iris plant
AMPSO-BP lebih baik dibandingkan dengan metode dengan jumlah iterasi yang berbeda dapat dilihat dalam
yang lain, sehingga AMPSO-BP memiliki kemampuan Tabel 6.
memorisasi dan generaslisasi lebih baik. Nilai error TABEL VI
yang lebih minimum ketika training neural network ITERASI TERHADAP WAKTU TRAINING
belum tentu memberikan nilai CEP yang lebih baik. Hal Iterasi AMPSO-BP GA BP
ini disebabkan adanya faktor perbedaan proses training
10 57 m 50 s 50 m 35 s 131 m 34 s
untuk jenis metode yang berbeda. 30 291 m 51 s 133 m 35 s 383 m 11 s
TABEL IV 50 545 m 273 m 5 s 681 m 16 s
NILAI CEP

Data AMPSO-BP GA BP Berdasarkan Tabel 6. untuk semua jenis metode,


Iris Plant 82 100 100 semakin banyak iterasi maka waktu yang dibutuhkan
Breast 34 66 66 untuk proses training semakin lama.
Cancer Nilai CEP training neural network untuk data iris
Glass Iden- 73 100 100
tification
plant dengan jumlah iterasi yang berbeda dapat dilihat
Wine 66 100 100 dalam Tabel 7.
Pima 100 100 100 TABEL VII
Indian ITERASI TERHADAP NILAI CEP
Diabetes
Iterasi AMPSO-BP GA BP

10 82 100 100
Berdasarkan jenis metode training terdapat dua jenis 30 60 100 100
nilai error yaitu error global yang merupakan hasil 50 70 100 100
training global optimization (PSO dan GA) dan error
lokal yang merupakan hasil training local optimization Berdasarkan Tabel 7. semakin banyak iterasi nilai
(BP). BP memiliki nilai error minimum, tetapi hanya CEP yang diperoleh belum tentu semakin lebih baik.
bersifat lokal minimum, berbeda dengan GA dan PSO Hal ini disebabkan nilai CEP dipengaruhi eror global
memiliki nilai error minimum yang bersifat global yang diperoleh dan nilai eror global akan berubah-ubah
minimum. Nilai error minimum yang bersifat global untuk setiap proses disebabkan adanya proses random.
minimum memberikan nilai CEP yang lebih optimal
dibandingkan dengan nilai error minimum yang bersifat V. KESIMPULAN DAN SARAN
lokal minimum. Nilai error yang diperoleh PSO dan A. Kesimpulan
GA memiliki sifat global minimum, tetapi PSO lebih
Berdasarkan hasil pengujian dan analisis maka dapat
cepat mencapai nilai error minimum (cepat konvergen)
diambil kesimpulan antara lain AMPSO-BP mampu
jika dibandingkan dengan GA.

Jurnal EECCIS Vol. 9, No. 1, Juni 2015


84

mengoptimalkan proses training neural network yaitu training yang sangat banyak disertai arsitektur yang
lebih cepat mencapai nilai error minimum yang bersifat kompleks. Hal ini dikarenakan tidak terdapat fungsi
global minimum dan fast convergent serta memiliki optimasi memori untuk menampung proses thread yang
kemampuan memorisasi dan generalisasi yang optimum terlalu banyak. Oleh sebab itu perlu dilakukan optimasi
dengan hasil yang lebih akurat. pada sisi hardware (optimasi pemakaian memori) dalam
AMPSO-BP memiliki nilai error training paling baik pembuatan alat uji metode.
jika dibandingkan dengan GA dan BP untuk semua jenis
data. Dalam perhitungan nilai CEP, AMPSO-BP lebih DAFTAR PUSTAKA
baik dibandingkan dengan GA dan BP. Pengukuran [1] D. Puspitaningrum , Pengantar Jaringan Syaraf Tiruan,
waktu masing-masing metode berbeda-beda. Hal ini Yogyakarta: Andi, 2006.
[2] Z.G. Chee, T.A. Chiang, and Z.H.Chie, Feed Fordward Neural
bergantung pada kecepatan dalam mencapai nilai error Network : A Comparison Betwen Genetic Algorithm and
minimum, proses dari masing-masing metode, jumlah Backpropagation Learning Algorithm, ICIC International,
data training serta arsitektur neural network. 2011, vol 7, pp 5839-5850, ISSN:1349-4198.
Peningkatan jumlah iterasi tidak selalu memberikan [3] F. Zhao, Z. Ren, and D. Yu, Application of an Improvement
Particle Swarm Optimization Algorithm for Neural Network,
penurunan nilai error untuk metode yang bersifat global IEEE, 2005, pp 1693-1698.
optimization (PSO dan GA) akan tetapi mampu [4] X.Cheng, D. Wang, K. Xie, and J. Zhang, PSO Algorithm
menurunkan nilai error pada metode yang bersifat local Combined with Neural Network Training Study, IEEE, 2009,
vol 9.
optimization (BP), selain itu peningkatan jumlah iterasi [5] E.Andres, S.F. Marco, S.A. Jorge, O. Manuel, P.hector,
akan memberikan peningkatan waktu dalam proses C.Martin, B. Rosarion, and Rico, Comparison of PSO and DE
training. for Training Neural Network, IEEE, 2011, vol 11, pp 83-87.
[6] Suyanto, Evolutionary Computation, Bandung : Informatika,
B. Saran 2008.
[7] N. Zhang and P.K. Bahera, Solar Radiation Based on Particle
Saran yang mungkin perlu dilakukan dalam Swarm Optimization and Evolutionary Using Recurrent and
pengembangan metode AMPSO-BP untuk training Neural Network, IEEE, 2013, vol 13.
neural network adalah penentuan arsitektur dengan [8] F. Ahmad, N.A.M. Isa, M.K. Osman, and Z.Hussain,
Performance Comparison of Gradient Descent and Genetic
melakukan uji rumus empiris memakan waktu terlalu Algorithm Based Artificial Neural Network Training, IEEE,
lama karena terlalu banyak rumus empiris yang tersedia 2010, vol 10, pp 604-609.
dan tidak semua rumus empiris bagus di semua jenis [9] T. Sutojo, E. Mulyanto, And V. Suhartono, Kcerdasan Buatan,
Yogyakarta:Andi, 2010.
data. Alangkah baiknya jika dalam menentukan [10] Suyanto, Algoritma Optimasi Deterministik dan Probabilistik,
arsitektur bisa secara dinamis menyesuaikan jenis data Yogyakarta:Graha Ilmu, 2010.
tanpa harus melakukan uji rumus empiris. [11] J. Tang and X. Zhao, , Particle Swarm Optimization with
Adaptive Mutation, IEEE, 2009,pp 234-237, doi:10.1109/ICIE.
Mutasi yang hanya dilakukan pada gbest 2009.53
membutuhkan waktu yang lama untuk mencapai solusi [12] UCI Machine Learning Repository, 2014, Dikutip 18 Mei 2014
optimum, oleh sebab itu perlu penambahan proses dari http://archive.ics.uci.edu/ml/datasets.
[13] Wiharto, Y.S. Pagulnadi, and M.A. Nugroho , Ananlisis
mutasi tidak hanya gbest akan tetapi dilakukan pula Penggunaan Algoritma Genetika untuk Perbaikan Jaringan
pada pbest dengan disertai optimasi parameter mutasi. Syaraf Tiruan Radial Basis Function, SENTIKA, 2013,pp 181-
Proses training metode AMPSO-BP dengan alat uji 188, ISSN:2089-9815.
[14] L. Tarrasenko , A Guide to Neural Computing Application,
yang telah dibuat yang melibatkan proses multithread New York:Elsevier, 1998.
membutuhkan waktu yang lama dengan jumlah data [15] W. Kosink, Advances in Evolutionary Algorithm, United
Kingdom:Intech, 2008

Jurnal EECCIS Vol. 9, No. 1, Juni 2015

You might also like