Professional Documents
Culture Documents
Genetic Algorithm (GA). Training neural network parikel (pbest). Persamaan yang digunakan untuk
menggunakan PSO membutuhkan sedikit parameter dan memperbarui kecepatan dan posisi dapat dilihat pada
membutuhkan waktu yang lebih cepat untuk mencapai persamaan (1) dan (2):
konvergen [5], tetapi lemah dalam pencarian lokal dan v'id *vid c1 * r *( pid xid ) c2 * r *(gid xid ) (1)
sering terjadi premature convergent (konvergen pada
solusi optimum lokal) karena memiliki ruang pencarian x'id xid vid (2)
yang terbatas [6]. Training neural network dimana i adalah partikel ke-i dan d adalah dimensi ke-d.
menggunakan GA lebih optimal dibandingkan dengan v adalah kecepatan partikel. adalah inertia weight.
PSO karena adanya faktor mutation dan crossover yang c1 adalah learning rate untuk komponen cognition
menyebabkan ruang pencarian solusi GA lebih besar (kecerdasan individu) dan c2 adalah learning rate untuk
untuk menghasilkan solusi baru [7], tetapi GA komponen social (kecerdasan sosial antar individu). p
membutuhkan waktu yang lama untuk mencapai adalah pbest dan g adalah gbest. r adalah bilangan acak
konvergen dan proses crossover pada GA dalam interval (0,1).
memungkinkan hasil yang lebih buruk [8]. C. Adaptive Mutation pada PSO
Fokus dalam penelitian ini adalah optimasi training PSO merupakan teknik berbasis populasi dengan
neural network menggunakan data klasifikasi yaitu iris mengatur posisi dan kecepatan yang mengacu pada
plant, breast cancer, glass identification, wine dan pima partikel yang terbaik untuk mencapai solusi. Posisi
indian diabetes. Metode yang diusulkan adalah hybrid selanjutnya yang akan ditempuh partikel dipengaruhi
adaptive mutation particel swarm optimization dan oleh posisi terbaik partikel sebelumnya dan posisi
backpropagation (AMPSO-BP). Particle swarm terbaik oleh semua partikel. Jika posisi terbaik tidak
optimization (PSO) digunakan untuk meningkatkan terjadi perubahan di local optimum, maka partikel akan
convergent rate dan mendapatkan solusi optimum cepat konvergen di posisi terbaiknya. Hal ini
global. Adaptive mutation pada PSO berfungsi untuk menyebabkan terjadinya konvergen di local optimum
memperlebar ruang pencarian PSO untuk mencegah yang disebut sebagai premature convergent. Premature
premature convergent. Backpropagation (BP) convergent dapat dicegah dengan mengubah posisi
digunakan untuk meningkatkan efisiensi pencarian terbaik saat ini dengan posisi baru menggunakan proses
lokal. mutasi.
Mutasi pada PSO dilakukan dengan menambahkan
II. LANDASAN TEORI angka random dengan range (0,1) pada gbest.
A. Backpropagation (BP) Penggunaan mutasi pada PSO masih belum mampu
BP adalah metode berbasis penurunan gradien untuk mencegah local optimum, karena terlalu kecil
meminimalkan kuadrat eror hasil keluaran [9]. BP dapat menjangkau ruang pencarian secara menyeluruh. Solusi
meningkatkan efisiensi pencarian dan bersifat local baru untuk mengatasi terbatasnya jangkauan partikel
optimization. yang dimutasi adalah dengan menambahkan ukuran
BP melakukan dua tahap perhitungan. Perhitungan mutasi yang terkait dengan ukuran ruang pencarian
maju untuk menghitung eror antara nilai output dan yang disebut adaptive mutation. Persamaan adaptive
target dan perhitungan mundur yang mempropagasikan mutation pada PSO dapat dilihat pada persamaan (3)
balik eror tersebut dari output ke input untuk [11].
memperbaiki bobot-bobot pada semua unit. Metode ini gbestj (t 1) gbestj (t) [bj (t) a j (t)] rand() (3)
hanya melakukan perubahan bobot beradasarkan fungsi Dimana gbest adalah vektor gbest partikel. j adalah
eror, maka kombinasi bobot yang mampu dimensi ke-j partikel. a j (t ) adalah nilai minimum
meminimalkan fungsi eror dinggap sebagai solusi
dimensi ke-j partikel. b j (t ) adalah nilai maksimum
permasalahan. Fungsi aktivasi yang digunakan dalam
BP adalah fungsi sigmoid biner yang memiliki interval dimensi ke-j partikel.
0 sampai 1.
III. METODE PENELITIAN
B. Particle Swarm Optimization (PSO)
PSO adalah teknik berbasis populasi (sejumlah A. Data
partikel) dengan mengatur posisi dan kecepatan yang Data digunakan untuk proses training dan pengujian
mengacu pada partikel yang optimum untuk mencapai metode training neural network. Data yang digunakan
solusi [10]. PSO dimulai dengan membangkitkan adalah data skunder berupa dataset dengan kategori
partikel (solusi) secara acak dan setiap partikel permasalahan klasifikasi yang diambil dari [12].
dievaluasi dengan menggunakan fungsi fitness. Partikel Deskripsi dari data-data tersebut diantaranya:
Iris plant: dikenal sebagai literatur database
akan terbang mengikuti partikel yang optimum dari satu
untuk pengenalan pola. Data ini terdiri dari 3
posisi ke posisi yang baru dengan cara menambahkan
kelas dimana masing-masing kelas terdiri dari 50
kecepatan (v) ke posisi (x) untuk mendapatkan posisi
data. Masing-masing kelas merupakan tipe iris
baru (x).
plant yaitu iris setosa, iris versicolour dan iris
Perubahan posisi dan kecepatan masing-masing
verginica. Pembagian data ke dalam 3 kelas
partikel dipengaruhi oleh posisi terbaik yang diperoleh
didasarkan 4 jenis atribut.
semua partikel (gbest) dan posisi terbaik masing-masing
Breast cancer: database yang berisi diagnosa hidden layer, sehingga arsitektur neural network dapat
penyakit kanker payudara dari university of dilihat dalam Gambar 1.
Wisconsin Hospital, Medison oleh Dr. William
H. Wolberg. Data ini terdiri dari 2 kelas (benign
dan malignant) yang merupakan jenis dari breast
cancer. Total jumlah data adalah 699 dengan 10
jenis atribut.
Wine: data hasil dari analisis kimia dari wine
yang berkembang di wilayah italia tetapi dengan
3 pengolahan yang berbeda. Hasil analisis
menunjukkan terdapat 13 unsur yang ditemukan
dalam masing-masing tiga jenis wine yang
berbeda. Total jumlah data adalah 178.
Glass identification: database yang berisi
klasifikasi tentang tipe glass. Data ini
mendukung investigasi kriminal. Data ini dibagi
ke dalam 7 kelas dengan 10 jenis atribut. Total Gambar 1. Arsitektur Neural Network. Arsitektur neural
jumlah data adalah 214. network terdiri atas x = input unit, z = hidden unit, y=output
Pima indian diabetes: database yang berisi data unit, b1 dan b2 adalah bias, vij = bobot antara layer i (input)
dan layer j(hidden), wjk = bobot antara layer j(hidden) dan
pasien yang terkena penyakit diabetes. Semua layer k (output)
pasien berjenis kelamin perempuan dengan usia
21 tahun yang merupakan keturunan Pima Solusi yang diperoleh dari training neural network
Indian. Pasien dibagi ke dalam 2 kelas yaitu adalah berupa bobot yang nantinya akan digunakan
positif (terkena diabetes) dan negatif (tidak dalam aplikasi. Penentuan nilai bobot dalam training
terkena diabetes) yang didasarkan pada 8 jenis neural network menggunakan AMPSO-BP memiliki
atribut dengan jumlah data sebanyak 768. langkah yang berbeda dengan menggunakan BP. Dalam
Data hanya digunakan 70% untuk proses training AMPSO-BP solusi direpresentasikan ke dalam partikel
neural network dan sisanya digunakan untuk proses dimana 1 partikel merupakan 1 solusi dan 1 partikel
pengujian atau aplikasi. Normalisasi data dilakukan memiliki dimensi. Bobot yang menjadi solusi training
untuk mengoptimalkan proses training neural network. neural network akan direpresentasikan ke dalam
Dengan adanya normalisasi data, semua data akan dimensi partikel. Struktur dimensi partikel dalam
diubah nilainya dalam kisaran 0 dan 1. training neural network yang didasarkan pada
B. AMPSO-BP untuk Training Neural Network persamaan (5) dan Gambar 1. dapat dilihat dalam
Gambar 2.
Langkah pertama dalam proses training neural
network adalah penentuan arsitektur neural network
yang disesuaikan dengan jenis data yang digunakan.
Gambar 2. Struktur dimensi partikel. Dimensi partikel terdiri dari
Arsitektur meliputi jumlah layer dan jumlah unit pada vij = bobot antara input layer dan hidden layer, v0j = bias pada
masing-masing layer serta penentuan jumlah bobot dan hidden layer, wjk = bobot antara hidden layer dan output layer
bias pada neural network. Jumlah layer yang akan dan w0k = bias pada output layer
digunakan adalah 3 layer yang terdiri dari 1 input layer,
1 hidden layer dan 1 output layer. Dalam proses training, jumlah partikel yang
Jumlah unit pada input layer dan output layer digunakan lebih dari 1 partikel dan setiap partikel
disesuaikan dengan permasalahan untuk masing-masing membawa solusi. Untuk menentukan partikel mana
jenis data. Jumlah unit pada hidden layer ditentukan yang memiliki solusi terbaik, setiap partikel memiliki
dengan persamaan (4)[13]. nilai fitness yang dievaluasi menggunakan fungsi
H 3M (4)
fitness. Nilai fitness adalah ukuran kualitas suatu
partikel sedangkan fungsi fitness adalah fungsi yang
Dimana H adalah jumlah unit pada hidden layer dan M digunakan untuk evaluasi partikel untuk mendapatkan
adalah jumlah unit pada input layer. Sebagai contoh nilai fitness. Fungsi fitness dalam training neural
diketahui 2 unit input dan 1 unit output maka jumlah network adalah fungsi untuk menghitung nilai error
unit hidden adalah 6 unit. Dalam aristektur terdapat atau selisih nilai antara nilai target dan nilai input.
bobot dan bias. Perhitungan jumlah bobot dan bias Fungsi yang digunakan adalah mean squared error
ditentukan dengan persamaan (5)[14]. (MSE) yang dapat dilihat dalam persamaan (6).
w mxn 1xn nxq 1xq (m 1)n (n 1)q
(5)
(tk ,1 ok ,l )2
N M
perubahan bobot (dimensi) dengan memberikan nilai direpresentasikan oleh gbest. Untuk mencegah
input dan membandingkan nilai output dengan nilai premature convergent dilakukan proses mutasi
target. Perubahan bobot dipengaruhi oleh perubahan (adaptive mutation) pada gbest yang sesuai dengan
posisi dan kecepatan masing-masing partikel yang persamaan (3). Adaptive mutation merupakan proses
sesuai dengan persamaan (1) dan (2). Pada setiap mutasi yang menggunakan ukuran ruang pencarian yaitu
generasi, posisi dan kecepatan partikel dipengaruhi oleh pada pbest partikel. Proses mutasi pada gbest hanya
pbest dan gbest partikel. Perubahan dilakukan secara dilakukan pada dimensi tertentu berdasarkan
berkelanjutan hingga mencapai kriteria penghentian probabilitas mutasi (Pm) yang telah ditentukan.
tertentu. Detail proses training neural network
C. Inisisialisasi Parameter Training Neural Network
menggunakan AMPSO-BP dapat dilihat dalam Gambar
3. Parameter yang digunakan dalam AMPSO-BP dapat
dilihat dalam Tabel 1
start
TABEL I
INISIALISASI PARAMETER
Penentuan arsitektur neural
network
Inisialisasi posisi partikel (x) Metode Parameter
Inisialisasi kecepatan partikel (v)
secara random
N
PSO = 0.8
v = rand (-2,2)
Evaluasi nilai fitness partikel bobot (w) = rand (0,1)
jumlah partikel (t) = 20
c1 = c2 = 2
r1 = r2 = rand (0,1)
Y
fitness partikel Update kecepatan Vmax = 2
< Pbes
Pm = 0.02
Modifikasi Pbes
Pbes = x
BP = 0.5
Update posisi
N
fitness partikel
N
< Gbes
IV. HASIL DAN PEMBAHASAN
Y Mutasi Gbest Max iterasi?
Mx= gbest + (max-
Modifikasi Gbest min)*rand() A. Perbandingan Nilai Error Training
Gbest = x N Y
Nilai error training neural network untuk semua data
fitness mutasi Memperoleh Bobot dengan semua metode dalam 10 iterasi dapat dilihat
N
< Gbes
Eror <=0.01
dalam Tabel 2.
Y
TABEL II
BP local
ERROR TRAINING
Modifikasi Gbest optimization
Gbest = Mx
N Data AMPSO-BP GA BP
N
-14
Iris Plant 9.4x10 11.119 0.3307
Eror <=0.01 Eror ==0.01 Breast Cancer 0.0048 78.170 1.4x10-5
Y
Glass 0.0067 6.5494 0.1297
Y Identification
N
Y
Wine 0.1888 12.709 0.2352
Pima Indian 0.0057 65.579 0.0063
Y
Diabetes
Max Iterasi
Bobot Baru
global optimization lebih cepat dibandingkan dengan D. Perbandingan Jumlah Iterasi Terhadap Error,
local optimization, karena proses perubahan bobot pada Waktu dan CEP
local optimization dilakukan di setiap data sedangkan Nilai error training neural network untuk data iris
pada metode global optimization dilakukan di semua plant dengan jumlah iterasi yang berbeda dapat dilihat
data. Selain proses training lama waktu training dalam Tabel 5.
dipengarui jumlah data dan kompleksitas arsitektur TABEL V
neural network. Semakin banyak jumlah data training ITERASI TERHADAP EROR TRAINING
maka proses training membutuhkan waktu lebih lama Iterasi AMPSO-BP GA BP
dan semakin kompleks arsitektur neural network maka -14
proses training juga membutuhkan waktu lebih lama. 10 9.4x10 11.119 0.3307
30 0.3333 8.8295 0.3300
TABEL III 50 0.0042 12.834 0.3297
WAKTU TRAINING
10 82 100 100
Berdasarkan jenis metode training terdapat dua jenis 30 60 100 100
nilai error yaitu error global yang merupakan hasil 50 70 100 100
training global optimization (PSO dan GA) dan error
lokal yang merupakan hasil training local optimization Berdasarkan Tabel 7. semakin banyak iterasi nilai
(BP). BP memiliki nilai error minimum, tetapi hanya CEP yang diperoleh belum tentu semakin lebih baik.
bersifat lokal minimum, berbeda dengan GA dan PSO Hal ini disebabkan nilai CEP dipengaruhi eror global
memiliki nilai error minimum yang bersifat global yang diperoleh dan nilai eror global akan berubah-ubah
minimum. Nilai error minimum yang bersifat global untuk setiap proses disebabkan adanya proses random.
minimum memberikan nilai CEP yang lebih optimal
dibandingkan dengan nilai error minimum yang bersifat V. KESIMPULAN DAN SARAN
lokal minimum. Nilai error yang diperoleh PSO dan A. Kesimpulan
GA memiliki sifat global minimum, tetapi PSO lebih
Berdasarkan hasil pengujian dan analisis maka dapat
cepat mencapai nilai error minimum (cepat konvergen)
diambil kesimpulan antara lain AMPSO-BP mampu
jika dibandingkan dengan GA.
mengoptimalkan proses training neural network yaitu training yang sangat banyak disertai arsitektur yang
lebih cepat mencapai nilai error minimum yang bersifat kompleks. Hal ini dikarenakan tidak terdapat fungsi
global minimum dan fast convergent serta memiliki optimasi memori untuk menampung proses thread yang
kemampuan memorisasi dan generalisasi yang optimum terlalu banyak. Oleh sebab itu perlu dilakukan optimasi
dengan hasil yang lebih akurat. pada sisi hardware (optimasi pemakaian memori) dalam
AMPSO-BP memiliki nilai error training paling baik pembuatan alat uji metode.
jika dibandingkan dengan GA dan BP untuk semua jenis
data. Dalam perhitungan nilai CEP, AMPSO-BP lebih DAFTAR PUSTAKA
baik dibandingkan dengan GA dan BP. Pengukuran [1] D. Puspitaningrum , Pengantar Jaringan Syaraf Tiruan,
waktu masing-masing metode berbeda-beda. Hal ini Yogyakarta: Andi, 2006.
[2] Z.G. Chee, T.A. Chiang, and Z.H.Chie, Feed Fordward Neural
bergantung pada kecepatan dalam mencapai nilai error Network : A Comparison Betwen Genetic Algorithm and
minimum, proses dari masing-masing metode, jumlah Backpropagation Learning Algorithm, ICIC International,
data training serta arsitektur neural network. 2011, vol 7, pp 5839-5850, ISSN:1349-4198.
Peningkatan jumlah iterasi tidak selalu memberikan [3] F. Zhao, Z. Ren, and D. Yu, Application of an Improvement
Particle Swarm Optimization Algorithm for Neural Network,
penurunan nilai error untuk metode yang bersifat global IEEE, 2005, pp 1693-1698.
optimization (PSO dan GA) akan tetapi mampu [4] X.Cheng, D. Wang, K. Xie, and J. Zhang, PSO Algorithm
menurunkan nilai error pada metode yang bersifat local Combined with Neural Network Training Study, IEEE, 2009,
vol 9.
optimization (BP), selain itu peningkatan jumlah iterasi [5] E.Andres, S.F. Marco, S.A. Jorge, O. Manuel, P.hector,
akan memberikan peningkatan waktu dalam proses C.Martin, B. Rosarion, and Rico, Comparison of PSO and DE
training. for Training Neural Network, IEEE, 2011, vol 11, pp 83-87.
[6] Suyanto, Evolutionary Computation, Bandung : Informatika,
B. Saran 2008.
[7] N. Zhang and P.K. Bahera, Solar Radiation Based on Particle
Saran yang mungkin perlu dilakukan dalam Swarm Optimization and Evolutionary Using Recurrent and
pengembangan metode AMPSO-BP untuk training Neural Network, IEEE, 2013, vol 13.
neural network adalah penentuan arsitektur dengan [8] F. Ahmad, N.A.M. Isa, M.K. Osman, and Z.Hussain,
Performance Comparison of Gradient Descent and Genetic
melakukan uji rumus empiris memakan waktu terlalu Algorithm Based Artificial Neural Network Training, IEEE,
lama karena terlalu banyak rumus empiris yang tersedia 2010, vol 10, pp 604-609.
dan tidak semua rumus empiris bagus di semua jenis [9] T. Sutojo, E. Mulyanto, And V. Suhartono, Kcerdasan Buatan,
Yogyakarta:Andi, 2010.
data. Alangkah baiknya jika dalam menentukan [10] Suyanto, Algoritma Optimasi Deterministik dan Probabilistik,
arsitektur bisa secara dinamis menyesuaikan jenis data Yogyakarta:Graha Ilmu, 2010.
tanpa harus melakukan uji rumus empiris. [11] J. Tang and X. Zhao, , Particle Swarm Optimization with
Adaptive Mutation, IEEE, 2009,pp 234-237, doi:10.1109/ICIE.
Mutasi yang hanya dilakukan pada gbest 2009.53
membutuhkan waktu yang lama untuk mencapai solusi [12] UCI Machine Learning Repository, 2014, Dikutip 18 Mei 2014
optimum, oleh sebab itu perlu penambahan proses dari http://archive.ics.uci.edu/ml/datasets.
[13] Wiharto, Y.S. Pagulnadi, and M.A. Nugroho , Ananlisis
mutasi tidak hanya gbest akan tetapi dilakukan pula Penggunaan Algoritma Genetika untuk Perbaikan Jaringan
pada pbest dengan disertai optimasi parameter mutasi. Syaraf Tiruan Radial Basis Function, SENTIKA, 2013,pp 181-
Proses training metode AMPSO-BP dengan alat uji 188, ISSN:2089-9815.
[14] L. Tarrasenko , A Guide to Neural Computing Application,
yang telah dibuat yang melibatkan proses multithread New York:Elsevier, 1998.
membutuhkan waktu yang lama dengan jumlah data [15] W. Kosink, Advances in Evolutionary Algorithm, United
Kingdom:Intech, 2008