Professional Documents
Culture Documents
Semnas Haryati
Semnas Haryati
ABSTRACT
Coal is the sediment that can be burned, formed from organic deposits, mainly is the remnants of plants and
formed through the process of coal. The energy source reason much interested because it has high selling. The
process to determine the value of selling high as seen from the results of classification of the type of coal. In
addition, the number of new coal to identified into the same coal types, then matching is required from the
process of the results that have been there coal data based on the level of the weight that belongs in every class
the type of coal. This research makes classification system coal types using artificial neural networks (JST) with
Backpropagation algorithm. The architecture of the classification of this coal types using three layers. The first
layer is the input layer as many as seven neurons, second layer hidden layer as many as three neurons, and third
layer output layer as many as five neurons. This classification system produces five class exodus namely
Antrashit, Sub-Bituminous, Bituminous, Lignit, and Peat. Based on testing on the test data as many as 200
obtained data accuracy as 98% with learning rate 0.2, and tolerance error 0.001.
ABSTRAKS
Batubara adalah batuan sedimen yang dapat terbakar, terbentuk dari endapan organik, utamanya adalah sisa-
sisa tumbuhan dan terbentuk melalui proses pembatubaraan. Alasan sumber energi tersebut banyak diminati
karena memiliki nilai jual yang tinggi. Proses untuk menentukan nilai jual yang tinggi dilihat dari hasil
klasifikasi jenis batubara. Selain itu, banyaknya jumlah batubara yang baru untuk di identifikasikan ke dalam
jenis batubara yang sama, maka diperlukan pencocokan hasil dari proses data batubara yang telah ada
berdasarkan tingkat bobot yang dimiliki dalam setiap kelas jenis batubara. Penelitian ini membuat sistem
klasifikasi jenis batubara menggunakan Jaringan Syaraf Tiruan (JST) dengan Algoritma Backpropagation.
Arsitektur dari klasifikasi jenis batubara ini menggunakan tiga lapisan. Lapisan pertama yaitu input layer
sebanyak tujuh neuron, lapisan kedua hidden layer sebanyak tiga neuron, dan lapisan ketiga output layer
sebanyak lima neuron. Sistem klasifikasi ini menghasilkan lima kelas keluaran yaitu Antrashit, Sub-Bituminous,
Bituminous, Lignit dan Gambut. Berdasarkan pengujian pada data uji sebanyak 200 data diperoleh akurasi
sebesar 98% dengan learning rate 0,2, dan toleransi error 0,001.
557
Seminar Nasional Teknologi Informasi dan Komunikasi 2016 (SENTIKA 2016) ISSN: 2089-9815
Yogyakarta, 18-19 Maret 2016
2012). Konfigurasi parameter untuk pelatihan sistem 1.2.3 Jaringan Syaraf Tiruan
klasifikasi menggunakan Jaringan Syaraf Tiruan Jaringan syaraf tiruan adalah sistem
terbaik yang didapat dari hasil percobaan klasifikasi komputasi dimana arsitektur dan operasi di ilhami
penyakit diabetes menghasilkan konfigurasi jumlah dari pengetahuan tentang sel saraf biologis di dalam
hidden node 50, nilai learning rate 0,15, epoch max otak, yang merupakan salah satu representasi buatan
1000, error klasifikasi 0,0001, persentase klasifikasi dari otak manusia yang selalu mencoba
99% dan waktu komputasi sebesar tiga detik menstimulasi proses pembelajaran pada otak
(Ramadhani, 2009). manusia tersebut. Jaringan Syaraf Tiruan (JST)
Tujuan dari penelitian ini akan dilakukan dapat digambarkan sebagai model matematis dan
klasifikasi jenis batubara dengan menggunakan komputasi untuk fungsi aproksimasi non-linear,
Jaringan Syaraf Tiruan (JST) Algoritma klasifikasi data cluster dan regresi non-parametrik
Backpropagation. Data masukannya berupa data atau sebuah simulasi dari koleksi model saraf
nilai kalori, kadar air, zat terbang, kadar abu, kadar biologi. Arsitektur yang digunakan untuk
karbon, kadar sulfur, dan warna. Data latih dan data pengenalan pola adalah arsitektur Multi Layer
uji akan dikenali melalui pembelajaran Jaringan Perceptron (MLP), seperti pada Gambar 1.
Syaraf Tiruan JST arsitektur Multi Layer Perceptron Uij Vjk Wkl
Bias
(MLP). Bias ...
Y1
X1
1.2 Landasan Teori
Z1 ...
1.2.1 Normalisasi Y2
Xi Zj ... Yk
(1)
Input Layer Hidden Layer Output Layer
Keterangan:
Gambar 1 Arsitektur Multi Layer Perceptron
y = data yang dinormalkan.
(S.E Fahlman, 1987)
valMin = data terendah yang berada dalam kolom.
valMax = data tertinggi yang berada dalam kolom. Arsitektur MLP terdiri dari input layer (xi),
hidden layer (zj), dan output layer (yk). Koneksi
Penelitian sebelumnya yang menggunakan antar layer dihubungkan dengan bobot Uij
normalisasi untuk klasifikasi yang diujikan dengan merupakan bobot dari input layer (xi) ke hidden
data kasus kanker payudara dengan memberikan layer (zj), Vjk merupakan bobot dari hidden layer
efektifitas terbaik dalam hal akurasi dan kecepatan (zj) ke hidden layer (zj). Wkl merupakan bobot dari
konvergensi adalah metode Minmax yang mencapai hidden layer(zj) ke output layer (yk). Pada penelitian
akurasi rata-rata 96,86% dengan menggunakan terdahulu menggunakan MLP untuk memprediksi
epoch sebanyak 21 (Wiharto, 2012). penyakit asma yang menggunakan delapan belas
input layer, delapan hidden layer, dan empat output
1.2.2 Fungsi Aktivasi layer (Tanjung, 2014). Selain itu, terdapat penelitian
Fungsi aktivasi merupakan bagian penting lain juga untuk menentukan harga jual produk pisau
dalam tahapan perhitungan keluaran dari suatu pada UKM Bareng Jaya dengan neuron input
algoritma. Fungsi aktivasi yang digunakan adalah sebanyak dua neuron, hidden layer menggunakan
fungsi sigmoid biner. Pada umumnya fungsi sigmoid lima neuron, dan output layer sebanyak satu neuron
biner digunakan untuk Jaringan Syaraf Tiruan (JST) (Susanti, 2013). Pengenalan pola sidik jari
yang dilatih dengan menggunakan metode mempunyai empat layer jaringan yang digunakan
Backpropagation yang memiliki nilai antara 0 antara lain input layer sebanyak sembilan belas
sampai 1. Rumus Fungsi sigmoid biner pada neuron, menggunakan dua hidden layer, untuk
Persamaan (2) dan Persamaan (3). hidden layer pertama sebanyak tujuh puluh tiga
neuron, hidden layer kedua sebanyak sembilan
(2) puluh lima neuron dan output layer nya sebanyak
empat neuron (Tumanan, 2011).
Dengan turunan:
(3)
558
Seminar Nasional Teknologi Informasi dan Komunikasi 2016 (SENTIKA 2016) ISSN: 2089-9815
Yogyakarta, 18-19 Maret 2016
(4)
(12)
Langkah selanjutnya adalah hitung sinyal hidden Faktor i digunakan untuk menghitung koreksi
layer dengan menggunakan fungsi aktivasi pada
Persamaan (5). error yang selanjutnya dipakai untuk
3. Setiap unit output (Yk, k = 1,2,3, …, m) Setelah itu, hitung koreksi bias yang
dikalikan dengan bobot dan dijumlahkan dengan
biasnya menggunakan Persamaan (6). dipakai untuk memperbaharui dengan
559
Seminar Nasional Teknologi Informasi dan Komunikasi 2016 (SENTIKA 2016) ISSN: 2089-9815
Yogyakarta, 18-19 Maret 2016
tersembunyi.
2. Setiap unit tersembunyi (zj, j= 1,2,3,…p)
menjumlahkan sinyal input yang sudah berbobot Pelatihan Bobot Hasil
Pengujian
Multi Layer
Backpropagation Pelatihan
dengan Persamaan (4). Perceptron
560
Seminar Nasional Teknologi Informasi dan Komunikasi 2016 (SENTIKA 2016) ISSN: 2089-9815
Yogyakarta, 18-19 Maret 2016
Data latih analisa batubara diambil pada j = 1,2,3 untuk bobot hidden layer. Wjk adalah bobot
tahun 2011-2012 sebanyak 500 data dan disimpan hidden layer ke output layer dengan j = 1,2,3 untuk
dalam file (.xls). Data tersebut berupa set data bobot hidden layer, dan k = 1,2,3,4,5.
analisa proksimat batubara. Tahap pra proses Nilai input sebagai data latih diperoleh dari
verifikasi data dilakukan untuk apakah data latih data yang telah melakukan proses normalisasi.
analisa proksimat dapat terbaca oleh sistem, apabila Bobot awal dalam proses pelatihan dilakukan secara
data latih tersebut dapat terbaca maka proses acak dari bilangan -0.5 hingga 0.5. Proses pengujian
selanjutnya menggunakan normalisasi. Data input dilakukan dengan menghitung secara feedforward
yang terdiri dari variabel x1 sampai x7 bertujuan dengan menggunakan bobot yang telah disimpan
untuk menyesuaikan nilai range data (nilai data pada database. Dari proses pengujian didapat sebuah
maksimum – nilai data minimum) dengan fungsi nilai output berupa keterangan jenis batubara. Pada
aktivasi dalam sistem klasifikasi batubara. Fungsi Tabel 1 merupakan target atau kelas representasi
aktivasi yang digunakan fungsi aktivasi sigmoid output.
biner. Sehingga nilai input harus berada pada range
0 sampai 1. Oleh karena itu output yang dihasilkan Tabel 1 Kelas Target Output
pun akan berada pada range 0 sampai 1. No Keterangan Kelas Representasi
Output Layer
1 Antrasit 1 10000
Bias Bias W01
Y1 ANTRASIT
2 Sub-Bituminous 2 01000
V0
1
W02 3 Bituminous 3 00100
V 03
V0
4 Lignit 4 00010
2
3 W
32
W1
W
5
W03
Pada Tabel 1 diatas terdapat jumlah kelas
X2
V23
V22 W2
1
BITUMINOUS
yang digunakan sebanyak lima kelas yaitu kelas
W23 Y3
V31
Z2
W2 W24
W1
4
Antrasit, Sub-Bituminous, Bituminous, Lignit dan
X3 V32 5
W04
Gambut. Parameter yang digunakan dalam pelatihan
V33 yaitu learning rate (α), jumlah maksimum epoch,
31
. Y4 LIGNIT
W
33
. 2
. V 71 V7 W 34 W05
V73 Z3
W35
ditentukan oleh user. Kemudian untuk nilai bobot
X7 GAMBUT
pertama, bobot diperoleh dari proses random atau
Y5
nilai acak yang memiliki rentang antara -0.5 hingga
0.5.
Gambar 3 Arsitektur MLP untuk Sistem Klasifikasi
Jenis Batubara
2.2 Hasil
Dengan: 2.2.1 Penetapan Parameter Pelatihan
X1 = Nilai Kalori hari ke 1 Pada tahap ini dilakukan pengujian pada
X2 = Kadar Air hari ke 1 variasi parameter dengan tujuan untuk mencari
X3 = Zat Terbang hari ke 1 parameter yang paling optimal dalam melakukan
X4 = Kadar Abu hari ke 1 klasifikasi. Hal ini dimaksudkan untuk mengetahui
X5 = Kadar Karbon hari ke 1 pengaruh dari berbagai parameter terhadap sistem
X6 = Kadar Sulfur hari ke 1 yang mempengaruhi tingkat akurasi sistem. Dalam
X7 = Warna hari ke 1 percobaan ini dilakukan pengujian pertama
dilakukan dengan mengubah nilai parameter
Sistem klasifikasi jenis batubara terdapat toleransi error 0.001, nilai iterasi 1000 dengan
keluaran sebanyak lima kelas yaitu kelas Antrasit, jumlah data latih sebanyak 500 data.
Sub-Bituminous, Bituminous, Lignit dan Gambut
yang diketahui sebagai solusi klasifikasi kelas Tabel 2 Pengaruh Learning Rate Akurasi Sistem
dengan variabel y1,y2,y3,y4 dan y5. Arsitektur MLP Learning Tingkat
No Epoch MSE Waktu
pada penelitian ini terdiri dari satu input layer, satu Rate Akurasi
hidden layer dan satu output layer. Jaringan 1 0.01 1000 0.0023848 38 41%
2 0.1 238 0.0009967 32 91%
memiliki input layer (X) sebanyak 7 neuron yang 3 0.2 112 0.0009987 27 98%
diperoleh dari 7 variabel x 1 hari, hidden layer (Z) 4 0.5 72 0.0009867 30 82%
dengan jumlah neuron sebanyak √( input layer +
output layer) yaitu √(7 + 5)= 3, dan output layer Memperlihatkan pengaruh learning rate pada
sebanyak lima neuron. akurasi data latih dengan menggunakan learning
Koneksi bobot tiap neuron diberikan dengan rate sebesar 0.2 yang menghasilkan nilai MSE
simbol Vij dan Wjk. Vij adalah bobot input layer ke 0.0009987 dengan tingkat akurasi 98%, sedangkan
hidden layer, i= 1, 2.., 7 untuk bobot input layer, dan untuk learning rate sebesar 0.01 dengan nilai MSE
561
Seminar Nasional Teknologi Informasi dan Komunikasi 2016 (SENTIKA 2016) ISSN: 2089-9815
Yogyakarta, 18-19 Maret 2016
562