You are on page 1of 23

BAB II

KAJIAN PUSTAKA
Pada bab ini akan dibahas mengenai penelitian sebelumnya dan
beberapa teori dalam melakukan implementasi penerapan metode
Modified Direction Feature sebagai metode ekstraksi fitur dan Learning
Vector Quantization sebagai metode dalam proses klasifikasi.
2.1 Penelitian Sebelumnya
Penyusunan Tugas Akhir ini meninjau dari beberapa paper yang
dibuat sebelumnya:
Tjokorda Agung BW, I Gede Rudy Hermanto, Retno Novi D
dengan paper yang berjudul “Pengenalan Huruf Bali Menggunakan
Metode Modified Direction Feature (MDF) Dan Learning Vector
Quantization (LVQ)”, melakukan penelitian tentang pengenalan huruf
Bali. Pada penelitian ini ditemukan bahwa konfigurasi parameter MDF
yang menghasilkan akurasi terbaik adalah: ukuran normalisasi 100x50
piksel, jumlah transisi 4, dan tidak dilakukan pembagian gambar
menjadi beberapa bagian. Hal ini dapat dilihat dari hasil persentase
pengujian yang memiliki tingkat akurasi di atas 70% pada data uji
dengan penulis yang berbeda dan di atas 80% dengan penulis yang
tulisannya pernah menjadi data pelatihan (training). [1]
Dalam paper yang ditulis oleh M. Blumenstein and X. Y. Liu
dengan judul “A Modified Direction Feature for Cursive Character
Recognition” melakukan penelitian untuk pengenalan tulisan
menggunakan metode Modified Direction Feature. Teknik ini
memerlukan pengolahan lebih sedikit untuk klasifikasi dan tahap
ekstraksi fitur. Penelitian ini menghasilkan tingkat akurasi sebesar 80%.
[7]
Pada paper yang ditulis oleh Francesco Camastra, dkk. yang
berjudul “Cursive Character Recognition by Learning Vector
Quantization” menjelaskan tentang pengenalan karakter tulisan tangan
menggunakan Learning Vector Quantization. Teknik ini menunjukkan
hasil yang lebuh bagus dari sebelumnya. Akan tetapi data yang
dibutuhkan harus besar, karena tidak akan diperoleh hasil yang bagus
bila datanya kecil. Penelitian ini memiliki tingkat akurasi sebesar
81,72%.[9]
Pada penelitian berjudul “Pengenalan Pola Huruf Jepang (Kana)

5
Universitas Trunojoyo

Menggunakan Direction Feature Extraction dan Learning Vector
Quantization” oleh Tjokorda Agung Budi Wirayuda, Maria Ludovika
Dewi Kusuma Wardhani, menggabungkan metode Direction Feature
Extraction dan Learning Vector Quantization untuk pengenalan pola
tulisan tangan. Penelitian ini menghasilkan tingkat akurasi yang cukup
baik. Untuk kasus dengan data yang terbatas dimana data pelatihan
(training) hanya dua data tulisan tangan dihasilkan akurasi mencapai
66%, sedangkan untuk data pelatihan (training) 10 data tulisan tangan
diperoleh akurasi yang mencapai 75%. [22]
2.2 Pengolahan citra digital
Proses pengolahan gambar digital dengan menggunakan komputer
digital adalah terlebih dahulu mentransformasikan gambar ke dalam
bentuk besaran-besaran diskrit dari nilai tingkat keabuan pada titik-titik
elemen gambar. Bentuk gambar ini disebut gambar digital. Elemenelemen gambar digital apabila ditampilkan dalam layar monitor akan
menempati sebuah ruang yang disebut dengan pixel (picture elemen/
pixel).
Pada proses transformasi yang menghasilkan gambar dari bentuk
tiga dimensi ke bentuk dua dimensi akan dipengaruhi oleh bermacammacam faktor yang mengakibatkan penampilan gambar suatu benda
tidak identik dengan bentuk fisik nyatanya. Faktor-faktor tersebut
merupakan efek degradasi atau penurunan kualitas yang dapat berupa
rentang kontras benda yang terlalu sempit atau terlalu lebar, distorsi
geometri (geometric distortion), kekaburan (blur), kekaburan akibat
obyek gambar yang bergerak (motion blur), noise atau gangguan yang
disebabkan oleh interferensi peralatan pembuat gambar, baik itu berupa
tranduser, peralatan elektronik ataupun peralatan optic.
2.3 Thinning
Thinning adalah suatu operasi dimana suatu objek diubah menjadi
garis-garis yang kira-kira adalah garis tengah yang dapat juga disebut
sebagai skeleton/rangka [2]. Definisi lain tentang thinning adalah operasi
pemrosesan citra biner yang dalam hal ini objek (region) direduksi
menjadi rangka yang menghampiri garis sumbu objek [15]. Thinning
(biasa disebut juga skeletonizing) adalah suatu metode untuk
merepresentasikan transformasi suatu bentuk gambar ke bentuk graph
dengan mereduksi informasi tertentu dalam gambar tersebut. Tujuannya
adalah mereduksi komponen citra atau menghilangkan piksel tertentu

6
Universitas Trunojoyo

jadi algoritma penipisan pola mengelupas piksel-piksel pinggir objek. Proses ini dilakukan berulang- 7 Universitas Trunojoyo . satu persatu piksel sampai menjadi garis. Cara yang umum digunakan adalah dengan memeriksa setiap pixel di dalam citra dalam kaitannya dengan neighbourhood region minimal untuk jendela berukuran 3x3 piksel dan “mengupas” batas daerah.menjadi suatu informasi yang sifatnya mendasar dan mengurangi bagian yang tidak perlu (redundant). 3. Operasi thinning mempunyai persyaratan tertentu yang harus dipenuhi. Proses penghapusan ini harus dilakukan dengan hati-hati. Ujung-ujung garis harus tetap dipertahankan (tidak memperpendek ujung lengan dari bentuk yang ditipiskan). Daerah harus diubah menjadi struktur garis yang terkoneksi (mempertahankan keterhubungan/tidak menyebabkan bentuk objek menjadi terputus). Jangan sampai proses penghapusan suatu piksel merubah topologi dari objek. sehingga hanya dihasilkan informasi yang esensial berupa topologi objek semula saja dan dapat memfasilitasi analisis selanjutnya. Hasil thinning harus kira-kira sama dengan garis tengah. Metode ini bekerja secara iterative. Penipisan pola merupakan proses yang iteratif yang menghilangkan piksel-piksel hitam (mengubahnya jadi piksel putih) pada tepi-tepi pola. Thinning merupakan metode dasar untuk skeletonization. 2. Pada setiap siklusnya piksel yang memiliki setidaknya satu piksel tetangga dihapus. 2. Gambar. syarat-syarat tersebut sebenarnya untuk mengatur arah penghapusan bagian objek sehingga setiap bentuk objek mempunyai hasil yang unik dan dapat dijadikan sebagai ciri pembeda dari bentukbentuk lainnya melalui bentuk skeletonnya.1 Operasi Thinning pada huruf R 1.

thinning algorithm. Metode thinning jenis ini menggunakan template untuk dicocokkan dengan citra yang akan dithinning. Algoritma ini bersifat iteratif yang berguna untuk mengikis lapisan pixel terluar sampai tidak ada lapisan lagi yang dapat dihilangkan. dan batas setebal satu piksel yang tidak digunakan untuk mempertahankan koneksi atau tidak pada posisi di ujung garis dihapus.p8.j) dimana pixel-pixel pada image cocok 8 Universitas Trunojoyo . periksa apakah penghilangan pixel tengah menyebabkan objek terhubung. berarti hanya terdapat satu komponen terhubung di dalam jendela 3x3 pixel. Metode Stentiford menggunakan template-based mark-and-delete. tidak ada aksi yang dilakukan karena di dalam jendela terdapat ujung lengan objek. dimana jika bagian dari gambar sesuai dengan template. Ada beberapa algoritma yang digunakan dalam proses thinning.1. Berikut adalah langkah-langkah algoritma tersebut. tidak ada aksi yang dilakukan karena dapat menyebabkan pengikisan (erosion) objek. 2. yang berarti nilai yang baru didapat dari proses sebelumnya. N. ulang. 2.3. di dalam jendela 3x3 pixel..1 Algoritma Thinning Menggunakan Algoritma Stentiford Metode ini adalah algoritma thinning dengan menggunakan teknik template-based mark-and-delete. hapus piksel yang di tengah. Algoritma ini menggunakan template matching.. Algoritma image thinning yang hanya dapat diterapkan pada gambar biner (binary image) saja. Algoritma 2. Diantaranya adalah metode Stentiford dan Zhang-suen. Ini dilakukan dengan membentuk barisan p1.. Cari pixel pada lokasi (i. Jika N kurang atau sama dengan 2.p2. Jika N lebih besar dari 7. Iterasi akan berakhir bila tidak ada peruibahan yang terjadi (tidak ada lagi aksi penghapusan) pada objek yang sedang dikenakan operasi. Jika jumlah peralihan 0  1 di dalam barisan tersebut sama dengan 1. pada tiap iterasi setiap piksel diperiksa dalam jendela berukuran nxn. Jika N lebih besar dari 2. yaitu: Mula-mula diperiksa jumlah pixel objek (yang bernilai 1). Pada kasus ini diperbolehkan menghapus pixel tengah yang bernilai 1 karena penghapusan tersebut tidak mempengaruhi keterhubungan. Metode ini cukup terkenal karena reliable dan kefektifannya..1 merupakan algoritma Stentiford : 1.p3... 3. Sedangkan metode Zhang-suen menggunakan metode iterasi.

dengan template T1. langkah pertama adalah menandai contour 9 Universitas Trunojoyo . N0 adalah nilai dari pixel tengah (central pixel). Algoritma ini cepat dan mudah diimplementasikan. Contoh : suatu pixel hitam hanya mempunyai satu tetangga saja yang hitam juga dari kemungkinan delapan tetangga. Setiap iterasi dari metode ini terdiri dari dua sub-iterasi yang berurutan yang dilakukan terhadap contour points dari wilayah citra. Contour point adalah setiap pixel dengan nilai 1 dan memiliki setidaknya satu 8neighbour yang memiliki nilai 0. 3. Dengan informasi ini.2 Algoritma Thinning Menggunakan Metode Zhang-suen Algoritma ini adalah salah satu algoritma thinning yang cukup populer dan telah digunakan sebagai suatu basis perbandingan untuk thinning. Pencocokan template T3 akan dilakukan pada sisi bawah dari obyek dengan arah dari kanan ke kiri dan dari bawah ke atas. Dengan template ini. 4.5.2. 5. Ulangi langkah 1 dan 2 untuk semua pixel yang cocok dengan template T1. Ulangi langkah 1–3 untuk template T2.3. T3 dan T4. Bila pixel tengah bukan merupakan endpoint dan mempunyai jumlah konektivitas (connectivity number) 1. Pencocokan template T4 akan dilakukan pada sisi kanan dari obyek dengan arah dari atas ke bawah dan dari kanan ke kiri. Pencocokan template ini bergerak dari kiri ke kanan dan dari atas ke bawah. Pencocokan template T2 akan dilakukan pada sisi kiri dari obyek dengan arah dari bawah ke atas dan dari kiri ke kanan.7}. Connectivity number : merupakan suatu ukuran berapa banyak obyek yang terhubung dengan pixel tertentu (dihitung berdasarkan rumus di bawah). maka tandai pixel tersebut untuk kemudian dihilangkan (remove). N1 adalah nilai dari pixel pada sebelah kanan central pixel dan sisanya diberi nomor berurutan dengan arah berlawanan jarum jam. maka semua pixel di bagian atas dari image akan dihilangkan (remove).3. Endpoint pixel : pixel yang merupakan batas akhir dan hanya terhubung dengan 1 pixel saja. Piksel-piksel yang ditandai untuk dihilangkan (remove) dibuat sama dengan background (di-set 0 untuk binary image). 2. Nk merupakan nilai dari 8 tetangga di sekitar pixel yang akan dianalisa (central pixel) dan nilai S = {1.

p4 . Setelah langkah 1 selesai dilakukan untuk semua border points maka dilakukan penghapusan untuk titik yang telah ditandai (diubah menjadi 0). Sebaliknya jika semua kondisi tersebut dipenuhi maka piksel tersebut ditandai untuk penghapusan. p8 = 0.. + p8 + p9 dan S(p1) adalah jumlah dari transisi 0-1 pada urutan p2. Jika salah satu dari keempat kondisi di atas tidak dipenuhi atau dilanggar maka nilai piksel yang bersangkutan tidak diubah. p8 = 0. Setelah itu dilakukan langkah 2 pada data hasil dari langkah 1 dengan cara yang sama dengan langkah 1 sehingga. . pada saat algoritma ini selesai maka akan dihasilkan skeleton dari citra awal. (d’) p2 .. dalam satu kali iterasi urutan algoritmanya terdiri dari : 1) Menjalankan langkah 1 untuk menandai border points yang akan dihapus. 4) Hapus titik-titik yang ditandai dengan menggantinya menjadi angka 0. (c) p2 . p6 . dimana N(p1) adalah jumlah tetangga dari p1 yang tidak 0. Dan pada langkah kedua. (d) p4 . N(p1) = p2 + p3 + . p8 = 0.4 Ekstraksi Ciri 10 Universitas Trunojoyo .. p9. p4 . 2) Hapus titik-titik yang ditandai dengan menggantinya menjadi angka 0. p6 . kondisi (a) dan (b) sama dengan langkah pertama.. Prosedur ini dilakukan secara iteratif sampai tidak ada lagi titik yang dapat dihapus. Hal ini berguna untuk mencegah perubahan struktur data. 2. yaitu. p3.point p untuk dihapus jika semua kondisi ini dipenuhi: (a) 2 ≤ N(p1) ≤ 6. (b) S(p1) = 1. Piksel yang telah ditandai tidak akan dihapus sebelum semua border points selesai diproses. sedangkan kondisi (c) dan (d) diubah menjadi: (c’) p2 . p6 = 0. Langkah pertama dilakukan terhadap semua border pixel di citra. 3) Menjalankan langkah 2 pada sisa border points yang pada langkah 1 belum dihapus lalu yang sesuai dengan semua kondisi yang seharusnya dipenuhi pada langkah 2 kemudian ditandai untuk dihapus. p8..

Teknik ini menggabungkan antara teknik Direction Feature (DF) dan Transition Feature (TF). sedangkan high-level feature merupakan ekstraksi ciri berdasarkan informasi semantik yang terkandung dalam citra [14]. Secara matematik. Ekstraksi ciri diklasifikasikan ke dalam tiga jenis yaitu: low-level.1 Nilai Label dan Arah pada DF Arah Nilai Bentuk Vertikal 2 Diagonal Kanan 3 Horizontal 4 Diagonal Kiri 5 Untuk melakukan pelabelan arah pada masing masing piksel dapat dilakukan dengan cara sebagai berikut:  Lakukan pengecekan secara raster dari kiri ke kanan  Apabila menemukan sebuah piksel foreground maka 11 Universitas Trunojoyo . middle-level dan high-level. middlelevel feature merupakan ekstraksi berdasarkan wilayah citra yang ditentukan dengan segmentasi. Direction Feature (DF) Direction Feature (DF) adalah pencarian nilai feature berdasarkan label arah dari sebuah piksel [15].Ekstraksi ciri merupakan proses pengindeksan suatu database citra dengan isinya. 1.5 Modified direction Feature (MDF) Modified direction Feature (MDF) merupakan teknik hasil pengembangan dari metode Direction Feature (DF). 2. Arah yang digunakan pada pelabelan arah dapat dilihat pada tabel di bawah ini : Tabel 2. setiap ekstraksi ciri merupakan encode dari vektor n dimensi yang disebut dengan vektor ciri. Pada metode ini setiap piksel foreground pada gambar memiliki arah tersendiri dimana arah yang digunakan terdiri dari 4 arah dan masing masing arah diberikan nilai atau label yang berbeda [15]. Komponen vektor ciri dihitung dengan pemrosesan citra dan teknik analisis serta digunakan untuk membandingkan citra yang satu dengan citra yang lain. Low-level feature merupakan ekstraksi ciri berdasarkan isi visual seperti warna dan tekstur.

hal ini tergantung dari jumlah transisi maksimal yang ditetapkan. Nilai pada TF didapat dari pembagian antara posisi transisi dengan panjang ataupun lebar dari suatu gambar. Apabila pada posisi tetangga dari x1 sampai x8 ditemukan piksel foreground. atas ke bawah. kita harus mencari nilai transisi (TF). dan DF diambil dari 4 segmen arah yaitu kiri ke kanan. maka ubahlah nilai O menjadi nilai arah berdasarkan aturan dibawah ini: . dan menentukan banyaknya transisi yang dipakai.  Menentukan Nilai Transisi Dalam menentukan nilai transisi hal pertama yang dilakukan 12 Universitas Trunojoyo . Namun apabila jumlah transisi yang ditemukan kurang dari jumlah maksimal maka nilai transisi yang diberikan adalah 0 [1]. O adalah piksel yang akan dicek.Jika pada posisi x2 atau x6 maka nilai arah adalah 2 . Untuk mencari nilai feature vektor yang akan diproses. kanan ke kiri. dan bawah ke atas. Jumlah transisi yang diambil dari setiap arah tidaklah sembarangan. Transisi adalah posisi dimana terjadinya perubahan piksel dari background menjadi foreground tetapi tidak sebaliknya.Jika pada posisi x4 atau x8 maka nilai arah adalah 4 Tabel 2. kanan ke kiri. kemudian pengecekan dilakukan dari x1 – x8.Jika pada posisi x3 atau x7 maka nilai arah adalah 3 . TF. lakukan pengecekan dengan melihat tetangga dari piksel tersebut. MDF.2 Matrik Ketetanggaan Dalam Penentuan Nilai Label X1 X2 X3 X8 O X4 X7 X6 X5 2.Jika pada posisi x1 atau x5 maka nilai arah adalah 5 . dan bawah ke atas. Apabila terdapat transisi lebih dari jumlah maksimal transisi maka transisi tersebut tidak akan dihitung. Nilai transisi dari masing-masing arah akan selalu berkisar antara 0-1 dimana nilainya selalu menurun. atas ke bawah. Transition Feature (TF) Ide dari Transition Feature (TF) adalah menghitung posisi transisi dan jumlah transisi pada bidang vertikal dan horizontal dari gambar [1]. Nilai TF ini akan diambil dari 4 arah yaitu kiri ke kanan. nilai arah (DF).

selain menyimpan TF. yaitu melakukan pemindaian pada masing-masing piksel dari masing-masing arah. Apabila proses pemindaian dari atas ke bawah atau dari bawah ke atas maka nilai transisi diambil dari pembagian posisi transisi dengan panjang gambar. TF selalu berkisar antara 0 – 1. Transisi pertama yang ditemukan selalu mempunyai TF yang terbesar. Setelah semua nilai DF dan TF dari 4 arah dicari maka akan dilanjutkan dengan melakukan normalisasi vektor ciri yang didapat pada setiap arah pencarian yang semula dengan dimensi jumlah_transisi x panjang_image atau jumlah_transisi x lebar_image. Nilai transisi (TF) adalah nilai dari pembagian antara posisi dari transisi dengan panjang atau lebar dari gambar[15]. Menentukan Nilai Arah Ketika sebuah transisi ditemukan.2 Nilai piksel Citra Biner 13 Universitas Trunojoyo . DF ini diambil dari pembagian label arah pada posisi ditemukan transisi dengan nilai pembagi.1 Penerapan Perhitungan MDF Misalkan ada input citra biner berukuran 12x15 piksel yang nilai pikselnya ditunjukkan pada Gambar 2. Normalisasi dilakukan dengan merata-ratakan nilai vektor ciri [7].5.2. Apabila jumlah transisi yang ditemukan kurang dari jumlah transisi yang digunakan maka DF sisanya diberikan nilai 0. Pada penelitian ini nilai pembagi yang digunakan adalah 10 seperti yang tercantum dalam referensi [15]. DF juga disimpan. Gambar 2. Apabila pemindaian dilakukan dari kiri ke kanan atau dari kanan ke kiri maka nilai transisi diambil dari pembagian posisi transisi dengan lebar gambar. 2.

selanjutnya adalah normalisasi kedua dari nilai TF dan DF untuk masing-masing arah. Setelah dilakukan normalisasi pertama terhadap nilai TF dan DF. Gambar 2. ambil nilai piksel paling awal yang bukan bernilai 0.3. Proses ini ditunjukkan pada gambar 2. Setelah menggabungkan nilai TF dan DF dari masing- 14 Universitas Trunojoyo . Setelah dibagi menjadi 4 segmen. Gambar 2. Sedangkan untuk nilai DT diperoleh dengan cara : nilai arah/10. maka ambil nilai pada segmen berikutnya. Normalisasi pertama dilakukan dengan cara mebagi piksel citra menjadi 4 segmen.2 akan diberi nilai arah sesuai dengan metode MDF seperti ditunjukkan pada Gambar 2.Proses selanjutnya adalah penggabungan nilai TF dan DF dari masing-masing arah ke dalam bentuk vektor.7. Nilai TF untuk arah kiri kenan diperoleh dengan cara : 1(posisi piksel/lebar citra).5 menunjukkan normalisasi pertama nilai TF dan DF dari arah kiri ke kanan. Gambar 2. nilai-nilai tersebut akan dinormalisasi 2 kali pada masing-masing arah. pada masingmasing segmen. Apabila pada salah satu segmen semua piksel bernilai 0.Objek piksel (piksel bernilai 1) pada Gambar 2. Normalisasi kedua diperoleh dengan cara menghitung nilai rata-rata dari 4 piksel citra dari atas ke bawah. Setelah mendapatkan nilai TF dan DF.3 Pemberian Nilai Arah pada Citra Proses selanjutnya adalah menghitung nilai TF dan DF dari arah kiri ke kanan seperti ditunjukkan pada Gambar 2.4.6 menunjukkan normalisasi pertama nilai TF dan DF dari arah kiri ke kanan Lakukan proses-proses tersebut untuk arah-arah yang lain.

(b) Nilai DF (a) (b) Gambar 2.5 (a) Normalisasi I Nilai TF.4 (a) Nilai TF. Nilai yang diletakkan di awal vektor adalah nilai DF. kemudian dilanjutkan dengan nilai TF. Proses ini ditunjukkan pada gambar 2.8 (a) (b) Gambar 2.masing arah. proses selanjutnya adalah penggabungan nilai TF dan DF . (b) Normalisasi I Nilai DF 15 Universitas Trunojoyo .

(b) Penggabungan Nilai DF dari masing. pengklasifikasian pola. Masing-masing terhubung dengan neuron yang lain oleh alat komunikasi jaringan yang lain terhubung dengan bobot.6 Jaringan Syaraf Tiruan Jaringan Syaraf Tiruan (AritificialNeuralNetwork) adalah pemrosesan sistem informasi pada karakteristik tertentu dalam keadaan yang berhubungan dengan jaringan syaraf biologi.(a) (b) Gambar 2. Bobot menggambarkan informasi yang digunakan jaringan untuk memecahkan masalah. cell atau node. pengelompokan pola yang mirip atau menemukan solusi masalah 16 Universitas Trunojoyo . Jaringan Syaraf Tiruan terdiri dari banyak elemen pemroses yang disebut neuron.6 (a) Normalisasi II Nilai TF. • Sinyal berjalan diantara neuron yang terkoneksi jaringan. Jangan syaraf tiruan dibangun berdasarkan generalisasi dari model matematika pada syaraf manusia didasarkan pada asumsi [13]: • Pemrosesan sistem informasi pada banyak elemen yang disebut dengan neuron. yang mana dalam syaraf khusus melipatgandakan transmisi sinyal. Jaringan syaraf dapat diaplikasi pada bermacam-macam masalah seperti penyimpanan atau pemanggilan pola.masing arah.8 Penggabungan Nilai TF dan DF 2. unit. • Masing-masing jaringan koneksi dihubungkan dengan bobot. melakukan pemetaan umum dari pola input ke pola output.7 (a) Penggabungan Nilai TF dari masing.masing arah Gambar 2. (b) Normalisasi II Nilai DF (a) (b) Gambar 2.

secara maksimal [4]. artinya ketika menentukan bobot didalam proses pelatihan tidak membutuhkan data target atau data acuan tetapi langsung dari neuron input. maksudnya didalam menentukan bobot sebagai sebuah informasi untuk memecahkan suatu masalah menggunakan data target atau data acuan. • Supervised Learning. Contoh : LinearVectorQuantitation (LVQ) • Unsupervised Learning. Contoh . suara. Self-OrganizingMaps (SOM) 2. dan lain-lain. merupakan kebalikan dari pola pembelajaran terbimbing. 2. Selama proses pembelajaran nilai bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan. Jaringan LVQ sering pula digunakan untuk ekstraksi ciri (feature) pada proses awal pengenalan pola. Jaringan mengubah bobot sehingga vektor input yang sama dicocokkan dengan unit output yang sama (cluster). metode penentuan bobot (pelatihan) adalah cara penting membedakan karakteristik pada jaringan syaraf buatan. merupakan pola pembelajaran terbimbing / terawasi. pola tipe pelatihan pada jaringan syaraf dibagi menjadi dua yaitu Supervised Learning dan Unsupervised Learning. dimana pada metode LVQ ditentukan hasil seperti apa selama proses pembelajaran. LVQ adalah suatu metode untuk melakukan pembelajaran pada lapisan kompetitif (competitive layer net) yang terawasi (supervised learning).1 Penentuan Bobot Dalam pembuatan arsitektur.7 Learning Vector Quantization (LVQ) LVQ merupakan salah satu jenis metode Jaringan Syaraf Tiruan Supervised Learning pada lapisan kompetitif. Tujuan pembelajaran ini adalah pengelompokan unit-unit yang hampir sama dalam satu area tertentu. Pola pembelajaran unsupervised learning juga disebut dengan pembelajaran tak terawasi. Jaringan saraf tiruan Learning Vector Quantization (LVQ) telah banyak dimanfaatkan untuk pengenalan pola baik berupa citra. 17 Universitas Trunojoyo .6. Pembelajaran seperti ini sangat cocok untuk pengelompokan (klasifikasi) pola. Metode Jaringan Syaraf LVQ termasuk dengan Supervised Learning dalam penentuan bobot / model pembelajarannya. Untuk membedakan ketepatan. Sehingga bobot keluaran akan mirip dengan bobot data target.

. sehingga pada akhirnya hanya ada satu node output yang terpilih (winner node)..1) ¿ n−1 d =∑ ¿ 2 j i=0 dimana dj2 = distance Xt = Node data input Wij = Bobot ke-ij Setelah diketahui tiap-tiap jarak antara node output dengan input maka dilakukan perhitungan jumlah jarak selisih minimum.. Pertama kali yang dilakukan adalah melakukan inisialisasi bobot untuk tiap-tiap node dengan nilai random. (2..(2.2) 0<α (t)<1 …………………. j∈ N e .Prinsip kerja dari algoritma LVQ adalah pengurangan nodenode tetangganya (neighbour)[13]. Dimana node yang terpilih (winner) berjarak minimum akan di update bobot....( x i (t)−w ij (t)). update bobot node winner yang dirumuskan sebagai berikut[13] : w ij (t +1)=w ij (t )+ α(t ). Setelah diberikan bobot random.. maka jaringan diberi input sejumlah dimensi node/neuron input. Setelah input diterima jaringan.. (2.. Secara matematis Ecluidean Distance dapat dirumuskan : X 1 ( t ) −W ij ¿ ¿ t¿ ¿ …….3) Dimana : x = Input pixel w = bobot 18 Universitas Trunojoyo . maka jaringan mulai melakukan perhitungan jarak vektor yang didapatkan dengan menjumlah selisih/jarak antara vektor input dengan vektor bobot menggunakan Euclidean distance.

Ne = Nilai neighbourhood t = waktu i = index node input j = index node output α = alpha learning rate α(t) merupakan alpha/learning rate yaitu faktor pengali pada perubahan bobot yang berubah terhadap perubahan error.. Bobot diinisialisasi secara random sedangkan max Epoh dan learning rate digunakan untuk menentukan batas ambang komputasi 3. Dalam penelitian ini alpha learning rate akan berubah berkurang secara geometris sebagai berikut[13] : α ( t +1 )=α +(0.. 19 Universitas Trunojoyo . Siapkan data learning. error minimum yang diharapkan (Eps). Faktor pengali alpha/learning rate ini akan selalu berkurang bila tidak ada perubahan error.4) Secara garis besar algoritma Learning Vector Quantization (LVQ) ditunjukkan pada Algoritma 2.... maksimum epoh (Max Epoh).00001∗α ) …. a... learning rate (α). selesai. akan diperoleh bobot akhir (W). Inisialisasi bobot (W).. Bobot-bobot ini nantinya akan digunakan untuk melakukan simulasi atau pengujian data yang lain. epoh = epoh+1 b.. Kerjakan untuk i=1 sampai n .. Kembali ke langkah ke-3........n).. Perubahan alpha ini sesuai dengan banyaknya input yang masuk.(2... jika (epoh<maksEpoh) atau (α>eps) tidak terpenuhi.. Kurangi nilai α 4. Setelah dilakukan pelatihan. x (m.n) dan target T (1.Tentukan j sedemikian rupa sehingga ||X-Wj|| minimum (Sebut sebagai Cj) ... 2.2 [13]: 1. Melakukan proses sebagai berikut selama (epoh<makEpoh) atau (α>eps)..Perbaiki Wj dengan ketentuan o Jika T=Cj maka : Wj(baru)=Wj(lama) +α(X-Wj(lama)) o Jika T≠Cj maka : Wj(baru)=Wj(lama) -α(X-Wj(lama)) c.

4. 3.3 Sample data pelatihan No 1 2 3 4 5 6 7 8 Data 100010 011110 001001 001010 010001 101011 001100 010100 Kelas 1 2 1 1 1 1 2 2 20 Universitas Trunojoyo . Hanya update bobot pemenang unit .Gambar 2. Data input / data pelatihan sample : 2.7. Inisialisasi Bobot awal Misalkan ada data pelatihan sample dalam 2 kelas yang ditunjukkan pada Tabel 2.9 Arsitektur LVQ X5 ||X-W2|| F2 2. X1 X2 ||X-W1|| F1 X3 X4 Gambar 2.3 : Tabel 2. Tentukan Alphalearningrate (0-1).1 Penerapan Perhitungan LVQ Berikut X6 contoh proses perhitungan dengan LVQ : 1.9 menunjukkan arsitektur LVQ yang digunakan dalam penelitian ini.

sebagai nilai awal akan dipilih nilai Learning rate sebesar 0.9 10 100101 011111 2 2 Dua input pertama akan dijadikan inisialisasi bobot seperti tampak pada Tabel 2.0  Bobot ke-2 √(0−1)2 +(0−0)2 +(1−0)2 +( 0−0)2 +(0−1)2+(1−0)2=2.4 : Tabel 2.1 x Learning Rate.5 akan digunakan sebagai data yang akan dilatih.05 dengan pengurangan sebesar 0.5 Data yang akan digunakan sebagai data latih No 1 2 3 4 5 6 7 8 Data 001001 001010 010001 101011 001100 010100 100101 011111 Kelas 1 1 1 1 2 2 2 2 Epoh ke-1 : Data ke-1 [0 0 1 0 0 1] Jarak pada  Bobot ke-1 √(0−1)2 +(0−0)2 +(1−0)2 +( 0−0)2 +(0−1)2+(1−0)2=2.0 21 Universitas Trunojoyo .4 Data yang akan dijadikan inisialisasi bobot No 1 2 Data 100010 011110 Kelas 1 2 Sedangkan sisa data ditunjukkan pada Tabel 2. dan maksimum epoh =10 Tabel 2.

95) = 0.95)2+(0−0)2+(1−0.0.902 0 + 0.0) = 0.0) = 0.05*(0 .97 0 + 0.05*(1 .05 + 0.1) = 0.05*(0 .3454 Hasil Bobot ke-2 = 1.09)2 +( 0−0)2 +(0−0.047 Data ke-3 [0 1 0 0 0 1]  Bobot ke-1 √(0−0.05*(1 .05)2 +( 0−0)2 +(1−0.05)2 =  Bobot2 √(0−1)2 +(0−0)2 +(1−1)2+(0−1)2 +( 0−1)2+(1−0)2 = 1.0 Jarak terkecil pada bobot ke-1 Target data ke-1 = 1 maka bobot ke-1 di update seperti berikut ini: 1 + 0.95 0 + 0.95 + 0.9525)2 +(1−0.952 0.00 0.0 Hasil Bobot ke-2 = 2.0) = 0.Hasil Bobot ke-1 = 2.05*(0 .05*(1 .05*(0 .1) = 0.95 + 0.00 0.414 Hasil Bobot ke-1 = 1.05 Data ke-2 [0 0 1 0 1 0]  Bobot ke-1 √(0−0.05 + 0.0.04  Bobot ke-2 22 Universitas Trunojoyo .95)2+(1−0.05) = 0.414 Jarak terkecil pada bobot 1 Target data ke-2 = 1 maka bobot1 di update seperti berikut ini 0.0) = 0.05 0 + 0.00 1 + 0.05*(0 .0) = 0 0 + 0.05*(1 .0.0) = 0.95) = 0.95 0 + 0.05) = 0.902)2+(1−0)2 +(0−0.05*(0 .05*(0 .0.05*(0 .

9096 0.0.0) = 0.05*(1 .902) = 0.05*(0 .926 0 + 0.0.05*(1 .0975) = 0.0.904) = 0.9525) = 0.097 + 0.0.13)2+¿ 2+(0−0.0) = 0.05*(1 .907 Hasil Bobot 2 = 2.047) +(1−0.08645 0.475 0.0.092 + 0.0.902 + 0.05*(1 .000 + 0.00 Hasil Bobot 1 = 1.904 0.047 + 0.05*(1 .095 + 0.059 + 0.√(0−1)2 +(0−0)2 +(1−1)2+(0−1)2 +( 0−1)2+(1−0)2 =2.047) = 0.000) = 0.904 + 0.05*(0 .00 0.05*(0 .14)2 ¿=1.00 Hasil Bobot ke-1 = 1.0.095  Bobot ke-2 √(1−0)2 +(0−1)2 +(1−1)2 +( 0−1)2+(1−1)2 +(1−0)2 = 2.05*(1 .0951 Data ke-4 [1 0 1 0 1 1]  Bobot ke-1 √(0−0.05*(0 .087)2+(0−0.8 2 2 23 Universitas Trunojoyo .05*(0 .0.2938 Hasil Bobot ke-2 = 2.90)2+(0−0.857) = 0.09)2 +(0−0)2 +(1−0.0000 0.050) = 0.05 0.0.0.1380 0.0.05*(0 .86) +(0−0.05)2+(1−0.095) = 0.00 Jarak terkecil pada bobot 1 Target data ke-3 = 1 maka bobot1 di update seperti berikut ini: 0.1404 Data ke-5 [0 0 1 1 0 0]  Bobot ke-1 1−0 √(0−0.0857 0 + 0.857 + 0.90)2 +(1−0.926) = 0.00 Jarak terkecil pada bobot ke-1 Target data ke-4 = 1 maka bobot1 di update seperti berikut ini 0.952 + 0.

05*(1-1) = 1 1 +0.14)2 ¿=1.0000 24 Universitas Trunojoyo .0.95 0+0.8275 Hasil Bobot 2 = 0.9025 0 + 0.05*(0 .95 + 0.05*(1 .4142 Hasil Bobot 1 = 1.9500 1 + 0.38 Jarak terkecil pada bobot ke-2 Target data ke-6 = 2 maka bobot2 di update seperti berikut ini 0 + 0.4142 Jarak terkecil pada bobot 2 Target data ke-5 = 2 maka bobot2 di update seperti berikut ini 0+0.0.05*(0-1) = 1 1+0.05*(0 .00 Data ke-6 [0 1 0 1 0 0]  Bobot ke-1 1−13 √(0−0.05*(1-1) = 0.05*(1-0) = 0 1 +0. Bobot2 √(0−0)2+(0−1)2 +(1−1)2+(1−1)2+(0−1)2 +(0−0)2 =0.000) = 0.000) = 0.87 Hasil Bobot ke-2 = 1.05*(1-0) = 0.95 + 0.95)2 +( 0−0)2= Hasil Bobot ke-1 = 1.86) +(1−0.05*(0 .95)2 +(0−1)2 +(1−1)2 +(0−0.9225 1 + 0.05*(0 .0.05*(0-1) = 0.05*(1 .000) = 1.095) = 0.0.95 1+0.095) = 0.0000 0.0.04) + ¿ +(1−0)2+(0−0.90)2+(0−0.0.87 2  2 2 Bobot ke-2 √(0−0)2+(1−0.0000 0.000) = 0.

000) = 0.8645 + 0.90)2+(1−0.05*(0 .8577 0.9096 + 0.95)2 +(0−0.1504 Jarak terkecil pada bobot 1 Target data ke-7 = 2 maka bobot1 di update seperti berikut ini 0.95)2 +(1−0)2=2.0.Data ke-7 [1 0 0 1 0 1]  Bobot ke-1 0−13 √(1−0.09)2 ¿=2 2  2 2 Bobot ke-2 √(0−0)2+(1−0.0.0500 0.1449 0.04) + ¿ +(1−0)2+(0−0.1504 Hasil Bobot 1 = 1.14 √(0−0.95)2+(1−0.05*(1 .14)2 ¿=1.0.1404 + 0.0475) = 0.04) + ¿ +(1−0.1404) = 0.1380) = 0.05*(1 .05*(0 .002 Hasil Bobot ke-1 = 2.0.002 25 Universitas Trunojoyo .95)2 +(0−0.05)2 +(1−0.95)2 +( 1−1)2 +(0−0.0.85) +(1−0.6143 Hasil Bobot 2 = 2.86) +(0−0.13801+0.90)2 +(1−0)2=1.05*(0 .8577 0.8645) = 0.9096) = -0.0974  Data ke-8 [0 1 1 1 1 1] Bobot ke-1 1−0.95)2 +( 1−1)2 +(0−0.499 0 +0.0475 + 0.07 Hasil Bobot ke-2 = 1.61 2  2 2 Bobot ke-2 √(1−0)2 +(0−0.05*(1 .

untuk setiap data dengan menggunakan cara yang sama.05*(1 .05*(0 .3727 0.000) = 1.000) = 0.0000 0.0.5) Keterangan : p = data uji q = data bobot LVQ 26 Universitas Trunojoyo .2171) Apabila kita ingin mensimulasikan input (0 1 0 1 1 0) maka kita cari terlebih dahulu jarak input dengan kedua bobot.9398 sehingga input tersebut termasuk dalam kelas 2. Setelah mencapai epoh yang kesepuluh diperoleh bobot akhir seperti berikut ini : W1=(0.4254) W2=(0. 2.095) = 0.7969 0.5869 0.95 + 0.0.7981 0.000) = 0. dimana jarak terkecil merupakan anggota kelas tersebut.95 + 0.2161 0.6904 dan jarak data dengan bobot2 0.05*(0 .095) = 0.9225 0.0000 0.0000 Proses tersebut diteruskan untuk epoh ke-2 sampai ke 10.1.05*(0 .0000 0.0.6347 -0. berikut ini adalah rumus Euclidean Distance dalam proses pengenalan citra uji dengan data bobot LVQ √ d ( p .000) = 0. q )=d ( q .05*(1 .2164 0.9500 1 + 0. Nomor dari bobot dengan jarak yang terpendek akan menjadi kelasnya. Setelah dihitung ternyata input tersebut mempunyai jarak data dengan bobot1 1.7900 -0.9025 0 + 0.05*(0 . p )= ( q 1− p1 )2 + ( q 2− p2 )2 +…+ ( qn− p n )2= √ n ∑ ( q i− pi )2 i=1 ………………………(2.Jarak terkecil pada bobot ke-2 Target data ke-8 = 2 maka bobot ke-2 di update seperti berikut ini: 0 + 0.90 + 0.0.8 Pengenalan dengan Euclidean Distance Euclidean Distance merupkan suatu metode yang digunakan untuk menghitung jarak antara dua data. metode ini yang digunakan untuk menghitung jarak antara data uji dengan jarak bobot Learning Vector Quantization.0.0000 0.

27 Universitas Trunojoyo .