Professional Documents
Culture Documents
Neural Network - PDF Penjelasan
Neural Network - PDF Penjelasan
Neural Network
Dr. Ir. Kurnianingsih, S.T., M.T.
Outlines
• Adanya threshold
Warren S.Mcculloch (pembuat medul unit pertama kali Walter Pitts
p2 n=Σpi.wi
w2
Σ
F(y)
a=f(n)
.
.
wi
pi
Bobot/Weight = bisa diatur
Model Neural Networkdengan Bias
Masukan /Inputs
p1
p2 n=Σpi.wi
w2
Σ F(y)
a=f(n)
.
.
. b (Bias)=Fix
wi
pi
Bobot/Weight = bisa diatur
Ilustrasi Kasus Backpropagation untuk mendeteksi eror atau propagation balik agar dapat
mengulang input supaya erornya bisa lebih kecil
Ilustrasi Proses Suapaya menghasilkan akurasi lebih besar karean adengan akurasi yang
besar bisa meperkecilnya eror
A Simple Neural Network– Single Perceptron/
single neural
Multi Layer Perceptron (MLP)
Neuron
• Each activation value xi is weighted by wi
• The output y is determined by the NN transfer function
n
y= 1 if i =1 wi xi > Threshold
0 otherwise
• Transfer function
• Learning rate, w
new
= w
old
+ ( y
d
− y) x
• Threshold update function
• Number of epochs
Fungsi Aktivasi
• Digunakan untuk menentukan apakah hasil dari
perhitungan jaringan benar atau salah.
• Fungsi aktivasi dibagi 2:
a. Linear Activation Function
b. Non-linear Activation Function
Fungsi Aktivasi – Linear
f(x) = x
Fungsi Aktivasi – Non Linear
• Sigmoid
• tanh
• ReLU
• Leaky ReLU
• ELU
Fungsi Aktivasi – Sigmoid (Non Linear)
• Tepat jika digunakan untuk model yang memprediksi probabilitas karena output probabilitas 0 atau 1.
• Hanya saja outputnya not zero centered, sehingga membuat outputnya susah dioptimasi.
• Exp ( ) is a bit compute expensive
Fungsi Aktivasi – tanh (Non Linear)
• Rentang: -1 sampai 1
• Keuntungan: jika inputnya negative akan di-map-kan negative, jika inputnya 0 akan
di-map-kan mendekati 0.
• Zero centered
• Digunakan untuk klasifikasi antara 2 kelas.
Fungsi Aktivasi – Rectified Linear Unit (ReLU)
• Fungsi aktivasi yang paling sering digunakan
• f(z) akan bernilai 0 jika z kurang dari 0 dan f(z) sama dengan z jika z di atas atau sama
dengan 0
• Komputasinya efisien dan lebih cepat dibanding sigmoid atau tanh, tapi tidak zero centered.
Fungsi Aktivasi - Leaky ReLU
• Untuk mengatasi permasalahan di ReLU, jika nilai negative maka akan dikalikan dengan konstanta.
• Jika di ReLU f(y) = 0, maka menghasilkan max(0, y).
• Jika dalam Leaky ReLU f(y) = ay, maka menghasilkan max (ay, y) dimana a biasanya diberi nilai 0.01
Fungsi Aktivasi – Exponential Linear Unit (ELU)
• Memiliki seluruh kelebihan ReLU
• Keluaran lebih dekat dengan 0
• Komputasinya membutuhkan exp ( )
Mengapa perlu ada Bias?
• Membantu neuron mempermudah menghitung weighted sum, biar bisa
dimasukkan ke fungsi aktivasi.
• Agar neuron yang kita jalankan itu tidak mati di tengah jalan saat kita
belum mendapatkan weight yang optimal dan error mendekati nol (0).
Single Layer Perceptron (SLP)
Linier Classifier
Linier Classifier
Linier Classifier
Linier Classifier
Linier Classifier
Linier Classifier
Single Layer Perceptron– Gradient Descent
Single Layer Perceptron– Gradient Descent
0`1(wi/w2).bias
Delta teta 1 untuk mendapatkan update teta satu bariu dengan carat teta lama di kurangi perubahan
g= aktivition fungtion
yang bisa di ubah hanya teta,weight dan bias(nilai velue yng bisa diubah) agar menghasilkan eror yang lebih kecil.
Single Layer Perceptron– Gradient Descent
Single Layer Perceptron– Gradient Descent
Single Layer Perceptron– Gradient Descent
Single Layer Perceptron– Gradient Descent
W = 0.5
I2
W =- 0.4 t = 0.0
W = -0.3
I3
I I I Penjumlahan Output
1 2 3
x=[0 0; x
W=?
t=[0;
0 1; 0;
y t = 0.0
1 0; W=?
0;
1 1]; 1
W=?
1];
Membuat Kode Python
• Load dataset untuk 2 kelas
• Mendefinisikan fungsi: sigmoid
• Mendefinisikan fungsi algoritma pembelajaran gradient descent:
• Error
• Sum of cross product
• Perubahan bobot dan bias
• Update bobot
• Update bias
• Prediksi
• Mendefinisikan fungsi akurasi
• Mendefinisikan fungsi training dan validasi
• Memvisualisasikan error dan akurasi setiap epoch untuk 300 epoch
Multi Layer Perceptron (MLP)
Multi Layer Perceptron
Backpropagation
SLP - MLP
SLP - MLP
SLP - MLP
Multi Layer Perceptron
Multi Layer Perceptron
MLP - Backpropagation
MLP - Backpropagation
MLP
MLP - Backpropagation
MLP - Backpropagation
MLP - Backpropagation
Output Layer in MLP
1. Binary Representation
2. Each Class Representation (One Hot Encoding)
Arsitektur MLP
Dua Hidden Layer dan One Hot Encoding
Membuat Kode Python
• Load dataset – visualisasi data
• Mendefinisikan fungsi: sigmoid
• Mendefinisikan fungsi algoritma pembelajaran gradient descent:
- Inisialisasi
- Error
- Feedforward
- Backpropagation
- Prediksi
• Mendefinisikan fungsi akurasi
• Mendefinisikan fungsi training (80%) dan validasi (20%)
• Mem-visualisasikan error dan akurasi setiap epoch untuk 300 epoch