Professional Documents
Culture Documents
net/publication/285494153
CITATIONS READS
0 5,159
5 authors, including:
Some of the authors of this publication are also working on these related projects:
Perbandingan Analisis Diskriminan dan Regresi Logistik Untuk Mengklasifikasikan Kelayakan Visitasi Pelamar Bidikmisi View project
All content following this page was uploaded by Made Susilawati on 02 December 2015.
Abstract
variabel bebas dan variabel tidak bebas serta dapat memprediksi nilai variabel tidak
bebas. Akan tetapi, RKU tidak dapat mengetahui kontribusi relatif dari variabel bebas
berbeda dengan Regresi Bertatar.
1. Pendahuluan
Analisis regresi linear berganda adalah salah satu metode statistika yang digunakan
untuk mengetahui hubungan sebuah variabel tidak bebas (dependent variable) dengan
beberapa variabel bebas (independent variable). Pada analisis regresi linear berganda
terdapat beberapa masalah yang dapat mempengaruhi hasil analisis data antara lain
pencilan, autokorelasi, kolinearitas ganda (multicollinearity), dan heterogenitas.
Permasalahan yang terjadi pada analisis regresi linear berganda dapat mengakibatkan
hasil analisis menjadi kurang akurat (Montgomery [2]).
Multikolinieritas terjadi karena antara variabel bebas saling berkorelasi.
Multikolinieritas atau kolinearitas ganda antar variabel akan menyebabkan jumlah
standard error yang semakin membesar, sehingga menghasilkan keputusan yang tidak
signifikan. Supranto [6] memaparkan bahwa kolinieritas ganda dapat mengakibatkan
beberapa hal seperti: 1) Pengujian hipotesis menjadi kurang akurat; 2) Standard error
koefisien regresi membesar; dan 3) Penaksiran yang berbias atau tidak stabil. Melihat
dampak-dampak yang dapat ditimbulkan akibat adanya multikolinearitas maka
multikolinieritas ini perlu untuk diatasi. Terdapat beberapa cara yang dapat dilakukan
untuk mengatasi multikolinieritas antara lain dengan Regresi Komponen Utama, dan
Regresi Bertatar (Stepwise Regression).
Regresi Bertatar merupakan salah satu metode penentuan model regresi yang tidak
mengandung multikolinearitas dalam pembentukan model terbaik. Regresi Komponen
Utama merupakan salah satu teknik dalam mengatasi multikolinearitas dengan cara
mereduksi variabel-variabel yang ada menjadi beberapa variabel baru dengan variabel
baru ini saling bebas dan merupakan kombinasi linier dari variabel asal, Montgomery [2].
Regresi Komponen Utama dapat dipergunakan dalam berbagai kondisi karena penentuan
komponen utama yang terbentuk melalui tahap Analisis Komponen Utama (Principal
Component Analysis), sehingga keobjektifan dari penelitian masih tetap dipertahankan.
Selain itu, pada Regresi Komponen Utama (Principal Component Regression) langkah
yang dilakukan untuk mengatasi multikolinearitas yakni dengan mereduksi variabel asal
menjadi variabel baru dengan tidak mengalami proses penghilangan variabel asal,
sehingga objek penelitian yang diangkat tidak berkurang yang mengakibatkan metode ini
menjadi alternatif yang paling sering dipergunakan oleh peneliti (Jollife [1]).
Bagaimana Regresi Bertatar dapat mengatasi multikolinearitas pada model Regresi
Linear Berganda? Bagaimana Regresi Komponen Utama dapat mengatasi
multikolinearitas pada model Regresi Linear Berganda? Bagaimana perbandingan antara
Regresi Bertatar dan Regresi Komponen Utama pada model Regresi Linear Berganda?
Perbandingan antara Regresi Bertatar dengan Regresi Komponen Utama ini kedua-
duanya merupakan metode yang digunakan untuk mengatasi multikolinearitas dengan
menyederhanakan model regresi dugaan yang terbentuk dengan tetap mempergunakan
prinsip Metode Kuadrat Terkecil (Least Squares Estimation).
Pola hubungan pada analisis regresi dapat dinyatakan dalam bentuk persamaan
regresi. Apabila ada (p-1) variabel bebas X1, X2, . . . , Xp-1 maka model regresi yang
terbentuk yaitu:
Yi = β0 + β1Xi1 + β2Xi2 + +βp-1Xi,p-1+ εi
Dengan: β0,β1 , , βp-1 adalah parameter, dan εi adalah suku galat.
Adapun fungsi respon untuk model di atas yakni
E{Yi} = β0 + β1Xi1 + β2Xi2 + +βp-1Xi,p-1
Istilah multikolinearitas pertama-tama ditemukan oleh Ragnar Frisch pada tahun
1934 yang berarti terdapat hubungan antara variabel bebas. Terjadinya multikolinearitas
diantara variabel-variabel bebas dapat mengakibatkan konsekuensi penting bagi
penafsiran dan penggunaan model regresi dugaan, karena dapat menyebabkan tanda dari
koefisien regresi menjadi salah atau keputusan menjadi tidak signifikan,Sembiring [5].
Multikolinearitas dapat dilihat dari beberapa cara antara lain:
1
1. Variance Inflation Factor (VIF): VIF (i )
1 Ri2
Nilai (1- Ri2 ) menunjukkan nilai toleransi yang mewakili varians dari variabel
bebas ke-i yang tidak dihubungkan dengan variabel bebas lain pada model, sehingga nilai
VIF berbanding terbalik dengan nilai toleransi. Selain itu, Ri2 menunjukkan nilai
korelasi antar variabel, kenaikan korelasi antar variabel akan mengakibatkan kenaikan
nilai VIF yang menunjukkan terjadinya multikolinearitas.
Ri2 = 0 atau VIF=1 mengindikasikan variabel bebas ke-i yang orthogonal dengan
variabel bebas lainnya. Adapun batasan yang dapat dipergunakan untuk menunjukkan
suatu variabel mengandung multikolinearitas yakni 4 ≤ VIF ≤ 10 (O’Brien, [3]). Nilai
VIF juga mengindikasikan seberapa besar peningkatan varians koefisien regresi dari
variabel bebas ke-i.
2. Pemeriksaan masing-masing elemen matriks korelasi.
Jika elemen [rij] mendekati 1 maka Xi dan Xj memiliki kecendrungan
mengalami multikolinearitas.
Regresi bertatar merupakan kombinasi dari metode seleksi langkah maju (Forward
Selection) dan metode eliminasi langkah mundur (Backward Elimination). Regresi
bertatar dilakukan dengan melalui beberapa tahapan. Pada masing-masing tahapan, akan
diputuskan variabel mana yang merupakan variabel bebas terbaik untuk dimasukkan ke
dalam model.
Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model
selama nilai p-value kurang dari nilai kritik α, kemudian dengan uji parsial dilakukan
penghapusan variabel yang tidak signifikan. Proses ini dilakukan terus menerus hingga
tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan. Pada
Regresi Bertatar dapat juga dilakukan modifikasi yang memungkinkan variabel yang
telah masuk sebelumnya dikeluarkan lagi hingga terbentuk model regresi terbaik
(Montgomery [2]).
Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk
menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa
variabel baru dengan variabel baru ini saling bebas dan merupakan kombinasi linear dari
variabel asal. Keuntungan dari penggunaan Analisis Komponen Utama pertama dapat
menghilangkan korelasi secara bersih (korelasi = 0), sehingga masalah multikolinearitas
dapat benar-benar teratasi secara bersih. Kedua, dapat digunakan untuk segala kondisi
data atau penelitian. Ketiga, dapat dipergunakan tanpa mengurangi jumlah variabel asal.
Ada dua cara dalam mendapatkan komponen utama, yaitu dengan matriks kovarian
dan matriks korelasi. Misal Σ merupakan matriks kovariansi dari vektor acak
X ' X1 , X 2 , , X p dengan pasangan nilai eigen dan vektor eigen yang saling
ortonormal adalah (1 , e1 ), (2 , e2 ), , ( p , e p ) dimana 1 2 p 0 , maka
komponen utama ke-i didefinisikan sebagai berikut:
2. Metode Penelitian
Sumber data pada penelitian ini adalah data simulasi yang diperoleh dengan
membangkitkan data yang berdistribusi normal, pemeriksaan multikolinearitas, serta
penyelesaian Regresi Komponen Utama dan Regresi Bertatar menggunakan program
MINITAB 15 dan SPSS17.
a. Analisis Regresi Bertatar dan Regresi Komponen Utama pada empat variabel bebas
dan satu variabel tidak bebas dengan langkah sebagai berikut:
Melakukan pembangkitan variabel bebas yang berdistribusi normal dan bangkitkan
nilai sisaan (ε) yang berdistribusi normal dengan rataan nol dan ragam satu. Nilai
sisaan yang dibangkitkan berukuran 30 amatan. Adapun variabel-variabel bebas yang
digunakan sebagai berikut:
i. X1, X2, X3, masing-masing adalah bilangan acak berdistribusi normal yang
dibangkitkan dengan µ dan σ yang berbeda-beda sebanyak 30 amatan.
2. Setelah terbentuk modelnya seperti tabel 1, maka lakukan hal yang sama seperti
langkah a.
3. Hasil
Data simulasi yang dipergunakan dalam penelitian ini terdiri dari beberapa model
regresi dengan jumlah variabel bebas yang berbeda-beda pada setiap model. Pada sebelas
Tabel 2. Nilai VIF dan Selang Kepercayaan 95% dari Model Regresi I
Model I VIF Selang Kepercayaan Keterangan
ˆ 0 2,0000 2,0000 Tak berbias
Pada Model Regresi I diharapkan diperoleh suatu penduga yang bersifat tak berbias
yakni E (ˆ0 ) 2 dan E ( ˆ1 ) E (ˆ2 ) E (ˆ3 ) E (ˆ4 ) 1 . Akan tetapi, dengan
perhitungan pada selang kepercayaan 95% penduga koefisien regresi yang dihasilkan
oleh X1, X3, dan X4 berbias karena selang kepercayaan dari 1 , 3 , dan 4 tidak
mencakup nilai koefisien yang sebenarnya. Pada Tabel 2 tampak bahwa penafsiran
berbias terjadi pada variabel-variabel yang mengalami multikolinearitas.
Melalui lima tahap yang telah dilakukan pada Model Regresi Linear Berganda I
dengan menggunakan Metode Stepwise diperoleh variabel X2 dan X4 merupakan variabel
bebas yang masuk dalam Regresi Bertatar. Adapun model regresi I yang diperoleh
setelah diolah dengan Regresi Bertatar yakni Y 2 X 2 2 X 4 .
Pada model lainnya juga dilakukan proses Stepwise seperti langkah di atas. Setelah
mengetahui variabel-variabel yang masuk dalam model, variabel-variabel tersebut
diregresikan terhadap variabel tidak bebas (Y), sehingga terbentuk sebelas model Regresi
Bertatar. Tabel 3 merupakan ringkasan model Regresi Bertatar pada kesebelas model
yang terbentuk.
Tabel 3. Tabel Model Regresi Bertatar
Model Model Regresi Bertatar
I Y 2,00 1,00 X 2 2,00 X 4
I Y 11,1 0,965 X 2 1,96 X 4 0,988 X 5
III Y 2,00 1,00 X 1 1,00 X 2 1,00 X 3 1,00 X 4 2,00 X 5
IV Y 10,6 0,979 X 2 2,00 X 4 0,976 X 5 0,935 X 6
V Y 4,28 0,942 X 1 1,01X 2 0,930 X 3 1,09 X 4 1,04 X 5 0,994 X 6
VI Y 2,53 0,823 X 1 0,973 X 2 0,984 X 3 1,06 X 4 1,10 X 5 0,991X 6
VII Y 0,53 0,960 X 2 0,928 X 3 1,11X 4 1,23 X 5 1,25 X 6
VIII Y 6,85 1,42 X 1 1,01X 2 1,15 X 3 1,07 X 4 1,03 X 5 1,02 X 6 X 7 0,8 X 8
Berdasarkan Tabel 4., terdapat dua komponen yang akan digunakan karena
memiliki nilai eigen yang lebih besar dari satu. Selanjutnya, dilakukan pembentukan
komponen utama berdasarkan kombinasi linear dengan variabel asal. Berikut merupakan
proses pembentukan komponen 1 dan komponen 2:
Komponen 1 (C1) = -0,419Z1 – 0,304Z2 – 0,474Z3 – 0,712Z4
Komponen 2 (C2) = 0,583Z1 + 0,4889Z2 – 0,636Z3 – 0,129Z4.
Kombinasi antar variabel asal yang telah distandarisasi akan menghasilkan komponen
baru yang saling tegak lurus atau tidak berkorelasi. Adapun model RKU I yang
terbentuk yakni Y 366 11,4C1 3,21C2 .
Tabel 5.Model Regresi Komponen Utama
Model Model Regresi Komponen Utama
I Y 366 11,4C1 3,21C2
II Y 427 13C1 3,44C2 2,46C3
III Y 469 14,2C1 3,18C2
IV Y 495 12,9C1 0,54C2 2,28C3
V Y 548 16,3C1 5,21C2 0,324C3
VI Y 539 14,3C1 3,61C2 2,32C3
VII Y 629 16,3C1 4,78C2
VIII Y 831 12,0C1 2,94C2 2,24C3 11,5C4
IX Y 883 14,9C1 6,44C2 2,44C3
X Y 874 14,4C1 0,45C2 10,6C3 7,51C4
XI Y 966 14,7C1 1,80C2
Sumber: Data Diolah (2011)
Selanjutnya untuk hasil pembentukan komponen utama pada model lainnya sesuai
dengan proses pembentukan komponen pada Model I. Regresi Komponen Utama dapat
mengatasi multikolinearitas tanpa mengurangi variabel dari penelitian. Hal ini
disebabkan karena komponen yang terbentuk merupakan hasil kombinasi linear antar
seluruh variabel asal, sehingga tidak terjadi pengurangan objek dari penelitian yang akan
diambil.
Pemeriksaan model Regresi berdasarkan analisis RKU didapat nilai korelasi 0 dan
nilai VIF lebih kecil 4 sehingga kesebelas model yang diolah dengan Regresi Komponen
Utama tidak mengandung multikolinearitas.
Daftar Pustaka