You are on page 1of 10

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/285494153

PERBANDINGAN REGRESI BERTATAR (STEPWISE REGRESSION) DAN


REGRESI KOMPONEN UTAMA (RKU) DALAM MENGATASI
MULTIKOLINIERITAS PADA MODEL REGRESI LINIER BERGANDA

Conference Paper · July 2012

CITATIONS READS

0 5,159

5 authors, including:

Made Susilawati Komang Gde Sukarsa


Udayana University Udayana University
63 PUBLICATIONS   64 CITATIONS    66 PUBLICATIONS   70 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

lama waktu tunggu mencari kerja View project

Perbandingan Analisis Diskriminan dan Regresi Logistik Untuk Mengklasifikasikan Kelayakan Visitasi Pelamar Bidikmisi View project

All content following this page was uploaded by Made Susilawati on 02 December 2015.

The user has requested enhancement of the downloaded file.


KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

PERBANDINGAN REGRESI BERTATAR


(STEPWISE REGRESSION) DAN REGRESI
KOMPONEN UTAMA (RKU) DALAM
MENGATASI MULTIKOLINIERITAS
PADA MODEL REGRESI LINIER BERGANDA
MADE SUSILAWATI1, I KOMANG GDE SUKARSA2,
I DEWA AYU HARI KRISNA3
1
Jur. Matematika Universitas Udayana, susilawati.made@gmail.com
2
Jur. Matematika Universitas Udayana, sukarsakomang@yahoo.com
3
Alumni Jur. Matematika Universitas Udayana, dewayu_06@yahoo.com

Abstract

Multicollinearity is condition with strong correlation between independent


variable. The effect of multicollinearity is bias estimator, standard error become bigger,
and incorrect hypothesis test. Some alternatives that we can use to solve multicollinearity
are Stepwise Regression and Principal Component Regression (PCR). The purpose of this
research is comparison Stepwise Regression and PCR to solve multicollinearity on eleven
regression models from simulated data.
In this research when the sum of independent variable fewer than six variables and some
pair of independent variable have quite correlation, Stepwise Regression can solve
multicollinearity. While PCR can solve multicollinearity in every condition that was
seeing from VIF value fewer than five. In the other side for interpretation, Stepwise
Regression and PCR can formatting the related between independent variable and
dependent variable and also both of this method can estimate the dependent variable
value. However, PCR can’t know the contribution relative from independent variable
different from Stepwise Regression.

Keywords : Multicollinearity, Stepwise Regression, Principal Component


Regression, Multiple Rergression, VIF

Multikolinearitas adalah kondisi terdapatnya korelasi yang tinggi antar variabel


bebas. Akibat-akibat multikolinearitas antara lain penafsiran yang berbias, standard error
yang membesar, dan pengujian hipotesis yang tidak signifikan. Beberapa alternatif yang
dapat dipergunakan untuk mengatasi multikolinearitas yakni Regresi Bertatar dan Regresi
Komponen Utama (RKU). Tujuan dari penelitian ini adalah melakukan perbandingan
antara Regresi Bertatar dan RKU dalam mengatasi multikolinearitas pada sebelas model
regresi yang dibentuk dari data simulasi. Pada penelitian ini, Regresi Bertatar mampu
mengatasi multikolinearitas ketika jumlah variabel bebas yang dilibatkan maksimal enam
variabel dengan sebagian besar pasangan variabel berkorelasi cukup erat. Sedangkan
Regresi Komponen Utama mampu mengatasi multikolinearitas pada berbagai kondisi
data yang ditunjukkan dengan nilai VIF kurang dari empat. Berdasarkan kebutuhan
interpretasi, Regresi Bertatar dan RKU sama-sama dapat membentuk hubungan antar

ISBN : 978-602-19590-2-2 729


Susilawati M., Sukarsa I.K.G., Krisna I.D.A.H. Perbandingan Regresi Bertatar…

variabel bebas dan variabel tidak bebas serta dapat memprediksi nilai variabel tidak
bebas. Akan tetapi, RKU tidak dapat mengetahui kontribusi relatif dari variabel bebas
berbeda dengan Regresi Bertatar.

Kata Kunci: Multikolinearitas, Regresi Bertatar, Regresi Komponen Utama, Regresi


Linier Berganda, VIF.

1. Pendahuluan

Analisis regresi linear berganda adalah salah satu metode statistika yang digunakan
untuk mengetahui hubungan sebuah variabel tidak bebas (dependent variable) dengan
beberapa variabel bebas (independent variable). Pada analisis regresi linear berganda
terdapat beberapa masalah yang dapat mempengaruhi hasil analisis data antara lain
pencilan, autokorelasi, kolinearitas ganda (multicollinearity), dan heterogenitas.
Permasalahan yang terjadi pada analisis regresi linear berganda dapat mengakibatkan
hasil analisis menjadi kurang akurat (Montgomery [2]).
Multikolinieritas terjadi karena antara variabel bebas saling berkorelasi.
Multikolinieritas atau kolinearitas ganda antar variabel akan menyebabkan jumlah
standard error yang semakin membesar, sehingga menghasilkan keputusan yang tidak
signifikan. Supranto [6] memaparkan bahwa kolinieritas ganda dapat mengakibatkan
beberapa hal seperti: 1) Pengujian hipotesis menjadi kurang akurat; 2) Standard error
koefisien regresi membesar; dan 3) Penaksiran yang berbias atau tidak stabil. Melihat
dampak-dampak yang dapat ditimbulkan akibat adanya multikolinearitas maka
multikolinieritas ini perlu untuk diatasi. Terdapat beberapa cara yang dapat dilakukan
untuk mengatasi multikolinieritas antara lain dengan Regresi Komponen Utama, dan
Regresi Bertatar (Stepwise Regression).
Regresi Bertatar merupakan salah satu metode penentuan model regresi yang tidak
mengandung multikolinearitas dalam pembentukan model terbaik. Regresi Komponen
Utama merupakan salah satu teknik dalam mengatasi multikolinearitas dengan cara
mereduksi variabel-variabel yang ada menjadi beberapa variabel baru dengan variabel
baru ini saling bebas dan merupakan kombinasi linier dari variabel asal, Montgomery [2].
Regresi Komponen Utama dapat dipergunakan dalam berbagai kondisi karena penentuan
komponen utama yang terbentuk melalui tahap Analisis Komponen Utama (Principal
Component Analysis), sehingga keobjektifan dari penelitian masih tetap dipertahankan.
Selain itu, pada Regresi Komponen Utama (Principal Component Regression) langkah
yang dilakukan untuk mengatasi multikolinearitas yakni dengan mereduksi variabel asal
menjadi variabel baru dengan tidak mengalami proses penghilangan variabel asal,
sehingga objek penelitian yang diangkat tidak berkurang yang mengakibatkan metode ini
menjadi alternatif yang paling sering dipergunakan oleh peneliti (Jollife [1]).
Bagaimana Regresi Bertatar dapat mengatasi multikolinearitas pada model Regresi
Linear Berganda? Bagaimana Regresi Komponen Utama dapat mengatasi
multikolinearitas pada model Regresi Linear Berganda? Bagaimana perbandingan antara
Regresi Bertatar dan Regresi Komponen Utama pada model Regresi Linear Berganda?
Perbandingan antara Regresi Bertatar dengan Regresi Komponen Utama ini kedua-
duanya merupakan metode yang digunakan untuk mengatasi multikolinearitas dengan
menyederhanakan model regresi dugaan yang terbentuk dengan tetap mempergunakan
prinsip Metode Kuadrat Terkecil (Least Squares Estimation).
Pola hubungan pada analisis regresi dapat dinyatakan dalam bentuk persamaan
regresi. Apabila ada (p-1) variabel bebas X1, X2, . . . , Xp-1 maka model regresi yang

KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor 730


KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

terbentuk yaitu:
Yi = β0 + β1Xi1 + β2Xi2 +  +βp-1Xi,p-1+ εi
Dengan: β0,β1 , , βp-1 adalah parameter, dan εi adalah suku galat.
Adapun fungsi respon untuk model di atas yakni
E{Yi} = β0 + β1Xi1 + β2Xi2 +  +βp-1Xi,p-1
Istilah multikolinearitas pertama-tama ditemukan oleh Ragnar Frisch pada tahun
1934 yang berarti terdapat hubungan antara variabel bebas. Terjadinya multikolinearitas
diantara variabel-variabel bebas dapat mengakibatkan konsekuensi penting bagi
penafsiran dan penggunaan model regresi dugaan, karena dapat menyebabkan tanda dari
koefisien regresi menjadi salah atau keputusan menjadi tidak signifikan,Sembiring [5].
Multikolinearitas dapat dilihat dari beberapa cara antara lain:
1
1. Variance Inflation Factor (VIF): VIF (i ) 
1  Ri2
Nilai (1- Ri2 ) menunjukkan nilai toleransi yang mewakili varians dari variabel
bebas ke-i yang tidak dihubungkan dengan variabel bebas lain pada model, sehingga nilai
VIF berbanding terbalik dengan nilai toleransi. Selain itu, Ri2 menunjukkan nilai
korelasi antar variabel, kenaikan korelasi antar variabel akan mengakibatkan kenaikan
nilai VIF yang menunjukkan terjadinya multikolinearitas.
Ri2 = 0 atau VIF=1 mengindikasikan variabel bebas ke-i yang orthogonal dengan
variabel bebas lainnya. Adapun batasan yang dapat dipergunakan untuk menunjukkan
suatu variabel mengandung multikolinearitas yakni 4 ≤ VIF ≤ 10 (O’Brien, [3]). Nilai
VIF juga mengindikasikan seberapa besar peningkatan varians koefisien regresi dari
variabel bebas ke-i.
2. Pemeriksaan masing-masing elemen matriks korelasi.
Jika elemen [rij] mendekati 1 maka Xi dan Xj memiliki kecendrungan
mengalami multikolinearitas.
Regresi bertatar merupakan kombinasi dari metode seleksi langkah maju (Forward
Selection) dan metode eliminasi langkah mundur (Backward Elimination). Regresi
bertatar dilakukan dengan melalui beberapa tahapan. Pada masing-masing tahapan, akan
diputuskan variabel mana yang merupakan variabel bebas terbaik untuk dimasukkan ke
dalam model.
Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model
selama nilai p-value kurang dari nilai kritik α, kemudian dengan uji parsial dilakukan
penghapusan variabel yang tidak signifikan. Proses ini dilakukan terus menerus hingga
tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan. Pada
Regresi Bertatar dapat juga dilakukan modifikasi yang memungkinkan variabel yang
telah masuk sebelumnya dikeluarkan lagi hingga terbentuk model regresi terbaik
(Montgomery [2]).
Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk
menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa
variabel baru dengan variabel baru ini saling bebas dan merupakan kombinasi linear dari
variabel asal. Keuntungan dari penggunaan Analisis Komponen Utama pertama dapat
menghilangkan korelasi secara bersih (korelasi = 0), sehingga masalah multikolinearitas
dapat benar-benar teratasi secara bersih. Kedua, dapat digunakan untuk segala kondisi
data atau penelitian. Ketiga, dapat dipergunakan tanpa mengurangi jumlah variabel asal.

ISBN : 978-602-19590-2-2 731


Susilawati M., Sukarsa I.K.G., Krisna I.D.A.H. Perbandingan Regresi Bertatar…

Ada dua cara dalam mendapatkan komponen utama, yaitu dengan matriks kovarian
dan matriks korelasi. Misal Σ merupakan matriks kovariansi dari vektor acak
 
X '  X1 , X 2 , , X p dengan pasangan nilai eigen dan vektor eigen yang saling
ortonormal adalah (1 , e1 ), (2 , e2 ), , ( p , e p ) dimana 1  2     p  0 , maka
komponen utama ke-i didefinisikan sebagai berikut:

Ci  ei' X  ei1 X 1  ei 2 X 2    .eip X p i  1,2, , p


dengan Ci adalah komponen ke-i yang memenuhi maksimum nilai ei' e i  i .
e '
p e p   p . Urutan C1, C2 , , Cp harus memenuhi persyaratan 1  2     p .
Selain berdasarkan matriks kovariansi, komponen utama juga dapat dibentuk
berdasarkan matriks korelasi. Hal ini dilakukan jika variabel-variabel bebas yang diamati
mempunyai perbedaan range yang sangat besar.
Cara pembentukan regresi komponen utama melalui analisis komponen utama
dapat berdasarkan matriks kovarian, dapat juga dengan matriks korelasi. Misal matriks P
adalah matriks ortogonal dengan memenuhi persamaan P¢P=PP¢=I . Karena C=XcP
maka
Y  C  
Model regresi komponen utama yang telah direduksi menjadi k komponen adalah:
Y   01  Ck k  
dengan Xc merupakan matriks yang elemen-elemennya dikurangi dengan rataannya
(centered) yang mensyaratkan rataan nol dan variansi σ2 , Y adalah matriks yang berisi
variabel tak bebas, α0 adalah intersep, 1 adalah vektor yang elemen-elemennya adalah 1
berukuran nx1, Ck adalah suatu matriks berukuran nxk yang elemennya terdapat
komponen utama, αk adalah vektor koefisien komponen utama berukuran k x1, dan ε
adalah vektor galat berukuran nx1.
Persamaan regresi komponen utama berdasarkan matriks korelasi pada dasarnya
hampir sama dengan persamaan regresi komponen utama berdasarkan matriks kovarian
yaitu variabel X1, X2,…,Xp diganti dengan variabel baku Z1, Z2,…,Zp. Umumnya proses untuk
memperoleh persamaan regresi komponen utama berdasarkan matriks korelasi
mempunyai proses yang sama pada penurunan persamaan regresi komponen utama
berdasarkan matriks kovariansi, Prasetyo dkk [4].

2. Metode Penelitian

Sumber data pada penelitian ini adalah data simulasi yang diperoleh dengan
membangkitkan data yang berdistribusi normal, pemeriksaan multikolinearitas, serta
penyelesaian Regresi Komponen Utama dan Regresi Bertatar menggunakan program
MINITAB 15 dan SPSS17.
a. Analisis Regresi Bertatar dan Regresi Komponen Utama pada empat variabel bebas
dan satu variabel tidak bebas dengan langkah sebagai berikut:
Melakukan pembangkitan variabel bebas yang berdistribusi normal dan bangkitkan
nilai sisaan (ε) yang berdistribusi normal dengan rataan nol dan ragam satu. Nilai
sisaan yang dibangkitkan berukuran 30 amatan. Adapun variabel-variabel bebas yang
digunakan sebagai berikut:
i. X1, X2, X3, masing-masing adalah bilangan acak berdistribusi normal yang
dibangkitkan dengan µ dan σ yang berbeda-beda sebanyak 30 amatan.

KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor 732


KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

ii. X4 adalah bilangan acak berdistribusi normal yang ditentukan dari


kalkulasi X 1  X 3   sebanyak 30 amatan.
iii. Melakukan penentuan variabel tidak bebas dan kemudian bentuk hubungan dari
variabel bebas yakni Y   0  1 X 1   2 X 2   3 X 3   4 X 4   Nilai  0 =2
sedangkan nilai 1 ,  2 ,  3 ,  4  1 .
Kemudian melakukan eksplorasi data untuk menguji asumsi-asumsi uji
parametrik terhadap hasil data simulasi seperti uji kenormalan dan pendeteksian
pencilan.
iv. Melakukan analisis Regresi Bertatar dengan α =10%. Model terbaik yang
diperoleh diperiksa kembali VIF-nya dan nilai korelasi.
v. Melakukan analisis dengan menggunakan metode Regresi Komponen Utama.
Penentuan jumlah komponen utama berdasarkan nilai eigen lebih besar dari
satu. Model Regresi Komponen Utama yang diperoleh:
Y = β0 + β1C1 + β2C2+ …+βkCk+ ε
vi. Mendeteksi multikolinearitas pada model Regresi Komponen Utama yang
terbentuk berdasarkan VIF dan nilai korelasi antar variabel.
b. Membentuk model regresi linear berganda dengan 5, 6, 7 dan 8 variabel bebas.
Lanjutkan kembali dengan melakukan pengujia multikolinearitas terhadap hasil data
simulasi. Pendeteksian multikolinearitas dengan melihat nilai VIF dan nilai korelasi
antar variabel.
Tabel 1. Pembangkitan Variabel Bebas yang Menyebar Normal
Banyaknya Kemungkinan Kemungkina Model dengan
variabel bebas Persamaan I n Persamaan
utk var X, II utk var. X βo=2, β1,…,β5=1
dengan

5 var bebas µ=60 σ=5 X 5  2X 1   Y   0  1 X 1   2 X 2   3 X 3   4 X 4   5 X 5  


(penambahan X5) n=30

6 var bebas µ=70 σ=5 X6  X5   Y   0  1 X 1   2 X 2   3 X 3   4 X 4   5 X 5    6 X 6  


(penambahan X6) n=30

7 var bebas µ=150 σ=15 Y   0  1 X 1   2 X 2   3 X 3   4 X 4   5 X 5   6 X 6   7 X 7   8 X 8  


(penambahan X7) n=30

8 var bebas 2X1  X 3   Y   0  1 X 1   2 X 2   3 X 3   4 X 4   5 X 5   6 X 6   7 X 7   8 X 8  


(penambahan X8)

2. Setelah terbentuk modelnya seperti tabel 1, maka lakukan hal yang sama seperti
langkah a.

3. Hasil

Data simulasi yang dipergunakan dalam penelitian ini terdiri dari beberapa model
regresi dengan jumlah variabel bebas yang berbeda-beda pada setiap model. Pada sebelas

ISBN : 978-602-19590-2-2 733


Susilawati M., Sukarsa I.K.G., Krisna I.D.A.H. Perbandingan Regresi Bertatar…

model yang telah dibentuk, dilakukan pemeriksaan multikolinearitas untuk memastikan


pada setiap model terdapat kolinearitas sempurna antar variabel bebas. Pemeriksaan
multikolinieritas dilakukan dengan melihat VIF dan nilai korelasinya. Pada model I, III,
V, hanya X2 yang tidak mengandung multikolinieritas, pada model II variable bebas
selain X2 yang tidak bermultikolinieritas adalah X5, model IV X2, X5 dan X6, model VI
X2 dan X6, model VII X2 dan X4, model VIII X2, X5, X6 dan X7, model IX pada X2 dan
X7, model kesepuluh terdapat pada X2, X6 dan X7, dan model kesebelas variabel bebas
yang tidak mengandung multikolinieritas pada X2 dan X7.
Multikolinearitas yang tinggi dapat mengakibatkan koefisien regresi dugaan
cenderung bervariasi sangat besar dari sampel satu ke sampel lainnya, sehingga tidak
diperoleh informasi yang tepat mengenai koefisien regresi yang sebenarnya (populasi).
Salah satu akibat dari multikolinaritas yakni varians dan kovarians (standard error) dari
penaksir-penaksir menjadi besar hingga tak terhingga (kondisi berbias). Adapun selang
kepercayaan bagi βk dengan koefisien kepercayaan (1-α) yakni
bk  t(1 / 2):n  p ) s{bk )
Apabila koefisien regresi berada pada selang kepercayaan maka koefisien regresi
dikatakan takberbias, tetapi bila koefisien regresi berada di luar selang kepercayaan maka
koefisien regresi dikatakan berbias. Berikut merupakan contoh akibat yang ditimbulkan
oleh multikolinearitas pada Model Regresi Berganda:

Tabel 2. Nilai VIF dan Selang Kepercayaan 95% dari Model Regresi I
Model I VIF Selang Kepercayaan Keterangan
ˆ 0 2,0000 2,0000 Tak berbias

ˆ1 14,9  2.06  10 8 2.06  10 8 Berbias

ˆ 2 1,2 1,0000 1,0000 Tak berbias

ˆ3 23,3  3.06  10 8 1.06  10 8 Berbias

ˆ 4 30,7 2,0000 2,0000 Berbias


Sumber: Data Diolah 2011

Pada Model Regresi I diharapkan diperoleh suatu penduga yang bersifat tak berbias
yakni E (ˆ0 )  2 dan E ( ˆ1 )  E (ˆ2 )  E (ˆ3 )  E (ˆ4 )  1 . Akan tetapi, dengan
perhitungan pada selang kepercayaan 95% penduga koefisien regresi yang dihasilkan
oleh X1, X3, dan X4 berbias karena selang kepercayaan dari 1 ,  3 , dan  4 tidak
mencakup nilai koefisien yang sebenarnya. Pada Tabel 2 tampak bahwa penafsiran
berbias terjadi pada variabel-variabel yang mengalami multikolinearitas.
Melalui lima tahap yang telah dilakukan pada Model Regresi Linear Berganda I
dengan menggunakan Metode Stepwise diperoleh variabel X2 dan X4 merupakan variabel
bebas yang masuk dalam Regresi Bertatar. Adapun model regresi I yang diperoleh
setelah diolah dengan Regresi Bertatar yakni Y  2  X 2  2 X 4 .
Pada model lainnya juga dilakukan proses Stepwise seperti langkah di atas. Setelah
mengetahui variabel-variabel yang masuk dalam model, variabel-variabel tersebut
diregresikan terhadap variabel tidak bebas (Y), sehingga terbentuk sebelas model Regresi

KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor 734


KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

Bertatar. Tabel 3 merupakan ringkasan model Regresi Bertatar pada kesebelas model
yang terbentuk.
Tabel 3. Tabel Model Regresi Bertatar
Model Model Regresi Bertatar
I Y  2,00  1,00 X 2  2,00 X 4
I Y  11,1  0,965 X 2  1,96 X 4  0,988 X 5
III Y  2,00  1,00 X 1  1,00 X 2  1,00 X 3  1,00 X 4  2,00 X 5
IV Y  10,6  0,979 X 2  2,00 X 4  0,976 X 5  0,935 X 6
V Y  4,28  0,942 X 1  1,01X 2  0,930 X 3  1,09 X 4  1,04 X 5  0,994 X 6
VI Y  2,53  0,823 X 1  0,973 X 2  0,984 X 3  1,06 X 4  1,10 X 5  0,991X 6
VII Y  0,53  0,960 X 2  0,928 X 3  1,11X 4  1,23 X 5  1,25 X 6
VIII Y  6,85  1,42 X 1  1,01X 2  1,15 X 3  1,07 X 4  1,03 X 5  1,02 X 6  X 7  0,8 X 8

IX Y  5,08  1,56 X 1  1,01X 2  1,02 X 3  X 4  0,98 X 5  0,76 X 6  1,02 X 7  X 8

X Y  3,33  0,98 X 2  0,64 X 3  1,29 X 4  1,25 X 5  0,96 X 6  1,01X 7  1,11X 8

XI Y  1,97  0,997 X 1  X 2  X 4  0,999 X 5  X 6  X 7  2 X 8


Sumber: Data Diolah (2011)

Langkah selanjutnya yakni melakukan pemeriksaan kembali terhadap


multikolinearitas pada model. Pemeriksaan ini bertujuan untuk mengatahui tuntas atau
tidaknya Regresi Bertatar dalam mengatasi multikolinearitas. Model I dan IV adalah
model yang multikolinierannya tuntas diatasi oleh regresi bertatar. Sedangkan pada
model-model lainnya masih mengandung multikolinieritas, yang tampak pada nilai VIF
beberapa model lebih dari empat. Hal ini menunjukkan bahwa kemampuan Regresi
Bertatar dalam mengatasi multikolinearitas hanya terdapat pada beberapa model, ketika
jumlah variabel lebih dari enam variabel dan pasangan variabel bebas berkorelasi sangat
banyak dan erat Regresi Bertatar tidak tuntas mengatasi multikolinearitas.
Regresi Komponen Utama (RKU) adalah alternatif lain yang dapat dipergunakan
untuk mengatasi multikolinearitas. Pada Regresi Komponen Utama akan terbentuk
komponen baru yang merupakan kombinasi linear dari variabel asal. Dasar yang
dipergunakan untuk menentukan jumlah komponen yang terbentuk pada model yakni
berdasarkan nilai eigen yang lebih besar atau sama dengan satu (λ ≥1).
Seperti pada Model Regresi I, untuk membentuk komponen-komponen utama yang
akan digunakan pada model RKU dilakukan tahap Analisis Komponen Utama terlebih
dahulu. Dalam Analisis Komponen Utama dipilih komponen utama yang memiliki nilai
eigen lebih besar dari satu yang didasarkan pada matrik korelasi. Adapun pemaparan nilai
eigen pada Model I dapat dilihat pada tabel di bawah ini:

ISBN : 978-602-19590-2-2 735


Susilawati M., Sukarsa I.K.G., Krisna I.D.A.H. Perbandingan Regresi Bertatar…

Tabel 4. Nilai Eigen pada Model I


Variabel C1 C2 C3 C4
lNilai 1,8740 1,3600 0,7512 0,0148
Eigen : Data Diolah (2011)
Sumber

Berdasarkan Tabel 4., terdapat dua komponen yang akan digunakan karena
memiliki nilai eigen yang lebih besar dari satu. Selanjutnya, dilakukan pembentukan
komponen utama berdasarkan kombinasi linear dengan variabel asal. Berikut merupakan
proses pembentukan komponen 1 dan komponen 2:
Komponen 1 (C1) = -0,419Z1 – 0,304Z2 – 0,474Z3 – 0,712Z4
Komponen 2 (C2) = 0,583Z1 + 0,4889Z2 – 0,636Z3 – 0,129Z4.
Kombinasi antar variabel asal yang telah distandarisasi akan menghasilkan komponen
baru yang saling tegak lurus atau tidak berkorelasi. Adapun model RKU I yang
terbentuk yakni Y  366  11,4C1  3,21C2 .
Tabel 5.Model Regresi Komponen Utama
Model Model Regresi Komponen Utama
I Y  366  11,4C1  3,21C2
II Y  427  13C1  3,44C2  2,46C3
III Y  469  14,2C1  3,18C2
IV Y  495  12,9C1  0,54C2  2,28C3
V Y  548  16,3C1  5,21C2  0,324C3
VI Y  539  14,3C1  3,61C2  2,32C3
VII Y  629  16,3C1  4,78C2
VIII Y  831  12,0C1  2,94C2  2,24C3  11,5C4
IX Y  883  14,9C1  6,44C2  2,44C3
X Y  874  14,4C1  0,45C2  10,6C3  7,51C4
XI Y  966  14,7C1  1,80C2
Sumber: Data Diolah (2011)
Selanjutnya untuk hasil pembentukan komponen utama pada model lainnya sesuai
dengan proses pembentukan komponen pada Model I. Regresi Komponen Utama dapat
mengatasi multikolinearitas tanpa mengurangi variabel dari penelitian. Hal ini
disebabkan karena komponen yang terbentuk merupakan hasil kombinasi linear antar
seluruh variabel asal, sehingga tidak terjadi pengurangan objek dari penelitian yang akan
diambil.
Pemeriksaan model Regresi berdasarkan analisis RKU didapat nilai korelasi 0 dan
nilai VIF lebih kecil 4 sehingga kesebelas model yang diolah dengan Regresi Komponen
Utama tidak mengandung multikolinearitas.

Perbandingan Regresi Bertatar dan Regresi Komponen Utama


Regresi Bertatar dan Regresi Komponen Utama adalah dua metode yang dapat
dipergunakan untuk mengatasi multikolinearitas. Akan tetapi, kedua metode ini memiliki
cara yang berbeda dalam mengatasi multikolinearitas. Pada Regresi Bertatar dipilih
variabel-variabel yang berpengaruh signifikan terhadap variabel tidak bebas (Y),
sedangkan variabel-variabel lain yang tidak berpengaruh signifikan terhadap variabel (Y)
dikeluarkan dari model. Berbeda dengan Regresi Bertatar, pada Regresi Komponen

KNM XVI - 3-6 Juli 2012 – UNPAD, Jatinangor 736


KNM XVI 3-6 Juli 2012 UNPAD, Jatinangor

Utama variabel-variabel yang terdapat pada model tetap dipergunakan dengan


membentuknya menjadi variabel baru (komponen baru), sehingga tidak mengurangi
objek dari penelitian.
Pada penelitian ini, Regresi Bertatar dapat mengatasi multikolinearitas model
regresi yang melibatkan maksimal enam variabel bebas dengan sebagian besar pasangan
variabel berkorelasi cukup erat. Sedangkan ketika jumlah variabel bebas meningkat
(lebih dari enam variabel bebas) dan melibatkan banyak pasangan variabel yang
berkorelasi, Regresi Bertatar tidak dapat mengatasi multikolinearitas.
Regresi Komponen Utama dapat mengatasi multikolinearitas pada berbagai kondisi
data. Regresi Bertatar dengan Regresi Komponen Utama adalah dua metode yang dapat
mengatasi multikolineritas dengan keunggulan dan kelemahan dari masing-masing
metode. Ketika model regresi melibatkan sedikit variabel (maksimal 6 variabel bebas)
dan pasangan variabel bebas berkorelasi cukup erat maka Regresi Bertatar dan Regresi
Komponen Utama sama-sama dapat dipergunakan untuk mengatasi multikolinearitas.
Peningkatan jumlah variabel bebas dan peningkatan jumlah pasangan variabel bebas
yang berkorelasi tidak menjadi kendala bagi Regresi Komponen Utama dalam mengatasi
multikolinearitas.
Berdasarakan kebutuhan interpretasi, Regresi Komponen Utama dan Regresi
Bertatar sama-sama dapat mendeskripsikan hubungan antar variabel tidak bebas dengan
variabel bebas serta dapat memprediksi nilai variabel tidak bebas. Akan tetapi, kontribusi
relatif dari variabel bebas terhadap variabel tidak bebas tidak dapat diketahui pada
Regresi Komponen Utama karena kesulitan penamaan pada komponen-komponen yang
terbentuk.

Daftar Pustaka

[1] Jolliffe, I. T. Principal Component Analysis. Springer-Verlag, New York. 1986.


[2] Montgomery, D C. dan Peck, E A. Introduction to Linear Regression
Analysis 2nd edition. A Wiley-Interscience, New York. 1991
[3] O’Brien, R M. A Caution Regarding Rules of Thumb for Variance Inflation
Factor. Departement of Sociology of Oregon, Eugene, USA. 2007. Internet:
web.unbc.ca/~michael/courses/stats/lectures/VIF%20article.pdf. Diakses
tanggal 4 April 2011.
[4] Prasetyo, H. dkk. Analisis Regresi Komponen Utama untuk Mengatasi Masalah
Multikolinearitas dalam Analisis Regresi Linear Berganda. Jurusan Matematika
FMIPA Universitas Negeri Jakarta. 2008. Internet:
http://adia08.files.wordpress.com/2008/07/jurnal_haris.pdf. Diakses tanggal 7
September 2010.
[5] Sembiring, RK. 1995. Analisis Regresi. ITB, Bandung.
[6] Supranto, J. Analisis Multivariat Arti dan Interpretasi. Rineka Cipta, Jakarta.
2004

ISBN : 978-602-19590-2-2 737

View publication stats

You might also like