You are on page 1of 20

BAB V

UJI ASUMSI KLASIK

A. Rangkuman
Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah
disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang
bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai
estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:
Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu
kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain,
garis regresi merupakan cara memahami pola hubungan antara dua seri data
atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan
guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan
error yang terkecil. Perlu diketahui bahwa error itu sendiri adalah perbedaan
antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis
regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka
estimator regresi akan efisien.
Linear mewakili linear dalam model, maupun linear dalam parameter.
Linear dalam model artinya model yang digunakan dalam analisis regresi telah
sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya
berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa
parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas
bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai
harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai
rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu
disebut dengan bias.

15
Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas
telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi
dari ketiga hal sebelumnya itu.
Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan
OLS, yaitu:
1. Asumsi 1: Linear regression Model. Model regresi merupakan hubungan
linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX +
cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi
yang linear dalam parameter sehingga OLS masih dapat diterapkan.
2. Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed
in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak
random).
3. Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di
tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di
bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
4. Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki
variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti
data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya
tidak sama, maka disebut heteroskedastisitas
5. Asumsi 5: Tidak ada autokorelasi antara variabel e pada setiap nilai xi dan
ji (No autocorrelation between the disturbance).
6. Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita
dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e
berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit
dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika
X adalah variabel non random atau non stochastic.
7. Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari
jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang
lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama

16
atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi
tidak akan bisa diestimasi.
8. Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
9. Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak
ada spesifikasi yang bias, karena semuanya telah terekomendasi atau
sesuai dengan teori.
10. Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya
kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
Penyimpangan masing-masing asumsi tidak mempunyai impak yang
sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak
terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu,
sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar
error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung
kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi.
Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau
pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb,
sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah
signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi
yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi
regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji
normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoritis model OLS akan menghasilkan estimasi nilai parameter
model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak
Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.
1. Uji Autokorelasi
a. Pengertian Autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode
lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat

17
silang (cross section). Hanya saja masalah autokorelasi lebih sering
muncul pada data time series, karena sifat data time series ini sendiri
lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data.
Sementara pada data cross section hal itu kecil kemungkinan terjadi.
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang
mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang
tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu
observasi berdampak pada observasi lain.
b. Sebab-Sebab Autokorelasi
Terdapat banyak faktor-faktor yang dapat menyebabkan
timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya
mengungkapkan beberapa faktor saja antara lain:
1) Kesalahan dalam pembentukan model.
2) Tidak memasukkan variabel yang penting. Variabel penting yang
dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.
3) Manipulasi data.
4) Menggunakan data yang tidak empiris.
c. Akibat Autokorelasi
Meskipun ada autokorelasi, nilai parameter estimator (b1,
b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi
B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum
dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung
akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan
bias atau bersifat tidak pasti (misleading).
d. Pengujian Autokorelasi
Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1) Uji Durbin-Watson (DW Test).

18
Uji Durbin-Watson yang secara popular digunakan untuk
mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik
(statisticians) Durbin dan Watson. Formula yang digunakan untuk
mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic,
yang dituliskan sebagai berikut:

atau dapat pula ditulis dalam rumus sebagai berikut:

Dalam DW test ini terdapat beberapa asumsi penting yang
harus dipatuhi, yaitu:
a) Terdapat intercept dalam model regresi.
b) Variabel penjelasnya tidak random (nonstochastics).
c) Tidak ada unsur lag dari variabel dependen di dalam model.
d) Tidak ada data yang hilang.

e)
Langkah-langkah pengujian autokorelasi menggunakan uji
Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis.
Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua
ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
Misalnya: terdapat autokorelasi positif atau terdapat autokorelasi
negatif.
Terdapat beberapa standar keputusan yang perlu
dipedomani ketika menggunakan DW test, yang semuanya
menentukan lokasi dimana nilai DW berada. Jelasnya adalah
sebagai berikut:
(1) DW < dL = terdapat autokorelasi positif
(2) dL< DW <dU = tidak dapat disimpulkan (inconclusive)
(3) dU > DW >4-dU = tidak terdapat autokorelasi
(4) 4-dU < DW <4-dL = tidak dapat disimpulkan (inconclusive)

19
(5) DW > 4-dL = terdapat autokorelasi negative
Dimana
DW = Nilai Durbin-Watson d statistic
dU = Nilai batas atas (didapat dari tabel)
dL = Nilai batas bawah (didapat dari tabel)
Ketentuan-ketentuan daerah hipotesis pengujian DW dapat
diwujudkan dalam bentuk gambar sebagai berikut:

2) LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan
variabel lag. Sehingga terdapat variabel tambahan yang
dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen. Dengan demikian model dalam LM
menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2
merupakan variabel lag 2 dari Y. Lag 1 dan Lag 2 variabel Y
dimasukkan dalam model ini bertujuan untuk mengetahui pada lag
berapa problem autokorelasi muncul. Lag sendiri merupakan
rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1
periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode.
Periodenya tergantung pada jenis data apakah data harian,
bulanan, tahunan. Lag 1 data harian berarti ada kesenjangan satu
hari, lag 2 kesenjangan 2 hari dan seterusnya.
Sebagai kunci untuk mengetahui pada lag berapa
autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel
lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing

20
variabel lag yang dibandingkan dengan t tabel, seperti yang telah
dibahas pada uji t sebelumnya.
2. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah
variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian
normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis
regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas
yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat
beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi
terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya
ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung
dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu,
dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan
normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis
regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai
t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
Beberapa cara dapat dilakukan untuk melakukan uji normalitas,
antara lain:
a. Menggunakan metode numerik yang membandingkan nilai statistik,
yaitu antara nilai median dengan nilai mean. Data dikatakan normal
(simetris) jika perbandingan antara mean dan median menghasilkan
nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi
nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi
sentral (Kuncoro, 2001: 41).
b. Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera
sebagai berikut:

S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)

21
Skewness sendiri dapat dicari dari formula sebagai berikut:

Kurtosis dapat dicari dengan formula sebagai berikut:

c. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa
prosentase data observasi dan berada di area mana. Untuk menentukan
posisi normal dari sebaran data, langkah awal yang dilakukan adalah
menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus
sebagai berikut:

Standar deviasi ini digunakan untuk menentukan rentang deviasi dari
posisi simetris data. Untuk mempermudah, kita dapat memberinya
nama:
1) SD1 yang berarti rentang pertama, di sebelah kiri dan sebelah
kanan dari posisi tengah-tengah (simetris).
2) SD2 yang berarti rentang kedua di sebelah kiri dan sebelah kanan
posisi tengah-tengah (simetris).
3) SD3 yang berarti rentang ketiga di sebelah kiri dan sebelah kanan
posisi tengah-tengah (simetris).
Penentuan area ini penting, karena sebaran data yang dikatakan
normal apabila tersebar sebagai berikut:
a) Sebanyak 68% dari observasi berada pada area SD1
b) Sebanyak 95% dari sisanya berada pada area SD2
c) Sebanyak 99,7% dari sisanya berada pada area SD3
Untuk memperjelas maksud dari uraian di atas, kita dapat melihatnya
pada gambar berikut ini:

22
Dalam pengujian normalitas mempunyai dua kemungkinan,
yaitu data berdistribusi normal atau tidak normal. Apabila data telah
berdistribusi normal maka tidak ada masalah karena uji t dan uji F
dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal,
maka diperlukan upaya untuk mengatasi seperti: memotong data yang
out liers, memperbesar sampel, atau melakukan transformasi data.
Data yang tidak normal juga dapat dibedakan dari tingkat
kemencengannya (skewness). Jika data cenderung menceng ke kiri
disebut positif skewness, dan jika data cenderung menceng ke kanan
disebut negatif skewness. Data dikatakan normal jika datanya simetris.
Lihat gambar berikut:

Langkah transformasi data sebagai upaya untuk menormalkan
sebaran data dapat dilakukan dengan merubah data dengan nilai
absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke
bentuk logaritma akan memperkecil error sehingga kemungkinan

23
timbulnya masalah heteroskedastisitas juga menjadi sangat kecil
(Setiaji, 2004: 18).
3. Uji Heteroskedastisitas
a. Pengertian Heteroskedastisitas
Adalah residual harus homoskedastis, artinya, variance
residual harus memiliki variabel yang konstan, atau dengan kata lain,
rentangan e kurang lebih sama. Karena jika variancenya tidak sama,
model akan menghadapi masalah heteroskedastisitas.
Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu
observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus
regresi diperoleh dengan asumsi bahwa variabel pengganggu (error)
atau e, diasumsikan memiliki variabel yang konstan (rentangan e
kurang lebih sama). Apabila terjadi varian e tidak konstan, maka
kondisi tersebut dikatakan tidak homoskedastik atau mengalami
heteroskedastisitas (Setiaji, 2004: 17).
Masalah heteroskedastisitas lebih sering muncul dalam data
cross section dari pada data time series (Kuncoro, 2001: 112; Setiaji,
2004: 17). Karena dalam data cross section menunjukkan obyek yang
berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang
lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu.
Sedangkan data time series, antara observasi satu dengan yang lainnya
saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga
variance residualnya juga cenderung sama. Tidak seperti data cross
section yang cenderung menghasilkan variance residual yang berbeda
pula.
b. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat
homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang
paling tepat muncul serta random sesuai dengan besarnya variabel-
variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang

24
berupa variance residual yang sama, menunjukkan bahwa standar
error (Sb) masing-masing observasi tidak mengalami perubahan,
sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi,
sehingga variance residualnya berubah-ubah sesuai perubahan
observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil
regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model
yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias,
tetapi nilai b bukan nilai yang terbaik. Munculnya masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal
ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan,
tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika
Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya
signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang
mengacaukan.
c. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat
dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser,
uji Spearman’s Rank Correlation, dan uji Whyte menggunakan
Lagrange Multiplier (Setiaji, 2004: 18).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat
dilakukan dengan membandingkan sebaran antara nilai prediksi
variabel terikat dengan residualnya, yang output pendeteksiannya akan
tertera berupa sebaran data pada scatter plot. Dengan menggunakan
alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan
dan kesederhanaan cara pengujian, juga tetap mempertimbangkan
valid dan tidaknya hasil pengujian.

25
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan
dengan cara melakukan regresi atas residual, dengan model yang dapat
dituliskan Dari hasil regresi tersebut dihitung nilai R2.
Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian
ini kemudian dibandingkan dengan nilai chi-square (X2) pada derajat
kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu
variabel bebas). Jika R2 x N lebih besar dari chi-square (X2) tabel, maka
standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N
lebih kecil dari chi-square (X2) tabel, maka standar error telah bebas
dari masalah heteroskedastisitas, atau telah homoskedastis.
4. Uji Multikolinieritas
a. Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi
linear yang”perfect” atau eksak di antara variabel penjelas yang
dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara
variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa
sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya
terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau
perfect, atau sempurna. Sedangkan Tidak berkolinear jika antara
variabel penjelas tidak mempunyai sama sekali kesamaan. Sebagai
gambaran penjelas, dapat dilihat pada gambar berikut ini:

26
b. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang
harus dilakukan dalam suatu penelitian, karena apabila belum terbebas
dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh terhadap nilai t. Logikanya
adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna
sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan
tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana
dibahas terdahulu,

Akan menghasilkan bilangan pembagian , sehingga nilai
b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar
error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai
t.
c. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di
antaranya: menganalisis matrix korelasi dengan Pearson Correlation
atau dengan Spearman’s Rho Correlation, melakukan regresi partial
dengan teknik auxilary regression, atau dapat pula dilakukan dengan
mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada
tidaknya multikolinieritas dengan menghitung nilai korelasi antar
variabel dengan menggunakan Spearman’s Rho Correlation dapat
dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Sementara untuk data interval atau nominal dapat dilakukan dengan
Pearson Correlation. Selain itu metode ini lebih mudah dan lebih
sederhana tetapi tetap memenuhi syarat untuk dilakukan.

27
Pengujian multikolinearitas menggunakan angka korelasi
dimaksudkan untuk menentukan ada tidaknya multikolinearitas.
Mengacu pendapat Pindyk dan Rubinfeld, yang mengatakan bahwa
apabila korelasi antara dua variabel bebas lebih tinggi dibanding
korelasi salah satu atau kedua variabel bebas tersebut dengan variabel
terikat. Juga pendapat Gujarati (1995:335) yang mengatakan bahwa
bila korelasi antara dua variabel bebas melebihi 0,8 maka
multikolinearitas menjadi masalah yang serius. Gujarati juga
menambahkan bahwa, apabila korelasi antara variabel penjelas tidak
lebih besar dibanding korelasi variabel terikat dengan masing-masing
variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang
serius. Dengan demikian, dapat disimpulkan bahwa apabila angka
korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari
masalah multikolinearitas.
Dalam kaitan adanya kolinear yang tinggi sehingga
menimbulkan tidak terpenuhinya asumsi terbebas dari masalah
multikolinearitas, dengan mempertimbangkan sifat data dari cross
section, maka bila tujuan persamaan hanya sekedar untuk keperluan
prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.
B. Simpulan
Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai
estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan
dari: Best, Linear, Unbiased, Estimator.
Autokorelasi adalah keadaan dimana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode lain.
Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti,
baik itu data jenis runtut waktu (time series) ataupun data kerat silang
(cross section).
Uji normalitas adalah untuk menguji apakah variabel penganggu
(e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja

28
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan
sebelum tahapan regresi lebih efisien dalam waktu.
Heteroskedastisitas Adalah residual harus homoskedastis, artinya,
variance residual harus memiliki variabel yang konstan, atau dengan kata
lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama,
model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak
memiliki varians yang konstan dari satu observasi ke observasi lainnya.
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi
linear yang”perfect” atau eksak di antara variabel penjelas yang
dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
C. Jawaban Pertanyaan
1. Asumsi klasik adalah munculnya kewajiban untuk memenuhi asumsi
tersebut mengandung arti bahwa formula atau rumus regresi
diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi
asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan
akan menghasilkan estimasi yang bias.
2. Asumsi-asumsi yang ditetapkan adalah
a. Asumsi 1: Linear regression Model. Model regresi merupakan
hubungan linear dalam parameter. Y = a + bX +e Untuk model
regresi Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan,
ini tetap merupakan regresi yang linear dalam parameter sehingga
OLS masih dapat diterapkan.
b. Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang
(X fixed in repeated sampling). Tepatnya bahwa nilai X adalah
nonstochastic (tidak random).
c. Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean
of disturbance). Artinya, garis regresi pada nilai X tertentu berada
tepat di tengah. Bisa saja terdapat error yang berada di atas garis

29
regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-
rata harus bernilai nol.
d. Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki
variance yang sama sepanjang observasi dari berbagai nilai X. Ini
berarti data Y pada setiap X memiliki rentangan yang sama. Jika
rentangannya tidak sama, maka disebut heteroskedastisitas.
e. Asumsi 5: Tidak ada autokorelasi antara variabel e pada setiap nilai
xi dan ji (No autocorrelation between the disturbance).
f. Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini
berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e
atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan
tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y).
Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
g. Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar
dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi
asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika
jumlah parameter sama atau bahkan lebih besar dari jumlah
observasi, maka persamaan regresi tidak akan bisa diestimasi.
h. Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu
sama sepanjang observasi maka tidak bisa dilakukan regresi.
i. Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya,
tidak ada spesifikasi yang bias, karena semuanya telah
terekomendasi atau sesuai dengan teori.
j. Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas.
Jelasnya kolinear antara variabel penjelas tidak boleh sempurna
atau tinggi.
3. Tidak semua asumsi dilakukan pengujian karena sebagian cukup hanya
diasumsikan dan sebagian lagi memerlukan test seperti uji-uji normalitas,
autokorelasi, heteroskedastisitas, dan multikolinearitas.

30
4. Autokorelasi adalah keadaan dimana variabel gangguan pada periode
tertentu berkorelasi dengan variabel gangguan pada periode lain.
5. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti,
baik itu data jenis runtut waktu (time series) ataupun data kerat silang
(cross section). Hanya saja masalah autokorelasi lebih sering muncul pada
data time series, karena sifat data time series ini sendiri lekat dengan
kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada
data cross section hal itu kecil kemungkinan terjadi.
6. Cara mendeteksi masalah autokorelasi adalah
a. Kesalahan dalam pembentukan model.
b. Tidak memasukkan variabel yang penting. Variabel penting yang
dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.
c. Manipulasi data.
d. Menggunakan data yang tidak empiris.
7. Konsekuensi dari adanya masalah autokorelasi dalam model adalah
meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model
regresi tetap linear dan tidak bias dalam memprediksi B (parameter
sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error
(Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula,
karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung
nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti
(misleading).
8. Heteroskedastisitas adalah residual harus homoskedastis, artinya, variance
residual harus memiliki variabel yang konstan, atau dengan kata lain,
rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model
akan menghadapi masalah heteroskedastisitas.
9. Heteroskedastisitas muncul apabila kesalahan atau residual dari model
yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh
dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan

31
memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila
terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak
homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).
10. Cara mendeteksi masalah heteroskedastisitas adalah dapat dilakukan
dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji
Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange
Multiplier.
11. Konsekuensi dari adanya masalah heteroskedastisitas adalah Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias,
akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat
ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan
berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb
nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka
nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi
ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat
menjadikan hasil riset yang mengacaukan.
12. Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear
yang”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke
dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat
ditrikotomikan lemah, tidak berkolinear, dan sempurna.
13. Multikolinearitas timbul karena tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas
hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel
penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir
tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat
kolinearnya dapat dikatakan serius, atau perfect, atau sempurna.
Sedangkan Tidak berkolinear jika antara variabel penjelas tidak
mempunyai sama sekali kesamaan.

32
14. Cara mendeteksi masalah multikolinearitas adalah menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearman’s Rho
Correlation, melakukan regresi partial dengan teknik auxilary regression,
atau dapat pula dilakukan dengan mengamati nilai variance inflation factor
(VIF).
15. Konsekuensi dari adanya masalah multikolinearitas adalah apabila belum
terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb)
cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya,
sehingga akan berpengaruh terhadap nilai t.
16. Normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki
distribusi normal atau tidak.
17. Normalitas timbul karena pengalaman menunjukkan bahwa pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam
waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah
dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari
adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F
hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih
dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan
normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis
regresi harus diulang lagi.
18. Cara mendeteksi masalah normalitas adalah
a. Menggunakan metode numerik yang membandingkan nilai statistik,
yaitu antara nilai median dengan nilai mean. Data dikatakan normal
(simetris) jika perbandingan antara mean dan median menghasilkan
nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi
nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi
sentral.
b. Menggunakan formula Jarque Bera (JB test).
c. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa
prosentase data observasi dan berada di area mana.

33
19. Konsekuensi dari adanya masalah normalitas adalah pengujian normalitas
ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
20. Cara menangani apabila data tidak normal adalah diperlukan upaya untuk
mengatasi seperti: memotong data yang out liers, memperbesar sampel,
atau melakukan transformasi data.

Nama : Fian Metal Angga P.
NIM : 2014020129
Kelas : Manajemen Semester 6 B1
Referensi:
Djarwanto, Pangestu Subagyo, 2000, “Statistik Induktif”, Edisi 4, BPFE Yogjakarta.
Ghozali, Imam, 2001, “Aplikasi Analisis Multivariate dengan Program SPSS”, BP Undip,
Semarang
Gujarati,Damodar N., 1988, “Basic Econometrics” Second Edition, McGraw-Hill Book
Company.
Gujarati,Damodar N., 1999, “Essentials of Econometrics”, Second Edition, Irwin
McGraw Hill.
Hill, Carter, William E. Griffiths, George G. Judge, 1997, “Undergraduate
Econometrics”, John Wiley & Sons, Inc.
Johnston, Jack, and John DiNardo, 1997, “Econometric Methods” Fourth Edition, The
McGraw-Hill Companies, Inc.
Kuncoro, Mudrajad, 2001, “Metode Kuantitatif Teori dan Aplikasi Untuk Bisnis dan
Ekonomi”, UPP AMP YKPN, Yogjakarta
Salvatore, Dominick, 1996, “Managerial Economics in a Global Economy”, International
Edition, Third Edition, McGraw-Hill, inc.
Santoso, Singgih, 2001, “Buku Latihan SPSS Statistik Parametrik”, Elex Media
Komputindo, Jakarta.
Setiaji, Bambang, 2004, “Module Ekonometrika Praktis”, Fakultas Ekonomi Universitas
Muhammadiyah Surakarta.
Supawi Pawenang. 2011. Ekonometrika Terapan. Jogjakarta: IDEA Press
Supranto, J. 1983. Ekonometrik, Buku Satu, Depok: Lembaga Penerbit FE UI

34