You are on page 1of 24

MULTIKOLINEARITAS, HETEROKDISITAS, AUTOKORELASI

Makalah Ini Diajukan Untuk Memenuhi Tugas Mata Kuliah


Ekonometrika

DOSEN PENGAMPU :

ENDAH DWIJAYANTI, M.Si

DI SUSUN OLEH:
KELOMPOK 5
MAULIA IKLIMA
MARDHATILA
M. AZRIL
NANDA AFRIANTI
NURAIDA
OKI HERNAWAN
SYAHRUL RIZUAN

PROGRAM STUDI EKONOMI SYARIAH


JURUSAN SYARIAH DAN EKONOMI ISLAM
SEKOLAH TINGGI AGAMA ISLAM NEGERI BENGKALIS
T.A 2023
KATA PENGANTAR

Assalamu’alaikum Wr. Wb.


Puji syukur kehadirat Allah Yang Maha Kuasa atas limpahan Karunia-
Nya, kami sanggup menyelesaikan penulisan makalah ini. Makalah yang
telah selesai ini kami susun guna menyelesaikan tugas pada mata kuliah
Ekonometrika. Materi yang kami himpun dalam makalah ini merupakan
pengetahuan tentang “Multikolinearitas, Heterokdisitas, Autokorelasi.”
Untuk itu, kami berharap agar ilmu yang terdapat didalam makalah ini dapat
digunakan dengan sebaik-baiknya.

Kami menyadari bahwa makalah ini masih jauh dari sempurna, oleh
karena itu kritik dan saran dari semua pihak yang bersifat membangun selalu
kami harapkan demi kesempurnaan makalah ini.

Akhir kata, kami sampaikan terima kasih kepada semua pihak yang telah
berperan serta dalam penyusunan makalah ini dari awal sampai akhir.
Semoga Allah SWT senantiasa meridhoi segala usaha kita. Aamiin.

Wassalamualaikum Wr. Wb

Bengkalis, 10 Maret 2023

Penulis

i
DAFTAR ISI

HALAMAN COVER ................................................................................... i

KATA PENGANTAR ................................................................................. ii

DAFTAR ISI ................................................................................................ ii

BAB I PENDAHULUAN ............................................................................ 1

A. Latar Belakang .................................................................................. 1


B. Rumusan Masalah ............................................................................. 1
C. Tujuan Penulisan ............................................................................... 1

BAB II PEMBAHASAN ............................................................................. 2

A. Multikolinearitas ................................................................................ 2
B. Heteroksiditas ..................................................................................... 9
C. Autokorelasi ....................................................................................... 14

BAB III PENUTUP ..................................................................................... 19

A. Kesimpulan ....................................................................................... 19
B. Saran ................................................................................................. 20

DAFTAR PUSTAKA .................................................................................. 21

ii
BAB I

PENDAHULUAN

A. Latar Belakang Masalah


Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil
estimasi regresi yang dilakukan benar-benar dai adanya gejala
heteroskedastisitas, gejala multikolinearitas, dan gejala autokorelasi.
Model regresi akan dapat dijadikan alat estimasi yang tidak bisa jika telah
memenuhi persyaratan BLUE (Best Linear Unbiased Estimator) yakni
tidak terdapat heteroskedastisitas, tidak terdapat multikolinearitas, dan
tidak terdapat autokorelasi. Jika terdapat heteroskedastisitas, maka varian
tidak konstan sehingga dapat menyebabkan biasnya standar error. Jika
terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-
pengaruh individual dari variabel, sehingga tingkat signifikasi koefisien
regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan
penaksir masih tetap bias dan masih tetap konsisten dan hanya saja
menjadi tidak efisien.
Dalam makalah ini, penulis membahas terkait asumsi klasik yaitu
multikolinearitas, heteroskedastisitas, dan autokorelasi beserta dengan cara
mendeteksi dan mengatasinya.

B. Rumusan Masalah
1. Apa yang di maksud Uji Multikolinearitas ?
2. Apa yang di maksud Uji Heteroksiditas ?
3. Apa yang di maksud Uji Autokorelasi ?

C. Tujuan
1. Untuk mengetahui Uji Multikolinearitas ?
2. Untuk mengetahui Uji Heteroksiditas ?
3. Untuk mengetahui Uji Autokorelasi ?

1
BAB II

PEMBAHASAN

A. Multikolinieritas
1. Pengertian Multikolinieritas

Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris:


Multicollinearity) adalah adanya hubungan linear antara peubah bebas
X dalam Model Regresi Ganda Jika hubungan linear antar peubah
bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka
peubah-peubah tersebut berkolinearitas ganda sempurna.1

Multikolinearitas adalah sebuah situasi yang menunjukkan


adanya korelasi atau hubungan kuat antara dua variabel bebas atau
lebih dalam sebuah model regresi berganda.2 Uji multikolinearitas
digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi
klasik multikolinearitas yaitu adanya hubungan linear antar variabel
independen dalam model regresi.

Gejala multikolinearitas terjadi dalam sebuah model regresi


berganda, koefisien beta dari sebuah variabel bebas atau variabel
predictor dapat berubah secara dramatis apabila ada penambahan atau
pengurangan variabel bebas di dalam model. Oleh karena itu,
multikolinearitas tidak mengurangi kekuatan prediksi secara simultan,
namun mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai
prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh
karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas
dengan adanya nilai standar error yang besar dari sebuah variabel
1
Muhammad Firdaus, Ekonometrika: Suatu Pendekatan Aplikatif, (Jakarta : PT Bumi
Aksara, 2021) hlm. 166
2
u t Hamni Fadlilah Nasution, Praktik Analisis Data : Pengolahan
Ekonometrika dengan Eviews dan SPSS, (Medan : CV Merdeka Kreasi Grub, 2021) hlm.
90

2
bebas dalam model regresi. Berdasarkan penjelasan di atas, maka
dapat disimpulkan bahwa, jika terjadi multikolinearitas, maka sebuah
variabel yang berkorelasi kuat dengan variabel lainnya di dalam
model, kekuatan prediksinya tidak handal dan tidak stabil.

2. Identifikasi Adanya Multikolinieritas


a. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau
lebih variabel bebas dalam model.
b. Mencari nilai Condition Index (CI). Condition indek yang bernilai
lebih dari 30 mengindentifikasikan adanya multikolineritas.
c. Dapat pula melihat indikasi multikolinearitas dengan Tolerance
Value (TOL), Eigenvalue, dan yang paling umum digunakan
adalah Varians Inflation Factor (VIF). nilai VIF > 10
mengindentifikasi adanya multikolinieritas.
d. Perubahan kecil sekalipun pada data akan menyebabkan
perubahan signifikan pada variabel yang diamati.
e. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya
variabel yang seharusnya memiliki pengaruh positif (nilai
koefisien positif), ditunjukkan dengan nilai negatif.
f. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0,7-1)
dan jika koefisien korelasi sederhana (korelasi derajat nol) juga
tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial
yang signifikan secara individu. Di pihak lain, uji F menolak H0
yang mengatakan bahwa secara stimulan seluruh koefisien regresi
parsialnya adalah nol.
g. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan
kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai
kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan
agar secara teknik, korelasi derajat nol yang tinggi merupakan
kondisi yang cukup tapi tidak perlau adanya kolinearitas karena

3
hal ini dapat terjadi meskipun melalui korelasi derajat nol atau
sederhana relaif rendah.
h. Untuk mengetahui ada tidaknya kolinearitas ganda dalam model
regresi linear berganda, tidak hanya melihat koefisien korelasi
sederhana, tapi juga koefisien korelasi parsial.
i. Karena multikolinearitas timbul karena satu atau lebih variabel
yang menjelaskan merupakan kombinasi linear yang pasti atau
mendekati pasti dari variabel yang menjelaskan lainnya, satu cara
untuk mengetahui variabel X yang mana berhubungan dengan
variabel X lainnya adalah dengan meregresi tiap Xi atas sisa
variabel X dan menghitung R2 yang cocok, yang bisa disebut .

3. Cara mendeteksi Multikolinearitas

Cara mendeteksi adanya Multikolinearitas di dalam model


regresi adalah dengan cara:3

a. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi


antar variabel bebas > 0,8 dapat diindikasikan adanya
multikolinearitas.
b. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai
standar error > 1, maka dapat diindikasikan adanya
multikolinearitas.
c. Melihat rentang confidence interval. Jika rentang confidence
interval sangat lebar, maka dapat diindikasikan adanya
multikolinearitas.
d. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition
index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan
adanya multikolinearitas.

3
Muhammad Firdaus, Ekonometrika: Suatu Pendekatan Aplikatif, (Jakarta : PT Bumi
Aksara, 2021) hlm. 236

4
e. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika
nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya
multikolinearitas. Sebagian pakar menggunakan batasan
Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya
multikolinearitas. Para pakar juga lebih banyak menggunakan
nilai Tolerance dan VIF dalam menentukan adanya
Multikolinearitas di dalam model regresi linear berganda
dibandingkan menggunakan parameter-parameter yang lainnya.
Hal ini juga dalam prakteknya menggunakan SPSS, kita sudah
disuguhkan dengan hasil yang instant, dimana kita bisa langsung
lihat nilai keduanya di dalam output SPSS.
f. Model regresi dengan variabel dummy dengan jumlah kategori
variabel dummy adalah tiga kategori atau lebih.
g. Dikatakan tidak akan menjadi masalah jika terdapat perbedaan
jumlah yang mencolok anggota sampel didalam kategori, dimana
yang menjadi kategori referensi adalah kategori yang jumlah
anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100
r . V r be Dummy h “Je s Pe erj (Pet Buruh
PNS)”. A t te r Petani 45 orang, Buruh 45 orang,
sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi
adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan
Variabel Dummy tidak akan berkorelasi terhadap variabel
lainnya, sebab yang menjadi referensi adalah yang jumlah
anggotanya paling sedikit.

4. Cara mengatasi multikolinearitas adalah dengan cara:


a. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis
Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang
terbentuk kita gunakan sebagai variabel di dalam model regresi.
b. Dengan cara memilih salah satu diantara variabel bebas yang
berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari

5
variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan
variabel bebas lainnya kuat.
c. Dengan cara melakukan operasi matematis antar variabel bebas
yang berkorelasi kuat sehingga didapat variabel baru hasil operasi
tersebut yang kemudian dimasukkan ke dalam model regresi
sebagai perwakilan dari variabel yang menjadi sumber operasi
matematis tersebut.
d. Melakukan standarisasi terhadap variabel yang menjadi penyebab
inklusi perkalian antara variabel, dimana hasil perkalian setelah
standarisasi tersebut yang dimasukkan ke dalam model bersama-
sama dengan variabel yang sudah distandarisasi.

5. Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS4

Multikolinieritas adalah fenomena statistik yang ditemui dalam


pemodelan regresi linier berganda dimana terdapat hubungan yang
tinggi antara dua atau lebih variabel prediktor. Karena
multikolinieritas melihat seberapa erat hubungan antara variabel
prediktor, maka uji multikolinieritas hanya diperlukan pada model
regresi linier berganda, tidak untuk regresi linier sederhana.

Hal ini artinya terdapat pola hubungan linier juga diantara


variabel prediktor dalam satu model. Jika terjadi demikian, tentunya
menyebabkan model regresi menjadi bias. Jika kita memasukan
variabel prediktor yang memiliki hubungan yang erat antara variabel
tersebut dalam satu model, maka model tersebut menjadi redundant.
Sebetulnya berapa nilai korelasi antara variabel prediktor yang masih
dapat ditoleransi? Beberapa teori mengatakan dibawah 0,9 masih

4
Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS,
https://www.en.globalstatistik.com/cara-menguji-dan-mengatasi-multikolinieritas-
dengan-spss/ (diakses pada 10 Maret 2023, pukul 19.55).

6
dapat ditoleransi, namun beberapa teori lain mengatakan harus kurang
dari 0,8 bahkan 0,7.

Mendeteksi Multikolinieritas di dalam model

a. Jika dalam model terdapat multikolinieritas, maka akan terjadi


perubahan yang besar pada nilai koefisien regresi ketika kita
mengeluarkan satu variabel prediktor dari dalam model.
b. Jika dalam model regresi linier berganda, koefisien variabel
prediktor tidak signifikan secara statistik, namun ketika kita
mencobanya satu persatu variabel prediktor dalam analisis regresi
linier sederhana hasilnya menjadi signifikan. Kondisi tersebut
juga menunjukkan kemungkinan adanya multikolinieritas.
c. Kita mendapati nilai F hitung yang begitu besar atau signifikan
secara statistik, namun ketika diuji secara parsial dengan uji t
tidak ada satupun yang signifikan.
d. Ketika terdapat koefisien regresi yang negatif padahal secara teori
seharusnya positif. Atau sebaliknya.
e. Untuk memastikan agar lebih yakin terdapat multikolinieritas di
dalam model, sebaiknya uji dengan menggunakan nilai VIF
menggunakan SPSS atau Eviews. Beberapa ahli mengatakan nilai
VIF harus kurang dari 5 dan beberapa ahli lainnya mengatakan
cukup dibawah 10.

Bagaimana mengatasi multikolinieritas dalam model

a. Jika kita menjumpai terdapat variabel prediktor yang memiliki


nilai VIF lebih dari 5 atau 10, maka kita perlu untuk
mengeluarkan salah satu variabel tersebut dari model. Tujuannya
adalah untuk mengeluarkan informasi yang redundant yang
sebenarnya sudah diwakili oleh variabel prediktor yang lain.
Namun jangan khawatir, mengeluarkan salah satu variabel

7
prediktor tidak akan menurunkan nilai R kuadrat secara drastis,
jika memang terdapat multikolinieritas dalam model.
b. Untuk menghasilkan kombinasi variabel prediktor yang
menghasilkan R kuadrat tertinggi, gunakanlah metode regresi
stepwise dalam SPSS.
c. Lakukanlah transformasi data misalnya menjadi bentuk logaritma
atau bentuk diferensarialnya. Tansformasi data ke dalam
diferensial lebih cocok untuk data time series. Sementara untuk
data-data penelitian survei sosial kurang cocok karena akan sulit
menginterpretasikan model diferensialnya.
d. Gunakanlah Principal Component Analysis (PCA). Prinsipnya
adalah menyederhanakan atau menggabungkan jumlah variabel
prediktor menjadi lebih sedikit jumlah variabel tanpa mereduksi
satupun variabel prediktor, namun dengan menjadikannya dalam
satu skor. Hasil dari pca adalah skor dari variabel prediktor baru
yang memiliki korelasi yang minimum sehinggi efektif untuk
mengatasi multikolinieritas.
e. Gunakanlah Partial Least Square Regression(PLS). Jika kita
menggunakan PCA maka bisa dipastikan kita akan mendapatkan
variabel prediktor baru yang memiliki korelasi minimum diantara
variabel prediktornya. Permasalahan yang mungkin muncul
adalah, variabel prediktor baru tersebut bisa saja tidak memiliki
hubungan yang signifikan juga dengan variabel respon (Y). Maka
kita akan menghadapi permasalahan baru berikutnya yaitu tidak
signifikannya model regresi. Jalan tengahnya adalah PLS, dimana
secara perhitungan masih mempertimbangkan variabel prediktor
yang memiliki hubungan tinggi dengan variabel respon namun
mencari kombinasi variabel prediktor yang memiliki nilai korelasi
minimum diantara mereka.

8
B. Heteroskedastisitas
1. Pengertian heteroskedastisitas

Pengertian heteroskedastisitas adalah apabila kesalahan atau


residual yang diamati tidak memiliki varian yang konstan.5
Residual adalah faktor-faktor lain yang terlibat akan tetapi tidak
termuat dalam model. karena residual ini merupakan variabel
yang tidak diketahui, maka diasumsikan bahwa nilai residual bersifat
acak.

Pada analisis regresi, heteroskedastisitas berarti situasi dimana


keragaman variabel independen bervariasi pada data yang kita
miliki. Salah satu asumsi kunci pada metode regresi biasa adalah
bahwa error memiliki keragaman yang sama pada tiap-tiap sampelnya.
Asumsi inilah yang disebut homoskedastisitas. Jika keragaman
residual/error tidak bersifat konstan, data dapat dikatakan bersifat
heteroskedastisitas. Karena pada metode regresiordinary least-
squaresordinary least-squares(OLS) mengasumsikan keragaman
error yang konstan, heteroskedastisitas menyebabkan estimasi
OLS menjadi tidak efisien. Model yang memperhitungkan
perubahan keragaman dapat membuat penggunaan dan estimasi
data menjadi lebih efisien.

Uji ini digunakan untuk mengetahui ada atau tidaknya


penyimpangan asumsi klasik heteroskedastisitas yaitu adanya
ketidaksamaan varian dari residual untuk semua pengamatan pada
model regresi sehingga model regresi layak untuk di pakai. 6 Masalah
heteroskedastisitas lebih sering muncul dalam data cross section dari
pada data time series, karena dalam data cross section menunjukkan
obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu
5
Waryani, Dinamika Kinerja Guru Dan Gaya Belajar Konsep Dan Implementas
terhadap Prestasi Belajar , (Indramayu : Cv Adanu Abimata, 2021) hlm 71
6
S u Pr “Metodologi Penelitian Ekonomi dan Bisnis”, (Yogyakarta : Graha
Ilmu, 2009), h.193.

9
dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam
hal waktu. Sedangkan data time series, antara observasi satu dengan
yang lainnya saling mempunyai kaitan. Ada trend yang cenderung
sama sehingga varians residualnya juga cenderung sama

2. Dampak Penyakit Heteroskedastisitas

Sebetulnya heteroskedastisitas ini tidak menyebabkan estimasi


koefisien regresi pada metode ols (ordinary least square) menjadi bias.
Tentunya masih dapat menggunakan model regresi dengan baik.
Namun, heteroskedastisitas ini akan berpengaruh kepada penaksiran
standar error yang bias. penaksiran standar error yang bias tentu akan
menyebabkan nilai t hitung menjadi bias. t hitung yang bias tentu
akan menyebabkan pengambilan keputusan melalui pengujian
hipotesis menjadi bias juga. Kita dapat menjadi salah dalam
mengambil kesimpulan, walaupun modelnya tetap benar.

3. Mendeteksi Autokorelasi

Ada beberapa metode pengujian yang bisa digunakan untuk


mendeteksi adanya gejala penyakit heteroskedastisitas atau tidak,
diantaranya yaitu :

a. Uji Park

Metode uji Park yaitu dengan meregresikan nilai logaritma


natural dari residual kuadrat (Lne2) dengan variabel independen
(X1 dan X2).7

Ho : tidak ada gejala heteroskedastisitas

Ha : ada gejala heteroskedastisitas

7
Hironymus Ghodang & Hantono, Metodologi Penelitian Kuantitatif (Konsep Dasar dan
Aplikasi Analisis Regresi dan Jalur Dengan SPSS, (Medan : PT Penerbit Mitra Grub, 2019)
hlm. 55

10
Dasar Pengambilan Keputusan :8

 Ho diterima bila Signifikansi > 0,05 berarti tidak terdapat


heteroskedastisitas
 Ho ditolak bila Signifikansi < 0,05 yang berarti terdapat
heteroskedastisitas.
 t hitung > t table (nilai positif)
 -t hitung < -t table (nilai negatif) b)
b. Uji Glejser

Uji Glejser dilakukan dengan cara meregresikan antara


variabel independen dengan nilai absolut residualnya
(ABS_RES). Jika nilai signifikansi antara variabel independen
dengan absolut residual lebih dari 0,05 maka tidak terjadi masalah
heteroskedastisitas, dengan rumus persamaan regresinya adalah :
│Ut│ = + BXt + vt.9

Dasar Pengambilan Keputusan :10

 Jika nilai signifikansi (Sig.) lebih besar dari 0,05, maka


kesimpulannya adalah tidak terjadi gejalan
heteroskedastisitas dalam model regresi
 Sebaliknya, jika nilai signifikansi (Sig.) lebih kecil dari 0,05,
maka kesimpulannya adalah terjadi gejala heteroskedastisitas
model regresi
c. Melihat pola grafik regresi pada Scatterplots

Metode ini yaitu dengan cara melihat grafik scatterplot


antara standardized predicted value (ZPRED) dengan studentized

8
Ibid., hlm. 35
9
Timotiums Febry Teofilus, SPSS : Aplikasi Pada Penelitian Manajemen Bisnis,
(Bandung : CV Media Sains Indonesia, 2020) hlm 60
10
Risal Adriawan, Skripsi, Pengaruh Desentralisasi Fisikal Terhadap Tingkat
Kemiskinan, (Makasar : Universitas Islam Negeri Alaunddin, 2021) hlm. 40

11
residual (SRESID).11 Ada tidaknya pola tertentu pada grafik
scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah
Y yang telah diprediksi dan sumbu X adalah residual (Y prediksi
- Y sesungguhnya).

Dasar Pengambilan Keputusan :12

 Jika ada pola tertentu, seperti titik-titik yang ada membentuk


suatu pola tertentu yang teratur (bergelombang, melebar
kemudian menyempit), maka terjadi heteroskedastisitas.
 Jika tidak ada pola yang jelas, seperti titik-titik menyebar di
atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi
heteroskedastisitas.
 Titik-titik tidak mengumpul hanya di atas atau dibawah saja
 Penyebaran titik-titik data tidak berpola

d. Uji koefisien korelasi Spearman.

et e uj heter s e st s t s e re s Spe rm ’s
rho yaitu mengkorelasikan variabel independen dengan nilai
unstandardized residual. Pengujian menggunakan tingkat
signifikansi 0,05 dengan uji 2 sisi. Jika korelasi antara variabel
independen dengan residual di dapat signifikansi lebih dari 0,05
maka dapat dikatakan bahwa tidak terjadi masalah
heteroskedastisitas pada model regresi.13

Dasar Pengambilan Keputusan :

11
Duwi Priyatno, Olah Data Sendiri Analisis Regresi Linier Dengan SPSS Dan Analisi
Regresi Data Panel dengan Eviews, (Yogyakarta : CV Andi Offset, 2022) hlm. 11
12
Ibid, hlm 42
13
Romie Priyastama, The Book of SPSS: Pengolahan & Analisis Data ( Yogyakarta,
Anak Hebat Indonesia, 2020) hlm 129

12
 Jika nilai signifikansi atau Sig. (2-tailed) lebih besar dari nilai
0,05 maka dapat dikatakan bahwa tidak terdapat masalah
Heteroskedastisitas
 Sebaliknya, jika nilai signifikansi atau Sig. (2-tailed) lebih
kecil dari nilai 0,05 maka dapat dikatakan terdapat masalah
Heteroskedastisitas
4. Mengatasi Gejala Heteroskedastisitas Dalam Model Regresi
a. Melakukan alternatif uji lain untuk mendeteksi ada tidaknya
gejala heteroskedastisitas. (seperti : uji heteroskedastisitas dengan
gmbar scatterplot, uji glejser, uji rank spearman, uji park dan uji
white).
b. Melakukan transformasi data penelitian (misal : Ln, Log10, Lag,
dll) terutama untuk data-data yang tumbuh secara eksponensial
seiring dengna berjalananya waktu, seperti data jumlah penduduk
dan data kredit atas bunga majemuk.
c. Melakukan outlier terhadap data ekstrim atau jika diperlukan
maka kita boleh mengganti, menambah atau mengurangi sampel
supaya data menjadi lebih variasi atu beragam.
d. Membuat model spesifikasi diferensialnya. maksudnya adalah
model selisih antara t dengan t-1. cara ini juga biasanya sekaligus
dapat mengatasi masalah multikolinieritas.
e. Mengganti model penaksiran dari ols menjadi wls (weighted least
square). prinsip sederhanya adalah kita membuat pembobotan
atas nilai pada variabel x dan Y.
f. Terakhir, menggunakan cara heteroscedasticity-consitent standard
errors (HCSE), cara ini biasanya lebih ampuh, karena alur
berpikirnya diubah, alih-alih mencoba-coba model yang memiliki
varian error yang tetap, kita mulai dengan menetapkan error
varians yang konsisten.

13
C. Autokorelasi
1. Pengertian Autokorelasi

Autokorelasi adalah korelasi yang terjadi antar observasi dalam


satu variabel.14 Autokorelasi dikenal sebagai korelasi serial,
maksudnya adalah korelasi antara serial data atau antara data sebelum
dengan data sesudahnya dalam data yang disusun berdasarkan urutan
waktu (time series). Uji autokorelasi bertujuan untuk melihat apakah
terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -
1). Dalam data yang disusun secara cross section (bukan berdasarkan
waktu), maka autokorelasi sebetulnya tidak relevan. Pada data yang
disusun secara cross section, autokorelasi hanya indikasi dari
keterkaitan antara satu subjek penelitian dengan penelitian lainnya.
Atau dapat juga dikatakan sebagai kemiripian antara satu obsevasi
dengan observasi lainnya.

Secara matematika, autokorelasi dapat membaca pola yang


berulang dari data. hal tersebut menunjukkan adanya pengaruh waktu
terhadap variabel respon. Uji autokorelasi digunakan untuk
mengetahui ada atau tidaknya penyimpangan asumsi klasik
autokorelasi yaitu korelasi yang terjadi antara residual pada satu
pengamatan dengan pengamatan lain pada model regresi.15 Contohnya
pada perubahan harga emas, semakin lama cenderung naik, artinya
terdapat pengaruh waktu atau autokorelasi pada perubahan harga
emas.

Autokorelasi dibagi menjadi dua yaitu autokorelasi positif dan


autokorelasi negatif. seperti kita ketahui bahwa masalah autokorelasi
ini merupakan masalah error, maka kedua jenis autokorelasi di atas

14
Yeri Sutopo, Achmad Slamet, Statistik Inferensial, (Yogyakara : Penerbit Andi) hlm.
102
15
Muhammad Firdaus, Ekonometrika: Suatu Pendekatan Aplikatif, (Jakarta : PT Bumi
Aksara, 2021) hlm. 218

14
juga akan terkait masalah error. Autokorelasi positif adalah
autokorelasi dimana error yang selalu diikuti oleh error yang sama
tandanya. misalnya ketika satu periode sebelumnya positif maka error
berikutnya akan positif. Sebaliknya autokorelasi negatif menyebabkan
error akan diikuti oleh error yang berbeda tanda. misalnya ketika
errornya positif maka akan diikuti oleh error negatif pada periode
selanjutnya.

Uji autokorelasi hanya dilakukan pada data time series (runtut


waktu) dan tidak perlu dilakukan pada data pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang
bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di
mana periodenya lebih dari satu tahun biasanya memerlukan uji
autokorelasi.16

2. Penyebab Autokorelasi
a. Kesalahan dalam pembentukan model (linier - non linier) 2.
b. Penggunaan Lag (inertia) è data observasi pada periode
sebelumnya dan periode sekarang, kemungkinan besar akan
saling ketergantungan (interdependence)
c. Fenomena cobweb è Munculnya fenomena sarang laba-laba
terutama terjadi pada penawaran komoditi sektor pertanian è,
Misalnya, panen komoditi permulaan tahun dipengaruhi oleh
harga yang terjadi pada tahun sebelumnya è uii tidak lagi bersifat
acak (random), tetapi mengikuti suatu pola yaitu sarang laba-laba.
d. Tidak memasukan variabel yang penting.
e. Manipulasi data yang tidak teliti.
f. Menggunakan data yang tidak empiris (data tidak berdasarkan
observasi)

16
Yeri Sutopo, Achmad Slamet, Statistik Inferensial, (Yogyakara : Penerbit Andi) hlm.
102

15
3. Dampak Adanya Autokorelasi
a. Estimator yang dihasilkan masih unbiased, konsisten, dan
asymptotical normally distributed. Tetapi tidak lagi efisien-
>varians tidak minimum (tidak BLUE (Best Linear Unbiased
Estimator)).
b. Estimasi standart error dan varian koefesien regresi yang didapat
“u erest m te”
c. Pemeriksaan terhadap residualnya akan menemui permasalahan
d. Autokorelsi yang kuat dapat pula menyebabkan dua variabel yang
tidak berhubungan menjadi berhubungan. Biasa disebut
spourious regression (dapat dilihat dari R2)
e. Pengujian arti t dan F tidak lagi valid sehingga menghasilkan
kesimpulan yang tidak valid.
f. Memberikan gambaran yang menyimpang dari nilai populasi
sebenarnya

4. Mendeteksi Autokorelasi
a. Metode Grafik

Metode ini merupakan metode yang paling sederhana untuk


mendeteksi autokorelasi. Sekaligus merupakan langkah awal
untuk mendeteksi autokorelasi. Sesuai dengan definisinya,
metode ini membandingkan antara residual dengan variabel X.
selain itu, dengan membandingkan antara rasidual ke-t dengan
residual ke-(t-1).

Suatu grafik mengindikasikan adanya autokorelasi dapat


dilihat dari polanya. Suatu grafik dikatakan mengandung
autokorelasi ketika terdapat pola antara residual dengan waktu
atau antara residual ke-t sampai ke-(t-1).

16
b. Uji Durbin Watson

Pada metode ini, adanya autookorelasi agak sulit untuk


ditentukan karena hanya melalui subjektifitas peneliti. Sehingga,
kemungkinan tiap peniliti memiliki pandangan yang berbeda-
beda. Oleh karena itu, perlu dilakukan pengujian formal yang
dapat dipercaya secara ilmiah. Salah satu cara untuk mengetahui
adanya autokorelasi adalah uji durbin-watson. Cara mengetahui
nilai durbin watson dari model tertentu tidaklah susah. Uji ini
hanya digunakan untuk autokorelasi tingkat satu (first order
autocorrelation) dan mensyaratkan adanya intercept (konstanta)
dalam model regresi dan tidak ada variabel lag diantara variabel
independent. Dalam software statistik SPSS sudah tersedia menu
untuk mengeluarkan angka durbin watson-nya. Nilai durbin
watson tersebut tinggal dibandingkan dengan rentang norma
durbin watson yang masih bisa ditolerasi.

c. Uji Run

Run test sebagai bagian dari statistik non parametrik dapat


pula digunakan untuk menguji apakah antar residual terdapat
korelasi yang tinggi.17 Prinsip kerja uji run sangat sederhana yaitu
dengan melihat tanda nilai residual negtaif atau positif (+) atau
negative (-), tanpa memperhatikan nilainya. Sehingga run yang
dimaksud disini adalah sekelompok nilai residual yang
mempunyai tanda sama secara bertusut-turut. Maksudnya, jika
antar residual tidak terdapat hubungan korelasi maka dikatakan
bahwa residual adalah acak atau random. Run test digunakan
untuk melihat apakah data residual terjadi secara random atau
tidak (sistematis)

17
Diamonalisa, Nunung Nurhayati, Dani Rahman, Mengolah Data Penelitian Akuntansi
dengan SPSS, (Malang : CV Literasi Nusantara Abadi. 2022) hlm. 58

17
d. Uji Statistics Q : Box-Pierce dan Ljung Box

Digunakan untuk melihat autokorelasi dengan lag lebih dari


dua.

5. Mengatasi Uji Autokorelasi


a. Evaluasi Model

Langkah pertama yang harus dilakukan untuk mendeteksi


autokorelasi yaitu dengan mengidentifikasi apakah autokorelasi
itu pure autocorrelation atau karena mis-spesification model. Mis-
spesifikasi disini adalah kemungkinan adanya kuadratik model
atau modelnya mengandung kuadratik. Sehingga apabila hasil
tersebut masih mengandung autokorelasi maka autokorelasi
tersebut merupakan pure autocorrelation.

b. Generalized Least Squared(GLS)

Setelah kita mengetahui ternyata pure autocorrelation. maka


langkah selajutnya yaitu salah satunya dengan melakukan
transformasi. Transformasi ini dilakukan dengan mengurangi nilai
variabel (bebas dan terikat) pada waktu ke-t, dengan waktu ke-(t-
1).

c. Newey – West Method.

Pada metode mengasumsikan bahwa sampel yang


digunakan besar. Dalam perhitungannya digunakan software-
software statistic salah satunya adalah E-views.

18
BAB III

PENUTUP

A. Kesimpulan

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya


korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam
sebuah model regresi berganda. Uji multikolinearitas digunakan untuk
mengetahui ada atau tidaknya penyimpangan asumsi klasik
multikolinearitas yaitu adanya hubungan linear antar variabel independen
dalam model regresi.

Pengertian heteroskedastisitas adalah apabila kesalahan atau


residual yang diamati tidak memiliki varian yang konstan. Residual
adalah faktor-faktor lain yang terlibat akan tetapi tidak termuat dalam
model. karena residual ini merupakan variabel yang tidak diketahui,
maka diasumsikan bahwa nilai residual bersifat acak.bersifat acak. Pada
analisis regresi, heteroskedastisitas berarti situasi dimana keragaman
variabel independen bervariasi pada data yang kita miliki. Salah satu
asumsi kunci pada metode regresi biasa adalah bahwa error memiliki
keragaman yang sama pada tiap-tiap sampelnya. Asumsi inilah yang
disebut homoskedastisitas.

Autokorelasi adalah korelasi yang terjadi antar observasi dalam satu


variabel. Autokorelasi dikenal sebagai korelasi serial, maksudnya adalah
korelasi antara serial data atau antara data sebelum dengan data
sesudahnya dalam data yang disusun berdasarkan urutan waktu (time
series). Uji autokorelasi bertujuan untuk melihat apakah terjadi korelasi
antara suatu periode t dengan periode sebelumnya (t -1). Dalam data yang
disusun secara cross section (bukan berdasarkan waktu), maka
autokorelasi sebetulnya tidak relevan. Pada data yang disusun secara cross
section, autokorelasi hanya indikasi dari keterkaitan antara satu subjek

19
penelitian dengan penelitian lainnya. Atau dapat juga dikatakan sebagai
kemiripian antara satu obsevasi dengan observasi lainnya.

B. Saran

Semoga dengan adanya makalah ini bisa menambah wawasan dan


pengetahuan kita, Untuk mengingat makalah ini tidaklah sempurna maka
dari itu penulis harapkan kritikan dan asaran yang membangun dari
pembaca.

20
DAFTAR PUSTAKA

Adriawan, Risal. 2021. Skripsi, Pengaruh Desentralisasi Fisikal Terhadap


Tingkat Kemiskinan. Makasar : Universitas Islam Negeri Alaunddin.
Diamonalisa, Nunung Nurhayati, Dani Rahman. 2022. Mengolah Data
Penelitian Akuntansi dengan SPSS. Malang : CV Literasi Nusantara
Abadi
Firdaus, Muhammad. 2021. Ekonometrika: Suatu Pendekatan Aplikatif.
Jakarta : PT Bumi Aksara
Matondang, Zulaika. Nasution, Hamni Fadlilah. 2021. Praktik Analisis Data
: Pengolahan Ekonometrika dengan Eviews dan SPSS. Medan : CV
Merdeka Kreasi Grub
Pridana, Saludin. 2009. Metodologi Penelitian Ekonomi dan Bisnis.
Yogyakarta : Graha Ilmu
Priyatno, Duwi. 2022. Olah Data Sendiri Analisis Regresi Linier Dengan
SPSS Dan Analisi Regresi Data Panel dengan Eviews. Yogyakarta : CV
Andi Offset
Priyastama, Romie. 2020. The Book of SPSS: Pengolahan & Analisis Data.
Yogyakarta, Anak Hebat Indonesia
Sutopo, Yeri. Achmad Slamet. Statistik Inferensial. Yogyakara : Penerbit
Andi
Timotius Febry, m t us. Teofilus. 2020. SPSS : Aplikasi Pada Penelitian
Manajemen Bisnis. Bandung : CV Media Sains Indonesia
Waryani. 2021. Dinamika Kinerja Guru Dan Gaya Belajar Konsep Dan
Implementas terhadap Prestasi Belajar. Indramayu : Cv Adanu
Abimata
Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS,
https://www.en.globalstatistik.com/cara-menguji-dan-mengatasi-
multikolinieritas-dengan-spss/ (diakses pada 10 Maret 2023, pukul
19.55)

21

You might also like