Multikolinearitas Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel

independen dalam model regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independen.

Beberapa cara mengindentifikasi adanya multinolinieritas pada model regresi, diantaranyaadalah :

1. Jika nilai regresi menunjukkan nilai R2 yang tinggi dan F statistik yang sangat signifikan (goodness of fit terpenuhi), namun sebagian besar variabel bebas tidak signifikan pengaruhnya (t hitung kecil) 2. Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel bebas dalam model 3. Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas 4. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya multikolinieritas. 5. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati. 6. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.

Beberapa dampak multikolineritas yang serius pada sebuah regresi, akan berdampak pada : 1. Varian besar (dari takasiran OLS) 2. Interval kepercayaan lebar (varian besar - Standar Error besar - interval kepercayaan lebar) 3. Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate

bagaimana jika UPM tidak terkait dengan waktu sebelumnya. Dampak dan Mendeteksi Autokorelasi Posted by nasrul setiawan Tuesday. Mencari data tambahan Penyebab. Umumnya kasus autokorelasi banyak terjadi pada data time series. dalam penetuan UPM selalu memperhatikan UPM sebelumnya..:p Autokorelasi adalah korelasi yang terjadi antar observasi dalam satu variabel (Nachrowi djalal dan Hardius usman:2006). Terus. Oleh karena itu. artinya kondisi sekarang dipengaruhi waktu lalu.. Dapat dibayangkan. Atau secara matematis dituliskan: .. namun dalam urusan analisis regresi dalam menggunakan OLS. sekidot. autokorelasi sangat berguna pada kehidupan sehari-hari. Korelasi ini terjadi antar waktu atau individu. namun. OLS mengasumsikan bahwa error merupakan variabel random yang independent (tidak berkorelasi agar penduga bersifat BLUE. 2012 Labels: Analisis Sebelumya sudah pernah dibahas masalah uji asumsi. UPM ini selalu dipengaruhi berdasarkan UPM sebelumnya. masalah autokorelasi menjadi pusat perhatian. hubungannya apa?. Transpormasi dara (misalnya dengan logaritma natural) 2. Hal-hal yang perlu dilakukan bila terjadi multikolinearitas adalah 1. Jadi. Para buruh akan mengalami ketidakpastian pada keuangannya sehingga akan menganggu urusan keluarga. December 4. dalam analisis data time series. Jauh banget ya. Terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak sesuai dengan substansi. Walaupun dalam kehidupan sehari-hari autokorelasi sangat berguna. sehingga dapat menyesatkan interpretasi. Gambaran mudahnya pada kasus yang lagi ramai sekarang ini tentang Penetapan Upah Minimum provinsi (UPM) jakarta. Mengeluarkan variabel yang berkorelasi dalam model 3.. untuk lengkap uji asumsi yang lain bisa kesini. langsung aja yaaa gan. Sehingga. untuk kali ini akan dibahas lebih khusus lagi yaitu uji asumsi autokorelasi. ini menjadi masalah utama yang harus diselesaikan.4.

C.A. Metode Grafik Metode ini merupakan metode yang paling sederhana untuk mendeteksi autokorelasi. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE) 2. metode ini membandingkan antara residual dengan variabel X. Suatu grafik mengindikasikan adanya autokorelasi dapat dilihat dari polanya. Mendeteksi autokorelasi 1. Penggunaan Lag (inertia) è data observasi pada periode sebelumnya dan periode sekarang. Konsekuensi adanya autokorelasi : 1.Manipulasi data B. Sesuai dengan definisinya. Penyebab autokorelasi 1. 4. Hal ini terlihat dari R2.Tidak memasukkan variabel yang penting 5. fenomena cobweb è Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditi sektor pertanian è Misalnya. Biasa disebut spourious regression. kemungkinan besar akan saling ketergantungan (interdependence) 3. dan asymptotical normally distributed. konsisten. dengan membandingkan antara rasidual ke-t dengan residual ke-(t-1). Suatu grafik dikatakan mengandung autokorelasi ketika terdapat pola antara residual dengan waktu atau antara residual ke-t sampai ke-(t-1). . 3. Sekaligus merupakan langkah awal untuk mendeteksi autokorelasi. Estimator yang dihasilkan masih unbiased. tetapi mengikuti suatu pola yaitu sarang laba-laba. 4. Pemerikasaan terhadap residualnya akan menemui permasalahan. panen komoditi permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya è ui tidak lagi bersifat acak (random).Kesalahan model (linier – non linier) 2. Estimasi standard error dan varian koefisien regresi yang didapat akan ‘underestimate’. selain itu. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan.

Artinya tidak ada korelasi positif maupun negatif Bila 4 – dU < d < 4 – dL Þ kita tidak dapat mengambil kesimpulan apa-apa Bila d > 4 – dL Þ tolak H0. Uji Durbin Watson Metode grafik diatas masih memiliki permasalahan.. Hal itu juga didukung dengan grafik antara raesidual ke-t dengan residual ke-(t-1) yang menunjukkan ada hubungan liniear.pada gambar tersebut terdapatnya autokorelasi positif dan negatif. yaitu batas bawah (dL) dan batas atas(dl) dan batas bawah(du). Berikut beberapa keputusan setelah membandingkan DW. hipotesis: Ho=tidak H1=ada ada autokorelasi autokorelasi Statistik Uji : Setelah mendapatkan statistik uji. Salah satu cara untuk mengetahui adanya autokorelasi adalah uji durbin-watson. adanya autookorelasi agak sulit untuk ditentukan karena hanya melalui subjektifitas peneliti. Autokorelasi positif terlihat pada bagian (a) sedangkan autokorelasi negatif pada gambar bagian (b). Berarti ada korelasi yang positif atau kecenderungannya r= 1 Bila dL < d < dU Þ kita tidak dapat mengambil kesimpulan apa-apa Bila dU < d < 4 – dU Þ jangan tolak H0. perlu dilakukan pengujian formal yang dapat dipercaya secara ilmiah. Berarti ada korelasi negative . Langkah selanjutnya adalah membandingkan dengan tabel DW. Oleh karena itu. Tabel DW tediri atas dua nilai. Sehingga.      Bila d < dL Þ tolak H0. 2.Pada bagian (a) terlihat bahwa grafiknya membentuk pola siklus sehingga diindikasikan terdapat autokorelasi. Pada metode ini. kemungkinan tiap peniliti memiliki pandangan yang berbeda-beda.

Perinsip kerja uji run sangat sederhana yaitu dengan melihat tanda nilai residual negtaif atau positif(+) atau negatif (-).3. tanpa memperhatikan nilainya. Uji Run Uji durbin Watson juga memiliki kelemahan ketika berada antara nilai dL dan dU atau antara (4-dU) dan (4-dL) maka keputusannya autokorelasi tidak bisa diketahui mempunyai autokorelasi apa tidak. Sehingga run yang dimaksud disini adalah sekelompok nilai residual yang mempunyai tanda sama secara bertusut-turut. Sehingga dilakukan uji lain bisa dengan metode grafik atau metode formal lainnya. Salah satu uji formal yaitu uji run. Contoh: (++++++)(-----)(+++++)(----) Hipotesis: H0=residual H1=tidak Untuk menghitungnya digunakan beberapa fungsi berikut: random demikian .

96 <= run <= E(run)+1. digunakan analisis interval kepercayaan : E(run)-1. Uji Breusch-Godfrey(BG)/Lagrange Multiplier(LM) Uji ini dikembangkan oleh breusch-bodfrey.96 run Keputusan: Apabila nilai Run berada diantara interval tersebut maka terima H0sehingga disimpulkan residualnya random dan tidak adanya unsur autokorelasi. 4. Berdasarkan model tersebut Breusch-bodfrey mengasumsikan bahwa Ut mengikuti autoregresif ordo p(AR(p)).Dimana: N=jumlah N1=jumlah N2=jumlah run run observasi positif(+) negatif(-) Dalam melakukan pengujian hipotesis. sehingga membentuk model berikut: .

2005). Jika koefisien β signifikan (t hitung> t tabel dan atau p < 0. atau disimbolkan dengan: E(εi) = σ2 t = 1. Variabel dinyatakan bebas heteroskedastisitas jika tidak terdapat pola yang jelas dan titik-titik menyebar di atas dan di bawah angka nol pada sumbu Y. uji Korelasi Spearman’s. 2.Uji Glejser .….2. dan uji Goldfeld-Quant. Indikasi akan terjadinya masalah heteroskedastisitas pada metode ini dapat dilihat pada signifikansi koefisien β.t Heteroskedastisitas terjadi apabila varians dari setiap kesalahan pengganggu tidak bersifat konstan.2. Metode informal biasanya dilakukan dengan metode grafik dimana sumbu vertikal (x) menjelaskan nilai prediksi disturbance term error dan sumbu horisontal (y) merupakan nilai prediksi variabel regresor. Heteroskedastisitas berarti suatu situasi di mana varians dari variabel dependen bervariasi di seluruh data. Untuk mendeteksi gejala heterokedastisitas dapat ditempuh lewat metode formal dan informal. 1.. Metode formal dapat dilakukan dengan uji Park. uji Glejser. Masalah heteroskedastisitas lebih sering muncul pada data cross-sectional daripada time series (Manurung et al. walupun bukan berarti data time series bebas masalah heterokedastisitas.….Heterokedastisitas Asumsi homokedastisitas dari disturbance term error adalah selisih atau spread (scedacity) sama atau varians variabelnya sama (σ2).Uji Park Metode ini merupakan formalisasi dari metode grafik dimana varians merupakan fungsi dari variabel regressor: σ2i = σ2Xβeε ln σ2i = ln σ2 + β ln X + v ln ε2i = α + β lnX + v Metode ini dilakukan dengan meregresikan variabel regressan dengan variabel regressor untuk mendapatkan nilai disturbance term error .. Kemudian nilai kuadrat prediksi disturbance term error dengan variabel regressan.05) maka dapat dipastikan bahwa variabel bebas yang diuji tersebut terkena masalah heteroskedastisitas. Heteroskedastisitas mempersulit analisis karena banyak metode dalam analisis regresi didasarkan pada asumsi varians sama.t Heterokedastisitas disimbolkan dengan: E(εi) = σ2t t = 1.

jika signifikan. berarti ada masalah heterokedastisitas . Rumus koefisien korelasi Spearman’s (rumus pertama dipakai jika tidak terjadi urutan ranking yang sama.Metode ini hampir sama dengan cara pertama diatas. kecuali pada langkah kedua. Pada langkah kedua. nilai prediksi disturbance term error harus dimutlakan terlebih dulu sehingga formulasinya menjadi : │ln ε2i│ = α + β lnX + v 3. Nilai d dari koefisien korelasi Spearman dihitung berdasar selisih ranking variabel regressan atau variabel regressor.Uji Korelasi Spearman’s Langkah yang harus ditempuh lewat metode ini adalah: • Regresikan variabel regressan dengan variabel regressor • Ambil nilai mutlak disturbance term error dan lakukan ranking terhadap nilai disturbance term error dan ranking nilai variabel regressan atau variabel regressor untuk menghitung koefisien korelasi Spearman (ρ). n tier): dan •Uji koefisien korelasi Spearman dengan distribusi t pada nilai df=n-2.

. fk xi a' b'=c' .d Keterangan : xi s zi pi Ei d = batas bawah kelas = simpangan baku = angka baku = luas daerah antara dua harga = nilai ekspetasi atau harapan =jumlah frekuensi (fi) Statistik Uji : Kriteria uji : tolak Ho jika χ² hitung ≥ χ²α . Langkah-Langkah pengujian : -Rumusan Hipotesis Ho : sampel berasal dari populasi berdistribusi normal H1 : sampel tidak berasal dari populasi berdistribusi normal α : taraf nyata Data disusun dalam distribusi frekuensi sebagai berikut : kelas a-b c-d . l' z1 z2 . db = k – g – 1 (k = banyak kelas interval. terima dalam hal lainya...Metode Chi-Square atau uji Goodness of fit Distribution Normal.data tersusun berkelompok atau dikelompokkan dalam tabel distribusi frekuensi. g = banyak parameter = 2). k-l interval fi=Oi f1 f2 ... Persyaratan : a.jadi db = k – 3. menggunakan pendekatan penjumlahan penyimpangan data observasi tiap kelas dengan nilai yang diharapkan.Metode Chi-Kuadrat Untuk Uji Normalitas Uji chi-kuadrat digunakan jika ukuran sampel (n ≥ 30).. .. zk pi Ei=pi..

34 36.94 . maka ditolak dan diterima.5 169.b.91470.00640.d 5.3677 0.93 7. Jika nilai hitung lebih besar dari nilai tabel.30 pi 0.nilai hitung dibandingkan dengan tabel (Chi-Square) Jika nilai hitung kurang dari nilai tabel.65540.49 -1.0579 0.2234 0.9995=0.9147=0. maka diterima dan ditolak.54 0.0643=0.79 22.52 -0.0754 0.77 25.0094 Ei=pi.5 179.5 159.3 fi = Oi 6 22 39 25 7 1 xi 139.05 No Kelas Interval 1 2 3 4 5 6 140-149 150-159 160-169 170-179 180-189 190-199 200 Jumlah (d) rata-rata = 165.2593 0.5 199.33 3.40 1.5 149.06430. Contoh soal : TINGGI BADAN MASYARAKAT KALIMAS PADA TAHUN 1990 No Tinggi Badan Jumlah 1 2 3 4 5 6 jumlah 140-149 150-159 160-169 170-179 180-189 190-199 6 22 39 25 7 1 100 Selidikilah dengan α = 5% apakah data diatas berdistribusi normal? Jawab : Ho = data berdistribusi normal H1 = data tidak berdistribusi normal α = 5% = 0. Signifikansi Signifikansi uji.cocok untuk data dengan ukuran sampel (n ≥ 30) c.99010.2877=0.setiap sel harus terisi dan yang kurang dari 5 digabungkan.28770.5 189.9901=0.5 100 -2.56 0.37 2.6554=0.

0038 = 0.2238 > χ²α = 7.79 + (22 – 22.s = 10.34 + (39 – 36.94 = 0.0052 + 0.81. ternyata χ² hitung = 0.05.81. db = k – 3 = 6 – 3 = 3.77 + (25 – 25.79)2/5. maka berdasarkan Tabel 3 = 7.93)2/25.0333 + 0.54 + (1 – 0.34)2/22. Kriteria Uji : tolak Ho jika χ² hitung ≥ χ²α terima dalam hal lainnya .0076 + 0.2238 α = 0.1352 + 0.94)2/0.36 Statistik Uji : = (6 – 5.77)2/36.93 + (7 – 7.0387 + 0. .54)2/7.

Sign up to vote on this title
UsefulNot useful