BAB 1.

PENDAHULUAN

1.1 Latar Belakang Analisis regresi adalah teknik analisis statistik untuk mengetahui pola hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara variabel-variabel dalam regresi linier dinyatakan dalam model tersebut juga disebut model regresi klasik. Analisis regresi linear berganda digunakan untuk menganalisis hubungan linear antara dua atau lebih variabel bebas secara bersama-sama dengan satu variabel terikat. Adanya korelasi antar variabel yang cukup tinggi menimbulkan multikolinearitas yang menyebabkan model persamaan regresi yang diperoleh kurang layak. Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independent dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan salang terkait dalam satu model regresi. Oleh karena itu, masalah multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independent. Salah satu ukuran untuk mendeteksi adanya multikolinearitas adalah dengan menguji koefisien korelasi (r) antar variabel prediktor. Jika koefisien korelasi diatas 0,85 maka diduga terdapat kasus multikolinearitas. Sebaliknya jika koefisien korelasi relatif rendah maka diduga tidak mengandung multikolinearitas. Deteksi ini diperlukan kehati-hatian. Masalah ini timbul terutama pada data time series dimana korelasi antar variabel prediktor tinggi. Untuk mengatasi masalah multikolinieritas tersebut, ada beberapa solusi. Salah satunya adalah dengan menerapkan analisis regresi bertatar (stepwise regression). . Model

2 Rumusan Masalah 1.3 Dapat mengetahui dampak dari adanya multikolinieritas.2 Dapat mengetahui cara mengidentifikasi adanya multikolinieritas. 1. 1.4.3 Untuk mengetahui dampak dari adanya multikolinieritas.2 Untuk mengetahui cara mengidentifikasi adanya multikolinieritas.2.4 Untuk mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.2 Bagaimana cara mengidentifikasi adanya multikolinieritas ? 1. .3 Tujuan 1.4.4 Manfaat 1.2.2.1. 1.4 Dapat mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.3 Apakah dampak dari adanya multikolinieritas ? 1.3. 1.4.1 Dapat mengetahui apa yang dimaksud dengan multikolinieritas.3. 1.2.3.1 Apakah yang dimaksud dengan multikolinieritas ? 1.4. 1.3.4 Bagaimana cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression ? 1. 1.1 Untuk mengetahui apa yang dimaksud dengan multikolinieritas.

dan probabilitas menerima hipotesis yang salah (kesalahan ) juga akan semakin besar. Melalui nilai thitung . koefisien korelasi yang tunggi antara variabel independent atau tanda koefisien korelasi variabel independent yang berbeda dengan tanda koefisien regresinya). antar variabel independent yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien korelasinya tinggi atau bahkan 1) (Algifari.BAB 2. Akibatnya model regresi yang diperolaeh tidak valid untuk menafsir nilai variabel independen (Algifari.2011:84). Diagnosis secara sederhana terhadap adanya multikolinieritas di dalam model regresi adalah sebagai berikut : 1. tingkat signifikan yang digunakan untuk menolak hipotesis nol akan semakin besar. dan F RATIO. Jika antara dua variabel independent memiliki korelasi yang spesifik (misalnya. . nilai F RATIO tinggi. TINJAUAN PUSTAKA Penyimpanan asumsi model klasik yang pertama adalah adanya multikolinieritas dalam model regresi yang dihasilkan. Artinya.2011:84). R2 . Jika R2 tinggi. makan kemungkinan terdapat multikolinieritas dalam model tersebut. maka di dalam model regresi tersebut multikolinieritas. Konsekuensinya yang sangat penting bagi model regresi yang mengandung multikolinieritas adalah bahwa kesalahan standar estimasi yang cenderung meningkat dengan bertambahnya variabel independent. sedangakan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan ( nilai thitung sangat rendah). 2. Menentukan koefisien korelasi antara variabel independent yang satu dengan variabel independent yang lain.

Jika nilai-F parsial suatu peubah lebih kecil dari batas yang sudah ditetapkan. Regresi Bertatar merupakan salah satu metode pemilihan peubah dalam analisis regresi berganda yang bertujuan untuk mereduksi peubah penjelas demi memperoleh persamaan regresi terbaik. (Draper & Smith 1992).AR. dan secara bertahap mengeluarkannya dari model berdasarkan pengaruhnya terhadap respon. . Jika koefisien regresinya signifikan. Hal ini dilakukan dengan cara menghitung nilai-F parsial setiap peubah dalam model. yaitu Backward Elimination Procedure. Membuat persamaan regresi antar variabel independent.2011:84). hingga diperoleh model regresi yang memuaskan. maka dalam model terdapat multikolinieritas (Algifari. (Ariyat.3. dan Stepwise Procedure. apakah peubah penjelas yang sudah masuk dalam model perlu dikeluarkan lagi atau tidak. Kedua metode ini membangun model dengan memasukkan peubah penjelas satu per satu. Terdapat tiga prosedur pemilihan dalam metode ini. Metode Backward Elimination diawali dengan menghitung persamaan regresi dengan menggunakan semua peubah penjelas. maka peubah tersebut dikeluarkan dari model. 2008) Perbedaannya adalah pada Stepwise Procedure dilakukan pemeriksaan ulang pada tiap langkahnya. ForwardSelection Procedure. Nilai ini menunjukkan seberapa besar kontribusi yang diberikan oleh masing masing peubah penjelas terhadap peubah respon. Sedangkan metode Forward Selection dan Stepwise Procedure menempuh arah yang berlawanan.

misalnya dalam menduga faktor-faktor yang memengaruhi .BAB 3. Sebagai ilustrasi.1 Pengertian Multikolinieritas Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris: Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity). PEMBAHASAN 1.

b. meskipun melibatkan data sampel dengan jumlah yang besar. Mencari nilai Condition Index (CI). Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL). 1. nilai VIF > 10 mengindentifikasi adanya multikolinieritas.Seperti jika menggunakan Model ARIMA dalam peramalan. Jika kedua peubah ini dimasukkan ke dalam model regresi. c.2 Identifikasi Adanya Multikolinieritas a. Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas.Masalah multikolinearitas menjadi serius apabila digunakan unruk mengkaji hubungan antara peubah bebas (X) dengan peubah respon (Y) karena simpangan baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan pengaruh dari masing-masing peubah bebas. dan yang paling umum digunakan adalah Varians Inflation Factor (VIF).8) antara satu pasang atau lebih variabel bebas dalam model.konsumsi per tahun dari suatu rumah tangga. . dengan model regresi ganda sebagai berikut : Y=ß0+ß1X1+ß2X2+E dimana : X1 : pendapatan per tahun dari rumah tangga X2 : pendapatan per bulan dari rumah tangga Peubah X1 dan X2 berkolinearitas sempurna karena X1 = 12X2. akan timbul masalah Kolinearitas Sempurna. Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka masalah multikolinearitas bukan masalah yang serius. karena korelasi antara dua parameter selalu tinggi. Terdapat korelasi yang tinggi (R > 0. Eigenvalue. yang tidak mungkin diperoleh pendugaan koefisien parameter regresinya.

Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda. tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. Uji t (t rasio) tidak signbifikan. yang bisa disebut . satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan . uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol. Nilai koefisien variabel tidak sesuai dengan hipotesis. i. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas. g.d. korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah. Di pihak lain. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati. tapi juga koefisien korelasi parsial. e. Untuk meletakkan persoalan agar secara teknik. f. misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif).3 Dampak Multikolinieritas 1.7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi. ditunjukkan dengan nilai negatif. h. tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. tidak hanya melihat koefisien korelasi sederhana. 1. nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya.

4 Cara Mengatasi Masalah Multikolinieritas dengan Cara Stepwise Regression Metode eliminasi langkah mundur mulai dengan regresi terbesar dengan menggunakan semua peubah. Prosedur seleksi bertatar berusaha me4ncapai kesimpulan yang serupa namun dengan menempuh arah yang berlawanan. 3. dan secara bertahap mengurangi banyaknya peubah didalam persamaa sampai suatu keputusan dicapai untuk menggunakan persamaan yang diperoleh. Walaupun koefisien regresi dari variabel X dapat ditentukan (determinate). 1.tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate 2. penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap perubahan dalam data. tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik. Dalam kasus multikolinearitas yang tinggi. data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah akan meningkat. tetapi kesalahan standarnya akan cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas. Prosedur ini merupakan salah satu prosedur terbaik untuk menyeleksi peubah. 6. 5. Urutan penyisipannya ditentukan dengan menggunakan koefisian korelasi parsial sebagai ukuran pentingnya peubah yang masih diluar persamaan. Jika multikolinearitas tinggi. 4. Prosedur ini lebih menghemat waktu-komputer dibandingkan metode – metode yang lainnya dan juga . yaitu menyusupkan peubah satu demi satu sampai diperoleh persamaan regresi yang memuaskan. seseorang mungkin memperoleh R2 yang tinggi. Selama multikolinearitas tidak sempurna. Karena besarnya kesalahan standar. selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar.

mencegah kita memasukkan lebih banyak peubah x dari pada yang diperlukan sambil memperbaiki persamaannya pada setiap tahap. .

Sign up to vote on this title
UsefulNot useful