You are on page 1of 9

ANALISIS REGRESI

A. UJI ASUMSI KLASIK


Empat uji yang menjadi syarat regresi:
Uji Normalitas

Gambar 1. Sebaran data penelitian


Dari Gambar 1 terlihat bahwa titik-titik data cenderung mendekati garis
linear, jadi dapat disimpulkan bahwa data ini teruji normal.
One-Sample Kolmogorov-Smirnov Test
Unstandardized
Residual
N 106
Normal Parameters a,b
Mean ,0000000
Std. Deviation ,40518801
Most Extreme Differences Absolute ,074
Positive ,046
Negative -,074
Test Statistic ,074
Asymp. Sig. (2-tailed) ,194c
a. Test distribution is Normal.
b. Calculated from data.
c. Lilliefors Significance Correction.

Tabel 1. Tabel output uji normlitas data menggunakan metode Kolmogorov-


Smirnov
Selain melihat menggunakan plot sebaran data, uji normalitas juga dapat
menggunakan metode Kolmogorov-Smirnov. Hasil uji kenormalan data dapat
dilihat di baris Assymp. Sig. (2-tailed) pada Tabel 1, hasil uji menunjukkan bahwa
nilai Assymp. Sig. (2-tailed) adalah 0,194 yang mana nilai tersebut lebih dari 0,05.
Dari dua metode diatas, dapat disimpulkan bahwa data ini berdistribusi
secara normal.

Uji Multikolinearitas

Coefficientsa
Unstandardized Standardized Collinearity
Coefficients Coefficients Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant 1,098 ,377 2,911 ,004
)
X1 ,116 ,082 ,137 1,404 ,163 ,575 1,739
X2 ,288 ,096 ,292 3,008 ,003 ,580 1,723
X3 ,006 ,088 ,008 ,072 ,943 ,488 2,049
X4 ,193 ,078 ,253 2,478 ,015 ,526 1,903
X5 ,162 ,088 ,171 1,840 ,069 ,637 1,570
a. Dependent Variable: Y

Tabel 2. Output uji multikolinearitas


Untuk mengetahui apakah pada data terjadi gejala multikolinearitas atau
tidak, maka akan dilihat pada kolom VIF dan Tolerance. Syarat agar tidak
mengalami gejala Multikolinearitas adalah nilai VIF < 10 dan nilai Tolerance >
0,0. Dari Tabel 2 terlihat bahwa seluruh variabel memiliki nilai VIF < 10 semua
serta nilai Tolerance > 0,0 semua; jadi, dapat disimpulkan bahwa data tidak
mengalami gejala Multikolinearitas.
Uji Heteroskedastisitas

Gambar 2. Scatterplot uji Heteroskedastisitas


Dari Gambar 2 terlihat bahwa ada beberapa titik data yang berhimpitan,
sehingga, pada data ini terjadi gejala Heteroskedastisitas. Gejala
heteroskedastisitas dapat diatasi dengan mengganti metode pengujian, yaitu
menggunakan Metode Glejser.
Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) ,901 ,220 4,094 ,000

X1 -,050 ,048 -,131 -1,042 ,300


X2 -,040 ,056 -,089 -,714 ,477
X3 -,047 ,051 -,125 -,911 ,364
X4 -,019 ,046 -,056 -,422 ,674
X5 ,017 ,051 ,040 ,337 ,737
a. Dependent Variable: abs_res

Tabel 3. Uji Heteroskedastisitas menggunakan Metode Glejser


Nilai Sig. pada variabel independen menggunakan metode Glejser yang
ditunjukkan pada Tabel 3 seluruhnya berada di atas 0,05 atau lebih dari 0,05 ; jadi,
dapat disimpulkan bahwa pada pengujian menggunakan metode Glejser data tidak
terjadi gejala Heteroskedastisitas.
Uji Autokorelasi

Model Summaryb
Adjusted R Std. Error of the
Model R R Square Square Estimate Durbin-Watson
1 ,673 a
,453 ,425 ,41519 1,763
a. Predictors: (Constant), X5, X2, X4, X1, X3
b. Dependent Variable: Y

Tabel 4. Output hasil uji Autokorelasi


Dasar pengambilan keputusan menurut Romie [1]:
 DU < DW < 4−DU maka diterima yang berarti tak terjadi autokorelasi.
 DW < DL atau DW >4−DL maka ditolak yang berarti terjadi autokorelasi.
 DL< DW < DU atau DU < DW < 4−DL berarti tak ada kesimpulan yang
pasti.
Berdasarkan tabel output diatas diketahui nilai Durbin-Waston (DW)
adalah sebesar 1 ,763 . Untuk melihat apakah terjadi gejala autokorelasi atau tida,
maka nilai hitung Durbin-Watson (DW) dibandingkan dengan nilai pada tabel
Durbin-Watson dengan α =0,05 ; nilai k =5 dan N=1 0 6 . Pada tabel diperoleh
nilai DL=1 ,5861 ; DU =1 ,7832. Kemudian untuk 4−DU =2,413; dan
4−DL=2,2168 . Nilai-nalai tersebut dikembalikan ke dasar pengambilan
keputusan:
 1,7832<1,763<2,413 adalah salah.
 1,763<1,5861 atau 1,763>2,2186 adalah salah.
 1,5861<1,763<1,783adalah benar; atau 1,7832<1,763<2,2168 adalah
salah, artinya tidak ada kesimpulan yang pasti.
Karena tidak ada kesimpulan yang pasti, maka akan dilakukan uji
Autokorelasi kembali menggunakan metode lain, yaitu metode Lagrange-
Multiplier Test.

Model Summary
Adjusted R Std. Error of the
Model R R Square Square Estimate
1 ,136 a
,018 -,053 ,41408820
a. Predictors: (Constant), UT_2, X2, UT_1, X5, X4, X1, X3

Tabel 5. Model Summary menggunakan metode Lagrange-Multiplier Test


Pedoman uji Autokorelasi menggunakan Lagrange-Mulplier (LM Test)
adalah sebagai berikut:
 Chi Square hitung < Chi Square tabel, maka disimpulkan tidak terdapat
gejala Autokorelasi
 Chi Square hitung > Chi Square tabel, maka dapat disimpulkan terjadi
gejala autokorelasi.
Rumus dari Chi Square hitung adalah N∗R Square ; dengan N sebagai
jumlah data, df =N−1, Chi Square menggunakan tingkat kepercayaan statistik
95% atau α =0,05 .
Chi Square hitung ¿ 106∗0,018=1,908 dan Chi Square tabel = 129,917955 .
Karena Chi Square hitung = 1,908<129,917955 = Chi Square tabel, maka dapat
disimpulkan data tidak terjadi gejala Autokorelasi.
B. UJI STATISTIK
Uji T

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Correlations
Std. Zero-
Model B Error Beta t Sig. order Partial Part
1 (Constant 1,098 ,377 2,911 ,004
)
X1 ,116 ,082 ,137 1,404 ,163 ,506 ,139 ,104
X2 ,288 ,096 ,292 3,008 ,003 ,569 ,288 ,222
X3 ,006 ,088 ,008 ,072 ,943 ,452 ,007 ,005
X4 ,193 ,078 ,253 2,478 ,015 ,530 ,240 ,183
X5 ,162 ,088 ,171 1,840 ,069 ,469 ,181 ,136
a. Dependent Variable: Y

Tabel 6. Hasil Uji T


Tabel 6 pada kolom t menunjukkan hasil pengujian uji statistik t terhadap
seluruh variabel independen terhadap variabel independen. Uji t bertujuan untuk
melihat apakah setiap variabel independen (X) secara individu berpengaruh
terhadap variabel dependen (Y). Dalam penelitian ini menggunakan α =5 %=0,05
, derajat bebas atau degree of freedom adalah N – k (jumlah variabel bebas dan
terikat) ¿ 106−6=100 , maka diperoleh t tabel ¿ 1,660234 . Karena pada t hitung
yang menunjukkan t hitung > t tabel adalah variabel X2, X4, dan X5; maka ketiga
variabel tersebut berpengaruh terhadap variabel Y secara individu, sedangkan
variabel X1 dan X3 kurang berpengaruh terhadap variabel Y secara individu.

Uji F
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 14,266 5 2,853 16,552 ,000b
Residual 17,239 100 ,172

Total 31,505 105

a. Dependent Variable: Y
b. Predictors: (Constant), X5, X2, X4, X1, X3

Tabel 7. Hasil Uji F


Uji F pada Tabel 7 menunjukkan hubungan keseluruhan variabel
independen terhadap variabel dependen secara bersama-sama. Dengan df 1(untuk
pembilang)¿ 5 dan df 2 (untuk penyebut) ¿ 100; maka diperoleh F tabel ¿ 2,305318.
Dari kolom F dapat dilihat bahwa nilai F hitung adalah sebesar 16 , 552 dan nilai
Sig. 0,000; maka hal ini menunjukkan bahwa F hitung > F tabel. Dapat
disimpulkan bahwa jika secara bersama-sama kedua variabel independen tersebut
berpengaruh terhadap variabel dependen.

Lanjutan

Descriptive Statistics

Mean Std. Deviation N


Y 4,3509 ,54777 106
X1 4,2594 ,64819 106
X2 4,3797 ,55553 106
X3 4,0943 ,65779 106
X4 3,9969 ,71640 106
X5 4,3396 ,57845 106

Tabel 8. Statistik Dreskriptif


Tabel 8 menjelaskan secara singkat tentang data penelitian, dengan jumlah
data sebanyak 106, maka rata-rata masing-masing variabel Y, X1, X2, X3, X4,
dan X5 adalah 4,3509 ; 4,2594 ; 4,3797 ; 4,0943 ; 3,9969 ;dan 4,3396 . Sedangkan
untuk standar deviasi masing-masing variabel Y, X1, X2, X3, X4, dan X5 adalah
0 , 54777 ; 0,64819 ;0,55553; 0,65779; 0,71640 ; dan 0, 57845.
Correlations

Y X1 X2 X3 X4 X5
Pearson Correlation Y 1,000 ,506 ,569 ,452 ,530 ,469
X1 ,506 1,000 ,592 ,438 ,448 ,465
X2 ,569 ,592 1,000 ,440 ,476 ,423
X3 ,452 ,438 ,440 1,000 ,649 ,537
X4 ,530 ,448 ,476 ,649 1,000 ,424
X5 ,469 ,465 ,423 ,537 ,424 1,000
Sig. (1-tailed) Y . ,000 ,000 ,000 ,000 ,000
X1 ,000 . ,000 ,000 ,000 ,000
X2 ,000 ,000 . ,000 ,000 ,000
X3 ,000 ,000 ,000 . ,000 ,000
X4 ,000 ,000 ,000 ,000 . ,000
X5 ,000 ,000 ,000 ,000 ,000 .
N Y 106 106 106 106 106 106
X1 106 106 106 106 106 106
X2 106 106 106 106 106 106
X3 106 106 106 106 106 106
X4 106 106 106 106 106 106
X5 106 106 106 106 106 106

Tabel 9. Korelasi antar variabel


Tabel diatas menjelaskan tentang hubungan antar variabel. Korelasi
variabel X dengan variabel Y berada di interval 0,40−0,599, sehingga seluruh
variabel independen memiliki korelasi yang ‘sedang’ terhadap variabel dependen.
Selain itu, karena seluruh nilai Sig. pada Tabel 9 seluruhnya menunjukkan 0,000
dimana 0,000< 0,05; maka artinya hubungan korelasi variabel independen
terhadap variabel dependen sangat nyata atau signifikan.
Model Summaryb
Adjusted R Std. Error of the
Model R R Square Square Estimate
1 ,673a
,453 ,425 ,41519
a. Predictors: (Constant), X5, X2, X4, X1, X3
b. Dependent Variable: Y

Tabel 10. Ringkasan Model


R square atau koefisien determinasi yang ditunjukkan pada tabel adalah
sebesar 0 , 453 ; artinya sebesar 45,3 % variabel Y dapat dijelaskan oleh variabel
X1, X2, X3, X4, dan X5; sedangkan sisanya dipengaruhi oleh sebab-sebab yang
lain.
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Correlations
Std. Zero-
Model B Error Beta t Sig. order Partial Part
1 (Constant 1,098 ,377 2,911 ,004
)
X1 ,116 ,082 ,137 1,404 ,163 ,506 ,139 ,104
X2 ,288 ,096 ,292 3,008 ,003 ,569 ,288 ,222
X3 ,006 ,088 ,008 ,072 ,943 ,452 ,007 ,005
X4 ,193 ,078 ,253 2,478 ,015 ,530 ,240 ,183
X5 ,162 ,088 ,171 1,840 ,069 ,469 ,181 ,136
a. Dependent Variable: Y

Tabel 11. Koefisien


Dari tabel diatas, persamaan regresi yang diperoleh pada penelitian ini
adalah Y =1,098+ 0,116 X 1+ 288 X 2+ 0,006 X 3+ 0,193 X 4+ 0,162 X 5.

You might also like