Professional Documents
Culture Documents
1 Pendahuluan
Dalam regresi linier sederhana telah dipelajari analisis regresi yang terdiri atas dua variabel. Dalam pembicaraan tersebut di mana analisisnya terdiri atas sebuah variabel bebas X (independent variable) sering disebut variabel X atau prediktor, dan sebuah variabel tak bebas Y (dependent variable) atau variabel Y atau variabel penjelaskan. Tentu dapat dengan mudah dimengerti bahwa, ada juga analisis regresi di mana terdapat lebih dari dua variabel, yaitu analisis regresi di mana terdapat satu variabel tergantung (variabel Y) yang diterangkan atau dijelaskan oleh lebih dari satu variabel lain yang menerangkan (variabel X) atau analisis regresi di mana terdapat lebih dari satu variabel yang tergantung (variabel Y) yang diterangkan atau dijelaskan oleh lebih dari satu variabel lain yang menerangkan (variabel X) yang disebut dengan analisis regresi berganda multivariat atau analisis ragam multi variat (multivariate multiple regression). Analisis regresi dengan satu variabel diterangkan atau variabel Y oleh lebih dari sebuah variabel yang lain atau variabel bebas X, maka analisis yang demikian ini dinamakan analisis regresi majemuk atau analisis regresi berganda atau analisis regresi darab. Sangatlah jelas bahwa dalam permasalahan ini, tidak cocok lagi memakai perkataan atau istilah garis regresi, karena fungsi linier yang terdiri dari tiga buah variabel, sudah tidak berbentuk grafik garis lagi, melainkan berbentuk bidang atau bentuk yang lain. Selanjutnya, jika variabel bebas lebih dari tiga buah, menyebabkan penggambaran grafiknya sangat sulit dan bukan berbentuk bidang atau ruang. Bentuknya dinamakan multi bidang atau berbidang banyak (hyper plane). Grafik suatu fungsi akan berbentuk garis jika di dalam fungsi itu hanya terdapat dua macam variabel, yang koordinatnya berdemensi dua atau bidang. Sehingga dalam penggambaran grafik dari tiga macam variabel dapat memakai istilah bidang regresi atau grafiknya berdemensi tiga atau berdemensi ruang. Tetapi istilah inipun tidak dapat dipertahankan lagi secara bebas jika telah dipergunakan fungsi regresi yang terdiri dari empat macam atau lebih variabel yang dipergunakan. Sebagaimana halnya dalam analisis regresi linier sederhana (lihat Tenaya et al., 1985), maka di dalam analisis regresi berganda ini juga dapat dikenal adanya: 1). 2). Analisis regresi linier berganda dan Analisis regresi berganda kurvilinier atau analisis regresi berganda non linier.
Perbedaan dari kedua analisis di atas antara analisis regresi linier berganda dengan analisis regresi berganda kurvilinier (non linier) didasarkan atas perbedaan pada variabelvariabel bebas (variabel X) yang menyusunnya; atau di mana variabel Y yang berbentuk fungsi pangkat atau berpangkat tidak sama dengan satu. Untuk mempertegas masalah perbedaan antara analisis regresi linier berganda dengan analisis regresi berganda non linier, diberikan batasan dan contoh fungsinya seperti berikut: 1). Analisis regresi linier berganda didefinisikan adalah analisis regresi yang variabel tak bebas Y ditentukan oleh sekurang-kurangnya dua variabel bebas X dan setiap variabel X maupun variabel Y hanya berpangkat satu (linier).
42
2). Analisis regresi berganda non linier didefinisikan adalah sebagai analisis regresi di mana variabel tak bebas Y ditentukan oleh sekurang-kurangnya dua variabel bebas X dan yang salah satu atau kedua macam variabel mempunyai pangkat tidak sama dengan satu. Atau regresi di mana variabel tak bebas Y dengan pangkat tidak sama dengan satu ditentukan oleh sekurang-kurangnya dua variabel bebas X.
Cara lain yang umum dipergunakan pada penulisan model regresi berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan model persamaan di bawah ini. Persamaan regresi linier berganda model Yule seperti berikut. [3.2]. Yi = Y.12 + Y1.2 Xi1 + Y3.1 Xi2 + ei
Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X1 dan angka 2 untuk variabel X2. Nilai koefisien regresi Y.12 dalam model [3.2] merupakan titik potong dengan sumbu tegak atau intercept, yang biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel tak bebas Y di luar variabel bebas X yang ada dalam model atau nilai rata-rata Y jika X1 dan X2 sama dengan nol (= 0). Koefisien regresi Y1.2 adalah koefisien arah atau estimator regresi Y terhadap X1 dengan X2 dianggap konstan. Koefisien regresi Y3.1 adalah koefisien arah atau estimator regresi Y terhadap variabel X2 dengan X1 dianggap konstan. Interprestasi dari analisis regresi linier berganda ini adalah hampir serupa dengan interprestasi analisis regresi linier sederhana; artinya variabel bebas X1 bersama-sama dengan variabel bebas X2 berpengaruh terhadap variabel tak bebas Y, yang masing-masing variabel Xi bekerja secara linier dan bebas sesamanya. Apabila antara variabel bebas Xi tidak bersifat bebas sesamanya atau antara variabel bebas Xi, terdapat interaksi linier maka model persamaan [3.1] akan berubah bentuknya menjadi: [3.3]. Y = 0 + 1 X1 + 2 X2 + 12 X1 X2
Model persamaan [3.3] menunjukan adanya interaksi linier antara variabel bebas X1 dan variabel bebas X3. Bentuk grafik atau gambar dari persamaan [3.1] atau dari persamaan [3.2] atau persamaan [3.3] berupa bidang datar seperti Gambar 3.1 berikut. Selanjutnya, bila dari persaamaan [3.1] dimodifikasi yang terdiri atas p prediktor; di mana p lebih besar dari tiga (p > 3), maka model [3.1] tersebut sulit untuk digambar, karena penggambarannya terdiri atas banyak sumbu sehingga bentuknya tidak menentu. Berbeda halnya dengan regresi berganda non linier mempunyai bentuk gambar atau grafik yang berupa garis lengkung atau bidang lengkung dengan persamaan seperti berikut. [3.4]. Y = 0 + 1 X1 + 11 X1 + 2 X2 + 22 X2 + 12 X1 X2
2 2
43
Gambar 3.2. Bidang Lengkung Dua Prediktor (Regresor) Sebagai tambahan bahwa pada regresi non linier dapat dibedakan menjadi: 1). Regresi non linier sederhana, adalah analisis regresi yang mempunyai hanya sebuah variabel bebas X, di mana grafiknya adalah berbentuk garis lengkung (bukan lurus atau linier). Regresi non linier berganda, adalah analisis regresi, yang mempunyai sekurangkurangnya dua buah atau lebih variabel bebas X di mana grafiknya berbentuk bidang lengkung.
2).
44
3.3
( X )1 + ( X )
2
+ 2
( X)
+ . . . + p
( X)
X + 2
2
( X)
atau dapat ditulis dengan dalam bentuk lain juga dapat seperti
2
Y = 0 + 1 X + 2 X Y = 0 + 1
1 1 + 2 X X
0 + 1 X + 2 X 2 + . . . + p X p
atau dapat ditulis dengan:
[3.11]. Y2
[3.12]. [4.13].
Y Y
-1
= 0 + 1 X + 2 X + . . . + p X =
1 e
0 + 1 X + 2 X 2 + . . .+ p X p
[3.15]. Y =
0 + 1 X + 2 X 2 + . . . + p X p
...X
Fungsi di atas ini lebih dikenal dengan nama model fungsi Cobb-Douglas.
45
1 1+ e
0 + 1 X + 2 X 2 + . . .+ p X p
[3.20]. Y = 0 X11 e1X1 X2 3. e2X2 Selain model-model tersebut di atas, masih banyak lagi bentuk-bentuk persamaan regresi yang lainnya. Sehingga, jelas sekali bahwa penyelesaian dari bentuk-bentuk regresi di atas sangat memerlukan pengetahuan matematika yang cukup, terutama pengetahuan mengenai matriks dan operasinya. Oleh karena itu, untuk dapat mengerjakan persamaan-persamaan tersebut di atas itu, maka sebelum pembicaraan langsung memgenai bentuk-bentuk persamaan itu, akan didahului dengan pengenalan matriks yang disajikan secara singkat. Jadi pengenalan matriks di sini bertujuan memberikan bekal bagi yang belum pernah mendapatkan pelajaran aljabar matriks dan bagi yang sudah sekedar mengingatkan kembali operasi operasi matriks yang akan dipergunakan pada analisis regresi. Dalam analisi regresi berganda, yaitu akan dibicarakan penyelesaian persamaan regresi berganda terutama dengan metode matriks, yang sebelumnya diterangkan dengan metode simultan. Jadi disini dibicarakan bagaimana menyelesaikan olahan data yang diperoleh dari sampel, kemudian diubah menjadi bentuk matriks, sampai mendapatkan nilai parameter atau koefisien regresi (bi) yang didapat dari olahan secara simultan dan olahan secara operasi matriks, serta uji-ujinya. Berdasarkan hal ini, peranan matriks dalam penyelesaian persamaan regresi sangat diperlukan.
3.4
Pada awal pembicaaan ini telah disinggung tentang macam-macam regresi berganda dengan bentuk-bentuk fungsinya. Apabila dalam persamaan regresi linier mencakup lebih dari dua prediktor atau variabel bebas X, sehingga terdapat minimal tiga variabel termasuk variabel tak bebas Y, maka regresi tersebut dinamakan regresi linier berganda (multiple linier regression). Dalam banyak buku, penulisan persamaan regresi linier berganda mempunyai pola yang berbeda-beda, tetapi pada prinsipnya sama. Penulisan itu didasarkan pada pandangan dan tujuan dari tulisan tersebut. Seperti halnya, apakah tulisan itu ditujukan untuk menunjukkan cara pengolahan data, ataukah tulisan itu ditujukan pada pembuktian dan penurunan persamaan-persamaan ataupun mempunyai tujuan lain. Yang jelas terdapat perbedaan penggunaan notasi yang dipakai dalam melambangkan variabel-variabel dan parameter, atau dalam pembuktian persamaan-persamaan. Model umum regresi linier berganda seperti yang di sebutkan pada persamaam [3.2] dinyatakan kembali pada model di bawah ini. [3.21]. Y = 0 + 1 X1 + 2 X2 + . . . + p Xp +
46
eberapa cara lain penulisan persamaan regresi linier berganda yang terdiri atas lebih dari dua variabel bebas adalah: [3.21a]. Yi [3.21b]. Yi [3.21c]. Yi [3.21d]. Yi = = = = 0 + A + 1 + 0 + 1 X1i 1 X1i 2 X2i 1 Xi1 + + + + 2 X2i 2 X2i 3 X3i 2 Xi2 + . . . + p Xpi + . . . + p Xpi + . . . + p Xpi + . . . + p Xip + + + + i i i i
[3.21e]. Yi = 0 X0 + 1 Xi1 + 2 Xi2 + . . . + p Xip + i [3.21f]. Yi = 1.234 + 13.34 X2 + 13.24 X3 + . . . + 1p.23 Xp + i [3.21g]. Yi = i Xi + i [3.21h]. Yi [3.21i]. Yi [3.21j]. Yi [3.21k]. Yi = = = = a + b1 X1i + b2 X2i + . . . + bp Xpi + ei b1 + b2 X2i + b3 X3i + . . . + bp Xpi + ei b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei b0 X0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei
di mana i = 1, 2, 3, . . . .p
i = 1, 2, 3, . . . .p
Dari macam-macam model di atas, angka-angka yang tercantum pada setiap koefisien disebut indeks atau subscript. Indeks huruf i pada setiap variabel menunnjukkan pengamatan ke-i dari sampel yang diamati. Selanjutnya, dalam uraian-uraian berikut akan menggunakan model (3.21) untuk keseragaman dalam analisis regresi. Hubungan yang sebenarnya antara yang hendak ditaksir dan variabel bebas X pada regresi linier berganda dapat ditulis: [3.22]. E(Yi) = B0 + B1 Xi1 + B2 Xi2 + . . . + Bp Xip Dari model persamaan [3.22] di mana Yi adalah variabel yang dijelaskan, X1, X2 , . . ., Xp adalah variabel-variabel bebas penjelaskan atau prediktor atau regresor. Yi nilai variabel Y pada pengamatan ke-i, Xi1 nilai variabel X1 pada pengamatan ke-i, dan Xip nilai variabel Xp pada pengamatan ke-i. Nilai-nilai B0, B1, B2, . . . , Bp adalah koefisien-koefisien regresi atau parameterparameter populasi yang akan ditaksir berdasarkan data sampel, dan p menunjukkan banyaknya variabel bebas X yang diduga berpengaruh terhadap variabel tak bebas Y Persamaan [3.22] dapat pula ditulis berdasarkan data sampel menjadi seperti berikut. [3.23]. Yi = b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip + ei Dari persamaan [3.23] yang berhubungan dengan pengamatan ke-i, yang bermaksud untuk menaksir parameter-parameter atau koefisien regresi populasi B0, B1, B2, . . . , Bp dengan menggunakan penaksir koefisien-koefisien regresi yang berasal dari sampel atau data pengamatan yaitu: b0, b1, b2, . . . , bp. Koefisien-koefisien regresi sampel diberi simbul bi sebagai penaksir parameter populasi Bi. Sehingga penaksir bagi persamaan regresi yang sebenarnya, yaitu penaksir bagi persamaan [3.22] dan [3.23] dapat ditulis sebagai berikut: [3.24]. = b0 + b1 Xi1 + b2 Xi2 + . . . + bp Xip Persamaan [3.24] tersebut di atas yang akan dicari dengan menggunakan data berasal dari sampel. Jadi nilai merupakan nilai dugaan atau perkiraan terhadap nilai Y.
47
3).
4).
5).
Jika sebuah variabel bebas Xi tepaut linier lebih dengan sebuah variabel bebas lain, maka dalam analisis regresi linier berganda tersebut dikatakan terjadi kolinieritas ganda (multicollinierity).
3.6
Analisis regresi linier berganda yang paling sederhana dengan menggunakan hubungan linier yang terdiri atas dua buah variabel bebas X atau prediktor dengan sebuah variabel tak bebas Y atau regresor dengan bentuk fungsi atau model persamaan umum seperi pada persamaan [3.2] yang ditulis kembali pada persamaan [3.5] berikut ini. [3.5]. Y = b0 + b1 X1 + b2 X2 (bentuk paling sederhana dari regresi linier berganda).
Dalam regresi linier berganda seperti pada persamaan [3.2] atau [3.5] yang terdiri atas dua variabel bebas X, dapat diasosiasikan sebagai penjumlahan dari dua penyelesaian regresi linier sederhana yang secara bersamaan terhadap suatu permasalahan atau satu variabel tak bebas Y. Dalam uraian berikut ini akan ditunjukkan penyelesaian regresi linier berganda dua variabel bebas X secara simultan untuk menentukan nilai parameter atau koefisien regresi b0; b1; dan b3. Untuk mempermudah pengertian di atas, perhatikan contoh sederhana ini. Hasil tanaman bawang merah per hektar selain dipengaruhi oleh jumlah pupuk yang diberikan, juga dipengaruhi oleh berat atau banyaknya gulma yang tumbuh. Jika hasil bawang merah per hektar merupakan variabel tak bebas Y dan jumlah pupuk kandang yang diberikan sebagai variabel bebas X1 dan berat atau banyaknya gulma yang tumbuh sebagai variabel bebas X3.
48
Maka dapat dikatakan bahwa Y dipengaruhi oleh X1 dan X2 secara bersama-sama. Apabila pengertian di atas diregresikan secara linier sederhana Y dengan setiap X1 atau dengan X2 yang mempengaruhi Y masing-masing secara terpisah, maka regresi antara Y dengan X1 dan antara Y dengan X2 dapat ditulis dengan persamaan:Yi = b01 + b1 Xi1 dan Y = b02 + b2 Xi3. Selanjutnya, apabila kedua persamaan di atas dijumlahkan secara penjumlahan garis yang ortogonal atau tegak lurus satu sama lainnya, maka didapatkan nilai b01 + b02 = b0 secara bersama, sehingga kedua persamaan di atas dapat ditulis menjadi: Yi = b01 + b1 Xi1 Yi = b02 + b2 Xi3. [3.26]. Yi = (b01 + b02) + b1 Xi1 + b2 Xi2 atau dapat diubah menjadi:
[3.27]. Yi = b0 + b1 Xi1 + b2 Xi2 seperti persamaan [3.2] atau [3.5] dengan p = 2. Jika dari persamaan [3.27] dipakai dasar untuk menduga koefisien regresi linier berganda bi untuk dua prediktor yaitu b0; b1; dan b2 maka modelnya dapat ditulis menjadi: [3.28]. = b0 + b1 X1 + b2 X2
[3.30]. ei = Yi - b0 - b1 X1 - b2 X2 ei = penyimpangan titik pengamatan Yi terhadap nilai pengamatan Nilai ei yang merupakan penyimpangan antara titik-titik pengamatan Yi dengan bidang regresi yang dicari atau . Dengan nilai ei ini dapat dipakai untuk menduga nilai parameter bi atau koefisien regresi parsial b0; b1; dan b3.
49
Jadi, pada perhitungan nilai-nilai b0, b1, dan b2 yang dicari dengan meminimumkan nilai G pada persamaan [3.32] yang merupakan nilai-nilai penaksir atau penduga bagi parameter-parameter 0, 1, dan 2 untuk dua pubah X1 dan X3. Cara penyelesaian seperti ini juga berlaku bagi sejumlah p variabel bebas Xi yang dapat diduga dengan metode matriks yang akan dibahas kemudian. Syarat yang harus diperlukan dalam meminimali nilai G pada persamaan [3.32] adalah mengharuskan menyamakan fungsi-fungsi turunan pertama parsial dari jumlah 2 pangkat dua simpangan (ei) = ei terhadap b0, b1, dan b2 yang disamakan dengan nol, 2 sehingga fungsi turunan ei atau G terhadap setiap nilai b0, b1, dan b2 dapat ditulis sebagai berikut: Turunan pertama dari ei atau G terhadap b0 menjadi: [3.33]. G/b0 = 2 (Yi - b0 - b1 X1 - b2 X2) (- 1) = 0 Turunan pertama darie2 atau G terhadap b1 menjadi: [3.34]. G/b1 = 2 (Yi - b0 - b1 X1 - b2 X2) (- X1) = 0 Turunan pertama darie atau G terhadap b2 menjadi: [3.35]. G/b2 = 2 (Yi - b0 - b1 X1 - b2 X2) (- X2) = 0 Perhatikan faktor pengali yang berada di kiri tanda sama dengan nol. Apabila dari persamaan-persamaan di atas [3.33], [3.34], dan [3.35] diselesaikan secara serantak dan diubah cara penyajiannya, maka diperoleh persamaan-persamaan seperti: [3.36]. Yi - b0 - b1 X1 - b2 X2 = 0 [3.37]. Yi X1 - b0 X1 - b1 X1 - b2 X1X2 = 0 [3.38]. Yi X2 - b0 X2 - b1 X1 X2 - b2 X2 = 0 Persamaan-persamaan [3.36], [3.37], dan [3.38] di atas disebut dengan persamaan normal. Perhatikan pengali dari setiap penaksir-penaksir yang berhubungan koefisien regresi seperti b0, b1, dan b3. Apabila syarat-syarat dalam meminimalkan G dipenuhi, maka sistem persamaan normal dari [3.36], [3.37], dan [3.38] dapat diselesaikan secara serentak untuk menentukan besarnya nilai-nilai b0, b1, dan b2 sebagai penaksir pangkat dua terkecil atau Least Squares Method (OLS = ordinary list squares) bagi parameterparameter B0, B1, dan B3.
2 2 2 2
50
Biasanya, sistem persamaan-persamaan normal [3.36], [3.37], dan [3.38] dapat diselesaikan secara serentak untuk mendapatkan nilai- nilai b0, b1, dan b2; oleh karena jumlah sampel (n) diketahui dan jumlah-jumlah yang terdapat dalam sistem persamaan normal itu dapat dihitung dari data sampel. Dengan demikian koefisien-koefisien regresi b0, b1, dan b2, dalam analisis regresi linier berganda yang mengandung dua buah prediktor atau variabel bebas X dapat ditaksir atau dihitung.
3.9
Jika diperhatikan kembali sistem persaman normal dari persamaan-persamaan [3.36], [3.37], dan [3.38] dapat dilihat keteraturan dari cara-cara penyelesaianya. Sehingga setiap nilai bi dapat ditentukan dengan perhitungan seperti berikut. Dari persamaan [3.36] dapat ditentukan nilai b0 yaitu dengan membagi persamaan tersebut dengan jumlah pengamatan (= n) sehingga didapatkan persamaan dengan penyelesaian: Yi - nb0 - b1 X1 - b2 X2 = 0 sama-sama di bagi dengan n atau sehingga akhirnya menjadi Yi /n - nb0 /n - b1 X1 /n - b2 X2 /n = 0/n
Y - b0 - b1 X 1 - b2 X 2 = 0
[3.39]. b0 = Y - b1 X 1 - b2 X 2
Dari persamaan [3.37] dan [3.38] di atas dapat ditentukan besarnya nilai b1 dan b2 dengan memodifikasi persamaannya menjadi persamaan-persamaan dengan huruf kecil. Perhatikan dengan teliti notasi dari variabel bebas X dan variabel tak bebas Y yang ditulis dengan huruf kecil x dan y pada persamaan-persamaan berikut ini. Berikut ini diberikan hubungan antara X & Y dengan x & y: [3.40a]. x1 = (X1 - X 1 ), [3.40b]. x2 = (X2 - X 2 ), dan [3.40b]. y = (Y - Y ) [3.41a]. y = Y - (Y) /n [3.41b]. [3.41c]. x12 x22 = X12 = X22 - (X1) /n - (X2)2/n
2 2 2 2
disebut dengan deviasi X1 disebut dengan deviasi X2, dan disebut dengan deviasi Y disebut dengan JK Y disebut dengan JK X1 disebut dengan JK X2 disebut dengan JHK X1Y disebut dengan JHK X2Y disebut dengan JHK X1X2
[3.41d]. x1y = X1Y - X1 Y/n [3.41e]. x2y = X2Y - X2 Y/n [3.41f]. x1x2 = X1X2 - X1 X2/n
Dengan menggunakan persamaan [3.41a] sampai dengan persamaan [3.41f] maka perhitungan nilai b1 dan b2 menjadi: [3.42a].
b1 =
[3.42b].
b2 =
51
Atau dengan menggunakan notasi lain dari persamaan [3.41a] sampai dengan [3.41f] maka perhitungan nilai b1 dan b2 menjadi: [3.43a].
b1 =
[3.43b].
b2 =
Selanjutnya, dilakukan pengujian terhadap regresi linier berganda terutama pengujian terhadap nilai-nilai koefisien regresi berganda (bi) serta pengujian terhadap bidang regresi atau uji varians regresi atau uji F regresi.
Ketiga macam uji-uji tersebut di atas menggunakan Ragam Galat Regresi atau Varians 3. 2 Residual Regresi yang disimbulkan dengan Karena nilai tidak pernah diketahui, 2 maka nilai didekati atau diduga dengan menggunakan nilai dugaan Galat Regresi penduga = S2 atau Se3. Nilai Se disebut dengan Kuadrat Simpangan Baku Regresi penduga atau lebih dikenal dengan sebutan Ragam Galat Regresi atau Ragam Residual Regresi atau Varians Residual Regresi atau Varians Sisa Regresi atau Varians Galat Regresi. Ragam Galat Regresi = Se2, yang perhitungannya didasarkan pada Jumlah Kuadrat Kesalahan Penggangu yang sering disebut dengan Jumlah Kuadrat Residual Regresi (JK Galat Regresi = JK Sisa Regresi = JK Residual yang disingkat dengan = JK Galat Regresi dengan simbul e i2) dibagi dengan Derajat Bebas Galat Regresi = DB Galat Regresi yang besarnya sama dengan n - p - 1. Dasar perhitungan dari KT Galat Regresi atau Varians Residual Regresi adalah menggunakan persamaan [3.30] yaitu nilai variabel pengganggu e yang ditulis kembali menjadi persamaan: [3.44]. ei = Yi - b0 - bi Xi1 - b2 Xi2
2
Dan jika ke dalam persamaan [3.44] disubstitusikan persamaan [3.39] yaitu pesamaan untuk perhitungan b0 maka didapatkan persamaan: [3.45a]. ei = Yi - ( Y - b1 X 1 - b2 X 2 ) - bi Xi1 - b2 Xi2 dengan membuka kurung maka menjadi:
52
Dan dari persamaan [3.44] yaitu persamaan untuk nilai ei = Yi - b0 - bi Xi1 - b2 Xi2 sehingga dengan mengkuadrat jumlahkan nilai ei; selanjutnya didapatkan ei2 atau disebut dengan JK Galat Regresi dengan kode G; dengan persamaannya menjadi: [3.46a]. G = ei atau [3.46b]. G = eiei. Ingat ei = yi - b1 x1 - b2 x3. Seperti persamaan [3.45c] sehingga: [3.46c]. G = ei(yi - b1 x1 - b2 x2) [3.46d]. G = eiyi - b1 eI x1 - b2 eI x2) [3.46e]. G = eiyi sebab eI x1 = eI x2 = 0. [3.46f]. G = yiei [246g]. G = yi (yi - b1 x1 - b2 x2) [3.46h]. G = yiyi - b1 yi x1 - b2 yi x2 Ingat : yiyi = yi = JK Total = JK Y yix1 = JHK YX1 = JHK X1Y Ingat persamaan [3.41a sd 3.17f]. yix2 = JHK YX2 = JHK X2Y b1 yix1 + b2 yix2 disebut dengan JK Regresi Dari persamaan [3.46 h] didapatkan bahwa JK Galat Regresi atau JK Residual Regresi Linier berganda sama dengan JK Total dikurangi dengan JK Regresi. Di mana JK Total = JK Y. Hubungan antara komponen-komponen pada analisis keragaman (JK Total, JK Regresi, dan JK Galat Regresi) seperti berikut: [3.47]. JK Galat Regresi = JK Total - JK Regresi.
2 2
sehingga menjadi:
Untuk menyederhanakan penulisan dan pengertian di atas, maka selanjutnya JK Galat Regresi disingkat dengan JK Galat, JK Regresi dengn JK Reg (tanpa titik) dan JK Total dengan JK Tot atau JK Y (tanpa titik). Sehingga sesuai dengan persamaan [3.47], maka JK Regresi dua prediktor (dua variabel bebas X) mempunyai persamaan: [3.485a] JK Regresi = (b1 yi x1 + b2 yi x2) [3.48b] JK Regresi = (b1 JHK X1Y + b2 JHK X2Y) atau dapat ditulis:
Persamaan [248a,b] berlaku umum untuk p variabel bebas X sehingga persamaannya menjadi: [249a] [3.49b] JK Regresi = b1 yi x1 + b2 yi x2 + . . . + bp yi xp JK Regresi = (b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY)
Setelah perhitung JK Total, JK Regresi, dan JK Galat Regresi didapat maka di lanjutkan dengan uji F atau Analisis Keragaman atau Analisis Varians Regresi seperti uraian berikut.
53
b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY (untuk p buah prediktor) 2 2 Jk Y = Y - (Y) /n JK Total - JK Regresi
Selanjutnya dihitung nilai KT atau Varians seperti: 1). 2). KT Regresi = JK Regresi/(db Regresi). (DB Regresi = p. KT Galat = JK Galat/(db Galat) (DB Galat = n-p-1 p = jumlah variabel X) n = jumlah sampel)
Hasil perhitungan keragaman atau analisis varians di atas dibuatkan Tabel Sidik Ragam Regresi seperti pada Tabel 3.1. Tabel 3.1. Bagan Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (JK) Regresi Residual atau Galat Total n1= yi
2
JK Galat n p 1
= JK Tot = JK Y
n = jumlah sampel.
Berdasarkan pada asumsi sebaran normal untuk komponen pengganggu e, maka besarnya nilai F (F-hitung) dapat dihitung dengan rumus adalah: [3.50] Fhit =
KT Re gresi KT Galat
F-hitung disimbulkan dengan Fhit yang digunakan dalam pengujian hipotesis akan dibuktikan dengan uji hipotesis. Hipotesis nol atau H0 : Fhit = 0 dan H1 : Fhit 0
54
Kreteria pengujian nilai Fhit adalah: 1). Jika Fhit > F(tabel ) ini berarti bahwa terdapat hubungan bukan linier berganda pada pasangan pengamatan X1, X2, Y tersebut atau f = (X1, X2) adalah bukan linier pada taraf . Jika Fhit F(tabel ) ini berarti bahwa terdapat hubungan linier berganda antara pengaruh X1 dan X2 terhadap Y secara bersama atau simultan pada taraf . Pengujian yang dilakukan dengan uji F seperti cara tersebut di atas, tidak dapat memberikan petunjuk apakah setiap variabel bebas Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial.
2).
Oleh karena itu, maka untuk menunjukkan hubungan atau pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan menguraikan analisis keragaman yaitu menguraikan JK Regresi menjadi JK Regresi parsial untuk setiap variabel bebas Xi seperti uraian berikut ini. JK Regresi berganda = b1 JHK X1Y + b2 JHK X2Y + . . . + bp JHK XpY (untuk p prediktor) yang dapat diuraikan menjadi seperti berikut: 1). 2). JK Regresi X1 = b1 JHK X1Y JK Regresi X2 = b2 JHK X2Y . . . . . . JK Regresi Xp = bp JHK XpY
p).
Untuk dua variabel bebas X, maka JK regresi parsial variabel bebas X1 dan X2 adalah: JK Regresi = b1 JHK X1Y + b2 JHK X2Y (untuk 2 prediktor) dapat diuraikan menjadi: 1). 2). JK Regresi X1 = b1 JHK X1Y JK Regresi X2 = b2 JHK X2Y
Dengan demikian maka bentuk Tabel Sidik Ragam Regresi dari uraian di atas untuk dua variabel bebas X dapat ditulis seperti pada Tabel 3.2 di bawah ini. Tabel 3.3. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi Regresi X1 Regresi X2/X1 Residual atau Galat Total
Keterangan:
F hitung (Fhit)
F tabel 5% 1%
Jumlah sampel = n.
55
Dari Sidik Ragam Tabel 3.3 di atas terlihat bahwa JK Regresi, dapat diuraikan mendi JK Regresi komponen-komponen setiap variabel bebas Xi dengan derajat bebas tiap komponen sama dengan satu yaitu JK Regresi X1 dan JK Regesi X2/X1 artinya JK Regresi dari X2 jika X1 dianggap konstan, atau variabel X2 merupakan tambahan terhadap variabel bebas X1 dalam mempengaruhi variabel tak bebas Y; demikian selanjutnya apabila jumlah variabel bebas bertambah samapai sebanyak p buah.
3.12 Uji Keberartian Koefisien Regresi (bi) Secara Parsial atau Uji t Koefisien Regresi
Pengujian yang dilakukan dengan uji F seperti cara tersebut pada Tabel 3.3 di atas, dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial. Modifikasi dari pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan uji t atau uji koefisien regresi secara parsial. Secara umum uji t mempunyai persamaan seperti berikut: [3.51]. t-hitung W =
W Sw
W nilai yang diuji, sehingga untuk pengujian koefisien regresi (bi), maka persamaananya menjadi: [3.52]. t-hitung b1 =
b1 ; S b1
t-hitung b2 =
b2 ; S b2
dan seterusnya
Di mana Sbi = salah baku bi
Dari persamaan [3.52] dalam menyederhanakan penulisan Salah Baku Koefisien Regresi Bi biasa ditulis dengan Bi (Salah Baku = Standard Error Koefisien Regresi Bi ). Perhitungannya didasarkan pada Ragam Galat Regresi atau KT Galat Regresi. Karena 2 besarnya nilai e (Ragam Galat Regresi Populasi) tidak diketahui, maka dapat diduga 2 dengan nilai S e atau KT Galat Regresi penduga yang mempunyai persamaan yaitu: [3.53]. S2e = KT Galat Regresi = JK Galat Regresi/(n-p-1) (Perhatikan Tabel 3.2)
Selanjutnya, dalam Analisis Regresi dua prediktor, nilai Salah Baku bi yang ditulis (Sbi) mempunyai persamaan seperti: [3.54]. Sbi =
var bi
56
Seperti dalam uji F, penulisan t-hitung dapat ditulis dengan notasi thitung (artinya uji t untuk pengujian hipotesis nol atau H0 : bi = 0 dan H1 : minimal satu dari bi 0). Berdasarkan hasil uji t ternyata bahwa kreteria pengujian nilai thitung adalah: 1). Jika thitung t(tabel 5%, db galat) ini berarti pada analisis regresi linier berganda, pengaruh X1 dan X2 terhadap Y menunjukkan bahwa baik X1 maupun X2 berpengaruh tidak nyata secara parsial terhadap Y. 2). Jika thitung > t(tabel 5%, db galat) maka nilai bi menunjukkan bahwa masing-masing baik X1 maupun X2 berpengaruh nyata terhadap variabel bebas Y secara individual dalam kebersamaan atau secara parsial. Dengan kata lain ini berarti bahwa koefisien arah bi yang berangkutan dapat dipakai sebagai penduga dan peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas, dapat memberikan petunjuk apakah setiap variabel bebas Xi memberikan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y. Perlu diingatkan di sini ialah bahwa dalam pengujian-pengujian di atas (baik uji F maupun uji t), didasarkan atas metode kuadrat terkecil (OLS). Selanjutnya, nilai Salah Baku Koefisien Regresi atau Sbi yang diperoleh selain untuk pengujian hipotesis juga dapat dipakai pada perkiraan nilai interval koefisien regresi parsial yang sering disebut dengan perkiraan nilai beta () populasi dengan persamaan sebagai berikut di bawah ini. [3.56]. p {bi - t/2 Sbi < i < bi + t/2 Sbi} = 1- untuk setiap b1 dan b1 seperti: untuk b1 untuk b2
[3.57a]. p {b1 - t/2 Sb1 < 1 < b1 + t/2 Sb1} = 1- [3.57b]. p {b2 - t/2 Sb2 < 2 < b2 + t/2 Sb2} = 1-
3.13
Dalam analisis regresi linier berganda terdapat beberapa macam koefisien korelasi, yang tergantung pada pendekatan hubungan yang dicari. Adapun macam-macam koefisien korelasi tersebut adalah: 1). 2). 3). 4). Koefisien korelasi sederhana. Koefisien korelasi parsial. Koefisien korelasi berganda. Koefisien determinasi.
57
Dalam analisis regresi berganda tiga variabel atau dua prediktor yaitu analisis regresi yang terdiri atas dua pubah bebas X yaitu X1 dan X2 serta sebuah variabel tak bebas Y, maka terdapat tiga nilai koefisien korelasi linier sederhana rij yaitu: 1) 2) 3) rY1 atau rYX1 yaitu koefisien korelasi antara Y dengan X1; rY2 atau rYX2 yaitu koefisien korelasi antara Y dengan X2; dan r12 atau rX2X1 yaitu koefisien korelasi antara X1 dengan X3.
Koefisien-koefisien korelasi tersebut di atas disebut dengan koefisien korelasi linier sederhana atau koefisien korelasi tahap nol atau koefisien korelasi order nol (simple coeficient of correlation or correlation coeficients of zero order). Adapun rumus dari koefisien korelasi sederhana ini adalah:
[3.58a]. rXY =
[3.58b]. rXY =
X Y n 2 ( X) ( Y )2 Y 2 X 2 n n xy XY x y
2 2
atau
atau
[3.58c]. rXY =
(JK X )(JKY )
JHK XY
(n = jumlah sampel)
Memperhatikan keterangan di atas dapatkah dikatakan bahwa rYX1 merupakan ukuran dari keeratan huhungan atau korelasi sederhana antara Y dengan X1 yang sebenarnya, tanpa ada pengaruh yang variabel lain; sementara diketahui bahwa yang mempengaruh nilai Y adalah X2 selain nilai X1 dan selain itu kemungkinan juga X2 mempengaruhi X1 . Jadi tegasnya bahwa dalam regresi berganda untuk mendapatkan hubungan yang sebenarnya antara sebuah variabel bebas Xi dengan variabel tak bebas Y, yaitu dengan cara menghilangkan pengaruh variabel-variabel bebas yang lainya. Analisis ini dikenal dengan nama analisis korelasi parsial.
3).
4).
58
1.
Koefisien korelasi parsial order satu pada model persamaan regresi: = 0 + 1 X1 + 2 X3. dapat diuraikan menjadi: (1). rYX1.X2 koefisien korelasi parsial antara Y & X1 jika X2 pengaruhnya konstan (2). rYX3.X1 koefisien korelasi parsial antara Y & X2 jika X1 pengaruhnya konstan (3). rX1X3.Y koefisien korelasi parsial antara X1 & X2 jika Y pengaruhnya konstan Perhitungan nilai-nilai koefisien korelasi parsial oder satu untuk tiga variabel dari persamaan di atas, didasarkan pada nilai-nilai koefisien korelasi sederhana atau korelasi order nol. Koefisien korelasi parsial oder satu mempunyai persamaan: [3.60a]. rYX1.X2 =
rYX 1 rYX 2 rX 1 X 2 (1 r 2 YX 2 ) (1 r 2 X 1 X 2 )
[3.60b].
rYX3.X1
[3.60c].
rX1X3.Y
Dari persamaan [3.60a sd 3.60c] di atas dengan pengertian bahwa: 1) 2) 3) rYX1 adalah koefisien korelasi sederhana antara Y dengan X1; rYX2 adalah koefisien korelasi sederhana antara Y dengan X2; dan rX1X2 adalah koefisien korelasi sederhana antara X1 dengan X3.
Apabila nilai koefisien korelasi sederhana diketahui besarnya sehingga analisis korelasi parsial oder satu dari persamaan regresi tiga variabel di atas menjadi: [3.61a]. rYX1.X2 =
rYX 1 rYX2 rX 1X2
2 (1 rY2 X2 ) (1 rX 1 X 2 )
[3.61b].
rYX3.X1
[3.61c].
rX1X3.Y
rX !X 2 (1
rY2 X1 )
Beberapa interprestasi yang dapat diungkapkan dari persamaan (3.61a sd 3.61c) di atas adalah sebagai berikut: 1). 2). Dalam rYX1.X2; jika rYX1 = 0, maka rYX1.X2 tidak akan = 0, kecuali apabila rYX2 atau rX1X2 = 0 atau kedua-duanya = 0. Dalam rYX1.X2; jika rYX1 = 0, di mana rYX2 serta rX1X2 0, dan selain itu keduaduanya mempunyai tanda yang sama (+ atau -), maka rYX1.X2 mungkin akan negatif. Sedangkan, dalam rYX1.X2 jika rYX1 = 0, di mana rYX2 serta rX1X2 0, dan selain itu jika keduanya mempunyai tanda yang berbeda, maka hasilnya akan positif.
3).
59
Sebagai misal: Y produksi padi per hektar, X1 curah hujan dan X2 temperatur udara. Diumpamakan Y = 0, yaitu bahwa tidak ada hubungan antara jumlah curah hujan dengan produksi padi, atau dengan kata lain bahwa produksi padi tidak dipengaruhi oleh curah hujan. Selanjutnya, diasumsikan pula bahwa rYX2 bertanda positif (+) dan rX1X2 bertanda negatif (-), maka nilai rYX1.X2 akan bertanda positif (+) dan yaitu dengan anggapan bahwa suhu konstan, maka akan terjadi korelasi yang positif antara produksi padi per hektar dengan curah hujan. 4). 5). Bahwa rX1X2 dan rYX1 (serta penduga yang setara) tidak perlu mempunyai tanda yang sama. Dalam analisis regresi dua variabel bebas X, maka nilai rYX1.X2 akan berkisar antara 0 dan 1. Nilai yang sama akan didapat juga dari analisis korelasi parsial yaitu: 0 rYX12 + rYX22 - rYX1 rYX2 rX1X2 1 (nilai dalam tanda pertidaksamaan disebut dengan koefisien determinasi ganda (r2), akan dibicara kemudian). 6). Dalam rYXi.Xj yang bernilai negatif maka disamakan dengan nokl (0).
Koefisien determinasi berganda R dari regresi tiga variabel atau untuk regresi dengan dua variabel bebas X (X1 dan X2) dengan model persamaan regresi seperti = 0 + 1 X1 + 2 X3. dapat didefinisikan sebagai berikut : [3.63] R =
2
b1
x1i y i + b2
x 2i y i
yi
Untuk regresi p + 1 variabel atau dengan p variabel bebas X (X1, X2, X3, . . ., Xp) dengan model persamaan regresi seperti = 0 + 1 X1 + 2 X2 + . . . + p Xp dapat didefinisikan sebagai berikut : [3.64] R =
2
b1 x1i y i + b2 x 2i y i + . . . + bk
x pi yi
2
i
Kelanjutan uraian koefisien determinasi berganda dan modifikasinya akan dibahas pada hal-hal selanjutnyaI. Nilai harapan (E) koefisien determinasi R yang ditulis dengan E(R ) yang sering disebut dengan koefisien determinasi yang disesuaikan atau koefisien determinasi terkoreksi, didefinisikan dengan persamaan sebagai persamaan [3.65] berikut di bawah ini.
2 2
60
[3.65]
E(R2) = E (1
2 e 2 y
2
e /(n k ) = 1- 2 y /(n 1)
= 1= 1-
n 1 nk
e 2 y
2
n 1 2 (1-R ) nk n 1 n 1 2 = 1+ R nk nk n k n +1 n 1 2 + R = nk nk 1 k n 1 2 = + R nk nk
Dari penyelesaian persamaan [3.65] di atas maka didapatkan bahwa nilai harapan E(R ) yang disebut dengan nilai koefisien determinasi terkoreksi yang biasa ditulis dengan R 2 sehingga persamaan terakhir di atas dapat ditulis menjadi: [3.66] R 2 = =
n 1 1 k + nk nk n 1 k 1 R2 nk nk R2
nR 2 R 2 + kR 2 kR 2 1 k nk nk R 2 (n k ) k 1 R 2 (k 1) = + nk nk nk k 1 2 2 = R (1 R ) nk
2
61
3.14
Agar dapat memahami uraian di atas dan dapat menentukan nilai koefisien regresi penduga atau koefisien regresi bi yaitu nilai- nilai b0, b1, dan b2, maka diberikan contoh olahan seperi di bawah ini, yang datanya terdiri dari dua variabel bebas X (prediktor = regresor) yaitu X1 dan X2 seperti pada Tabel 3.3. Tabel 3.3. Pengamatan Data Rregresi Dua Variabel Bebas X dan Satu Variabel Y No. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 X1 9,750 X2 1,610 Y 0,650 0,750 0,900 1,150 0,950 1,750 1,050 1,000 1,700 1,250 1,800 0,600 0,500 0,720 0,950 X12 95,063 X22 2,592 Y2 0,423 0,563 0,810 1,323 0,903 3,063 1,103 1,000 2,890 1,563 3,240 0,360 0,250 0,518 0,903 X1Y 6,338 7,875 10,125 14,490 11,305 26,600 12,863 12,900 24,310 16,563 27,540 5,340 5,300 5,400 11,305 X2Y X1X2
1,047 15,698 1,500 21,000 2,250 28,125 3,105 34,020 2,138 26,775 5,688 49,400 3,045 35,525 3,000 38,700 5,270 44,330 3,813 40,413 5,850 49,725 1,140 16,910 0,975 20,670 2,484 25,875 2,138 26,775
10,500 2,000 11,250 2,500 12,600 2,700 11,900 2,250 15,200 3,250 12,250 2,900 12,900 3,000 14,300 3,100 13,250 3,050 15,300 3,250 8,900 7,500 1,900 3,450 10,600 1,950 11,900 2,250
110,250 4,000 126,563 6,250 158,760 7,290 141,610 5,063 231,040 10,563 150,063 8,410 166,410 9,000 204,490 9,610 175,563 9,303 234,090 10,563 79,210 3,610 112,360 3,803 56,250 11,903 141,610 5,063
Jum- 178,100 39,160 15,720 2183,330107,020 18,908 198,253 43,441 473,940 lah Rata- 11,873 2,611 1,048 145,555 7,135 1,261 13,217 2,896 31,596 rata
JK X1
JK X2
62
Perhitungan nilai JHK seperti: JHK X1Y = = = JHK X2Y = = = JHK X1X2 = = = x1y = X1Y - X1 Y/n 198,253 - (178,100)(5,720)/15 11,6037 x2y = X2Y - X2 Y/n 43,441 - (39,160)(5,720)/15 2,4008 x1x2 = X1X2 - X1 X2/n 473,940 - (178,100) (39,160)/15 8,9803
3.14.2 Perhitungan untuk mencari nilai b1, b2, dan b0 seperti berikut ini:
Perhitungan untuk mencari nilai b1, b2, dan b0 didasarkan pada nilai JK-JHK b1 =
= =
b2
= = b0 = = =
Y - b1 X 1 - b2 X 2
1,048 - (0,136940) (11,873) - (0,244691) (2,611) -1,216739
Selanjutnya, dilakukan pengujian terhadap regresi linier berganda terutama pengujian terhadap nilai-nilai koefisien regresi berganda (bi) serta pengujian terhadap bidang regresi. Dalam pengujian regresi linier berganda terdapat tiga macam uji yaitu: 1). 2). 3). Uji simultan atau uji F atau uji ragam regresi atau uji varians regrsi; Uji parsial atau uji koefisien regresi berganda atau uji terhadap bi atau uji t; dan Uji koefisien korelasi berganda atau uji R.
63
Ketiga macam uji-uji tersebut di atas menggunakan Ragam Galat Regresi atau Varians Residual Regresi yang disimbulkan S2 atau Se3. Varians Sisa Regresi atau Varians Galat Regresi, yang perhitungannya didasarkan pada Jumlah Kuadrat Total dikurangi dengan Jumlah Kuadrat Regresi dibagi dengan Derajat Bebas Galat Regresi. DB Galat Regresi = n - p 1 = 15-2-1 = 12 3.14.3 Perhitungan analisis keragaman regresi Hubungan antara komponen-komponen pada Analisis Keragaman seperti berikut ini. Dari persamaan [3.46 h] didapatkan bahwa JK Galat Regresi sama dengan JK Total dikurangi dengan JK Regresi. JK Total atau JK Y dapat dihitung dari data pengamatan. Perhitungan JK Total, JK Regresi, dan JK Galat Regresi dari analisis data di atas seperti: JK Y = = = y2 = Y2 - (Y)2/n 2 18,908 - (5,720) /15 2,4338 x1y = X1Y - X1 Y/n 198,253 - (178,100)(5,720)/15 11,6037 x2y = X2Y - X2 Y/n 43,441 - (39,160)(5,720)/15 2,4008 JK Y 2,4338 (b1 JHK X1Y + b2 JHK X2Y) (0,136940) (11,6037) + (0,244691) (2,4008) 2,1765 = JK Total - JK Regresi 2,4338 - 2,1765 0,2573
JK Regresi = = =
JK Galat Regresi = =
Setelah perhitung JK Total, JK Regresi, dan JK Galat Regresi didapatkan, maka di lanjutkan dengan membuat Tabel Analisis Keragaman Regresi seperti pada Tabel 3.4 berikut ini. Tabel 3.4. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi Galat atau Residual Total Derajat Bebas (DB) 2 12 14 Jumlah Kuadrat (JK) 2,1765 0,2573 2,4338 Kuadrat Tengah (KT) 1,08825 0,02145 F hitung 50,73904
**
Keterangan: Jumlah sampel (pasangan pengamatan) = n = 15. ** = berbeda sangat nyata pada p = 1% atau Dapat ditulis berbeda sangat nyata (p<0,01)
64
Berdasarkan hasil Analisis Varians di atas ternyata kreteria pengujian nilai Fhit adalah: 1). Ternyta Fhit F(tabel 5%) ini berarti bahwa terdapat hubungan linier berganda antara pengaruh variabel X1 dan X2 terhadap Y secara bersama-sama atau simultan. Bila Fhit > F(tabel 5%) maka uji F analisis regresi dilanjukan dengan pengujian pengaruh masing-masing variabel bebas X secara individu dalam kebersamaan terhadap variabel tak bebas Y secara parsial seperti uraian berikut.
2).
Hal di atas dilakuakan sebab dalam pengujian yang dilakukan dengan uji F seperti di atas, tidak dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y apabila jumlah peubah bebas bertambah banyak. Oleh karena itu, maka untuk menunjukkan hubungan atau pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan menguraikan Analisis Keragaman lanjutan yaitu menguraikan JK Regresi menjadi JK Regresi Parsial untuk setiap variabel bebas Xi seperti uraian berikut: Untuk dua variabel bebas X, maka JK Regresi Parsial untuk variabel bebas X1 dan X2 dengan perhitungan adalah : JK Regresi = (b1 JHK X1Y + b2 JHK X2Y) = (0,136940) (11,6037) + (0,244691) (2,4008) = 2,1765 1). JK Regresi X1 = b1 JHK X1Y = (0,136940) (11,6037) = 1,5890 2). JK Regresi X2 = b2 JHK X2Y = (0,244691) (2,4008) = 0,5875
Dengan demikian maka bentuk Tabel Sidik Ragam dari perhitungan di atas menjadi seperti Tabel 3.5 berikut ini. Tabel 3.5. Sidik Ragam Regresi Berganda Dua Prediktor Sumber Keragaman (SK) Regresi Regresi X1 Regresi X2/X1 Residual atau Galat Total 12 14 Derajat Bebas (DB) 2 1 1 Jumlah Kuadrat (JK) 2,1765 1,5890 0,5875 0,2573 2,4338
**
65
Dari sidik ragam Tabel 3.6 terlihat bahwa JK Regresi, diuraikan mendi JK Regresi komponen-komponennya dengan derajat bebas tiap komponen sama dengan satu yaitu JK Regresi X1 dan JK Regesi X2/X1 yang artinya JK Regresi dari X2 jika X1 dianggap konstan, atau variabel bebas X2 merupakan tambahan terhadap variabel bebas X1 dalam mempengaruhi variabel tak bebas Y; demikian selanjutnya apabila jumlah variabel bertambahkan cukup banyak.
Ternyata dari Tabel 3.6 di atas dapat dikatakan bahwa kedua variabel bebas X1 dan X2 berpengaruh nyata (p<0,05) terhadap variabel tak bebas Y (pengujian ini bersifat klasik).
3.13.4 Uji keberartian koefisien regresi (bi) secara parsial atau Uji t
Pengujian yang dilakukan dengan uji F seperti cara tersebut pada Tabel 3.5 di atas, dapat memberikan petunjuk apakah setiap variabel Xi menunjukkan pengaruh atau hubungan yang nyata terhadap variabel tak bebas Y secara parsial (suatu cara pengujian yang bersifat klasik). Modifikasi dari pengaruh masing-masing variabel bebas Xi secara individu atau parsial dalam kebersamaan atau simultan terhadap variabel tak bebas Y, dapat dilakukan dengan uji t untuk uji koefisien regresi. Secara umum uji t mempunyai rumus seperti pada [3.51] adalah: t hitung W =
W Sw
Sehingga, untuk pengujian koefisien regresi b1 dan b2 dengan uji t menjadi: t hitung b1 = JK X1 JHK X1 X2
b1 b dan t hitung b2 = 2 S b1 S b2
= = 68,6893 8,9803 JK X2
KT Galat Regresi =
Dalam analisis regresi dua prediktor, nilai salah baku bi atau Sbi melalui persamaan berikut ini. Untuk pengujian b1, maka nilai salah baku Sb1 menjadi: Sb1 =
var b1
JK X 2 KT Galat Re gresi JK X 1 JK X 2 JHK X 1 X 2
0,000412
= 0,0203
66
t hitung b1 =
b1 S b1
0,173 0,0203
= 6,732 Untuk pengujian b2, maka nilai salah baku Sb2 menjadi: Sb2 =
= =
= 0,077 t hitung b2 = =
b2 S b2
0,245 0,077
= 3,175 Nilai ttabel = t(tabel /2, db galat) = t(5%, 12) = 2,179 = t(1%, 12) = 3,055 Berdasarkan hasil uji t ternyata bahwa: thitung > t(tabel 5%, db galat) maka nilai bi menunjukkan bahwa baik X1 maupun X2 berpengaruh nyata (p<0,05) terhadap variabel bebas Y secara individu dalam kebersamaan. Kesimpulan ini persis sama dengan uji F pada Tabel 3.6 di atas. Dengan kata lain ini berarti bahwa koefisien arah b1 dan b2 yang dapat dipakai sebagai penduga dan peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas, dapat memberikan petunjuk bahwa setiap variabel bebas X1 dan variabel bebas X2 memberikan pengaruh yang nyata terhadap variabel tak bebas Y.
3.13.5
Selanjutnya, nilai salah baku koefisien regresi Sbi yang diperoleh selain untuk pengujian hipotesis juga dapat dipakai pada perkiraan nilai interval koefisien regresi parsial yang sering disebut dengan perkiraan nilai beta () populasi dengan persamaan sebagai berikut ini. p {bi - t/2 Sbi < i < bi + t/2 Sbi} = 1- p {b1 - t/2 Sb1 p {b2 - t/2 Sb2 1 2 untuk setiap b1 dan b1 seperti: untuk b1 untuk b2 b1 + t/2 Sb1} = 1- b2 + t/2 Sb2} = 1-
67
Untuk perkiraan 1 dengan nilai salah baku Sb1 dan = 5% dari data di atas didapatkan: p {b1 - t(/2,12) Sb1 < 1 < b1 + t(/2,12) Sb1} = 1- p {0,136940 - (2, 179) (0,02034) < 1 < 0,136940 + (2, 179) (0,02034)} = 1- p {0,09262 < 1 < 0,18126} = 1 - Jadi perkiraan nilai 1 berkisar antara 0,09262 sampai dengan 0,18126 atau 0,09262 < 1 < 0,18126.
Untuk perkiraan 2 dengan nilai salah baku Sb2 dengan = 5% dari data di atas didapatkan: p {b2 - t(/2,n-2) Sb2 < 2 < b2 + t(/2,n-2) Sb2} = 1- p {0,244691 - (2,179) (0,07706) < 2 < 0,244691 + (2,179) (0,07706)} = 1- p {0,07679 < 2 < 0,41259} = 1 - Jadi perkiraan nilai 2 berkisar antara 0,07679 sampai dengan 0,41259 atau 0,07679 < 2 < 0,41259.
1).
rXY
X Y n 2 ( X) ( Y )2 X 2 Y 2 n n XY
atau
68
2).
rXY
xy x y
2 2
atau
3).
rXY
(JK X )(JKY )
JHK XY
(n = jumlah sampel)
Sebagai contoh perhitungan hubungan antara Y dengan X1 dan X2 dan antara X1 dengan X2 dengan hasil perhitungan JK-JHK di atas dengan persamaan [3.58c] menjadi: JK Y = JK X2 = JHK X1Y = 2,4338 4,7859 11,6037 JK X1 JHK X1 X2 JHK X2Y = = = 68,6893 8,9803 2,4008
(68,6893)(2,4338)
0,8974
11,6037
2).
rX2Y
= = =
3).
rX1X2
= = =
Memperhatikan perhitungan di atas dapatkah dikatakan bahwa rYX1 merupakan ukuran dari keeratan huhungan antara Y dengan X1 yang sebenarnya, tanpa ada pengaruh variabel lain sementara diketahui bahwa yang mempengaruh variabel Y adalah X2 selain X1 dan selain itu memungkin juga X2 mempengaruhi X1 atau sebaliknya. Jadi tegasnya bahwa dalam regresi berganda untuk mendapatkan hubungan yang sebenarnya antara sebuah variabel bebas Xi dengan variabel tak bebas Y, yaitu dengan cara menghilangkan pengaruh variabel-variabel bebas yang lainya. Cara ini terkenal dengan analisis Korelasi Parsial.
69
3.13.6.2
1). 2).
Korelasi parsial (partial corelation coeficient) dapat dibedakan menjadi: Korelasi parsial order satu, dengan simbul rXiXj.Xk. yang berari hubungan antara variabel X ke-i dengan variabel X ke-j yang bebas dari pengaruh variabel X ke-k. Korelasi parsial order dua, dengan simbul rYXi XjXk. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabel X ke-j dan variabel X ke-k. Korelasi parsial order tiga, dengan simbul rYXi. XjXkXl. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabel-variabel X ke-j; X ke-k; dan X ke-l Korelasi parsial order banyak, dengan simbul rYXi.XjXk . . . Xp. yang berari hubungan antara variabel Y dengan variabel X ke-i yang bebas dari pengaruh variabelvariabel X ke-j; X ke-k; . . .; dan X ke-p
3).
4).
Korelasi parsial order satu Koefisien korelasi parsial order satu dari model persamaan regresi berganda: = 0 + 1 X1 + 2 X3. dapat diuraikan menjadi: 1). 2). 3). rYX1.X2 koefisien korelasi parsial antara Y & X1 jika X2 pengaruhnya konstan atau bebas rYX3.X1 koefisien korelasi parsial antara Y & X2 jika X1 pengaruhnya konstan atau bebas rX1X3.Y koefisien korelasi parsial antara X1 & X2 jika Y pengaruhnya konstan atau bebas
Perhitungan nilai-nilai koefisien korelasi parsial oder satu untuk tiga variabel dari persamaan di atas, didasarkan pada nilai-nilai koefisien korelasi sederhana atau order nol. Koefisien korelasi parsial oder satu mempunyai persamaan: rYXi.Xj =
rYXi rYXj rXiX j (1 r 2 YX j ) (1 r 2 XiXj )
Dari persamaan di atas dengan pengertian bahwa: 4) 5) 6) rYX1 adalah koefisien korelasi sederhana antara Y dengan X1; rYX2 adalah koefisien korelasi sederhana antara Y dengan X2; dan rX1X2 adalah koefisien korelasi sederhana antara X1 dengan X3.
Apabila diketahui bahwa: rX1Y = 0,8974; rX2Y = 0,7034; dan rX1X2 = 0,4950 sehingga analisis korelasi parsial oder satu dari persamaan regresi tiga variabel menjadi: 1). rYX1.X2 =
rYX 1 rYX2 rX 1X2
2 (1 rY2 X2 ) (1 rX 1 X 2 )
(1 0,7034 ) (1 0,9450 )
0,8893
70
2). rYX3.X1
= =
(1 0,8974 ) (1 0,9450 )
rX !X 2
rYX1 rYX2
0,6761
3). rX1X3.Y
2 (1 rY2 X1 ) (1 rYX 2 )
= =
(1 0,8974 ) (1 0,7034 )
- 0,4344
Cara lain untuk menentukan koefisien determinasi berganda (R2) dari tiga variabel atau untuk regresi dengan dua variabel bebas X (X1 dan X2) dengan model persamaan regresi seperti = 0 + 1 X1 + 2 X3. dapat dirumuskan sebagai berikut: R2 = =
b1 x1 yi + b2 x 2 y i 2 yi
= 0.89423 atau 89,423% Nilai harapan (E) koefisien determinasi (R ) = E (R ) atau R 2 atau koefisien determinasi yang disesuaikan atau koefisien determinasi terkoreksi, dirumuskan dengan persamaan:
R2 = 1 JK Galat /( DB Galat ) JK Total /( DB Total )
0,2574 /12 2,4338 /14
2 2
= 1-
71
Tabel 3.7. Analysis of variance (ANOVA) SV Regression Residual Total DF 2 12 14 SS 2,176 0,2574 2,434 MS 1,088 0,0215 F 50,739 Significance F -06 1,398E
Table 3.8 Parcial Regression Var Coefficients Std Error Intercept -1,217 0,228 X1 X2 0,137 0,245 0,020 0,077 t Stat -5,331 6,732 3,175 P-value 0,00018 0,00002 0,00799 Lower 95% Upper 95% -1,714 -0,719 0,093 0,077 0,181 0,413
Penjelasan tabel-tabel di atas seperti berikut: Table 3.6 Regression Statistics Multiple R adalah sama dengan koefisien korelasi berganda r yang menunjukkan keeratan hubungan antara variabel bebas X1 dan X2 dengan peubah tak bebas Y yaitu sebesar 0,946. R Square adalah sama dengan koefisien determinasi R yang menunjukkan variasi keragaman total Y yang dapat diterangkan oleh variasi variabel X1 dan X2, atau dapat diartikan bahwa 94,6% dari peubah tak bebas Y dipengaruhi oleh variasi variabel X1 dan X3. Adjusted R Square adalah sama dengan koefisien determinasi R terkoreksi = 87,7% Standard Error adalah sama dengan Salah Baku Y atau S Y = Observations adalah sama dengan jumlah sampel = n = 15. KT Y n =
MS Y n
2 2
= 0,146.
72
Table 3.7 ANOVA Pada Tabel Anova adalah sama dengan Sidik Ragam Regresi. Di mana SV = Sumber Variasi (SV) atau Sumber Keragaman (SK); DF = Degrees of Freesom atau = Derajat Bebas (DB); SS = Sum of Squares atau = JK; MS = Means Squarwes atau KT; F = F hitung. Significance F adalah sama dengan nilai peluang dari nilai F hitung. Dalam hal ini nilai F hitung tidak dibangingkan dengan F tabel seperti biasa. Akan tetapi, nilai significance F dibandingkan nilai peluang (p) standar yaitu 5% dan 1%. 1). Apabila nilai significance F (p = 0,05) mempunyai kesimpulan yang sama dengan Fhit F(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () yang didapat tersebut bukan bidang regresi yang terbaik. Atau peubah bebas X1 dan X2 tidak berpengaruh terhadap variabel tak bebas Y. Apabila nilai significance F <(p = 0,05) dapat disimpulkan sama dengan Fhit > F(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga yang didapat adalah merupakan bidang regresi yang terbaik untuk menerangkan bahwa salah satu variabel bebas X1 dan X2 ada yang berpengaruh nyata terhadap variabel tak bebas Y.
2).
Apabila nilai signifikanse F < (p = 0,01) dapat disimpulkan sama dengan Fhit > F(tabel 1%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga yang didapat tersebut adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y. Sebagai contoh dari hasil analis tersebut di atas didapat nilai F = 50,739 dengan significance F = 1,398E-06 atau sama dengan 0,0000. Ini berarti bahwa tolak H0 yang menyatakan bidang regresi penduga = - 1,217 + 0,137 X1 + 0,245 X2; adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y. Tabel 3.8 Parcial Regression Var adalah sama dengan variabel yang akan dijelaskan; dalam analisis ini adalah X1 dan X2 Intercept sama dengan b0 jarak antara titik potong dibang regresi penduga dengan titik acuan (0,0). Coefficients sama dengan bi dalam hal ini sama dengan b0, b1, dan b2 Masing-masing b0 = - 1,217, b1 = 0,133, dan b2 = 0,245. Standart Error dalam Tabel 3.9 ini berbeda dengan Standart Error dari Tabel 3.6. Standart Error disini menunjukkan nilai yang sama dengan Sb0, dan Sb1, dan Sb2 untuk pengujian b0, b1, dan b3. Sebagai contoh Standart Error untuk b0 (Sb0) = 0,228; b1 (Sb1) = 0,020; dan b2 (Sb2) = 0,077. t Stat sama dengan t hitung untuk bi dengan rumus: t hitung bi = bi ; S bi
Sehinga nilai t hitung untuk masing-masing b0 = -5, 331; b1 = 6,732; dan b2 = 3,175. P-value adalah sama dengan nilai peluang dari nilai t hitung. Dalam hal ini nilai t hitung tidak dibangingkan dengan t tabel seperti biasa. Akan tetapi, nilai P-value dibandingkan nilai peluang (p) standar yaitu 5% atau 1%. 1).
73
Untuk b0, maka 1). Apabila nilai P-value (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () melalui titik acuan (0,0) 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak melalui titik acuan (0,0). Untuk b1 maka 1). Apabila nilai P-value (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () sejajar dengan sumbu X1 . 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak sejajar dengan sumbu X1.. Untuk b2, maka 1). Apabila nilai P-value (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () sejajar dengan sumbu X2 . 2). Apabila nilai P-value < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak sejajar dengan sumbu X3.. Sebagai contoh dari hasil analisis tersebut di atas didapatkan nilai P-value untuk b0 = 0.00018. Ini berarti tolak H0 karena P-value < 0,05, yang berarti bahwa bidang penduga = - 1,217 + 0,137 X1 + 0,245 X2; tidak melalui titik acuan (0,0). Demikian juga didapatkan nilai P-value untuk b1 = 0.00002; dan b1 = 0.00799. Ini berarti tolak H0 karena P-value < 0,05, yang berarti bahwa bidang regresi penduga = - 1,217 + 0,137 X1 + 0,245 X2; adalah bidang regresi penduga tidak sejajar dengan sumbu X1 maupun X2, dan sangat nyata. Lower dan Upper adalah sama dengan perkiraan nilai interval b0, b1, dan b1 atau pendugaan nilai 0, 1, dan 2 dengan rumus: p {bi - t/2 sbi i bi - t/2 sbi} = 1- . Nilai 95% atau 99% = 1- tergantung pada nilai yang dipakai 5% atau 1%. Perkiraan nilai 0 berkisar antara - 1,714 sampai dengan - 1,719 untuk = 5%. Perkiraan nilai 1 berkisar antara 0,093 sampai dengan 0,191 untuk = 5%. Perkiraan nilai 2 berkisar antara 0,077 sampai dengan 0,413 untuk = 5%. Perhatikan nilai Lower dan Upper, apabila nilai Lower dan Upper bersifat definit positif atau definit negarif artinya baik Lower maupun Upper mempunyai tanda bilangan yang positif atau negarif ( + , - ) berarti dalam uji t hitung bi menunjukkan signifikansi yang nyata pada taraf = 5% atau 1%. Sebaliknya, apabila nilai Lower bertanda negarif Upper bertanda positif berarti dalam uji t hitung bi menunjukkan signifikansi nyata pada taraf = 5%. atau 1%.
74
Descriptive Statistics adalah penjelasan mengenai nilai rata-rata, standar deviasi, dan jumlah sampel yang dianalisis pada setiap variabel. Tabel 3.10a Correlations Y Pearson Correlation Y X1 X2 Y X1 X2 Y X1 X2 Tabel 3.10 a,b Correlations Correlations adalah penjelasan mengenai koefisien korelasi linier sederhana versi product momen dari Pearson, significant (p) dengan uji dua arah dan satu arah, serta jumlah sampel yang dianalisis pada setiap variabel. Tabel 3.10 b Correlations X1 X2 Pearson Correlation 1 ,495 Sig. (2-tailed) . ,060 N 15 15 X2 Pearson Correlation ,495 1 Sig. (2-tailed) ,060 . N 15 15 Y Pearson Correlation ,897 ,703 Sig. (2-tailed) ,000 ,003 N 15 15 ** Correlation is significant at the 0.01 level (2-tailed). X1 Y ,897 ,000 15 ,703 ,003 15 1 . 15 1,000 ,897 ,703 . ,000 ,002 15 15 15 X1 ,897 1,000 ,495 ,000 . .030 15 15 15 X2 ,703 ,495 1,000 ,002 ,030 . 15 15 15
Sig. (1-tailed)
75
Tabel 3.11 Variables Entered/Removed Tabel 3.11 Variables Entered/Removed Model 1 Variables Entered X2, X1 Variables Removed . Method Enter
a All requested variables entered. b Dependent Variable: Y Variables Entered/Removed adalah penjelasan mengenai variabel mana yang mempunyai pengaruh yang paling utama kemudian diikuti oleh veriabel yang lain. Tabel 3.12 ANOVA Dalam Tabel 12, variabel yang paling berperngaruh adalah X2 kemudian X1. Tabel 3.12 ANOVA Source of Sum of Variation Squares 1 Regression 2,176 Residual 0,257 Total 2,434 a Predictors: (Constant), X2, X1 b Dependent Variable: Y Model df 2 12 14 Mean F Square 1,088 50,739 0,021 Sig. 0,000
Pada Tabel Anova adalah sama dengan Sidik Ragam Regresi pada EXcel. Di mana SV = Source of Variation (SV) atau Sumber Keragaman (SK) tidak ditampilkan pada SPSS; df = Degrees of Freesom atau = Derajat Bebas (DB); Sum of Squares atau = JK; MS = Means Squarwes atau KT; F = F hitung. F adalah nilai F hitung seperti biasa yang dihitung dari JK Regresi/JKGalat Sig = Significance F adalah sama dengan nilai peluang nilai F hitung. Dalam hal ini nilai significance F dibandingkan nilai peluang (p) standar yaitu 5% dan 1%. 1). Apabila nilai sig (p = 0,05) mempunyai kesimpulan yang sama dengan Fhit F(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () yang didapat tersebut bukan bidang regresi yang terbaik. Atau peubah bebas X1 dan X2 tidak berpengaruh terhadap variabel tak bebas Y. 2). Apabila nilai sig <(p = 0,05) dapat disimpulkan sama dengan Fhit > F(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga yang didapat adalah merupakan bidang regresi yang terbaik untuk menerangkan bahwa salah satu variabel bebas X1 dan X2 ada yang berpengaruh nyata terhadap variabel tak bebas Y. Apabila nilai sig <(p = 0,01) dapat disimpulkan sama dengan Fhit > F(tabel 1%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga yang didapat adalah bidang regresi terbaik untuk menerangkan variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y secara simultan.
76
Sebagai contoh dari hasil analis tersebut di atas didapat nilai F = 50,739 dengan sig = 0,0000. Ini berarti bahwa tolak H0 yang menyatakan bidang regresi penduga adalah bidang regresi yang terbaik untuk menerangkan bahwa variabel bebas X1 dan X2 berpengaruh sangat nyata terhadap variabel tak bebas Y secara simultan. Tabel 3.13a Model Summary Tabel 3.14a Model Summary Model 1 R .946 R Square Adjusted Std. Error of R Square the Estimate .894 .877 .14645
a Predictors: (Constant), X2, X1 b Dependent Variable: Y R = Multiple R pada analisis Excel adalah sama dengan koefisien korelasi berganda r yang menunjukkan keeratan hubungan antara variabel bebas X1 dan X2 dengan peubah tak bebas Y yaitu sebesar 0,946. R Square adalah sama pada analisis Excel sama dengan koefisien determinasi R2 yang menunjukkan variasi keragaman total Y yang dapat diterangkan oleh variasi variabel X1 dan X2, atau dapat diartikan bahwa 89,4,% dari peubah tak bebas Y dipengaruhi oleh variasi variabel X1 dan X3. Adjusted R Square adalah sama dengan pada analisis Excel di mana koefisien 2 determinasi R terkoreksi = 87,7% Standard Error of Estimation adalah sama dengan Standard Error pada analisis Excel atau Salah Baku Y atau SY = Tabel 3.13b Model Summary Tabel 3.13b Model Summary Change Statistics R Square F Change Change .894 50.739 DurbinWatson 3.598
KT Y n
MS Y n
= 0,14645.
Model 1
df1 2
df2 12
a Predictors: (Constant), X2, X1 b Dependent Variable: Y R Square Change = R Square seperti di atas = 0,894 F Change = F hitung = 50,739 df1 = derajat bebas Regeresi = 2 df2 = derajat bebas Galat Regeresi = 12 Sig F Change = p value untuk F Change = 0,000 Durbin-Watson test adalah suatu uji untuk data time series dari data pengamatan, yang menunjukkan apakah data ada unsur tine seriesnya.
77
Tabel 3.14a Coefficients Regression Tabel 3.14a Coefficients Regression Model 1 Unstandardized Standardized t Sig. Coefficients Std. Error Coefficients B Beta (Constant) -1.217 .228 -5.331 .000 Var X1 X2 a Dependent Variable: Y Var adalah sama dengan variabel yang akan dijelaskan; dalam analisis SPSS ini adalah X1, X2, dan Y Constant sama dengan Intercept = b0 yaitu jarak antara titik potong dengan dibang regresi penduga dengan titik acuan (0,0). Unstandardized Coefficients = Coefficients of regression sama dengan bi yang diberi kode dengan B dalam hal ini sama dengan b0, b1, dan b2 dari data asli. Masingmasing b0 = - 1,217, b1 = 0,137, dan b2 = 0,245. Standardized Coefficients = Coefficients of regression dari semua data yang ditransformasikan ke dalam bentuk data standar atau data Zi baik data Y maupun data X. Standardized Coefficients diberi nama beta (). Dalam hal ini i yang berarti pengaruh langsung setiap variabel bebas Xi terhadap variabel tak bebas Y. Untuk variabel X1 = 0,727 dan untuk variabel X2 = 0,343. Badingkan dengan nilai b1 dan b2 di atas. Std Error = Standart Error dalam Tabel 3.15a = Standart Error koefisien regresi, yang menunjukkan nilai sama dengan Sb0, dan Sb1, dan Sb2 untuk pengujian b0, b1, dan b3. Sebagai contoh Standart Error untuk b0 (Sb0) = 0,228; b1 (Sb1) = 0,020; dan b2 (Sb2) = 0,077. Hasil ini persis sama dengan analisis Excel. t sama dengan t hitung untuk bi dengan rumus: t hitung bi = bi ; S bi .137 .245 .020 .077 .727 .343 6.732 3.175 .000 .008
Sehinga nilai t hitung untuk masing-masing b0 = -5, 331; b1 = 6,732; dan b2 = 3,175. Sig = P-value pada analisis Excel adalah sama dengan nilai peluang dari nilai t hitung. Dalam hal ini nilai t hitung tidak dibangingkan dengan t tabel seperti biasa. Akan tetapi, Sig = nilai P-value dibandingkan nilai peluang (p) standar yaitu 5% atau 1%. Untuk b0, maka: 1). Apabila nilai Sig (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () melalui titik acuan (0,0) 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak melalui titik acuan (0,0).
78
Untuk b1 maka: 1). Apabila nilai Sig (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () sejajar dengan sumbu X1 . 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak sejajar dengan sumbu X1.. Untuk b2, maka: 1). Apabila nilai Sig (p = 0,05) mempunyai kesimpulan yang sama dengan thit t(tabel 5%); hal ini berarti terima H0 yang menyatakan bahwa bidang regresi penduga () sejajar dengan sumbu X2 . 2). Apabila nilai Sig < (p = 0,05) mempunyai kesimpulan yang sama dengan thit > t(tabel 5%); hal ini berarti tolak H0 yang menyatakan bahwa bidang regresi penduga () melalui tidak sejajar dengan sumbu X3.. Tabel 3.14b Coefficients Regression Tabel 3.14b Coefficients Regression 95% Confidence Correlations Collinearity Interval for B Statistics Model Var Lower Upper Zero- Partial Part Tolerance VIF Bound Bound Order 1 (Constant) -1.714 -.719 X1 X2 .093 .077 .181 .413 .897 .703 .889 .676 .632 .298 .755 .755 1.325 1.325
Pada analisis SPSS hasilnya hampir sama dengan anlisis dengan Excel di mana nilai Lower Bound dan Upper Bound adalah sama dengan perkiraan nilai interval b0, b1, dan b1 atau pendugaan nilai 0, 1, dan 2 dengan rumus umum: p {bi - t/2 sbi i bi - t/2 sbi} = 1- . Nilai 95% atau 99% = 1- tergantung pada nilai yang dipakai 5% atau 1%. Perkiraan nilai 0 berkisar antara - 1,714 sampai dengan - 1,719 untuk = 5%. Perkiraan nilai 1 berkisar antara 0,093 sampai dengan 0,191 untuk = 5%. Perkiraan nilai 2 berkisar antara 0,077 sampai dengan 0,413 untuk = 5%. Perhatikan nilai Lower dan Upper, apabila nilai Lower dan Upper bersifat definit positif atau definit negarif artinya baik Lower maupun Upper mempunyai tanda bilangan yang positif atau negarif ( + atau - ) berarti dalam uji t hitung bi menunjukkan signifikansi yang nyata pada taraf = 5% atau 1%. Sebaliknya, apabila nilai Lower bertanda negarif dan nilai Upper bertanda positif berarti uji t hitung bi menunjukkan signifikansi tidak nyata pada taraf = 5% atau 1%.
79
80