You are on page 1of 7

A.

Kapan Menggunakan Regresi Liniear

Regresi linier digunakan apabila kita hendak mengetahui hubungan satu variabel
terikat yang mempunyai skala pengukuran numerik dengan satu atau variabel bebas.
Regresi linier juga digunakan apabila kita hendak mencari hubungan antar satu variabel
bebas dengan satu variabel terikat berskala numerik dengan mengontrol variabel perancu.

X1 y
X1

y
X2
X2

X3 X3
a b

Gambar 1.1

Hubungan antara variabel yang memerlukan analisis multivariat regresi linier.


Variabel terikat (y) merupakan variabel numerik.
B. Syarat Liniearitas

y y

x x

y y

x x

Gambar 1.2
Syarat liniearitas terpenuhi (gambar atas)
Dan syarat linieritas tidak terpenuhi (gambar bawah)

Regresi linier dapat diunakan apabila syarat-syarat regresi linier terpenuhi. Ada
beberapa syarat regresi linier, namun syarat terpenting adalah syarat linier. Linier dapat
berupa linier yang arahnya positif dan arah negatif. Linier positif artinya semakin
menigkat nilai variabel bebas (x), semakin meningkat nilai variabel terikat(y). Sementara
itu, linier negatif artinya semakin meningakat niali variabel bebas (x) , semakin menurun
nilai variabel terikat (y), semakin menurun nilai variabel terikat (y).

C. Persamaan Regresi Linier


Keluaran regresi linier yang paling penting adalah persamaan regresi. Bila variabel
bebas lebih dari satu, persamaan regresi linier adalah sebagai berikut.
y = a + 2 2 + 3 3 +......+ persamaan 1.1

bila variabel bebas satu, persamaan regresi linier adalah sebagai berikut.
y = a + bx persamaan 1.2
y = variabel terikat
a = konstata atau intersep
x = variabel bebas
b = koefisien dari setiap variabel bebas atau slope

D. Intersep dan Slope


Untuk memahami intersep dan slope, perhatikan gambar1.3. sumbu x merupakan
variabel bebas (x), sumbu y merupakan variabel terikat (y). Dan garis tebal merupakan
garis regresi yang mengambarkan nilai y berdasarkan perubahan nilai x.
Ketika x =0, nilai y adalah perpotongan garis regresi dengan sumbu y. Titik ini
disebut sebagai intersep, yaitu nilai y ketika nilai x = 0
Ketika nilai x = 1, nilai y bertambah sebesar b dibandingkan ketika nilai x = 0. Ketika
nilai x = 2, nilai y bertambah sebesar b dibandingkan nilai x = 1. Ketika nilai x = 3, nilai y
bertambah sebesar b dibandingkan nilai x = 2. Ketika nilai x = n, nilai y bertambah sebesar
b dibandingkan nilai x = n-1. Dengan demikian, setiap penambahan satu nilai x akan akan
merubah nilai y sebesar b. Nilai b ini dinamakan koefesien dari x atau slope.

b=slope

b=slope

b=slope

n=intersep

x =0 x=1 x=2 x=3

Gambar 1.3
Grafik regresi linier untuk menjelaskan intersep dan slope.
E. Uji Hipotesis Terhadap Slope
Pada persamaan regresi linier, pengujian secara statistik (uji hiptesis) dilakukan
terhadap slope. Pengujian terhadap slope dilakukan bertahap. Pertama, semua slope
dalam persamaan regresi di uji secara bersama dengan mengunakan uji anova. Kedua,
slope diuji sendiri-sendiri.
Hipotesis nol uji anova adalah semua slope nilainya nol. Dalam keseharian, hipotesis
nol uji anova sering disebut tidak ada satu pun variabel yang bermakna. Hipotesis
alternatifnya paling tidak terdapat satu slope yang nilainya tidak sama dengan nol.
Dalam keseharian, hipotesis alternatif uji anova sering disebut paling tidak terdapat
satu variabel yang bermakna. Bila batas kemaknaan ditetapkan 5% hipotesis nol
diterima bila nilai p pada uji anova lebih besar dari 0,05.
Bila pengujian terhadap keselurhan slope menghasilkan tidak bermakna, pengujian
terhadap masing-masing slope pasti tidak bermakna. Bila pengujian terhadap slope
menghasilkan paling tidak ada satu variabel yang bermakna, kita harus melakukan
pengujian terhadap masing-masing slope untuk mengetahui variabel bebas mana yang
bermakna.
Hipotesis nol pengujian terhadap slope adalah nilai slope sama dengan nol. Nilai
slope sama dengan nol artinya variabel bebas tidak mempengaruhi pengaruh terhadap
nilai variabel terikat. Dalam keseharian, keadaan ini sering disebut tidak bermakna.
Hipotesis alternatif dari pengujian terhadap slope adalah nilai slope tidak sama dengan
nol (hipotesis dua arah), nilai slope lebih besar dari nol (hipotesis satu arah linearitas
positif), atau nilai slope lebih kecil dari nol (hipotesis satu arah linearitas negatif).
Dalam keseharian, keadaan ini sering disebut bermakna.
Bila batas kemaknaan ditetapkan sebesar 5% hipotesis nol diterima apabila nilai p
pada uji statistik terhadap slope lebih besar dari 0,05. Sebaliknya, hipotesis nol ditolak
bila nilai p pada uji statistik terhadap slope lebih kecil dari 0,05.

F. Koefesien Korelasi Nilai Standar dari Slope


Nilai slope pada persamaan regresi linier mempunyai satuan sesuai dengan satuan
variabelnya, karena satuan slope sama dengan satuan variabelnya, kita tidak dapat
membandingkan slope antar variabel yang mempunyai satuan berbeda, misalnya kita tidak
dapat membandingkan slope dari variabel yang mempunyai satuan panjang (meter),
dengan berat (kilogram). Supaya slope antar variabel yang mempunyai satuan berbeda
dapat dibandingkan satu sama lain, nilai slope harus dikonversi kedalam suatu nilai yang
distandardisasi. Nilai yang distandarisasi untuk slope adalah koefisien korelasi (r).
Tabel 1.1
Interprestasi terhadap koefisien korelasi
Komponen interprestasi Klasifikasi keterangan
arah Positif Semakin besar x, makin besar y
Negatif Semakin besar x, makin kecil y
Kekuatan korelasi Sangat lemah r = 0-0,2
Lemah r = 0-0,2
Sedang r = 0,4-0,6
Kuat r = 0,6-0,8
Sangat kuat r = 0,8-1
Kemaknaan Bermakna P <0,05
Tidak bermakna P >0,05

G. Koefisien Determinasi : Kualitas Persamaan Regresi


Kualitas persamaan regresi dilihat dari nilai determinasi (R2). Secara nilai determinasi
adalah kuadrat dari koefisien korelasi (r). Karena nilai R2 sering over estimate , beberapa
perangkat lunak statistik akan menghitung R2 yang dikoreksi (adjusted R2). Nilai
determinasi memberikan informasi seberapa besar peranan variabel-variabel bebas dalam
menentukan nilai variabel terikat. Nilai determinasi antara 0% sampai dengan 100%.
Semakin mendekati 100% semakin baik determinasi dari persamaan regresi.

H. Persamaan Lengkap Regresi Linear


Persamaan regresi linear pada halaman 5( persamaan 1.1dan 1.2 adalah persamaan tidak
lengkap). Persamaan regresi linear yang lengkap adalah sebagai berikut.
y = a + 2 2 + 3 3 +......+ + persamaan 1.3
y = a+bx+ persamaan 1.4
y = variabel terikat
a = konstata atau intersep
x = variabel bebas
b = koefisien dari setiap variabel bebas atau slope
= residu

Berdasarkan persamaan lengkap regresi linear, variabel terikat ditentukan oleh


variabel bebas (x) dan residu (). Residu adalah selisih antara variabel terikat yang
diobservasi dengan variabel terikat yang diprediksikan oleh persamaan regresi linear
(predicted)
Residu = O-E
O = observed
E = predicted

I. Syarat Regresi Linear


Pada bagian sebelumnya, telah disinggung syarat regresi linear yaitu, linearitas. Selain
syarat tersebut,masih terdapat syarat regresi linear lainnya, yaitu normalitas, rerata residu
nol, tidak ada oulier, independen, konstan dan tidak ada autokorelasi.
Berdasarkan sumbernya, syarat-syarat diatas dapat diklasifikasikan menjadi syarat
dari residu (distribusi normal, rerata residu nol, tidak ada oulier), hubungan antara residu
dengan variabel terikat (konstan), hubungan antara residu dengan variabel bebas
(independen), hubungan antar variabel bebas (tidak ada autokorelasi), dan hubungan
variabel terikat dengan variabel bebas (linear).
Linearitas hubungan antara variabel bebas dengan variabel terikat harus linear.
Linearitas diketahui dengan membuat scatter plot antara variabel bebas dengan variabel
terikat. Asumsi linearitas terpenuhi apabila scatter plot memberikan kesan linear.
Distribusi normal
Rerata nol
Tidak ada outler
linier kontstan
independen

y = a+bx+
tidak ada autokrelasi

Gambar 1.4
Syarat regresi linear dapat dipahami dengan menggunakan persamaan lengkap regresi
linear

Normalitas. Sebabaran residu harus berdistribusi normal. Normalitas diketahui


dengan membuat histogram,plot, atau uji normalitas, seperti kolmogrov-smirnov atau
shapiro-wilk. Asumsi normaliatas terpenuhi apabila gambar histogram menyerupai kurva
lonceng terbalik yang simentris, sebaran plot berada di sekitar garis plot, dan nilai p pada
uji normalitas lebih besar dari 0,05.
Rerata residu nol. Supaya variabel terikat (y) dapat dijelaskan oleh variabel bebas (x),
rerata residu harus sama dengan nol.
Tidak ada outlier. Supaya variabel terikat (y) dapat dijelaskan oleh variabel bebas (x),
nilai residu tidak boleh ada yang termasuk outlier. Ada atau tidak adanya outlier diketahui
dengan case wise diagnostic. Asumsi tidak ada outlier terbukti apabila rentang residu lebih
besar dari-3 simpang baku dan lebih kecil dari 3 simpang baku.
Konstan (homoskendisitas). Supaya variabel terikat (y) dapat dijelaskan oleh variabel
bebas (x), varian residu pada setiap nilai variabel bebas harus tetap konstan. Persamaan
regresi yang tidak memenuhi asumsi ini dinamakan heteroskedisitas. Konstan diketahui
dengan membuat scatter antara residu dengan variabel terikat.
Independen. Supaya variabel terikat (y) dapat dijelaskan oleh variabel bebas (x), harus
tidak ada hubungan antara residu dengan variabel-variabel bebas. Syarat independen
diketahui dengan uji durbin-watson. Uji DW sekitar angka 2 menujukkan syarat
independen terpenuhi.
Tidak ada autokorelasi (multi korineariti. Supaya variabel bebas (x) tidak ada yang
identik, harus tidak ada hubungan yang kuat antara variabel bebas. Persamaan regresi yang
tidak memenuhi asumsi ini dinamakan autokorelasi (mltikolineariti). Multikolineariti
diketahui dengan uji korelasi atau uji toleransi. Asumsi terpenuhi bila koefesien korelasi
pada uji korelasi lebih kecil dari 0,9, atau nilai toleransi lebih besar dari 0,4.
Tabel 1.2
Syarat Regresi Linear
Sumber syarat Syarat Pembuktian Kriteria
Residu Sebaran normal Grafik histogram Grafik normal
Plot Plot normal
Uji normalitas p>0,05
Rerata nol Deskriptif Rerata residu = 0
Tidak ada outlier Case wise diagnostic Tidak ada data
diluar -3 simpangan
baku dan 3
simpangan baku
Konstan Grafik scatter antara Konstan tidak
residu dengan membentuk pola
variabel bebas tertentu
Independen Durbin-watson Nilai DW sekitar
angka 2
Variabel bebas Tidak ada Uji korelasi pearson Korelasi lebih kecil
autokorelasi dari 0,9
multikolinieriti Uji toleransi Toleransi lebih besar
dari 0,4
Variabel terikat Linier Grafik scatter antara Terdapat kesan
variabel bebas variabel bebas linier
dengan variabel
terikat

J. Tahap-Tahap Analisis serta Kaitannya dengan Kerangka Konsep


Kerangka konsep regresi linear terbagi menjadi dua, yaitu kerangka konsep tanpa variabel
utama (kerangka konsep prediktif) dan kerangka konsep dengan variabel utama (kerangka
konsep etiolgik). Perhatikan gambar 1.5. pada kerangka konsep prediktif, variabel bebas
(A s.d J) mempunyai kedudukan yang sama. Tujuan kerangka konsep prediktif adalah
untuk memperoleh variabel-variabel apa saja yang berhubungan dengan variabel terikat.
Pada kerangka konsep etiologik, variabel bebas terdiri dari variabel utama (A) dan
variabel perancu (B s.d J). Tujuan kerangka konsep etiologik adalah untuk memperoleh
hubungan yang murni antara variabel bebas utama dengan variabel terikat.
A Y
A
B
C B
D C
E D
Y
F E
G
F
H
I G
J H
I
J

Gambar 1.5
Kerangka konsep tanpa variabel utama (predikti) dan dengan variabel utama (etiologik).

Tahap-tahap analisis regresi linear tergantung pada kerangka konsepnya. Pembahsan


mengenai tahap-tahap analisis kedua kerangka konsep ini akan dibahas secara detail pada
bab-bab berikutnya.

You might also like