ANALISIS REGRESI KOMPONEN UTAMA UNTUK MENGATASI MASALAH MULTIKOLINIERITAS DALAM ANALISIS REGRESI LINIER BERGANDA

Haris Bhakti Prasetyo, Dian Handayani, Widyanti Rahayu1 JURUSAN MATEMATIKA FMIPA-UNIVERSITAS NEGERI JAKARTA hariz_oke@yahoo.com

Abstraksi
Multikolinieritas adalah suatu kondisi dalam regresi linier berganda dimana antar variabel bebas saling berkorelasi. Masalah multikolinieritas pada regresi linier berganda mengakibatkan pengujian hipotesis parameter berdasarkan metode kuadrat terkecil memberikan hasil yang tidak valid. Indikasi masalah multikolinieritas dapat dideteksi dengan faktor inflasi ragam. Analisis komponen utama bertujuan menghasilkan variabel-variabel baru (komponen utama) yang saling ortogonal dan mereduksi dimensi data. Teknik yang digunakan untuk meregresikan komponen utama dengan variabel tak bebas melalui metode kuadrat terkecil disebut regresi komponen utama. Kata kunci : multikolinieritas, regresi linier berganda, analisis komponen utama, regresi komponen utama.

1. PENDAHULUAN
Analisis regresi linier adalah teknik statistika yang dapat digunakan untuk menjelaskan pengaruh variabel bebas (independent variable) terhadap variabel tak bebas (dependent variable). Salah satu asumsi yang harus dipenuhi untuk melakukan pengujian hipotesis terhadap parameter pada analisis regresi linier berganda adalah tidak terjadinya korelasi antar variabel bebas (multikolinier). Jika antarvariabel saling berkorelasi tinggi, pengujian hipotesis parameter berdasarkan metode kuadrat terkecil (least square method) memberikan hasil yang tidak valid, diantaranya variabel-variabel bebas yang seharusnya berpengaruh signifikan terhadap variabel tak bebas akan dinyatakan sebaliknya (tidak nyata secara statistik), tanda koefisien regresi dugaan yang dihasilkan bertentangan dengan kondisi aktual, penduga koefisien regresi bersifat tidak stabil sehingga mengakibatkan sulitnya menduga nilai-nilai variabel tak bebas yang tentunya akan mengakibatkan tidak akuratnya pada peramalan (Myers, 1991). Kondisi ini mendorong untuk dikembangkannya suatu cara atau teknik yang dapat digunakan untuk mengatasi masalah multikolinieritas pada analisis regresi linier berganda. Salah satu solusi yang dapat digunakan adalah dengan menggunakan analisis komponen utama (principal component analysis). Melalui penggunaan analisis komponen utama ini akan dihasilkan variabel-variabel baru yang merupakan kombinasi linier dari variabel-variabel bebas asal dan antarvariabel baru ini bersifat saling bebas. Variabel-variabel yang baru ini disebut komponen utama, dan selanjutnya diregresikan dengan variabel tak bebas. Tujuan dari penulisan paper ini yaitu Mengkaji analisis regresi komponen utama sebagai salah satu solusi untuk menangani multikolinieritas antar variabel bebas pada analisis regresi linier berganda, dan memberikan ilustrasi penerapan analisis regresi komponen utama.

2. LANDASAN TEORI
Definisi 2.1 Matriks X berukuran p × p dikatakan matriks ortogonal jika X′X = XX′ = I Definisi ini mempunyai dua akibat. Pertama, bentuk matriks ortogonal adalah persegi (square). Kedua, karena X′X = XX′ = I , maka suatu matriks X dikatakan matriks ortogonal jika X −1 = X′ . Definisi 2.2 Misal matriks A berukuran p × p , dan elemen dari A untuk baris i dan kolom j dinyatakan dalam aij . Trace dari matriks A ; tr ( A ) adalah jumlah dari elemen diagonalnya yang didefinisikan

2.1 Review Matriks

tr( A) = ∑ i =1aii
p

1

Matematika UNJ

dan Λ adalah matriks diagonal berukuran m × p dengan elemen diagonal utama λi ≥ 0 .i .5 Misal matriks A berukuran m × p .4 Misal A adalah matriks simetrik berukuran p × p .j berpengaruh nyata terhadap Y Statistik uji yang digunakan untuk menguji parameter regresi secara parsial adalah : ˆ βj ˆ thitung ( β j ) = ˆ var( β j ) (4) ˆ Jika thitung ( β j ) > t( n − p −1).j signifikan atau variabel bebas ke. X 2 . i ) .2 Analisis Regresi Linier Berganda Analisis regresi linier berganda merupakan analisis regresi yang melibatkan lebih dari satu variabel bebas ( X 1 . dan Λ adalah matriks diagonal yang memiliki nilai eigen pada diagonal utamanya.… . n .α /2 . ε adalah vektor galat berukuran n × 1 . dan elemen pada selain diagonal bernilai nol. maka H 0 ditolak yang artinya variabel bebas ke. i = 1. i = 1. dan var(ε i ) = σ 2 . maka nilai eigen yang telah diperoleh disubtitusi ke persamaan Ax = λ x . β adalah vektor yang berukuran ( p + 1) ×1 yang elemen-elemennya berupa parameter (koefisien) regresi.Misal A adalah matriks berukuran p × p dan x adalah vektor tak nol berukuran p × 1 . V adalah matriks berukuran p × p yang kolom-kolomnya adalah vektor eigen yang saling ortogonal dari A′A . P adalah suatu matriks yang elemen-elemennya vektor eigen berukuran p × p . Model regresi linier berganda yang melibatkan p buah variabel bebas adalah : Y = β 0 + β1 X 1 + β 2 X 2 + ⋯ + β p X p + ε (2) Dalam notasi matriks menjadi : (3) dengan Y adalah vektor berukuran n × 1 yang elemen-elemennya merupakan nilai-nilai amatan dari variabel tak bebas. 2. X p ) dan mempunyai hubungan linier dengan variabel tak bebas (Y ) . maka penduga kuadrat terkecil untuk b adalah −1 ˆ β = b = ( X'X ) X'Y Rumusan hipotesis untuk menguji parameter regresi secara parsial adalah sebagai berikut : H 0 : β j = 0 artinya koefisien regresi ke. Untuk menentukan vektor eigen yang bersesuaian dengan suatu nilai eigen.… . Definisi 2. X adalah matriks rancangan (design matrix) yang berukuran n × ( p + 1) . Definisi 2. p ) pada sel (i. Nilai eigen dari matriks A yang dinotasikan oleh λ adalah suatu nilai yang memenuhi persamaan berikut : | A − λ I |= 0 .i dari matriks A berukuran p × 1 .j tidak signifikan atau variabel bebas ke.j tidak berpengaruh nyata terhadap Y H1 : β j ≠ 0 artinya koefisien regresi ke. maka singular value decomposition untuk A didefinisikan sebagai berikut : A = U Λ V′ ( m× p ) ( m× m )( m × p )( p × p ) dengan U adalah matriks berukuran m × m yang kolom-kolomnya adalah vektor eigen yang saling ortogonal dari AA ′ . maka dekomposisi spektral matriks ri A diberikan oleh : A = ∑λi ei ei′ = PΛP ′ i =1 p (1) dengan λi adalah nilai eigen ke. dimana galat diasumsikan E (ε i ) = 0 . min(m. dan ei adalah vektor eigen ke. Pendugaan parameter regresi β dengan menggunakan metode kuadrat terkecil berdasarkan model Y = Xβ + ε adalah dengan meminimumkan jumlah kuadrat galat (JKG) dimana JKG dirumuskan sebagai berikut : JKG = ε ′ε = (Y − Xb )′(Y − Xb ) Y = Xβ + ε Jika X adalah matriks rancangan berukuran n × ( p + 1) yang bersifat full rank dengan p + 1 ≤ n .… . 2.j berpengaruh nyata . 2.

… . Wi yang dibentuk berdasarkan variabel-variabel yang telah dibakukan Z ′ = ( Z1 .α /2 var( β j ) (5) 2. Z p ) dengan cov( Z) = ρ didefinisikan sebagai berikut : Wi = ei1 Z1 + ei 2 Z 2 + … + eip Z p i = 1.j didefinisikan sebagai berikut : VIFj = 1 1 − R2 j (6) dengan : R 2 adalah koefisien determinasi antara X j dengan variabel bebas lainnya pada persamaan/model j dugaan regresi. Selang kepercayaan untuk β j dengan tingkat kepercayaan 100(1 − α )% adalah ˆ ˆ β j ± t( n − p −1). Besaran (quantity) yang dapat digunakan untuk mendeteksi adanya multikolinier adalah faktor inflasi ragam (Variance Inflation Factor / VIF). W2 adalah komponen kedua yang memenuhi sisa keragaman selain komponen pertama dengan memaksimumkan nilai e′ Σe 2 = λ2 . proporsi total variansi yang dapat dijelaskan oleh komponen utama ke. Sementara itu.W2 . VIF untuk koefisien regresi. Nilai VIF lebih besar dari 10 mengindikasikan adanya masalah multikolinier yang serius (Ryan.1 Komponen utama yang Dibentuk Berdasarkan Matriks Kovariansi nilai eigen dan vektor eigen yang saling ortonormal adalah Misal Σ merupakan matriks kovariansi dari vektor acak X′ = [ X 1 .… .k berdasarkan variabel bebas yang telah dibakukan didefinisikan sebagai berikut : λk λ  Proporsi total variansi populasi yang  = k (40)  = p  dijelaskan oleh komponen utama ke − k  tr(ρ) dengan λk adalah nilai eigen dari ρ . p . dimana i = 1. Urutan W1 . komponen utama juga dapat dibentuk berdasarkan matriks korelasi.k adalah : λk λk  Proporsi total variansi populasi yang  =  =  dijelaskan oleh komponen utama ke − k  tr( Σ) λ1 + λ2 + … + λ p dengan k = 1. Z 2 . 2. ′ dimana W1 adalah komponen pertama yang memenuhi maksimum nilai e1Σe1 = λ1 .2 Komponen utama yang Dibentuk Berdasarkan Matriks Korelasi Selain berdasarkan matriks kovariansi. 1998). maka komponen utama ke-i didefinisikan sebagai berikut : Wi = ei′ X = ei1 X 1 + ei 2 X 2 + … + eip X p .(λ2 .… . dan merupakan kombinasi linier dari variabel asal. (λ p . Komponen utama ke.4. Hal ini dilakukan jika variabel-variabel bebas yang diamati mempunyai perbedaan range yang sangat besar.W p harus memenuhi persyaratan λ1 ≥ λ2 ≥ … ≥ λ p . 2 W p adalah komponen ke.… . 2. e p ) .… X p ] dengan pasangan (λ1 . 2. dimana j = 1.i .4. e1 ). p (8) 2. 2.3 Multikolinieritas Multikolinieritas adalah suatu kondisi dimana terjadi korelasi antara variabel bebas atau antar variabel bebas tidak bersifat saling bebas. X 2 .… . Secara umum tujuan dari analisis komponen utama adalah mereduksi dimensi data dan untuk kebutuhan interpretasi.p yang memenuhi sisa keragaman selain W1 . e 2 ). proporsi total variansi yang dijelaskan komponen utama ke. 2. 2. Selanjutnya variabel baru ini dinamakan komponen utama (principal component).terhadap Y .… . p (9) Sementara itu.4 Analisis Komponen Utama Analisis komponen utama merupakan teknik statistik yang dapat digunakan untuk menjelaskan struktur variansi-kovariansi dari sekumpulan variabel melalui beberapa variabel baru dimana variabel baru ini saling bebas. p .W p −1 dengan memaksimumkan nilai e′p Σe p = λ p . dan k = 1. p (7) λ1 ≥ λ2 ≥ ⋯ ≥ λ p ≥ 0 . VIF digunakan sebagai kriteria untuk mendeteksi multikolinier pada regresi linier yang melibatkan lebih dari dua variabel bebas.… . … .W2 .… . 2.

dan proporsi total variansi populasi bernilai cukup besar (Johnson. α1 . α 0 adalah intersep.… .… . Prosedur menduga koefisien α' = (α 0 . dimana Wk = ZPk . Y adalah variabel tak bebas. 1 adalah vektor yang elemen-elemennya adalah 1 berukuran n × 1 . dan adalah vektor galat berukuran n × 1 . Kriteria pemilihan k yaitu : 1. REGRESI KOMPONEN UTAMA Cara pembentukan regresi komponen utama melalui analisis komponen utama ada dua cara. pembentukan komponen utama berdasarkan matriks korelasi. Z 2 . Wk adalah suatu matriks berukuran n × k yang elemennya terdapat komponen utama. 1 adalah vektor yang elemen-elemennya adalah 1 berukuran n × 1 . 3. a p merupakan penduga regresi komponen utama dari koefisien α 0 . α k adalah vektor koefisien komponen utama berukuran k × 1 . Proporsi kumulatif keragaman data asal yang dijelaskan oleh k komponen utama minimal 80% .3 Kriteria Pemilihan Komponen Utama Salah satu tujuan dari analisis komponen utama adalah mereduksi dimensi data asal yang semula terdapat p variabel bebas menjadi k komponen utama (dimana k < p ). 2. 3. pembentukan komponen utama berdasarkan matriks kovariansi (peragam). X p diganti dengan variabel baku Z1 . pemilihan nilai k berdasarkan scree plot ditentukan dengan melihat letak terjadinya belokan dengan menghapus komponen utama yang menghasilkan beberapa nilai eigen kecil membentuk pola garis lurus (Rencher. maka model regresi komponen utama berdasarkan matriks korelasi adalah sebagai berikut : Y = α 0 1 + Wk α k + ε (73) dengan Y adalah variabel tak bebas. Wk adalah suatu matriks berukuran n × k yang elemennya terdapat komponen utama. 3. ε 3.3 Pendugaan Koefisien Regresi Komponen Utama Misal koefisien a0 .2. Kedua cara tersebut digunakan tergantung pada kondisi range amatan pada variabel bebas.1 Regresi komponen utama yang dibentuk berdasarkan matriks kovariansi Misal matriks P adalah matriks ortogonal dengan memenuhi persamaan P ′P = PP ′ = I . mengambil nilai logaritma ( ln ). pendugaan koefisien menggunakan maksimum likelihood.2 Regresi komponen utama yang dibentuk berdasarkan matriks korelasi Persamaan regresi komponen utama berdasarkan matriks korelasi pada dasarnya hampir sama dengan persamaan regresi komponen utama berdasarkan matriks korelasi yaitu variabel X 1 . maka proses persamaan regresi linier berganda menjadi regresi komponen utama yaitu : Y = Xc β + ε Y = X c PP'β + ε (51) Y = Wα + ε Model regresi komponen utama yang telah direduksi menjadi k komponen adalah Y = α 0 1 + Wk α k + ε (62) dengan Xc merupakan matriks yang elemen-elemennya dikurang dengan rataannya (centered) yang mensyaratkan rataan nol dan variansi σ 2 . Kedua. 2002). α p ) dengan metode maksimum likelihood yaitu dengan cara mengkalikan fungsi densitas f (ε i ) .4. Z p .… . α p . dan (12). dan ε adalah vektor galat berukuran n × 1 . namun untuk memenuhi asumsi normal. α1 . Dengan menggunakan scree plot yaitu plot antara i dengan λi .… . X 2 . Pertama. dan diturunkan terhadap . α 0 adalah intersep.… . α k adalah vektor koefisien komponen utama berukuran k × 1 . Pendugaan koefisien dengan maksimum likelihood menghasilkan dugaan yang sama pada kuadrat terkecil. Umumnya proses untuk memperoleh persamaan regresi komponen utama berdasarkan matriks korelasi mempunyai proses yang sama pada penurunan persamaan regresi komponen utama berdasarkan matriks kovariansi yaitu pada formula (11). Karena W = Xc P . 1998). a1 .

((n − 1)λ2 ) −1 . a1 . a p ) .a′ = (a0 . Hasil transformasi komponen utama menjadi variable Xc yang mempunyai koefisien regresi β* yaitu : f : W → Xc Y = α 0 1 + X c β* + ε b* = ∑((n − 1)λm ) −1 e m e′ X′ Y dan m c m =1 k b0 = Y Hasil transformasi variable Xc menjadi variable X yang mempunyai koefisien regresi β* yaitu : f : Xc → X * Y = ξ + β1* X 1 + β 2 X 2 + … + β * X p p ξ = Y − β*′ X Hasil transformasi komponen utama menjadi variable Z yang mempunyai koefisien regresi β* yaitu : f :W → Z Y = α 0 1 + Zβ* + ε b* = ∑((n − 1)λm ) −1 e m e′ Z′ Y dan m c m =1 k b0 = Y Hasil transformasi veriabel Z menjadi variable X yang mempunyai koefisien regresi γ yaitu : f :Z → X g = V1/ 2 b* dan g 0 = Y − b*′ V1/ 2 X 3. e k berukuran k × 1 . dimana masing-masing vektor eigen e1 .… .… . Sementara itu. j = 1. i. kemudian disamakan dengan nol. 2. Pendugaan koefisien regresi komponen utama yang diperoleh dari maksimum likelihood adalah sebagai berikut : ∂ ln L(ε1 . ((n − 1)λk ) −1 . p dan i ≠ j .… . Sementara itu nilai variansi β * adalah j . Jika menggunakan regresi komponen utama berdasarkan matriks korelasi.… . σ 2 ) ∂  n 1 ( −1/2σ 2 )[( Y − Wa )′( Y − Wa )]  ≡ ln  ∏ e =0 ∂a ∂a  i =1 2πσ  dan hasil dari (14) adalah a = ( W ′W )−1 W ′Y (84) (95) Misal a k = (a1 . Nilai variansi regresi komponen utama adalah σ 2 ((n − 1)λ j ) −1 m c ˆ dimana nilai cov(Wi . e 2 . W j ) = 0 . maka penyederhanaan pada (15) yaitu : a k = ( Wk′ Wk ) −1 Wk′Y (106) − = Λ k 1 ( ( X c Pk )′Y ) dengan Λ −1 merupakan matriks diagonal yang mempunyai elemen diagonal utama ((n − 1)λ1 ) −1 . dan Pk adalah matriks berukuran k × k yang elemen-elemennya merupakan vektor eigen.… .4 Transformasi Komponen Utama Transformasi komponen utama merupakan variabel baru (W ) yang terdapat dalam regresi komponen utama diubah sedemikian sehingga menjadi variabel asal ( X ) . a2 . ak ) merupakan penduga koefisien regresi komponen utama dengan k komponen. maka pendugaan parameter (koefisien) α adalah sebagai berikut : − a k = Λ k 1 ( (ZPk )′Y ) dan a0 = Y (117) 3.… . ε 2 . ε n .5 Nilai Ekspektasi dan Variansi Penduga Koefisien Regresi Komponen Utama Nilai m = k +1 ekspektasi bias penduga koefisien regresi komponen utama yaitu ∑ ((n − 1)λ p m ˆ ) −1 e m e′ X′ Y .

0085 0.9631 1.0000000707 0.74 × 10−6 X 4 − 1.98 × 10−6 X 5 + 2.9833 -6.00000116 0.1: Scree plot komponen utama .0036 0.6.9684 λ4 0.000000292 -0.9972 λ7 0.6234 Beberapa indikasi adanya multikolinieritas yaitu ada 2 variabel ( X 1 dan X 6 ) yang tidak signifikan ˆ thitung ( β j ) ≤ 2.Koefisen 0.0018 0.0015 0.0004 1.2 k e2 emj  ˆ2 ˆ j adalah σ ∑  .000000122 0.2596 154.85 ×10−6 X 7 + 5.52 × 10−7 X 1 + 4.000000167 0.000000428 0.  ˆ n − 1  m =1 λm  σ jj (n − 1) m =1 λm  k ˆ σ2  3.00000774 -0.92 × 10−7 X 3 − 7. proporsi variasi kumulatif λ1 Nilai eigen Proporsi Total Variansi Proporsi Variansi Kumulatif 6. proporsi total variansi. 3.0131 0.0161 0.000000527 0.5455 61. dan nilai VIF lebih besar dari 10 pada tabel 3. Data sekunder untuk ilustrasi ini diperoleh dari badan pusat statistik (BPS) Jakarta bagian neraca regional yang dapat dilihat pada.000000252 0.0009 0.1 Analisis dengan Regresi Linier Berganda Berdasarkan pada lampiran F.2172 VIF 30.8629 λ3 0. proporsi total variansi kumulatif. Data dianalisis dengan menggunakan program matlab versi 6.0000000632 0.6229 0.06 × 10−7 X 6 + 3.02 − 2. model regresi linier berganda dengan menggunakan metode kuadrat terkecil untuk menduga koefisien regresi adalah ˆ Y = 5.6826 λ2 1.1 : Tabel 3.1433 0.1 yang algoritma programnya.2: Nilai eigen. proporsi total variansi. dan grafik scree plot yaitu : Tabel 3.00000385 0.4939 23.9987 λ8 0.000000245 0.1054 0.8539 33.1455 4.000000414 T-hitung -1. dan nilai variansi penduga γ ∑ mj .08 .4575 3. dan microsoft excel 2003.2922 2.00000198 0.0028 0.6515 117.28 × 10−7 X 2 + 2. nilai VIF.9996 λ9 0.9490 0.2180 0.6.00000133 SE.1: Uji Signifikansi Koefisien Regresi Komponen Utama Variabel X1 X2 X3 X4 X5 X6 X7 X8 X9 Koefisien -0. 1998).8123 51.6 Ilustrasi Regersi Komponen Utama Penyelesaian ilustrasi regresi komponen utama menggunakan data produk domestik regional bruto (PDRB) seluruh wilayah propinsi di Indonesia.2627 -3.000000529 -0. dan melakukan uji parsial pada tabel 3.5011 6.6640 7.0000 Gambar 3.9926 λ5 0.1803 0.2 Penyelesaian dengan Regresi Komponen Utama Nilai eigen.7622 98.0255 0.000000206 0.6826 0.2 (Ryan.13 × 10−6 X 9 Adanya gejala multikolinieritas dapat diperiksa dengan matriks korelasi.53 × 10−7 X 8 − 1.6593 -2.000000669 0. 3.0242 0.9954 λ6 0.

2835 -6.97 × 10-6 1.68 − 0. g p ) diperoleh dari formula g = V1/2 b* .2827 0. - * 0 ˆ 5. 4. Adapun model regresi komponen utama dengan 3 komponen adalah : ˆ Y = 8.5360W1 + 1.3 Perbandingan Regresi Linier Berganda dan Regresi Komponen Utama Salah satu kriteria untuk membandingkan suatu model regresi adalah dengan menggunakan standar error (Fekedulegn.13 × 10 2.2835W2 − 6. Nilai standar error dari metode kuadrat terkecil dan metode komponen utama adalah sebagai berikut: Tabel 3. 4.539 Z − 1. maka semua j variabel bebas Z berpengaruh nyata terhadap Y . λ6 .483Z + 0.3: Uji signifikansi koefisien regresi komponen utama Komponen Utama W1 W2 W3 W4 Koefisien -1.3 yang dilibatkan dalam model.08 × 10-6 1.13 × 10−6 X 7 + 0.69x10-7 2.08 × 10−6 X 9 dimana masing-masing penduga koefisien regresi ( g1 .08 . Sesuai gambar scree plot pada gambar 3.84 × 10-8 0.44 × 10-6 4. maka model regresinya adalah : ˆ = 4.57 × 10-8 -0.… .67x10-7 4. 2.85x10-6 5.6333 VIF 1 1 1 1 ˆ Komponen utama ke-4 tidak signifikan ( thitung (α j ) ≤ 2.4695 − 1.15%. Karena masing-masing nilai thitung ( β * ) ≤ 2.8600. 7.2.09%.5499 0.5360 1.… .5653.50 × 10-6 6.52x10-7 1.50 × 10 −6 X + 0. Jika regresi linier berganda yang terdapat variabel Z ditransformasi menjadi variabel X sebagai variabel bebasnya. -2.26) sebagai variabel bebas adalah : ˆ = 8.317 Z + 0.14 ×10−6 X 8 + 0.02 × 10 8.689Z dima Y 1 2 3 4 5 6 7 8 9 na b = a0 = 8.22x10-7 3.6x10-7 -1.0.37 × 10-9 -0. 2.7619.66 × 10-7 0.92x10 0.71x10-7 -7.04% .3.408Z + 2. dan nilai T-hitung dari masing=masing variabel bebas yaitu -5.98x10-6 6. 8. 0.02 ×10−6 X Y 1 2 3 4 5 6 + 0.65 × 10-8 0.1774. dan g 0 = Y − b ′* V1/2 X .86 × 10-8 0.3339 -9.45x10-7 -1. komponen yang dapat mewakili dari 9 komponen ada 8 komponen utama sesuai dengan kriteria 80% dari proporsi kumulatif keragaman.7530 -0.5006 T-hitung -5.29x10-7 2.28%.44 × 10−6 X − 0.3901 -0. akan dilihat nilai standar error penduga koefisien dari masing-masing model tersebut.16 × 10 −6 X + 0.1 menjelaskan bahwa komponen yang dilibatkan dalam model hanya 4 komponen karena setelah belokan ke-4.4695 Model regresi linier berganda yang melibatkan variabel Z yang merupakan hasil transformasi dari variabel W (pada 3.541Z + 0.02 × 10-6 8.1.63x10-7 -7 2. akan tetapi kontribusi proporsi keragaman λ5 .97 × 10 −6 X + 0.5. 9.6.14 × 10-6 1.9504 Standar Error 0.3933.618Z + 2.06x10-7 1. Uji hipotesis secara parsial penduga koefisien regresi komponen utama ke.1.79 × 10-8 .18%.00 × 10-8 -6 0.Berdasarkan tabel 3.02 × 10 −6 X − 0.8: Perbandingan standar error metode kuadrat terkecil dan komponen utama Variabel X1 X2 X3 X4 X5 X6 X7 X8 X9 Kuadrat Terkecil Koefisien Standar Error -2.4695 − 1.16 × 10-6 2.7192 1.05) pada tabel 3.4567.7530W3 dimana a0 = Y = 8.504 Z − 0. grafik scree plot membentuk pola linier yang artinya komponen yang membentuk pola tersebut tidak disertakan dalam model. g 2 . 3. 2002). sehingga hanya komponen utama ke.4695 .37 × 10-9 -6 0.5615. 4 sesuai formula a k = (n − 1) Λ −1 ( (ZPk )′Y ) adalah : k Tabel 3. 0.14x10-7 Komponen Utama Koefisien Standar Error -0. 0.33x10-6 4. 1998).74x10-6 11.9688. λ9 hanya menjelaskan 0.28x10-7 0.27x10-7 5. Untuk membandingkan model regresi linier berganda dan regresi komponen utama.800 Z + 5. Ini berarti komponen ke-5 sampai ke-9 tidak ikut disertakan dalam model karena nilai keragaman data asal yang dapat dijelaskan oleh komponen utama bernilai relatif kecil (Johnson. 2.6158 .4340 2.

.R. analisis dengan regresi komponen utama cukup efektif dalam mengatasi multikolinieritas. 00E -07 0. 2002. DAFTAR PUSTAKA Fekedulegn. 40E -06 1. 00E -07 2.2. Hicks.D. PWS-KENT Publishing Company.8. pkl 21. Brigham.C. Pearson Education International.H.www. 13 September 2006. M. Secara visual.. maka hasil prosedur untuk menduga komponen utama pada regresi komponen utama lebih tepat dan dipercaya (reliable) daripada metode kuadrat terkecil. 2002. Colbert.08) artinya masing-masing variable berpengaruh nyata terhadap Y.Berdasarkan tabel 3. nilai T-hitung masing-masing variabel Z lebih besar dari T-tabel (bernilai 2.us/ne/morgantown/4557/dendrochron/rpne721. Applied Multivariate Statistical Analysis.pdf. 1998.J. dan jika dilakukan uji parsial pada tabel 3. nilai penduga koefisien standar error paling kecil adalah metode komponen utama pada regresi komponen utama daripada metode kuadrat terkecil pada regresi linier berganda. A. 20E -06 1.2: Grafik standar error regresi linier berganda dan regresi komponen utama Berdasarkan gambar 3. Johnson. 2002). 00E +00 X1 X2 X3 X4 X5 V ar i abel X6 X7 X8 X9 Gambar 3.W. 5th edition. & Milton. Jr. 4. perbandingan standar error penduga koefisien regresi linier berganda dan regresi komponen utama adalah : 1. Wiley-Interscience Publication. Hal ini dapat menunjukkan hasil prosedur untuk menduga komponen utama lebih tepat dan dipercaya (reliable) terhadap variabel-variabel bebas daripada metode kuadrat terkecil (Fekedulegn.1 dimana nilai VIF masing-masing komponen utama bernilai satu. Perbandingan regresi komponen utama dengan regresi linier berganda menggunakan kriteria standar error penduga koefisien. D. A First Course In The Theory Of Linier Statistical Models.E. & Schuckers. plot standar error penduga koefisien regresi komponen utama berada di bawah plot standar error penduga koefisien regresi linier berganda. Coping with Multicollinearity: An Example on Application of Principal Components Regression in Dendroecology. Rencher. Ini ditunjukkan pada tabel 3.S. 00E -06 8. Myers. Boston. 1991.00 WIB. R. B. 5.J. Multivariate Statistical Inference and Application.R. KESIMPULAN Berdasarkan ilustrasi pada sub bab 3. 00E -07 Regr esi Li ni er B er ganda Regr esi K omponen Ut ama 6. 00E -07 4.A.3..fs. Karena standar error penduga koefisien regresi komponen utama bernilai kecil.6. J. & Wichern. R.fed.