You are on page 1of 37

1

BAB I PENDAHULUAN

1.1. LATAR BELAKANG Dalam hal ini sebuah pengambilan keputusan dan begitu pula dengan sebuah analisa berdasarkan sebuah data statistika dengan variable yang sangat bervariasi maka dalam hal ini perlu mengetahui metode-metode statistika yang dimana metode ini memiliki ciri khas tersendiri dalam hal sebuah analisa dan pengambilan keputusan berdasarkan uji parameter data kualitatif dan begitupula dat kuantitatif yaitu dengan cara Analisis Cluster adalah analisis yang digunakan untuk mengelompokkan sampling unit (SU) menjadi beberapa cluster atau kelompok berdasarkan variable yang diamati, sehingga diperoleh kemiripan SU dalam kelompok yang sama dibandingkan antar SU dari kelompok yang bebeda. PCA (Principal Componen Analysis) merupakan suatu teknik untuk menyederhanakan dataset, dengan mengurangi dataset multi- dimensional ke dimensi yang lebih rendah. Tujuan dari PCA adalah mengurangi dimensionalitas data sambil tetap memelihara sebanyak mungkin variansi yang muncul dalam dataset. Keuntungan analisis cluster lebih dari metoda tabel dan ordinasi bahwa penggolongan dapat dilakukan, sungguhpun itu adalah sewenang-wenang. Walaupun menunjukkan penggolongan menjadi subjektif, lebih sedikit analisis cluster diukur proses klasifikasi, sebab beberapa ambang batas dipilih seperti batas yanglebih rendah bagi suatu asosiasi. Juga, hubungan dari asosiasi yang berbeda dapat terukur. Indeks dispersi adalah indeks yang digunakan untuk mengetahui suatu spesies mengelompok atau tidak. Maka dari hal metode statistika itulah maka selanjutnya kita akan mampu menganalisa sebuah data dari data variable yang berbeda-beda dan data yang memiliki dominasi yang bervariasi dapat diasumsikan dengan penganalisaan dengan mudah. Semakin strategisnya kedudukan riset dalam pengambilan keputusan menyebabkan semakin pentingnya kedudukan statistik sebagai salah satu alat bantu dalam riset. Hasil analisis data dengan alat bantu statistik dinilai lebih empiris untuk memecahkan persoalan penelitian. Principal Components Analysis (PCA) pada umumnya merupakan salah satu metode statistik yang sering dipakai apabila seorang peneliti dihadapkan pada kasus yang melibatkan lebih

2 dari satu variabel dan antar variabel tersebut berkorelasi (dependen). Dengan menggunakan PCA sebagai satu alat analisa, akan memudahkan peneliti untuk dapat memberikan interpretasi atas suatu permasalahan yang melibatkan lebih dari satu variable. PCA atau Principal Component Analysis adalah salah satu bentuk analisa multivariate. Jika penelitian misalnya mengukur banyak variable dan ingin mengelompokkan variable-variable tersebut, maka PCA dapat menjadi salah satu alat bantu. 1.2. TUJUAN DAN MANFAAT 1. Mahasiswa mampu mengetahui dan mampu menganalisa sebuah data dengan beberapa metode statistika yaitu PCA (Principal Component Anaysis) 2. Mahasiswa mampu mengetahui dan menjalankan sistem operasi dari software pendukung statistic yaitu MINITAB dalam mengambil sebuah analisa dengan cepat 3. Mahasiswa mempunyai keterampilan dalam hal pengambilan sebuah keputusan dengan sebuah analisa dengan cepat dari sebuah data yang mempunyai variable yang bervariasi dengan teknik PCA dan dengan bantuan MINITAB 4. Mahasiswa mampu mengetahui dan menerapkan sistem metode statistika dengan metode statistika yang mempunyai sistem pengambilan keputusan dan analisa yang mudah yaitu PCA (Principal Component Anaysis) dan Cluster Analysis

BAB II TINJAUAN PUSTAKA

2.1. CLUSTER ANALISIS Analisis Cluster adalah analisis yang digunakan untuk mengelompokkan sampling unit (SU) menjadi beberapa cluster atau kelompok berdasarkan variable yang diamati, sehingga diperoleh kemiripan SU dalam kelompok yang sama dibandingkan antar SU dari kelompok yang bebeda. Analisis cluster ada dua teknik yaitu: 1. Teknik berhirarkhi: dipilah menjadi teknik penggabungan (agglomerative) dan teknik pembagian (divisive). 2. Teknik non hirarkhi: yaitu dengan penyekatan seperti teknik rataan. Dalam hal ini cluster analisis dapat pula dikatakan sebagai suatu teknik untuk mengklasifikasikan terhadap suatu pengamatan untuk mengelompokan dan data dari pengelompokan akan menjadi bersifat yang homogeny dan jika dari perbedaan dibedakan pola kelompok, maka oleh karena itu dalam 1 kelompok disebut cluster. .Keuntungan analisis cluster lebih dari metoda tabel dan ordinasi bahwa penggolongan dapat dilakukan, sungguhpun itu adalah sewenang-wenang. Walaupun menunjukkan penggolongan menjadi subjektif, lebih sedikit analisis cluster diukur proses klasifikasi, sebab beberapa ambang batas dipilih seperti batas yang lebih rendah bagi suatu asosiasi. Juga, hubungan dari asosiasi yang berbeda dapat terukur. Tahapan dalam hal perhitungan cluster analisis yaitu: 1. Pengukuran tentang jarak (kemiripan antar variable) 2. Memilih kelompok yang algorithm (pengelompokan) 3. Pengelompokan berdasarkan angka 4. Validasi analisis Dalam hal ini pula analisis cluster dapat dibedakan dengan sistem yaitu: 1. Variance 2. Error ratio

4 Variance merupakan untuk mengukur nilai penyebaran dari data-data hasil clustering. Dari hal tersebut maka akan dipakai atau akan digunakan data yang bertipe unsupervised. Variance pada clustering ada 2 macam yaitu variance within cluster dan variance between clusters. Suatu cluster dikatakan bagus apabila ketika anggota suatu kelompok mempunyai suatu derajat tinggi persamaan untuk satu sama lain (homogenitas internal) dan adalah tidak seperti anggota dari yang lain diluar kelompok (homogenitas eksternal). Homogenitas internal yaitu variance within cluster (Vw) dan homogenitas eksternal yaitu variance between clusters (Vb). Cluster variance yaitu:

Variance within clusters

Variance between clusters

Variance dari semua Cluster

Dalam hal ini selanjutnya error ratio yaitu data yang dimana dipakai atau digunakan ketika jika dataset yang digunakan adalah supervised dan biasanya digunakan untuk mengukur tingkat presisi dari metode clustering (Ridho, 2008). Dapat dirumuskan yaitu:

2.2. PCA (PRINCIPAL COMPONENT ANALYSIS) Pada dasarnya PCA merupakan salah satu teknik untuk mengidentifikasi pola dari sekumpulan data dan untuk mengetahui persamaan dan perbedaan dari sekumpulan data tersebut. Pola pada sekumpulan data akan susah terlihat pada data yang memiliki ukuran dan

5 dimensi yang sangat besar. Tujuan dari PCA adalah mereduksi ukuran dan dimensi data tanpa banyak kehilangan informasi penting yang terdapat dalam data tersebut. Metode PCA dikembangkan pada awalnya oleh Pearson (1901) dan disempurnakan oleh Hoteling (1933). Dimisalkan kita memiliki data yang sangat besar dengan banyak variabel dan sejumlah n kasus. Dengan melakukan proyeksi data menjadi dimensi yang lebih sedikit, dimana cara proyeksi data ini dipilih yang paling tepat sehingga informasi tentang hubungan antar variabel tidak banyak yang hilang. Metode PCA dapat dilakukan dengan beberapa tahapan yaitu: 1. Ada sekumpulan data 2. Adjust (sesuaikan) data dalam hal ini, kurangkan tiap-tiap data dengan nilai rata-ratanya 3. Tentukan Covariance Matrix, tentukan terlebih dahulu nilai covariance antar variable 4. Tentukan Eigen vector dan Eigen value dari matrix covariance, Berdasarkan eigen vector dan eigen value akan dapat ditarik sumbu-sumbu garis yang menggambarkan pola data (Soemartini, 2008). Langkah-langkah kalkulasi PCA: Terlebih dahulu kita anggap x1, x2, , xM adalah vector N x 1, dari hal ini maka selanjutnya kita dapat melakukan perhitungan PCA. 1. Menghitung mean: 2. Menghitung selisih mean: 3. Dari matriks A=[1 2 M] (matriks NxM) lalu hitung covariance: 4. Menghitung nilai eigen 5. Menghitung vector eigen Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan variable yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel bebas

6 baru yang akan diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas (Y) dengan menggunakan analisis regresi. Keuntungan penggunaan Principal Component Analysis (PCA) yaitu: 1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga masalah multikolinearitas dapat benar-benar teratasi secara bersih. 2. Dapat digunakan untuk segala kondisi data / penelitian 3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal 4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan yang tinggi akan tetapi kesimpulan yang diberikan lebih akurat dibandingkan dengan pengunaan metode lain. Dalam hal ini kita menggunakan prosedur Principal Component Analysis (PCA) untuk mengatasi multikolinearitas. Prosedur PCA pada dasarnya bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali. Dengan metode PCA, kita akan mendapatkan variabel bebas baru yang tidak berkorelasi, bebas satu sama lainnya, lebih sedikit jumlahnya daripada variabel asli, akan tetapi bisa menyerap sebagian besar informasi yang terkandung dalam variabel asli atau yang bisa memberikan kontribusi terhadap varian seluruh variable. Principal Component Analysis (PCA) merupakan salah satu metode dasar dari analisis faktor. Oleh karena itu, metode ini akan lebih baik digunakan jika kita telah mempelajari terlebih dahulu mengenai analisis faktor. Walaupun tampak canggih, analisis faktor bukan segalanya. Teknik ini tidak terlepas dari berbagai kelemahan. Keterbatasan utama adalah tinginya subjektivitas dalam penentuan jumlah faktor dan interpretasi setiap faktor. Untuk itu, diperlukan suatu teori-teori yang mendukung untuk menentukan banyaknya faktor yang terbentuk secara tepat (Soemartini, 2008). PCA adalah analisis sederhana benar multivariat eigenvektor berbasis. Seringkali, operasi dapat dianggap sebagai mengungkap struktur internal data dengan cara yang terbaik menjelaskan varians pada data. Jika dataset multivarian adalah divisualisasikan sebagai satu set koordinat dalam ruang dimensi data yang tinggi (1 sumbu per variabel), PCA memasok pengguna dengan gambar yang lebih rendah-dimensi, bayangan ini bila dilihat dari objek. PCA berkaitan erat dengan faktor analisis, memang beberapa paket statistika sengaja conflate dua teknik. Analisis faktor Benar membuat asumsi berbeda tentang struktur dasar dan memecahkan eigenvektor sedikit berbeda dari matriks.

7 Penggunaaan PCA dibatasi oleh asumsi yang dibuat di derivatnya. Asumsi ini adalah: 1. Asumsi pada linieritas Kami mengasumsikan data harus diamati set kombinasi linier dari basis tertentu. Non-linear metode seperti kernel PCA telah dikembangkan tanpa asumsi linieritas. 2. Asumsi tentang pentingnya statistik mean dan kovariansi PCA menggunakan eigenvektor dari kovarians matriks dan hanya menemukan sumbu independen dari data berdasarkan asumsi Gaussian. Untuk data non-Gaussian atau multi-modal, hanya PCA berkorelasi desumbu. Ketika PCA digunakan untuk clustering, keterbatasan utama adalah bahwa hal itu tidak menjelaskan keterpisahan kelas karena tidak membuat penggunaan label kelas dari vektor fitur. Tidak ada jaminan bahwa arah varians maksimum ini akan berisi fitur yang baik untuk diskriminasi. 3. Asumsi bahwa varians besar mempunyai dinamika penting PCA hanya melakukan rotasi koordinat yang meluruskan sumbu berubah dengan arah varians maksimum. Hanya kalau kita percaya bahwa data yang diamati memiliki rasio signal to noise tinggi bahwa komponen utama dengan keragaman yang lebih besar sesuai dengan dinamika yang menarik dan yang lebih rendah sesuai dengan kebisingan. Pada dasarnya, PCA hanya melibatkan rotasi dan skala. Asumsi di atas dibuat dalam rangka menyederhanakan perhitungan aljabar pada kumpulan data (Soemartini, 2008). 2.3. KORELASI Dalam teori probabilitas dan statistika, korelasi, juga disebut koefisien korelasi, adalah nilai yang menunjukkan kekuatan dan arah hubungan linier antara dua peubah acak (random variable). Salah satu jenis korelasi yang paling populer adalah koefisien korelasi momen-produk Pearson, yang diperoleh dengan membagi kovarians kedua variabel dengan perkalian simpangan bakunya. Meski memiliki nama Pearson, metode ini pertama kali diperkenalkan oleh Francis Galton. Korelasi dapat dihitung bila simpangan baku finit dan keduanya tidak sama dengan nol. Dalam pembuktian ketidaksamaan Cauchy-Schwarz, koefisien korelasi tak akan melebihi dari 1 dalam nilai absolut. Korelasi bernilai 1 jika terdapat hubungan linier yang positif, bernilai -1 jika terdapat hubungan linier yang negatif, dan antara -1 dan +1 yang menunjukkan tingkat dependensi linier antara dua variabel.

8 Semakin dekat dengan -1 atau +1, semakin kuat korelasi antara kedua variabel tersebut. Jika variabel-variabel tersebut saling bebas, nilai korelasi sama dengan 0. Namun tidak demikian untuk kebalikannya, karena koefisien korelasi hanya mendeteksi ketergantungan linier antara kedua variabel. Misalnya, peubah acak X berdistribusi uniform pada interval antara -1 dan +1, dan Y = X2. Koefisien korelasi Pearson merupakan statistik parametrik, dan ia kurang begitu menggambarkan korelasi bila asumsi dasar normalitas suatu data dilanggar. Metode korelasi non-parametrik seperti Spearman and Kendall berguna ketika distribusi tidak normal. Koefisien korelasi non-parametrik masih kurang kuat bila dibandingkan dengan metode parametrik jika asumsi normalitas data terpenuhi, namun cenderung memberikan hasil distrosi ketika asumsi tersebut tak terpenuhi. Korelasi merupakan teknik analisis yang termasuk dalam salah satu teknik pengukuran asosiasi / hubungan (measures of association). Pengukuran asosiasi merupakan istilah umum yang mengacu pada sekelompok teknik dalam statistik bivariat yang digunakan untuk mengukur kekuatan hubungan antara dua variabel. Diantara sekian banyak teknikteknik pengukuran asosiasi, terdapat dua teknik korelasi yang sangat populer sampai sekarang, yaitu Korelasi Pearson Product Moment dan Korelasi Rank Spearman. Selain kedua teknik tersebut, terdapat pula teknik-teknik korelasi lain, seperti Kendal, Chi-Square, Phi Coefficient, Goodman-Kruskal, Somer, dan Wilson. Pengukuran asosiasi mengenakan nilai numerik untuk mengetahui tingkatan asosiasi atau kekuatan hubungan antara variabel. Dua variabel dikatakan berasosiasi jika perilaku variabel yang satu mempengaruhi variabel yang lain. Jika tidak terjadi pengaruh, maka kedua variabel tersebut disebut independen. Korelasi bermanfaat untuk mengukur kekuatan hubungan antara dua variabel (kadang lebih dari dua variabel) dengan skala-skala tertentu, misalnya Pearson data harus berskala interval atau rasio; Spearman dan Kendal menggunakan skala ordinal; Chi Square menggunakan data nominal. Kuat lemah hubungan diukur diantara jarak (range) 0 sampai dengan 1. Korelasi mempunyai kemungkinan pengujian hipotesis dua arah (two tailed). Korelasi searah jika nilai koefesien korelasi diketemukan positif; sebaliknya jika nilai koefesien korelasi negatif, korelasi disebut tidak searah. Yang dimaksud dengan koefesien korelasi ialah suatu pengukuran statistik kovariasi atau asosiasi antara dua variabel. Jika koefesien korelasi diketemukan tidak sama dengan nol (0), maka terdapat ketergantungan antara dua variabel tersebut. Jika koefesien korelasi diketemukan +1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) positif. Jika koefesien korelasi diketemukan -1. maka hubungan tersebut disebut sebagai korelasi sempurna atau hubungan linear sempurna dengan kemiringan (slope) negatif. Dalam korelasi

9 sempurna tidak diperlukan lagi pengujian hipotesis, karena kedua variabel mempunyai hubungan linear yang sempurna. Artinya variabel X mempengaruhi variabel Y secara sempurna. Jika korelasi sama dengan nol (0), maka tidak terdapat hubungan antara kedua variabel tersebut. Dalam korelasi sebenarnya tidak dikenal istilah variabel bebas dan variabel tergantung. Biasanya dalam penghitungan digunakan simbol X untuk variabel pertama dan Y untuk variabel kedua. Dalam contoh hubungan antara variabel remunerasi dengan kepuasan kerja, maka variabel remunerasi merupakan variabel X dan kepuasan kerja merupakan variabel Y. Terdapat dictum yang mengatakan correlation does not imply causation. Artinya korelasi tidak dapat digunakan secara valid untuk melihat adanya hubungan kausalitas dalam variabel-variabel. Dalam korelasi aspek-aspek yang melandasi terdapatnya hubungan antar variabel mungkin tidak diketahui atau tidak langsung. Oleh karena itu dengan menetapkan korelasi dalam hubungannya dengan variabel-variabel yang diteliti tidak akan memberikan persyaratan yang memadai untuk menetapkan hubungan kausalitas kedalam variabel-variabel tersebut. Sekalipun demikian bukan berarti bahwa korelasi tidak dapat digunakan sebagai indikasi adanya hubungan kausalitas antar variabel. Korelasi dapat digunakan sebagai salah satu bukti adanya kemungkinan terdapatnya hubungan kausalitas tetapi tidak dapat memberikan indikasi hubungan kausalitas seperti apa jika memang itu terjadi dalam variabel-variabel yang diteliti, misalnya model recursive, dimana X mempengaruhi Y atau non-recursive, misalnya X mempengaruhi Y dan Y mempengaruhi X. Dengan untuk mengidentifikasi hubungan kausalitas tidak dapat begitu saja dilihat dengan kaca mata korelasi tetapi sebaiknya menggunakan model-model yang lebih tepat, misalnya regresi, analisis jalur atau structural equation model. Asumsi dasar korelasi diantaranya seperti tertera di bawah ini: Kedua variabel bersifat independen satu dengan lainnya, artinya masing-masing variabel berdiri sendiri dan tidak tergantung satu dengan lainnya. Tidak ada istilah variabel bebas dan variabel tergantung. Data untuk kedua variabel berdistribusi normal. Data yang mempunyai distribusi normal artinya data yang distribusinya yang mempunyai distribusi normal ialah sebagai berikut: 1. Kurva frekuensi normal menunjukkan frekuensi tertinggi berada di tengahtengah, yaitu berada pada rata-rata (mean) nilai distribusi dengan kurva sejajar dan tepat sama pada bagian sisi kiri dan kanannya. Kesimpulannya, nilai yang paling sering muncul dalam distribusi normal ialah rata-rata simetris sempurna. Jika digunakan bahasa umum disebut berbentuk kurva bel. Menurut Johnston (2004) ciri-ciri data

10 (average), dengan setengahnya berada dibawah rata-rata dan setengahnya yang lain berada di atas rata-rata. 2. Kurva normal, sering juga disebut sebagai kurva bel, berbentuk simetris sempurna. 3. Karena dua bagian sisi dari tengah-tengah benar-benar simetris, maka frekuensi nilai-nilai diatas rata-rata (mean) akan benar-benar cocok dengan frekuensi nilai-nilai di bawah rata-rata. 4. Frekuensi total semua nilai dalam populasi akan berada dalam area dibawah kurva. Perlu diketahui bahwa area total dibawah kurva mewakili kemungkinan munculnya karakteristik tersebut. 5. Kurva normal dapat mempunyai bentuk yang berbeda-beda. Yang menentukan bentuk-bentuk tersebut adalah nilai rata-rata dan simpangan baku (standard deviation) populasi. Karakteristik Korelasi, korelasi mempunyai karakteristik-karakteristik diantaranya: 1. Kisaran Korelasi Kisaran (range) korelasi mulai dari 0 sampai dengan 1. Korelasi dapat positif dan dapat pula negatif. 2. Korelasi Sama Dengan Nol Korelasi sama dengan 0 mempunyai arti tidak ada hubungan antara dua variabel. 3. Korelasi Sama Dengan Satu Korelasi sama dengan + 1 artinya kedua variabel mempunyai hubungan linier sempurna (membentuk garis lurus) positif. Korelasi sempurna seperti ini mempunyai makna jika nilai X naik, maka Y juga naik Koefesien korelasi ialah pengukuran statistik kovarian atau asosiasi antara dua variabel. Besarnya koefesien korelasi berkisar antara +1 s/d -1. Koefesien korelasi menunjukkan kekuatan (strength) hubungan linear dan arah hubungan dua variabel acak. Jika koefesien korelasi positif, maka kedua variabel mempunyai hubungan searah. Artinya jika nilai variabel X tinggi, maka nilai variabel Y akan tinggi pula. Sebaliknya, jika koefesien korelasi negatif, maka kedua variabel mempunyai hubungan terbalik. Artinya jika nilai variabel X tinggi, maka nilai variabel Y akan menjadi rendah (dan sebaliknya). Untuk memudahkan melakukan interpretasi mengenai kekuatan hubungan antara dua variabel penulis memberikan kriteria sebagai berikut (Sarwono:2006):

11 1. 2. >0 0,25 3. >0,25 0,5 4. >0,5 0,75 5. >0,75 0,99 6. 1 2.4. REGRESI Regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebabakibat antara satu variabel dengan variable yang lain. Variabel "penyebab" disebut dengan bermacam-macam istilah: variabel penjelas, variabel eksplanatorik, variabel independen, atau secara bebas, variabel X (karena seringkali digambarkan dalam grafik sebagai absis, atau sumbu X). Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi, variabel dependen, variabel terikat, atau variabel Y. Kedua variabel ini dapat merupakan variabel acak (random), namun variabel yang dipengaruhi harus selalu variabel acak. Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini. Analisis Regresi adalah teknis analisis yang mencoba menjelaskan bentuk hubungan anrata dua peubah atau lebih khususnya hubungan antara peubah-peubah yang mengandung sebab akibat. Persamaan regresi adalah persamaan matematik yang memungkinkan melakukan peramalan nilai-nilai suatu peubah tak bebas (dependent variable) dari satu atau lebih peubah bebas (independent variable). Nilai peubah bebas ditulis pada sumbu X (sumbu horizontal) Nilai peubah takbebas ditulis pada sumbu Y (sumbu vertikal) Nilai peubah takbebas ditentukan oleh nilai peubah bebas Jenis-jenis Persamaan Regresi : 1. Regresi Linier : a. Regresi Linier Sederhana b. Regresi Linier Berganda 2. Regresi Nonlinier a. Regresi Eksponensial 1. Regresi Linier : 1. Regresi Linier Sederhana 0 : Tidak ada korelasi antara dua variabel

: Korelasi sangat lemah : Korelasi cukup : Korelasi kuat : Korelasi sangat kuat : Korelasi sempurna (Thomas, 2008).

Y = a + bX,

12 dimana,
Y : peubah tak bebas X : peubah bebas a : konstanta b : kemiringan

2. Regresi Linier Berganda

Y = a + b X + b X + ...+ b X
1 1 2 2 n

dimana,
Y : peubah tak bebas a : konstanta X : peubah bebas ke-1 b : kemiringan ke-1
1 2 n 1 2 n

X : peubah bebas ke-2 b : kemiringan ke-2 X : peubah bebas ke-n b : kemiringan ke-n 2. Regresi Non Linier a. Bentuk umum Regresi Eksponensial
x

Y = ab

log Y = log a + (log b) x

Regresi linier sederhana 1. Metode Kuadrat Terkecil, (least square method): metode paling populer untuk menetapkan persamaan regresi linier sederhana Y = a + bX Nilai b dapat positif (+) dapat negatif (-) (Thomas, 2008).

2.5. INDEKS DISPERSI

13 Indeks dispersi adalah indeks yang digunakan untuk mengetahui suatu spesies mengelompok atau tidak. Rumus dari Indeks dispersi yaitu:

Keterangan :

= mean S = Standar Deviasi

Dimana apabila nilai ID = 1 maka sebaran dari spesies tersebut adalah random (acak), jika nilai ID lebih dari 1 maka sebaran spesies tersebut adalah clumped (mengelompok), dan jika nilai ID kurang dari 1 maka sebaran dari spesies tersebut adalah uniform (seragam) (Thomas, 2008). 2.6. MINITAB Paket program Minitab merupakan perangkat lunak statistika yang dapat digunakan sebagai media pengolahan data yang menyediakan berbagai jenis perintah yang memungkinkan proses pemasukan data, manipulasi data, pembuatan grafik, peringkasan nilai-nilai numerik, dan analisis statistika lainnya. Minitab mempunyai dua layar primer, yaitu Worksheet (lembar kerja) untuk melihat dan mengedit lembar kerja, serta sesi Command yang merupakan layar untuk menampilkan hasil. Perintah-perintah Minitab dapat diakses melalui menu, kotak dialog maupun perintah interaktif. Minitab adalah program komputer yang dirancang untuk melakukan pengolahan statistik. Minitab mengkombinasikan kemudahan penggunaan layaknya Microsoft Excel dengan kemampuannya melakukan analisis statistik yang kompleks. Saat ini versi terbaru Minitab adalah 14.2, yang dirilis 18 Mei 2005. Ada 4 lingkungan window dalam Minitab yaitu : 1. Session window, bersama-sama Data window merupakan lingkungan yang akan terlihat pertama kali saat Minitab dibuka. Window ini juga merupakan layar untuk menampilkan hasil analisis yang berupa teks dan juga tempat untuk menuliskan perintah-perintah interaktif berupa syntax command. 2. Data window, merupakan salah satu layar primer Minitab tempat Worksheet atau lembar kerja Minitab berada, tempat kita melakukan entry data, melihat atau mengedit data. 3. Project Manager window, merupakan lingkungan window berikutnya, tempat dimana akan ditampilkan hasil analisis yang kita lakukan berupa report pada saat

14 Minitab ini dijalankan. Window ini akan tampil melalui menu : Window > Project Manager. 4. Graph window, adalah lingkungan window terakhir, yang akan tampil secara otomatis jika kita menginginkan keluaran berupa grafik. Pengenalan Baris Menu pada Minitab sebelum memulai bekerja dengan minitab, terlebih dahulu harus dikenali menu-menu yang tersedia dalam paket program ini. Berikut akan disampaikan beberapa penggunaan menu yang sering digunakan : 1. Menu File New Project New Worksheet Open Project Open Worksheet Save Project Save Worksheet 2. Menu Edit Undo Clear Cells Delete Cells Copy Cells Cut Cells Paste Cells 3. Menu Data Sort Rank Delete Rows Erase Variables Copy Columns Stack Unstack Concatenate Code Change D. Type Display Data 4. Meni calc : Mengurutkan data dalam satu kolom atau lebih : Menyimpan skor rangking dalam suatu kolom : Menghapus baris-baris tertentu dari setiap kolom : Menghapus variabel : Menggandakan kolom : Menggabungkan beberapa kolom menjadi satu kolom : Memecah satu kolom menjadi beberapa kolom : Menggabungkan beberapa kolom text dalam satu kolom : Memberikan koding nilai pada suatu kolom : Merubah tipe kolom : Menampilkan data dari worksheet ke sesi command. : Membatalkan proses/perintah sebelumnya : Menghapus isi cell tanpa merubah baris/kolom : Menghapus isi cell : Menggandakan isi cell : Menghapus/memindah isi cell : Menyisipkan isis cell : Membuka project baru : Membuka worksheet baru : Membuka file project : Membuka file worksheet : Menyimpan project : Menyimpan worksheet

15 Calculator Column Statistic Row Statistics Standardize Extract from Date Random Data Prob. Distri. Matrices 5. Menu Stat Basic Statistics Regression ANOVA DOE Multivariate : Perhitungan statistika dasar meliputi : deskripsi data, uji hipotesis, korelasi dan uji normalitas : Perhitungan/uji untuk analisis regresi : Perhitungan/uji untuk analisis variansi. : Perhitungan/uji untuk rancangan percobaan : Perhitungan/uji untuk analisis multivariabel. : Operasi aritmatika : Perhitungan statistik berdasarkan kolom : Perhitungan statistik berdasarkan baris : Pemusatan dan penskalaan data dalam suatu kolom : Mengekstrak kolom yang bertipe date/time dan menyimpan dalam kolom dengan tipe numerik/text : Pembangkitan bilangan random untuk distribusi tertentu : Menghitung peluang, peluang kumulatif dan invers peluang kumulatif dari data kontonu. : Perintah untuk operasi matriks.

Minitab for Windows

16

Worksheet Minitab. Dalam hal ini Minitab berfungsi sebagai antara lain dibidang stastistik dan maupun diluar lingkup statistik yaitu: 1. Dapat mengontrol nilai output lebih banyak 2. Dapat membuat grafik duplicat 3. Distribusi Probabilitas Plot 4. Analisis item dengan Cronbach's Alpha untuk Survei Handal 5. Dapat mengetahui distribusi data baik Input dan Output 6. Dapat menganalisis Che-Squre Analisis Variansi, Anova Satu Jalan, Anova merupakan suatu analisis statistika untuk menguji secara serentak apakah populasi mempunyai rataan yang sama. Disebut anava satu jalan karena pada eksperimen ini hanya ada satu faktor yang diselidiki. Dalam Minitab ada dua pilihan untuk keperluan uji ini, yaitu data ditulis dalam satu kolom atau data ditulis dalam beberapa kolom (seperti pada uji hipotesis). Anova Dua Jalan Disebut anava dua jalan karena pada eksperimen ini hanya ada dua faktor yang diselidiki. Dalam Minitab input data untuk prosedur ini terdiri dari satu kolom untuk koding faktor pertama, satu kolom untuk koding faktor kedua dan satu kolom untuk data respon. Dalam hal ini juga bias digunakan dalam sistem One-way Analysis of Variance, Two-Sample T-Tes dan juga dalam hal pengelompokan bias dilakukan dengan analisis 1 dan 2 kelompok data sampel. Plot Interaksi, Pada anava dua jalan terdapat faktor interaksi yang terkadang kurang tepat dalam menginterpretasikan makna kata interaksi. Untuk memperjelas dalam Minitab disediakan perintah untuk membuat plot interaksi sehingga lebih mudah untuk dipahami. Pada contoh anava dua jalan dengan sel tidak sama di atas akan dibuat plot interaksi. Tahapan

17 kerja dengan menggunakan Minitab adalah sebagai berikut : (data sudah ada dalam kolom C1, C2, C3). Asumsi Anova 1. Uji Normalitas Misalkan pada contoh anava satu jalan di atas akan diuji apakah data kolom pertama berasal dari populasi yang berdistribusi normal. 2. Uji Homogenitas Misalkan pada contoh anava satu jalan di atas akan diuji apakah populasipopulasinya homogeny (Triyanto, 2009). 2.7. FAKTOR PARAMETRIK DAN NON-PARAMETRIK Secara umum metode parametrik membuat asumsi lebih dari metode non-parametrik. Jika asumsi-asumsi tambahan adalah benar, metode parametrik dapat menghasilkan lebih akurat dan tepat perkiraan. Mereka dikatakan telah lebih kekuatan statistik. Untuk itu alasan mereka sering tidak dianggap kuat. Di sisi lain, parametrik formula sering sederhana untuk menulis dan lebih cepat untuk menghitung. Dalam beberapa, tapi pasti tidak semua kasus, kesederhanaan mereka membuat untuk mereka non-robustness, terutama jika perawatan diambil untuk memeriksa statistik diagnostik. Metode Non-parametrik yang banyak digunakan untuk mempelajari populasi yang mengambil urutan peringkat. Penggunaan metode non-parametrik mungkin diperlukan ketika data memiliki peringkat tapi tidak jelas numerik interpretasi, seperti ketika mengkaji preferensi dalam hal tingkat pengukuran , untuk data padaskala ordinal. Ketika metode-metode non-parametrik membuat asumsi yang lebih sedikit, penerapannya jauh lebih luas daripada metode parametrik yang sesuai. Secara khusus, mereka dapat diterapkan dalam situasi di mana sedikit yang diketahui tentang aplikasi tersebut. Juga, karena ketergantungan pada asumsi yang lebih sedikit, metode non-parametrik lebih kuat. Pembenaran lain untuk penggunaan metode non-parametrik adalah kesederhanaan. Dalam kasus tertentu, bahkan ketika penggunaan metode parametrik dibenarkan, non-parametrik metode mungkin lebih mudah untuk digunakan. Karena baik untuk kesederhanaan ini dan ketahanan mereka yang lebih besar, metode non-parametrik dipandang oleh beberapa ahli statistik sebagai meninggalkan lebih sedikit ruang untuk penggunaan yang tidak benar dan kesalahpahaman. Penerapan yang lebih luas dan meningkatkan ketahanan dari tes non-parametrik datang dengan biaya: dalam kasus di mana tes parametrik akan sesuai, non-parametrik tes memiliki lebih sedikit daya. Dengan kata lain, ukuran sampel yang lebih besar dapat diminta untuk menarik kesimpulan yang sama dengan tingkat kepercayaan (Triyanto, 2009).

18

BAB III MATERI METODE

3.1. WAKTU DAN TEMPAT Waktu Tempat : 08.00 WIB s/d Selesai Jumat, 11 Juni 2010 : Laboratorium Komputasi Ilmu Kelautan Lantai 3, Universitas Diponegoro Semarang 3.2. METODE 3.2.1. ENABLE COMMAND Data yang akan digunakan dari Eddy Yusron dan Pitra Widianwari yang berjudul Struktur Komunitas Teripang (Holothuroidea) Di Beberapa Perairan Pantai Kai Besar, Maluku Tenggara Spesies Stasiun 1 Actinopyga echinetes A. lecanora Bochadschia argus B. graffei B. marmorata Holothuria atra H. edulis H. nobilis H. rigida H. scabra H. verrucosa Stichopus chloronatus S. horrens S. variegatus Keterangan: 2.7 2.7 1.3 2.0 2.7 2.0 1.7 4.7 1.3 6.3 1.3 3.7 1.3 1.3 1.0 1.0 1.7 0.7 2.7 2.7 6.0 2.7 1.7 1.0 2.3 3.0 1.0 0.7 Sampling Unit SU Stasiun 2 Stasiun 3 3.3 1.7 1.7 0.7 2.7 8.0 7.7 4.7 1.0 6.3 0.0 3.0 1.3 1.3 Stasiun 4 0.0 3.0 2.0 1.0 1.3 3.3 7.7 4.3 0.0 7.7 2.7 3.3 0.0 2.3 Stasiun 5 1.3 0.0 2.0 0.0 0.0 2.3 2.0 4.7 1.3 2.3 3.0 5.0 1.3 2.0

Nilai tengah kepadatan teripang pada setiap area cuplik (ekor m-2 ).di 5 stasiun pengamatan

19 Faktor Lingkungan Salinitas () Suhu (C) Stasiun 1 33.70 30.13 Stasiun 2 33.80 29.50 Stasiun 3 32.83 29.20 Stasiun 4 32.83 29.17 Stasiun 5 33.60 28.80

1. Pertama Buka Program Minitab

2. Kemudian Masukan data yang akan digunakan ke worksheet minitab.

3. Kemudian Klik Editor kemudian pilih Enable Commad, dan masukkan rumus-rumus MTB> let k1=stdev (c2) MTB> let k2=mean (c2) MTB> let k3=k1*k1/k2 MTB> print k1 k2 k3

20

4. Kemudian Enter, dan akan keluar Data Display

3.2.2. COMMUNITY CLASIFICATION (CLUSTER ANALISIS) 1. Setelah telah ketemu Data Display maka selanjutnya kita akan melakukan suatu analisa cluster dengan cara Klik Stat kemudian Multivariate kemudian Cluster Observations akan muncul seperti berikut

2. Pada kolom Cluster Observation, terlebih dahulu kita klik C2-C15 kemudian select, kemudian check list show dendrogram dan OK

21

3. Kemudian setelah muncul Dendrogram maka selanjutnya kita mulai mengelompokkan berdasarkan dendrogram tersebut dan dilakukan pada worksheet.

4. Selanjutnya dengan cara yang sama maka Klik Stat kemudian Multivariate kemudian Cluster Observations akan muncul seperti berikut

22

5. Selanjutnya kita akan melakukan Uji Parameter suatu Sample T, dengan cara klik Stat kemudian Basic Statistics kemudian 2-sample t

6. Selanjutnya kita akan masukkan data yaitu Salinitas dan C7, kemudian select dan OK

23

3.3.3. COMMUNITY ORDINASI (PCA) 1. Selanjutnya kita akan melakukan suatu analisa PCA dengan cara klik Stat kemudian Multivariate kemudian Principal Component Analysis

2. Kemudian klik C2-C15, kemudian Select dan Number of Component to computer diisi dengan 2.

24 3. Kemudian klik Graphs, dan check list Eigenvalue dan Score plot dan OK

4. Kemudian klik Storage dan tulis pada Coefficients c19-c20 dan Score c21-c22 dan OK

5. Maka akan keluar 2 buah Plot yaitu

25

6. Selanjutnya kita klik Graph kemudian klik Plot

7. Kemudian pada Graph Y diisi dengan c20 dan X diisi c19

26

8. Kemudian klik Annotation dan klik Data Labels dan check list Show data dan juga Use label from colums diisi dengan SU dan OK, maka akan keluar plot-plot setiap stasiunnya.

27

3.3.4. HUBUNGAN ANTARA FAKTOR BIOTIK DAN ABIOTIK (KORELASI) 1. Selanjutnya kita akan melakukan suatu analisa korelasi dengan klik Basic Statistics kemudian Correlation

2. Kemudian Variables diisi dengan Salinitas, Suhu, C21 dan C22 dan OK

28

BAB IV HASIL DAN PEMBAHASAN

4.1. HASIL 4.1.1. ENABLE COMMAND

29

4.1.2. COMMUNITY CLASIFICATION (CLUSTER ANALISIS)

30

31

4.1.3. COMMUNITY ORDINASI (PCA)

32

4.1.4. HUBUNGAN ANTARA FAKTOR BIOTIK DAN ABIOTIK (KORELASI)

33 4.2. PEMBAHASAN 4.2.1. ENABLE COMMAND Dalam hal ini menurut data yang diperoleh yang dimana berdasarkan pada data Struktur Komunitas Teripang (Holothuroidea) Di Beberapa Perairan Pantai Kai Besar, Maluku Tenggara. Maka dari data tersebut dapat dibuat dengan sebuah aplikasi yang berdasarkan pronsip statistika yaitu dengan MINITAB. Maka setelah diproses maka dalam tahapan ini diperoleh sebuah analisa yang dimana dalam hal ini menurut data yang telah diproses yaitu nilai Enable Commad yaitu mempunyai hasil nilai K>1(K1= 1.33, K2= 1.66, K3= 1.06) yang dimana dalam hal ini artinya data tersebut mempunyai data spesies yang menyebar atau tidak mengumpul dan jika data tersebut K=1 maka data tersebut Acak atau Random. Maka dalam hal ini dapat dikatakan bahwa data yang diperoleh dan menurut analisa yang didapatkan bahwa data spesies tersebut pada waktu pengambilannya secara menyebar dan data tersebut tidak mengumpul dan juga bias dikatakan bahwa data tersebut mempunyai data kelimpahan spesies yang beranekaragam dalam 5 lokasi tersebut. 4.2.2. COMMUNITY CLASIFICATION (CLUSTER ANALISIS) Dalam hal ini dilakukan sebuah analisis yaitu Cluster Analisis yang dimana dalam hal ini bertujuan untuk mengetahui kemiripan dan kesamaan antar spesies dengan cara melihat kelompok antar sampling unit menjadi grup. Dan dari grup tersebutlah maka kita dapat mengasumsikan dan mengestimasikan bahwa pada dalam 1 grup tersebut memiliki tingkat kesamaan dan kemiripan dari karakteristiknya. Dalam hal ini ketika melihat suatu plot yang dimana bergambarkan diagram yaitu maka dalam hal ini kita dapat menganalisa berdasarkan tingkat kemiripan dan kesamaan antarspesies baik dari karakteristiknya dan lainnya yaitu pada hal ini didapatkan 2 kelompok yang dimana kelompok pertama yaitu stasiun 2 dan stasiun 3 memiliki kesamaan yang dominan dan juga dalam hal ini kemungkinan spesies juga memiliki karakteristik yang sama dan begitu pula pada stsiun 1 yang dimana dalam hal ini stasiun 1, 2 dan 5 memiliki kesamaan dan kemiripan antarspesies yang dimana stasiun ini dalam 1 kelompok atau group. Jadi bukan hany itu saja pada kelompok 1 ini memiliki tingkat kelimpahan spesies yang sama dan juga factor lingkungan yang sama pula. Sedangkan pada kelompok 2 yaitu stasiun 3 dan 4 dalam hal ini memiliki kemiripan dan tingkat kesamaan yang sama pula dan begitu pula tingkat kelimpahan dan factor lingkungan yang sama pula. Jadi dari 2 kelompok ini dapat dikatakan bahwa factor lingkungan mempengaruhi tingkat kelimpahan spesies. Bisa pula factor lingkungan sama dan tingkat kelimpahan antar spesies

34 mempunyai tingkat keanekaragaman yang sama pula. Jadi dalam hal ini factor lingkungan mempengaruhi tingkat kelimpahan dan juga tingkat dominansi antarspesies. Analisis terhadap data jumlah dan jenis fauna melibatkan lima indeks ekologis; meliputi kepadatan, kekayaan jenis, keragaman, kemerataan dan kemiripan. Terungkap bahwa komunitas teripang terdiri dari 14 jenis dimana lima jenis diantaranya hadir dengan kepadatan yang lebih tinggi di semua lokasi, yaitu Holothuria edulis, H. scabra, H. nobilis, H. atra dan Stichopus chloronatus. Kecilnya variasi indeks ekologis pada seluruh lokasi menunjukkan bahwa karakteristik komunitas pada seluruh lokasi tersebut relatif sama. Selanjutnya berdasarkan data uji parameter two-sample t-test yang dimana dalam hal ini didapatkan sebuah nilai Mean, Standar deviasi, dan SE Mean. Dalam hal ini data tersebut dapat dilakukan sebuah hipotesa yang dimana dalam hal ini tertuju pada data SE Mean. Data SE Mean yang diperoleh yaitu 0.015 jadi apabila data tersebut memiliki niali <0.5 maka dapat diambil sebuah hipotesa yaitu factor lingkungan berbeda sangat nyata, jadi antara kelompok 1 dan kelompok 2 tadi memiliki tingkat factor lingkungan yang berbeda sangat nyata dari analisa lingkungan yang mempengaruhi persebran dan kelimpahan distribusi spesies. Jadi tingkat kesamaan tinggi, namun tingkat antar jarak spesies sangat rendah. 4.2.3. COMMUNITY ORDINASI (PCA) Dalam hal ini dilakukan sebuah analisa yaitu dengan metode PCA yang dimana Principal Component Analysis dalam hal ini dilakukan metode ini bertujuan untuk menyederhanakan atau meringkas data matriks data spesies dan matriks data factor lingkungan sehingga didapatkan sampling unit bias digambarkan dan dianalisis dan berdasarkan data kualitatif dan data kuantitatif. Dalam hal ini menurut data Eigenvalue didapatkan sebuah data yang dimana nilainya >1 maka data tersebut memiliki tingkat kelimpahan antarspesies yang dominan. Data Eigenvalue yaitu 5.0012 dan Proportion 0.357 maka dari hal ini didapatkan dan sesuai dengan hal diatas yang dimana memiliki kelimpahan spesies yang dominan. Dan dalam hal ini apabila dilihat dari data Proportion yang dimana merupakan sebuah data korelasi antar Spesies dan Koordinat yaitu PC1 dan jika memiliki nilai negative maka memiliki kelimpahan yang kecil. Variable dan PC1 merupakan analisa berdasarkan kerataan antar spesies. Principal Components Analysis (PCA) pada umumnya merupakan salah satu metode statistik yang sering dipakai apabila dihadapkan pada kasus yang melibatkan lebih dari satu variabel dan antar variabel tersebut berkorelasi (dependen). PCA atau Principal Component Analysis adalah salah satu bentuk analisa multivariate. Principal Component Analysis adalah sebuah metode yang menggunakan statistical

35 technique untuk menemukan pattern dari objek yang memiliki dimensi besar. PCA sangat berguna untuk aplikasi yang berkaitan dengan face recognition, image processing, dan macam-macam teknik untuk menemukan pattern pada data yang memiliki dimensi yang besar. Sedangkan pada score plot terlihat sebaran data yang di peroleh pada umumnya memiliki kesamaan. Hal in terlihat jelas pada sebaran data yang mengelompok, hanya sebagian kecil dari data yang di peroleh memiliki perbedaan di bandingkan dengan data yang lainnya. Selanjutnya apabila kita melihat distribusi berdasarkan scatterplot yaitu bila plot tersebut dekat dengan sebuh garis maka akan membentuk sudut cosinus dan dari hal ini membuktikan bahwa data tersebut lebih kecil dengan data-data yang lain dan hal ini pula dapat dikatakn scatterplot tersebut merupakn sebuah cerminan dari sebuah analisa data. Data satasiun 4 lebih kecil dari pada data-data yang lain dan bisa dikatakan yaitu stasiun 4 lebih dekat dengan sumbu 1. 4.2.4. HUBUNGAN ANTARA FAKTOR BIOTIK DAN ABIOTIK (KORELASI) Dalam hal ini selanjutnya kita akan membahas mengenai korelasi antara factor lingkungan dan factor kelimpahan. Dalam hal ini didapatkan sebuah korelasi antara 2 faktor tersebut yaitu C21 dengan salinitas didapatkan -0.757 dan C22 dengan Suhu didapatkan 0.658. maka dari hal tersebut dapat kita asumsikan yaitu bahwa data tersebut jika data tersebut kurang<1 maka data korelasi antara factor lingkungan dan kelimpahan sangat dekat, jadi factor lingkungan mempengaruhi factor kelimpahan antarspesies. Semakin besar data dari factor kelimpahan maka factor lingkungan akan semakin kecil. Jadi dalam hal ini dapat dikatakan bahwa terjadi hubungan yang sangat dekat, dominan dan juga mempengaruhi antar sebuah data yang didapatkan dengan factor lingkungan dengan factor kelimpahan antarspesies. Factor kelimpahan antarspesies sangat tergantung pada factor lingkungan.

36

BAB V KESIMPULAN

1. Dalam hal ini menurut data yang diperoleh yang dimana berdasarkan pada data Struktur Komunitas Teripang (Holothuroidea) Di Beberapa Perairan Pantai Kai Besar, Maluku Tenggara. Nilai Enable Commad yaitu mempunyai hasil nilai K>1(K1= 1.33, K2= 1.66, K3= 1.06) yang dimana dalam hal ini artinya data tersebut mempunyai data spesies yang menyebar atau tidak mengumpul 2. Jadi dalam hal ini factor lingkungan mempengaruhi tingkat kelimpahan dan juga tingkat dominansi antarspesies. Analisis terhadap data jumlah dan jenis fauna melibatkan lima indeks ekologis; meliputi kepadatan, kekayaan jenis, keragaman, kemerataan dan kemiripan. Terungkap bahwa komunitas teripang terdiri dari 14 jenis dimana lima jenis diantaranya hadir dengan kepadatan yang lebih tinggi di semua lokasi, yaitu Holothuria edulis, H. scabra, H. nobilis, H. atra dan Stichopus chloronatus. Kecilnya variasi indeks ekologis pada seluruh lokasi menunjukkan bahwa karakteristik komunitas pada seluruh lokasi tersebut relatif sama. 3. Dalam hal ini dilakukan sebuah analisa yaitu dengan metode PCA yang dimana Principal Component Analysis dalam hal ini dilakukan metode ini bertujuan untuk menyederhanakan atau meringkas data matriks data spesies dan matriks data factor lingkungan sehingga didapatkan sampling unit bias digambarkan dan dianalisis dan berdasarkan data kualitatif dan data kuantitatif. Dalam hal ini menurut data Eigenvalue didapatkan sebuah data yang dimana nilainya >1 maka data tersebut memiliki tingkat kelimpahan antarspesies yang dominan. 4. Dalam hal ini selanjutnya kita akan membahas mengenai korelasi antara factor lingkungan dan factor kelimpahan. Dalam hal ini didapatkan sebuah korelasi antara 2 faktor tersebut yaitu C21 dengan salinitas didapatkan -0.757 dan C22 dengan Suhu didapatkan 0.658. maka dari hal tersebut dapat kita asumsikan yaitu bahwa data tersebut jika data tersebut kurang<1 maka data korelasi antara factor lingkungan dan kelimpahan sangat dekat, jadi factor lingkungan mempengaruhi factor kelimpahan antarspesies.

37

DAFTAR PUSTAKA

Badan Pusat Statistik (BPS) Indonesia C. Ding. 2004. Clustering melalui Analisis Komponen Utama. Proc. dari Int'l Conf. (ICML 2004), pp 225-232. Fisher, R.A. (1925). Statistical Methods for Research Workers. Oliver & Boyd, Edinburgh. Hogg, R.V., Ledolter, J.1987. Applied Statistics for Engineers and Physical Scientists. Macmillan Publishing Company, NY. Ikatan Statistika Indonesia Journal of the Electrochemical Society, Vol. 139, No. 2, 1992, pp. 524-532. Kriegel, HP; Kroger, P.; Schubert, E.; Zimek, A. 2008. Umum Sebuah Kerangka untuk Meningkatkan Robustness PCA Korelasi Berbasis Clustering Algorithms. Lindley, D. Making Decisions. John Wiley. Second Edition 1985. ISBN 0-471-90808-8 Manual Minitab 13. LPM. Universitas Brawijaya MATLAB PCA berbasis perangkat lunak statistic Montgomery, D.C.1997. Design and Analysis of Experiments, 4th Edition. John Wiley & Sons, Inc. Pengenalan MINITAB. Pelatihan Analisis Data Kategorik dalam Penelitian Sosial Menggunakan Paket Program SPSS dan MINITAB Ridho, ali. 2008. Cluster Analysis. Institut Teknologi Sepuluh November ITS. Surabaya Ryan, T.A., Joiner, B.L.1976. Normal Probability Plots and Tests for Normality. Soemartini. 2008. Principal Component Analysis (PCA) Sebagai Salah Satu Metode Untuk Mengatasi Masalah Multikolinearitas. Jurusan Statistika. Fakultas Matematika Dan Ilmu Pengetahuan Alam. Universitas Padjadjaran .Jatinangor Statistik Blog Triyanto. 2009. Pengenalan MINITAB. Program Studi Pendidikan Matematika. Universitas Sebelas Maret. Surakarta Yusron,Eddy., Widianwari, Pitra. 2004. Struktur Komunitas Teripang (Holothuroidea)Di Beberapa Perairan Pantai Kai Besar,Maluku Tenggara. Makara, Sains, Vol. 8, No. 1, April 2004: 15-20. Pusat Penelitian Oseanografi, Lembaga Ilmu Pengetahuan Indonesia, Jakarta 14430, Indonesia

You might also like