You are on page 1of 14

Degree of agreement dan

Kappa Statistik
Dewanto Andoko
01202220001
PPDS Kedokteran Keluarga Layanan Primer FK UPH
Pertanyaan Pemicu
1. Menjelaskan komponen utama performa suatu alat diagnostik
2. Menjelaskan mengenai sensitivitas, spesifisitas beserta
contohnya
3. Menjelaskan mengenai predictive value +, predictive value -
beserta contohnya
4. Menjelaskan mengenai likelihood ratio (LR+, LR-) beserta
contohnya
5. Menjelaskan mengenai degree of agreement dan Kappa
Statistik beserta contohnya
Degree of agreement
• Degree of agreement (derajat kesepakatan) mengacu pada sejauh
mana dua atau lebih pengamat atau penilai setuju dalam menilai atau
mengamati suatu fenomena atau kejadian.
• Ini mengukur konsistensi antara penilaian atau pengamatan yang
dilakukan oleh individu atau kelompok yang berbeda.
• Degree of agreement digunakan untuk mengevaluasi tingkat
kesepakatan antara para pengamat dalam berbagai bidang, seperti
penelitian ilmiah, penilaian klinis, atau evaluasi kualitas.
Contoh Degree of agreement
• Misalnya, dalam penelitian ilmiah, sekelompok peneliti mungkin
diminta untuk menilai sejauh mana suatu percobaan atau
pengamatan dilakukan dengan benar (Uji Reliabilitas).
• Masing-masing peneliti memberikan penilaian mereka sendiri secara
independen.
• Setelah itu, derajat kesepakatan antara peneliti dihitung untuk
melihat sejauh mana mereka setuju dalam penilaiannya (Inter Rater
Reliability).
• Nilai degree of agreement yang tinggi menunjukkan konsistensi yang
tinggi antara peneliti tersebut.
Kappa statistik
• Kappa statistik adalah metode yang digunakan untuk mengukur
tingkat kesepakatan atau konsistensi antara dua atau lebih pengamat
atau penilai yang memberikan penilaian atau pengamatan kategori
atau nominal terhadap suatu fenomena.
• Ini adalah ukuran statistik yang populer digunakan dalam analisis
inter-rater agreement (kesepakatan antar penilai) atau intra-rater
agreement (kesepakatan dalam satu penilai yang sama).
• Kappa statistik mengontrol kemungkinan adanya kesepakatan yang
muncul secara kebetulan antara pengamat atau penilai.
Kappa statistik
Kappa statistik menghasilkan nilai antara -1 hingga 1, dengan interpretasi sebagai
berikut:

1. Nilai Kappa < 0 menunjukkan kesepakatan yang lebih rendah daripada yang
diharapkan secara kebetulan.
2. Nilai Kappa = 0 menunjukkan kesepakatan yang sama dengan yang diharapkan
secara kebetulan.
3. Nilai Kappa > 0 menunjukkan kesepakatan yang lebih tinggi daripada yang
diharapkan secara kebetulan.
4. Nilai Kappa = 1 menunjukkan kesepakatan sempurna antara pengamat atau
penilai.
Kappa statistik
• Kappa statistik sering digunakan untuk mengukur kesepakatan dalam
penelitian medis, penelitian sosial, atau penilaian kualitas, terutama
ketika ada subjektivitas dalam memberikan penilaian atau pengamatan
kategori.
• Hal ini membantu dalam menentukan tingkat reliabilitas atau
keandalan antara pengamat atau penilai dalam memberikan penilaian
atau pengamatan yang konsisten.
Contoh Kappa Statistik
• Misalnya, dalam penelitian tentang penggunaan obat, dua ahli farmasi
secara independen menilai efektivitas obat pada kelompok pasien
yang sama.
• Setelah itu, kappa statistik digunakan untuk mengukur tingkat
kesepakatan antara kedua ahli farmasi tersebut dalam memberikan
penilaian kategori (misalnya, "efektif" atau "tidak efektif") terhadap
obat tersebut (Uji Cohen/ Kappa Cohen Coefficient).
• Jika nilai kappa statistik tinggi, hal ini menunjukkan kesepakatan yang
tinggi antara ahli farmasi dalam memberikan penilaian tentang
efektivitas obat tersebut.
Contoh Kappa Statistik
• Jika pada baris dan kolom dari tabel kontingensi memberikan kategori yang sama
maka hubungan atau asosiasi antara kedua variabel tersebut mengukur tingkat
kesepakatan. Dengan demikian tabel kontingensi yang terbentuk akan semetris
karena pengklasifikasian kategori dari kedua variabel adalah sama. Untuk mengukur
tingkat kesekatan tersebut digunakan Koefisien Cohen’s Kappa. Secara umum
koefisien Cohen’s Kappa dapat digunakan untuk:

• Mengukur tingkat kesepakatan ( degree of agreement ) dari dua penilai dalam


mengklasifikasikan obyek ke dalam grup / kelompok
• Mengukur kesepakatan alternatif metode baru dengan metode yg sudah ada
• Rumus dari koefisien Cohen’s Kappa adalah
• Rumus dari koefisien Cohen’s Kappa adalah

• Diestimasi menggunakan rumus


• Nilai dari koefisien Cohen’s Kappa dapat di interpretasikan
(Altman, 1991):
• Untuk mendapatkan IK digunakan rumus
Simpulan
• Degree of agreement dan kappa statistik digunakan untuk
mengevaluasi sejauh mana kesepakatan atau konsistensi antara
pengamat atau penilai dalam memberikan penilaian atau
pengamatan.
Terima Kasih

You might also like