You are on page 1of 44

PENGENALAN KECERDASAN BUATAN Masalah, Ruang Masalah dan ( Artificial Pencarian / AI ) Intelligence (2 SKS)

Materi ke 5
Ir. Ahmad Haidaroh, M.Kom.
Ir. Ahmad Haidaroh, M.Kom. STIKOM Artha Buana.

Metode Inferensi dan Penalaran

Decision Tree
Merupakan salah satu contoh aplikasi dari tree Tree (pohon) adalah suatu hierarki struktur yang terdiri dari Node (simpul/veteks) yang menyimpan informasi atau pengetahuan dan cabang (link/edge) yang menghubungkan node. Decision tree pohon keputusan
Menggunakan model tree untuk menggambarkan keputusan-keputusan dan konsekuensinya
STIKOM Artha Buana 3

Contoh Decision Tree

STIKOM Artha Buana

Logika Deduktif

Logika deduktif : kesimpulan merupakan konsekuensi logis dari premis-premis yang ada Mengambil kesimpulan khusus dari premis yang bersifat umum Pengambilan kesimpulan dapat secara langsung (hanya 1 premis) atau tidak langsung (beberapa premis) Karakteristik pokok : kesimpulan benar harus mengikuti dari premis yang benar Premis disebut juga anteseden dan kesimpulan disebut konsekuen Salah satu jenis logika deduktif tidak langsung adalah syllogisme STIKOM Artha Buana 5

Struktur Syllogisme
Terdiri 3 proposisi / pernyataan
Premis mayor Premis minor Kesimpulan

Jenis Silogisme :
Silogisme kategorial Silogisme hipotesis Silogisme alternatif
STIKOM Artha Buana 6

a. Silogisme Kategorial : Silogisme yang terjadi

dari tiga proposisi. Premis umum : Premis Mayor (My) Premis khusus :Premis Minor (Mn) Premis simpulan : Premis Kesimpulan (K) M : middle term S : subjek P : predikat
STIKOM Artha Buana 7

Contoh silogisme Kategorial: My : Semua mahasiswa adalah lulusan SLTA M/Middle term P/Major term Mn : Badu adalah mahasiswa S/Minor term M/Middle term K : Badu lulusan SLTA

My : Tidak ada manusia yang kekal Mn : Andi adalah manusia K : Andi tidak kekal

My : Semua mahasiswa memiliki ijazah SLTA. Mn : Amir tidak memiliki ijazah SLTA K : Amir bukan mahasiswa
STIKOM Artha Buana 8

b. Silogisme Hipotesis: Silogisme yang terdiri atas premis mayor yang berproposisi konditional hipotesis.

Konditional hipotesis yaitu : bila premis minornya membenarkan anteseden, simpulannya membenarkan konsekuen. Bila minornya menolak anteseden, simpulannya juga menolak konsekuen.
Contoh : o My : Jika tidak ada air, manusia akan kehausan. Mn : Air tidak ada. K : Jadi, Manusia akan kehausan.
o

My : Jika tidak ada udara, makhluk hidup akan mati. Mn : Makhluk hidup itu mati. K : Makhluk hidup itu tidak mendapat udara.
STIKOM Artha Buana 9

c. Silogisme Alternatif : Silogisme yang terdiri atas premis mayor berupa proposisi alternatif. Proposisi alternatif yaitu bila premis minornya membenarkan salah satu alternatifnya, simpulannya akan menolak alternatif yang lain. Contoh : My : Nenek Sumi berada di Bandung atau Jakarta. Mn : Nenek Sumi berada di Bandung. K : Jadi, Nenek Sumi tidak berada di Jakarta. My : Nenek Sumi berada di Bandung atau Bogor. Mn : Nenek Sumi tidak berada di Jakarta. K : Jadi, Nenek Sumi berada di Bandung.
STIKOM Artha Buana 10

Forward Chaining
Forward chaining merupakan grup dari multipel inferensi yang melakukan pencarian dari suatu masalah kepada solusinya. Forward Chaining adalah data driven karena inferensi dimulai dengan informasi yg tersedia dan baru konklusi diperoleh Mencari aturan inferensi sampai ditemukan satu dimana anteseden (If clause) bernilai true. Ketika ditemukan, bisa ditarik kesimpulan, menghasilkan informasi baru.
STIKOM Artha Buana 11

Forward Chaining
Contoh : Menentukan warna binatang bernama Tweety. Data awal adalah Tweety terbang dan bernyanyi. Misalkan ada 4 aturan :
If x melompat dan memakan serangga, maka x adalah katak If x terbang dan bernyanyi, maka x adalah burung kenari If x adalah katak, maka x berwarna hijau If x adalah burung kenari, maka x berwarna kuning
STIKOM Artha Buana 12

Forward Chaining
Yang dicari pertama adalah aturan nomor 1, karena anteseden-nya cocok dengan data kita (if Tweety terbang dan bernyanyi) Konsekuen (then Tweety adalah burung kenari) ditambahkan ke data yang dimiliki If tweety adalah burung kenari, maka Tweety berwarna kuning (tujuan)

STIKOM Artha Buana

13

Backward Chaining
Dimulai dengan tujuan (goal) yang diverifikasi apakah bernilai TRUE atau FALSE Kemudian melihat rule yang mempunyai GOAL tersebut pada bagian konklusinya. Mengecek pada premis dari rule tersebut untuk menguji apakah rule tersebut terpenuhi (bernilai TRUE) Proses tersebut berlajut sampai semua kemungkinan yang ada telah diperiksa atau sampai rule inisial yang diperiksa (dg GOAL) telah terpenuhi Jika GOAL terbukti FALSE, maka GOAL berikut yang dicoba. STIKOM Artha Buana 14

Backward Chaining
Dimulai dari daftar tujuan dan bergerak ke belakang dari konsekuen ke anteseden untuk melihat data yang mendukung konsekuen. Mencari sampai ada konsekuen (Then clause) yang merupakan tujuan. Jika antecedent (If clause) belum diketahui nilainya (bernilai benar/salah), maka ditambahkan ke daftar tujuan.
STIKOM Artha Buana 15

Backward Chaining
Contoh : Menentukan warna binatang bernama Tweety. Data awal adalah Tweety terbang dan bernyanyi. Misalkan ada 4 aturan :
If x melompat dan memakan serangga, maka x adalah katak If x terbang dan bernyanyi, maka x adalah burung kenari If x adalah katak, maka x berwarna hijau If x adalah burung kenari, maka x berwarna kuning
STIKOM Artha Buana 16

Backward Chaining

Pertama akan mencari aturan 3 dan 4 (sesuai dengan tujuan kita mencari warna) Belum diketahui bahwa Tweety adalah burung kenari, maka kedua anteseden (If Tweety adalah katak, If Tweety adalah burung kenari) ditambahkan ke daftar tujuan. Lalu mencari aturan 1 dan 2, karena konsekuen-nya (then x adalah katak, then x adalah burung kenari) cocok dengan daftar tujuan yang baru ditambahkan.

STIKOM Artha Buana

17

Backward Chaining
Anteseden (If Tweety terbang dan bernyanyi) bernilai true/benar, maka disimpulkan Tweety adalah burung kenari. Tujuan menentukan warna Tweety sekarang sudah dicapai (Tweety berwarna hijau jika katak, dan kuning jika burung kenari, Tweety adalah burung kenari karena terbang dan bernyanyi, jadi Tweety berwarna kuning).
STIKOM Artha Buana 18

Contoh Kasus
Seorang user ingin berkonsultasi apakah tepat jika dia berinvestasi pada IBM? Variabel-variabel yang digunakan: A = memiliki uang $10.000 untuk investasi B = berusia < 30 tahun C = tingkat pendidikan pada level college D = pendapatan minimum pertahun $40.000 E = investasi pada bidang Sekuritas (Asuransi) F = investasi pada saham pertumbuhan (growth stock) G = investasi pada saham IBM Setiap variabel dapat bernilai TRUE atau FALSE STIKOM Artha Buana

19

Contoh Kasus
Fakta
Memiliki uang $10.000 (A TRUE) Berusia 25 tahun (B TRUE)

Dia ingin meminta nasihat apakah tepat jika berinvestasi pada IBM stock?

STIKOM Artha Buana

20

Rules R1 : IF seseorang memiliki uang $10.000 untuk berinvestasi AND dia berpendidikan pada level college THEN dia harus berinvestasi pada bidang sekuritas R2 : IF seseorang memiliki pendapatan per tahun min $40.000 AND dia berpendidikan pada level college THEN dia harus berinvestasi pada saham pertumbuhan (growth stocks) R3 : IF seseorang berusia < 30 tahun AND dia berinvestasi pada bidang sekuritas THEN dia sebaiknya berinvestasi pada saham pertumbuhan R4 : IF seseorang berusia < 30 tahun dan > 22 tahun THEN dia berpendidikan college R5 : IF seseorang ingin berinvestasi pada saham pertumbuhan THEN saham yang dipilih adalah saham IBM. STIKOM Artha Buana 21

R1: IF A AND C, THEN E R2: IF D AND C, THEN F R3: IF B AND E, THEN F R4: IF B, THEN C R5: IF F, THEN G
STIKOM Artha Buana 22

Forward Chaining

STIKOM Artha Buana

23

Backward Chaining

STIKOM Artha Buana

24

Penalaran

Suatu penalaran dimana adanya penambahan fakta baru mengakibatkan ketidakkonsistenan, ciri-ciri penalaran sebagai berikut :

adanya ketidakpastian adanya perubahan pada pengetahuan adanya penambahan fakta baru dapat mengubah konklusi yang sudah terbentuk
STIKOM Artha Buana 25

Contoh : Premis 1 : Aljabar adalah pelajaran yang sulit Premis 2 : Geometri adalah pelajaran yang sulit Premis 3 : Kalkulus adalah pelajaran yang sulit Kesimpulan : Matematika adalah pelajaran yang sulit muncul premis 4 : sosiologi adalah pelajaran yang sulit, akan menyebabkan kesimpulan (Matematika adalah pelajaran yang sulit) menjadi tidak berlaku karena sosiologi bukan bagian dari matematika penalaran induktif sangat dimungkinkan adanya ketidakpastian.
STIKOM Artha Buana 26

Penalaran

Ketidakpastian (uncertainty)

Kurang informasi yang memadai Menghalangi untuk membuat keputusan yang terbaik Salah satu teori yang berhubungan dengan ketidakpastian : Probabilitas Bayes

STIKOM Artha Buana

27

Probabilitas

Probabilitas menunjukkan kemungkinan sesuatu akan terjadi atau tidak

STIKOM Artha Buana

28

Probabilitas

Contoh : Misal dari 10 orang sarjana , 3 orang menguasai java, sehingga peluang untuk memilih sarjana yang menguasai java adalah : p(java) = 3/10 = 0.3

STIKOM Artha Buana

29

Probabilitas Bayes

STIKOM Artha Buana

30

Probabilitas Bayes
Contoh : Asih mengalami gejala ada bintik-bintik di wajahnya. Dokter menduga bahwa Asih terkena cacar dengan : probabilitas munculnya bintik-bintik di wajah, jika Asih terkena cacar p(bintik | cacar) = 0.8 probabilitas Asih terkena cacar tanpa memandang gejala apapun p(cacar) = 0.4 probabilitas munculnya bintik-bintik di wajah, jika Asih terkena alergi p(bintik | alergi) = 0.3 probabilitas Asih terkena alergi tanpa memandang gejala apapun p(alergi) = 0.7 probabilitas munculnya bintik-bintik di wajah, jika Asih jerawatan p(bintik | jerawatan) = 0.9 probabilitas Asih jerawatan tanpa memandang gejala apapun p(jerawatan) = 0.5
STIKOM Artha Buana 31

Probabilitas Bayes

Probabilitas Asih terkena cacar karena ada bintik2 di wajahnya :

STIKOM Artha Buana

32

Probabilitas Bayes

Probabilitas Asih terkena alergi karena ada bintik2 di wajahnya :

STIKOM Artha Buana

33

Probabilitas Bayes

Probabilitas Asih jerawatan karena ada bintik2 di wajahnya :

STIKOM Artha Buana

34

Probabilitas Bayes

Jika setelah dilakukan pengujian terhadap hipotesis muncul satu atau lebih evidence (fakta) atau observasi baru maka :

STIKOM Artha Buana

35

Probabilitas Bayes

Misal : Adanya bintik-bintik di wajah merupakan gejala seseorang terkena cacar. Observasi baru menunjukkan bahwa selain bintik-bintik di wajah, panas badan juga merupakan gejala orang kena cacar. Jadi antara munculnya bintik-bintik di wajah dan panas badan juga memiliki keterkaitan satu sama lain.
bintik
panas

bintik
STIKOM Artha Buana 36

Probabilitas Bayes

Asih ada bintik-bintik di wajahnya. Dokter menduga bahwa Asih terkena cacar dengan probabilitas terkena cacar bila ada bintik-bintik di wajah p(cacar | bintik) = 0.8 Ada observasi bahwa orang terkena cacar pasti mengalami panas badan. Jika diketahui probabilitas orang terkena cacar bila panas badan p(cacar | panas ) = 0.5 Keterkaitan antara adanya bintik-bintik di wajah dan panas badan bila seseorang terkena cacar p(bintik | panas, cacar) = 0.4 Keterkaitan antara adanya bintik-bintik di wajah dan panas badan p(bintik | panas) = 0.6
STIKOM Artha Buana 37

Probabilitas Bayes

STIKOM Artha Buana

38

Faktor Kepastian (Certainty)

Certainty Factor (CF) menunjukkan ukuran kepastian terhadap suatu fakta atau aturan.

CF[h,e] = MB[h,e] MD[h,e] CF[h,e] = faktor kepastian MB[h,e] = ukuran kepercayaan/tingkat keyakinan terhadap hipotesis h, jika diberikan/dipengaruhi evidence e (antara 0 dan 1) MD[h,e] = ukuran ketidakpercayaan/tingkat ketidakyakinan terhadap hipotesis h, jika diberikan/dipenharuhi evidence e (antara 0 dan 1)
STIKOM Artha Buana 39

Faktor Kepastian (Certainty)


1. Beberapa evidence dikombinasikan untuk menentukan CF dari suatu hipotesis. Jika e1 dan e2 adalah observasi, maka :

e1 h e2

MB[h, e1^ e2]

0
MB[ h , e1] MB[ h , e 2 ] * (1 MB[ h , e1])

Jika MD[h,e1^e2]=1 Lainnya Jika MB[h,e1^e2]=1 Lainnya

MD[h, e1^ e2]

0
MD[ h , e1] MD[ h , e 2 ] * (1 MD[ h , e1])

STIKOM Artha Buana

40

Contoh : Misal suatu obeservasi memberikan kepercayaan terhadap h dengan MB[h,e1]=0,3 dan MD[h,e1]=0, maka : CF[h,e1]=0,3-0 = 0,3 Jika ada observasi baru dengan MB[h,e2]=0,2 dan MD[h,e2]=0, maka : MB[h,e1 ^ e2] = 0,3 + 0,2 * (1-0,3)=0,44 MD[h,e1 ^ e2] = 0 CF[h,e1 ^ e2] = 0,44 0 = 0,44 Asih menderita bintik-bintik di wajahnya. Dokter memperkirakan Asih terkena cacar dengan kepercayaan MB[cacar,bintik]=0,8 dan MD[cacar,bintik]=0,01, maka : CF[cacar,bintik]=0,8 0,01 = 0,79 Jika ada observasi baru bahwa Asih juga panas badan dengan kepercayaan MB[cacar,panas]=0,7 dan MD[cacar,panas]=0,08, maka : MB[cacar,bintik^panas] = 0,8 +0,7 *(1-0,8)=0,9 MD[cacar,bintik^panas] = 0,01 +0,08 * (1-0,01) = 0,0892 CF[cacar,bintik^panas] = 0,94 0,0892 = 0,8508
STIKOM Artha Buana 41

Faktor Kepastian (Certainty)

STIKOM Artha Buana

42

Contoh : Misal suatu observasi memberikan kepercayaan terhadap h1 dengan MB[h1,e]=0,5 dan MD[h1,e] = 0,2 maka : CF[h1,e] = 0,5 0,2 = 0,3 Jika observasi tersebut juga memberikan kepercayaan terhadap h2 dengan MB[h2,e]=0,8 dan MD[h2,e]=0,1, maka : CF[h2,e] = 0,8 0,1= 0,7 Untuk mencari CF[h1 h2,e] diperoleh dari MB[h1 h2,e] = min (0,5 ; 0,8) = 0,5 MD[h1 h2,e] = min (0,2 ; 0,1) = 0,1 CF[h1 h2,e] = 0,5 0,1 = 0,4 Untuk mencari CF[h1 h2,e] diperoleh dari MB[h1 h2,e] = max (0,5 ; 0,8) = 0,8 MD[h1 h2,e] = max (0,2 ; 0,1) = 0,2 CF[h1 h2,e] = 0,8 0,2 = 0,6
STIKOM Artha Buana 43

STIKOM Artha Buana

44

You might also like