You are on page 1of 41

Probabilistic Reasoning System

Inteligensi Buatan – IF3111


Program Studi Teknik Informatika
Jurusan Teknologi Produksi dan Industri
Institut Teknologi Sumatera
2022

1
Pokok Bahasan

• Referensi Utama : Prof. Leslie P. Kaelbling (MIT) dan Dr. Nur Ulfa Maulidevi, S.T,
M.Sc. (STEI ITB) - Materi Perkuliahan Sistem Penalaran berbasis Probabilistik. 2020
• Pembahasan
✓ Joint Probability Distribution
✓ Conditional Independence
✓ Bayesian Network and Example
✓ Connection
✓ D - separation
✓ Bayesian (Belief) Network
✓ Inference and Learning in Bayesian Network

2
Uncertainty (Ketidakpastian)
Asumsikan aksi At adalah pergi ke bandara t menit sebelum keberangkatan pesawat
Akankah At akan menyebabkan kita tiba tepat waktu di bandara?

Permasalahan:
1. Partial observability (road state, other drivers' plans, etc.)
2. Noisy sensors (traffic reports)
3. Uncertainty in action outcomes (flat tire, etc.)
4. Kompleksitas pemodelan dan prediksi lalu lintas yang luar biasa

Oleh karena itu pendekatan logika murni juga


1. Mengalami resiko pernyataan yang tidak benar (palsu) : “A25 will get me there on time”, or
2. Mengarah pada kesimpulan yang terlalu lemah untuk pengambilan keputusan :

“A25 will get me there on time if there's no accident on the bridge and it doesn't rain and my tires remain
intact etc etc.”

(A1440 might reasonably be said to get me there on time but I'd have to stay overnight in the airport …)

3
Probabilitas

• Logika mewakili ketidakpastian dengan operasi disjungsi;


• Akan tetapi, tidak mampu memberi tahu kita seberapa besar
kemungkinan kondisi yang berbeda;
• Teori probabilitas menyediakan cara kuantitatif untuk mengkodekan
suatu kemungkinan/kejadian yang mungkin terjadi.

4
Membuat Keputusan dalam Ketidakpastian

Misalkan kita percaya terkait hal berikut ini:


P(A25 gets me there on time | …) = 0.04
P(A90 gets me there on time | …) = 0.70
P(A120 gets me there on time | …) = 0.95
P(A1440 gets me there on time | …) = 0.9999

• Aksi mana yang akan diambil?


• Tergantung pada preferensi untuk penerbangan yang hangus v.s. waktu
yang dihabiskan untuk menunggu, dll.
✓ Utility theory digunakan untuk mewakili dan menyimpulkan preferensi
✓ Decision theory = probability theory + utility theory

5
Aksioma Probabilitas

• Semesta dari peristiwa-peristiwa sangat kecil (seperti interpretasi dalam logika).


• Events adalah kumpulan peristiwa kecil/terpecah-pecah

• Aksioma Kolmogorov tentang unconditional/prior probability:


✓ P: events → [0,1]
✓ P(true) = 1 = P(U)
✓ P(false) = 0 = P()
✓ P(A U B) = P(A) + P(B) – P(A ∩ B)

• Bayesian → Subjectivist
✓ Probabilitas adalah model dari suatu tingkat kepercayaan

6
Contoh Penalaran dari Manusia Berbasis Probabilitas

Jane berasal dari Berkeley. Dia aktif dalam protes anti-perang di tahun 60-
an. Dia tinggal di sebuah kelompok yg hidup bersama.

• Mana yang lebih mungkin?


1. Jane is a bank teller
2. Jane is a feminist bank teller

7
Random Variable

• Random variables
✓ Function: discrete domain → [0, 1]
✓ Jumlahnya adalah 1 terhada suatu domain
➢ Raining merupakan propositional random variable
➢ Raining(true) = 0.2
❑ P(Raining = true) = 0.2
➢ Raining(false) = 0.8
❑ P(Raining = false) = 0.8

• Joint distribution
✓ Penetapan probabilitas untuk semua kombinasi nilai dari random variable

8
Penarikan Kesimpulan dengan Enumerasi

• Memulai dengan joint probability distribution (as knowledge base):

• Untuk proposition φ apa saja, jumlah atomic events dimana bernilai true:
P(φ) = Σω:ω╞φ P(ω)

9
Penarikan Kesimpulan dengan Enumerasi

• Memulai dengan joint probability distribution (as knowledge base):

• Untuk proposition φ apa saja, jumlah atomic events dimana bernilai true:
P(φ) = Σω:ω╞φ P(ω)

• P(toothache) = 0.108 + 0.012 + 0.016 + 0.064 = 0.2

10
Penarikan Kesimpulan dengan Enumerasi

• Memulai dengan joint probability distribution (as knowledge base):

• Untuk proposition φ apa saja, jumlah atomic events dimana bernilai true:
P(φ) = Σω:ω╞φ P(ω)

• P(cavity) = 0.108 + 0.012 + 0.072 + 0.008 = 0.2


• P(cavity U tootache) = ?

11
Penarikan Kesimpulan dengan Enumerasi

• Memulai dengan joint probability distribution (as knowledge base):

• Dapat juga dilakukan perhitungan conditional probabilities:


P(cavity | toothache) = P(cavity ∩ toothache)
P(toothache)
= 0.016+0.064
0.108 + 0.012 + 0.016 + 0.064
= 0.4

12
Bayes’ Rule

• Bayes’ Rule
• P(A | B) = P(A ∩ B) / P(B)
= P(B | A) P(A) / P(B)
• P(disease | symptom)
= P(symptom | disease) * P(disease) / P(symptom)
• Bayangkan
• disease = BSE / Bovine Spongiform Encephalopathy (Sapi Gila)
• symptom = Kelumpuhan
• P(disease | symptom) memiliki perbedaan di England dan US
• P(symptom | disease) seharusnya akan sama
• Maka lebih berguna untuk mempelajari model P(symptom | disease)
• Conditioning
• P(A) = P(A | B) P(B) + P(A | ¬B) P(¬B)
= P(A ∩ B) + P(A ∩ ¬B)

13
Simple Bayesian Network

• Bayesian Network adalah graf berarah di mana setiap simpul dianotasi


dengan informasi probabilitas kuantitatif.

• Berdasarkan gambaran yang diberikan:


✓Cuaca tidak tergantung pada tiga variabel lainnya;
✓Toothache dan Catch Bebas bersyarat dengan mempertimbangkan Cavity.

14
Typical Bayesian Network
• John selalu menelepon
ketika dia mendengar alarm,
tetapi kadang-kadang
kondisi bisa membingungkan
terkait menelpon karena
alarm atau karena benar-
benar ingin menelpon.

• Mary menyukai musik yang


agak keras dan terkadang
sama sekali tidak
menghiraukan bunyi alarm.

• Apakah kita bisa


memperkirakan
kemungkinan kejadian
perampokan?

15
Chain Rule

Full joint distribution didefinisikan sebagai perkalian produk dari local conditional
distributions:

P (X1, … ,Xn) = πi = 1 P (Xi | Parents(Xi))

e.g., P(j  m  a  b  e)

= P (j | a) P (m | a) P (a | b, e) P (b) P (e)

Peluang bahwa alarm telah berbunyi, tetapi tidak ada kejadian pencurian maupun
gempa bumi, serta keduanya John dan Mary, semuanya menelepon.

16
Chain Rule (Lanjutan)

P(j  m  a  b  e) = P (j | a) P (m | a) P (a | b, e) P (b) P (e)


= 0.9 * 0.7 * 0.001 * 0.999 * 0.998 = 0.00062

17
Konsep : Independence

• A dan B adalah independent jika dan hanya jika


✓ P(A ∩ B) = P(A) · P(B)
✓ P(A | B) = P(A)
✓ P(B | A) = P(B)

• Independence sangat penting untuk membentuk penalaran probabilistik


yang efisien
• A dan B adalah conditionally independent given C jika dan hanya jika
✓ P(A | B, C) = P(A | C)
✓ P(B | A, C) = P(B | C)
✓ P(A ∩ B | C) = P(A | C) · P(B | C)

18
Contoh - Conditional Independence

• X is late (X)
• Traffic Jam (T)
• Y is late (Y)
• None of these propositions are independent of one other
• X and Y are conditionally independent given T

19
Bayesian Network

• Untuk melakukan penalaran probabilistik, kita perlu mengetahui joint


probability distribution

• Tetapi, dalam domain dengan N variabel proposisi biner (2 nilai


kemungkinan), dibutuhkan 2N angka untuk menentukan joint probability
distribution

• Maka kita akan coba eksploitasi independensi dalam domain

• Dua komponen penting: struktur dan parameter numerik

20
Contoh - Bayesian Network

Inspektur Smith sedang menunggu Holmes dan


Watson, yang mengemudi (secara terpisah) untuk Icy Roads
menemuinya. Saat ini adalah musim dingin.
Sekretarisnya mengatakan kepadanya bahwa
Watson telah mengalami kecelakaan. Dia berkata,
“Pasti jalanannya tertutup es. Saya yakin Holmes
akan mengalami kecelakaan juga. Aku harus pergi Holmes Crash Watson Crash

makan siang”. Tapi, sekretarisnya berkata, “Tidak,


jalanan tidak licin karena dingin/es, lihat
jendelanya”. Jadi, dia berkata, "Saya rasa lebih
baik saya menunggu Holmes”.

21
Contoh - Bayesian Network

22
Connection

A = battery dead
B = car won’t start
C = car won’t move
• Forward Serial Connection
✓ Mengetahui tentang A akan memberi tahu kita sesuatu tentang C
✓ Tetapi jika kita mengetahui B maka mengetahui tentang A tidak akan memberi tahu
kita apa pun tentang C

• Backward Serial Connection


✓ Mengetahui tentang C akan memberi tahu kita sesuatu tentang A
✓ Tetapi jika kita mengetahui B maka mengetahui tentang C tidak akan memberi tahu
kita apa pun tentang A

23
Connection

A = Watson Crash
B = Icy
C = Holmes Crash

• Diverging Connection
✓ Mengetahui tentang A akan memberi tahu kita sesuatu tentang C
✓ Mengetahui tentang C akan memberi tahu kita sesuatu tentang A
✓ Tetapi jika kita tahu B maka mengetahui tentang A tidak akan memberi tahu kita
sesuatu yang baru tentang C, dan sebaliknya

24
Connection

A = Bacterial Infection
B = Sore Throat
C = Viral Infection

• Converging Connection
✓ Tanpa mengetahui B, menemukan A tidak memberi tahu kita sesuatu tentang C
✓ Jika kita melihat bukti untuk B, maka A dan C menjadi dependen (berpotensi
untuk “menjelaskan”). Jika kita menemukan bakteri pada pasien dengan sakit
tenggorokan, maka kemungkinan infeksi virus lebih kecil.

25
Connection

Holmes dan Watson telah pindah ke LA. Holmes bangun dan menemukan
halaman rumputnya basah. Dia bertanya-tanya apakah sudah hujan atau dia
membiarkan alat penyiramnya menyala. Dia melihat halaman rumput
tetangganya (Watson) dan dia melihatnya basah juga. Jadi, dia menyimpulkan
itu pasti hujan.

26
Connection

Holmes dan Watson telah pindah ke LA. Holmes bangun dan menemukan
halaman rumputnya basah. Dia bertanya-tanya apakah sudah hujan atau dia
membiarkan alat penyiramnya menyala. Dia melihat halaman rumput
tetangganya (Watson) dan dia melihatnya basah juga. Jadi, dia menyimpulkan
itu pasti hujan.

27
D Separation

• Dua variabel A dan B merupakan d-separated, jika dan hanya jika untuk setiap
jalur di antara keduanya, ada variabel antara V sedemikian sehingga
✓ Koneksi serial atau divergen dan V diketahui
✓ Koneksinya konvergen dan baik V maupun turunan apa pun tidak dipakai
✓ Dua variabel merupakan d-connected, jika dan hanya jika tidak d-separated

28
Bayesian (Belief) Network

• Himpunan variabel, masing-masing memiliki himpunan nilai yang


terbatas
• Himpunan busur berarah di antara variabel membentuk acyclic graph
• Setiap node A, dengan parents B1, …, Bn, memiliki P(A |B1,…,Bn) yang
ditentukan

Theorem:
If A and B are d-separated given evidence e, then P(A | e) = P(A | B, e)

29
Inference in Bayesian Network

• Inferensi yang tepat


• Perkiraan inferensi
• Dengan adanya Bayesian Network, pertanyaan apa yang mungkin ingin
kita ajukan?
✓ Conditional probability query: P(x | e)
✓ Maximum a posteriori probability:
What value of x maximizes P(x|e) ?

• General question: Berapa distribusi probabilitas keseluruhan atas variabel


X dengan diberikan bukti e, P(X | e)?

30
Icy Roads with Numbers

Probability that Watson Crashes:


P(W) = P(W| I) P(I) + P(W| ¬I) P(¬I)
= 0.8 · 0.7 + 0.1 · 0.3
= 0.56 + 0.03
= 0.59

31
Icy Roads with Numbers

Probability of Icy given Watson (Bayes’ Rule):


P(I | W) = P(W | I) P(I) / P(W)
= 0.8 · 0.7 / 0.59
= 0.95
We started with P(I) = 0.7; knowing that Watson crashed raised the probability to 0.95

32
Icy Roads with Numbers

Probability of Holmes given Watson :


P(H|W) = P(H|W,I) P(I|W) + P(H|W,¬I) P(¬I| W)
= P(H|I) P(I|W) + P(H|¬I) P(¬I| W)
= 0.8 · 0.95 + 0.1 · 0.05
= 0.765
We started with P(H) = 0.59; knowing that Watson crashed raised the probability to
0.765

33
Icy Roads with Numbers

Probability of Holmes given Icy and Watson :


P(H|W, ¬I) = P(H|¬I) = 0.1

H and W are d-separated given I, so H and W are conditionally independent given I

34
Where do Bayesian Networks Come From?

• Human Expert
✓ Encoding rules obtained from expert
✓ Very difficult in getting reliable probability estimates
• Learning From Data
✓ Try to estimate the joint probability distribution
✓ Looking for models that encode conditional independencies in data
✓ Four cases →
❑ Structure known or unknown
❑ All variables are observable or some observable

• Combination of Both

35
Case 1: Structure is given

• Diberikan node dan busur dari jaringan Bayesian dengan m node


• Diberikan sekumpulan data D = {<v11,…,vm1>,…, <v1k,…,vmk>}
• Unsur-unsur D diasumsikan independen diberikan M
• Tentukan model M yang memaksimalkan Pr(D|M)
• Dikenal sebagai maximum likelihood model
• Manusia pandai menyediakan struktur, data pandai memberikan angka

36
Case 1: Estimates the Conditional Probability

• Gunakan hitungan dan definisi probabilitas bersyarat

37
Case 1: Estimates the Conditional Probability

• Gunakan hitungan dan definisi probabilitas bersyarat


• Inisialisasi semua penghitung ke 1 menghindari probabilitas 0 dan konvergen
pada estimasi kemungkinan maksimum

38
Constructing Bayesian/Belief Network

1. Choose an ordering of variables X1, … ,Xn → sebab mendahului akibat


2. For i = 1 to n
• add Xi to the network
• select parents from X1, … ,Xi-1 such that
P (Xi | Parents(Xi)) = P (Xi | X1, ... Xi-1)

This choice of parents guarantees:

P (X1, … ,Xn) = πi =1 P (Xi | X1, … , Xi-1)


(chain rule)
= πi =1P (Xi | Parents(Xi))
(by construction)

39
Kesimpulan

• Bayesian networks memberikan representasi alami untuk conditional


independence (diinduksi secara kausal)
• Topologi + CPT = representasi kompak dari joint distribution
• Umumnya mudah bagi pakar domain untuk membangun

40
TERIMA KASIH
Ada pertanyaan ???

41

You might also like