Professional Documents
Culture Documents
Disusun Oleh :
Yohanes
STEIN
JAKARTA
2009
Daftar Isi
BAB I : Pendahuluan
3.1 Aplikasi
3.1.1 Fisika
3.1.2 Kimia
3.1.3 Pengujian
3.1.4 Teori Queueing
3.1.5 Statistik
3.2 Pembahasan
BAB IV : Kesimpulan
DAFTAR PUSTAKA
Markov Chain
Abstrak
Rantai Markov (Markov Chain) adalah suatu teknik matematika yang biasa digunakan
untuk pembuatan model (modelling) bermacam-macam sistem dan proses bisnis. Teknik ini
dapat digunakan untuk memperkirakan perubahan-perubahan di waktu yang akan datang
dalam variabel-variabel dinamis atas dasar perubahan-perubahan dari variabel-variabel
dinamis tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk menganalisa
kejadian-kejadian diwaktu-waktu mendatang secara matematis. Teknik markov chains dapat
digunakan untuk memperkirakan perubahan – perubahan diwaktu yang akan datang dalam
variabel – variabel dinamis atas dasar perubahan – perubahan dari variabel – variabel dinamis
tersebut di waktu yang lalu. Teknik ini dapat juga digunakan untuk menganalisa kejadian –
kejadian di waktu – waktu mendatang secara sistematis. Penerapan Proses Markov mula –
mula adalah digunakan untuk menganalisa dan memperkirakan perilaku partikel – pertikel
gas dalam suatu wadah (container) tertutup serta meramal keadaan cuaca. Sebagai suatu
peralatan riset operasi dalam pengambilam keputusan manajerial. Proses Markov telah
banyak diterapkan untuk menganalisa tentang perpindahan merek (brands witching) dalam
pemasaran, perhitungan rekening, jasa persewaan mobil, perencanaan penjualan, masalah –
masalah persediaan, pemeliharaan mesin, antrian, perubahan harga pasar saham, dan
administrasi rumah sakit. Prinsipnya, ketika kita mengamati rangkaian probabilitas
percobaan, semua hasil masa lalu bisa mempengaruhi prediksi untuk percobaan berikutnya.
Tahun 1907, A.A. Markov mulai mempelajari teori baru yang yang berkaitan dengan
probabilitas, dalam proses ini hasil percobaan tertentu dapat mempengaruhi hasil percobaan
berikutnya. Makalah ini akan membahas apakah proses stokastik itu, yang merupakan dasar
dari Markov Chain, bagaimana prinsip dasar, teorema yang berlaku, status-status Markov
Chain, lalu bagaimana penerapan atau aplikasinya.
Contoh studi kasus mendapatkan hasil yaitu perkiraan ramalan cuaca pada hari Senin
π (3) π (3)=π (2 )P=(. 4316 , . 42 , .1484 ) , maka 42% peluang akan cerah, 42% akan berawan, dan
15% hujan.
BAB I
PENDAHULUAN
Markov Chain sangat berkaitan erat dengan teori probabilitas. Untuk memberikan
dasar analisis terlebih dahulu kita harus mengetahui asumsi, definisi, sampai beberapa
teorema yang diperlukan. Maka masalah yang akan dalam makalah ini adalah apakah
proses stokastik itu yang merupakan dasar dari Markov Chain, bagaimana prinsip dasar,
teorema yang berlaku, status - status Markov Chain, lalu bagaimana penerapan atau
aplikasinya
Tujuan pembuatan makalah tentang Markov Chain ini adalah sebagai berikut:
LANDASAN TEORI
Markov Chain baru diperkenalkan sekitar tahun 1907, oleh seorang Matematisi
Rusia Andrei A. Markov (1856-1922). Andrey Markov menghasilkan hasil pertama
(1906) untuk proses ini, murni secara teoritis. Sebuah generalisasi ke bentuk tak terbatas
dalam ruang diskrit diberikan oleh Kolmogorov (1936). Rantai Markov terkait dengan
gerakan Brown dan ergodic hipotesis, dua topik dalam fisika yang penting dalam tahun-
tahun awal abad ke-20, tetapi tampaknya Markov lebih fokus pada perluasan hukum
bilangan besar dalam percobaaan-percobaaan. Model ini berhubungan dengan suatu
rangkaian proses dimana kejadian akibat suatu suatu eksperimen hanya tergantung pada
kejadian yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian
sebelum-sebelumnya yang lain. Pada 1913, ia menerapkan temuannya untuk pertama
kalinya untuk 20.000 pertama Pushkin huruf "Eugene Onegin".
2. 2 Proses Acak
Pengelompokkan tipe populasi dari proses acak bisa digambarkan sebagai jika X
adalah proses acak, maka populasi dari proses acak adalah semua nilai yang mungkin
yang bisa dimasukkan dalam suatu proses contohnya
S= { y : X (t )= y , untuk t ∈T }
Jika X adalah proses acak yang menggambarkan suatu persamaan, maka populasi dari X
dapat digambarkan sebagai suatu nilai yang memenuhi persamaan tersebut. Jika populasi
dari S dari suatu proses acak X dapat dihiting (contoh S={1,2,3,...}), dalam hal ini X
disebut Discrete Time Random Process perubahan state terjadi pada titik-titik integer.
Jika populasi dari S dari suatu proses acak X tidak dapat dihitung ( contoh S = ∞) maka
X disebut Continuous Time Random Process perubahan state (discrete state) terjadi pada
sembarang waktu.
Markov Chain merupakan proses acak di mana semua informasi tentang masa
depan terkandung di dalam keadaan sekarang (yaitu orang tidak perlu memeriksa masa
lalu untuk menentukan masa depan). Untuk lebih tepatnya, proses memiliki properti
Markov, yang berarti bahwa bentuk ke depan hanya tergantung pada keadaan sekarang,
dan tidak bergantung pada bentuk sebelumnya. Dengan kata lain, gambaran tentang
keadaan sepenuhnya menangkap semua informasi yang dapat mempengaruhi masa
depan dari proses evolusi. Suatu Markov Chain merupakan proses stokastik berarti
bahwa semua transisi adalah probabilitas (ditentukan oleh kebetulan acak dan dengan
demikian tidak dapat diprediksi secara detail, meskipun mungkin diprediksi dalam sifat
statistik, (www.wikipedia.org).
Apabila suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari
beberapa kemungkinan kejadian , maka rangkaian eksperimen tersebut disebut Proses
Stokastik.
Sebuah rantai Markov adalah suatu urutan dari variabel-variabel acak X 1, X 2, X 3,......
dengan sifat Markov yaitu, mengingat keadaan masa depan dan masa lalu keadaan yang
independen, dengan kata lain:
Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit ( dapat
dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state
pada time discrete. Ada beberapa macam variasi dari bentuk rantai markov
1. Continuous Markov memiliki indeks kontinu.
2. Sisa rantai Markov homogen (rantai Markov stasioner) adalah proses di mana
Dengan kata lain, keadaan selanjutnya tergantung pada keadaan m selanjutnya. Sebuah
rantai (Y n) dari (X n) yang memiliki 'klasik' Markov properti sebagai berikut: Biarkan Y n =
(X n, X n -1, ..., X n - m 1 ), yang memerintahkan m-tupel dari nilai-nilai X. Maka Y n adalah
sebuah rantai Markov dengan ruang keadaan S m dan memiliki klasik properti Markov.
Status-statusnya adalah:
1. Reachable State
Status j reachable dari status i apabila dalam rantai dpat terjadi transisi dari
status i ke status j melalui sejumlah transisi berhingga;
2. Irreduceable Chain
Jika dalam suatu rantai Markov setiap status reachable dari setiap status
lainnya, rantai tersebut adalah irreduceable.
3. Periodic State
Suatu status i disebut periodic dengan peroda d > 1, jika pnii > 0, hanya
untuk n = d, 2d, 3d,. . .; sebaliknya jika pnii > 0, hanya untuk n = 1, 2, 3, ... maka
status tersebut disebut aperiodic.
6. Transient State
Suatu status disebut transient jika probabilitas fi < 1; yaitu bahwa setelah dari
i melalui sejumlah transisi terdapat kemungkinan tidak dapat kembali ke i.
7. Recurrent State
Suatu status disebut recurrent jika probabilitas fi = 1; yaitu bahwa setelah dari
i melalui sejumlah transisi selalu ada kemungkinan untuk kembali ke i.
Untuk suatu status recurrent, jumlah step rata-rata untuk kembali ke status i
∞
( n)
m i=∑ nf
i
n−1
Suatu recurrent state disebut positive recurrent atau recurrent nonnull jika
mi < ∞
Dua status, i dan j, dikatakamn berkomunikasi jika i reachable dari j dan juga
reachable dari i ; ditulis dengan notasi i↔ j
12. Ergodic
sehingga i <—> j, jika dan hanya jika i dan j berada dalam kelas ekivalensi
yang sama.
C. Suatu Rantai Markov irreducible jika dan hanya jika didalamnya hanya terdiri atas
Jika {Xn}suatu rantai Markov, maka tepat salah satu kondisi berikut ini terjadi:
Definisi: πj(n) adalah probabilitas suatu Rantai Markov { Xn}berada dalam status j
Suatu rantai Markov memiliki distribusi probabilitas stasioner π = (π0, π1, π2, ....,
Jika suatu rantai Markov homogen waktu (stasioner dari waktu ke waktu) yang
(n )
π j =lim π j
n→∞ , untuk j = 0, 1, ......
selalu ada dan independent dari distribusu probabilitas status awal π (0) = (π0(0) , π1(0) ,
π2(0), …..).
Jika seluruh status tidak positif recurrent (jadi seluruhnya recurrent null atau
probabilitas stasioner.
BAB III
3.1 Aplikasi
3.1.1 Fisika
3.1.2 Kimia
3.1.3 Pengujian
Rantai Markov juga dapat digunakan untuk model berbagai proses dalam teori
queueing, dan statistik. Seperti model ideal dapat menangkap banyak statistik
keteraturan sistem. Bahkan tanpa menjelaskan struktur penuh dari sistem sempurna,
seperti model-model sinyal dapat sangat efektif memungkinkan kompresi data melalui
pengkodean entropi teknik seperti pengkodean aritmatika. Mereka juga
memungkinkan efektif estimasi keadaan dan pengenalan pola. Dunia sistem telepon
selular tergantung pada algoritma Viterbi untuk kesalahan-koreksi, sementara model
Markov tersembunyi adalah secara ekstensif digunakan dalam pengenalan suara dan
juga dalam bioinformatika, misalnya untuk daerah pengkode / gen prediksi.
3.1.5 Statistik
Metode Rantai Markov juga menjadi sangat penting untuk menghasilkan angka
acak urutan mencerminkan secara akurat distribusi probabilitas sangat rumit yang
diinginkan, melalui proses yang disebut rantai Markov Monte Carlo (MCMC). Dalam
beberapa tahun terakhir ini telah merevolusionerkan kepraktisan Inferensi Bayesian
metode, yang memungkinkan berbagai distribusi posterior menjadi simulasi dan
parameter yang ditemukan secara numerik
1. Jika hari ini cerah maka besok akan berpeluang 60% cuaca cerah, 30% berawan, dan
2. Jika hari ini berawan maka besok akan berpeluang 40% cuaca cerah, 45% berawan,
3. Jika hari ini hujan maka besok akan berpeluang 15% cuaca cerah, 60% berawan, dan
Jika pada hari Jumat hujan maka perkiraan cuaca hari Senin?
Terlihat jelas bahwa perkiraan cuaca dapat diselesaikan dengan Discrete Time
Markov Chain
Discrete Time Markov Chain terdapat 3 fase, kita misalkan 1= cerah, 2= berawan, 3=
π (0)=(0, 0 , 1)
.6 .3 .1
[
P= . 4 . 45 . 15
. 15 . 6 . 25 ] Matrik transisi
[ ]
π (1)=π(0)=(0, 0 , 1) .4 . 45 .15 =( .15 , .6, .25 )
.15 .6 .25
maka 15% peluang akan cerah, 60% akan berawan, dan 25% hujan
. 6 .3 .1
[ ]
π (2)=π (1 )P=(.15 , . 6, .25) . 4 . 45 .15 =( . 3675 , . 465 , . 1675 )
. 15 .6 .25
maka 42% peluang akan cerah, 42% akan berawan, dan 15% hujan
Akan sangat bermanfaat menampilkan Discrete Time Markov Chain secara grafis.
Lingkaran melambangkan fase dan anak panah diberi angka peluang yang akan
KESIMPULAN
Kesimpulan yang dapat diambil pada penulisan makalah tentang Markov Chain
adalah:
1. Proses stokastik adalah suatu kejadian tertentu dari suatu rangkaian eksperimen
2. Prinsip dasar Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit
( dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan untuk
berubah state pada time discrete. Sebuah rantai Markov adalah suatu urutan dari
masa depan dan masa lalu keadaan yang independen, dengan kata lain:
3. Teorema- teorema yang berlaku pada Markov Chain yaitu teorema mengenai Relasi
4. Status-status Markov Chain adalah Reachable State, Irreduceable Chain, Periodic State,
Probability of First Return, Probability of Ever Return, Transient State, Recurrent State,
Mean Recurrent Time of State, Null Recurrent State, Positive Recurrent State,
5. Perhitungan Markov Chain didapatkan hasil cuaca pada hari Senin π (3)
maka 42% peluang akan cerah, 42% akan berawan, dan 15% hujan
DAFTAR PUSTAKA
Eugene Onegin Mengenai Koneksi Sampel in Chains, terj. David Link. Sains dalam
Konteks
JL, Doob. Stochastic Processes. New York: John Wiley and Sons
www.wikipedia.org
www.google.com(Markov Chain)
MatematikaCyberBoardSOS.