Professional Documents
Culture Documents
Chương 3 Markov
Chương 3 Markov
1
3/5/2024
CHƯƠNG 3
Phần 2 Nội dung của các phương pháp Phân tích Markov
2
3/5/2024
A. Khái niệm:
* https://en.wikipedia.org/wiki/Markov_model
A. Khái niệm:
• (1) Xích Markov (Markov Chains) là một quá trình ngẫu nhiên theo
thời gian rời rạc, trong đó tình trạng hoặc sự kiện tiếp theo chỉ phụ
thuộc vào tình trạng hiện tại, không phụ thuộc vào lịch sử trước đó.
• (2) Quá trình Markov (Markov Processes ) là một lớp rộng lớn hơn,
bao gồm cả Markov Chains, ngoài ra còn bao gồm các quá trình thời
gian liên tục và không gian trạng thái liên tục.
3
3/5/2024
• Trạng thái (States): Là các điểm dừng trong quá trình mà chúng ta
quan sát hoặc quan tâm đến.
• Không gian trạng thái (state space) bao gồm tất cả các trạng thái có
thể có trong quá trình ngẫu nhiên.
• Mỗi trạng thái đại diện cho một tình huống hay điều kiện cụ thể
trong hệ thống, và từ mỗi trạng thái, có thể chuyển sang một hoặc nhiều
trạng thái khác với xác suất xác định.
• Ký hiệu E (Ensemble) là tập hợp
* https://en.wikipedia.org/wiki/Markov_model
4
3/5/2024
1. Giả sử đang ở trong một tòa nhà có 5 phòng, và chỉ có thể di chuyển từ
một phòng sang một phòng khác. Xác định trạng thái và không gian
trạng thái.
2. Giả sử chúng ta muốn nghiên cứu thị phần lựa chọn phương tiện giao
thông của người dân trong một thành phố, bao gồm xe hơi, xe buýt và
xe đạp. Xác định trạng thái và không gian trạng thái.
• Ma trận xác suất chuyển là một công cụ quan trọng trong lý thuyết xích
Markov để mô tả việc chuyển đổi giữa các trạng thái trong quá trình
ngẫu nhiên.
P Pij
• Trạng thái i sang j
5
3/5/2024
B. Xác định không gian trạng thái và ma trận xác suất chuyển
* https://en.wikipedia.org/wiki/Markov_model
Phụ thuộc vào hiện tại không xét đến quá khứ
6
3/5/2024
Pij P X n 1 j | X n i P X n 1 j | X o io , X 1 i1 ,..., X n in
Phương trình này cho biết khả năng Pij chuyển từ trạng thái i sang trạng
thái j ở bước tiếp theo (tại thời điểm n+1) chỉ phụ thuộc vào trạng thái
hiện tại i tại thời điểm n và không phụ thuộc vào chuỗi các trạng thái đã
trải qua trước đó
7
3/5/2024
C. Phân phối xác suất ban đầu và các phân phối sau
Phân phối xác suất ban đầu của một xích Markov là một tập hợp các xác
suất được gán cho mỗi trạng thái trong không gian trạng thái của xích
vào thời điểm ban đầu.
o
i 1
p 0 pio 1
n
C. Phân phối xác suất ban đầu và các phân phối sau
Phân phối xác suất sau:
o 1 2 ... n
1 o P
2 1P
...
n 1 n P Điểm cân bằng không phụ thuộc vào n
8
3/5/2024
D. Ứng dụng:
0.2
0.7 0.5
Xác định không gian trạng thái và ma trận xác suất chuyển
9
3/5/2024
B. Xét ví dụ
E = {tốt, hư hỏng nhẹ, hư hỏng nặng}
0.2 o [0 1 0]
Ma trận chuyển
D. Ứng dụng:
Trạng thứ nhất:
0.2 0.6 0.2
1 o P [ 0 1 0 ] 0.3 0 0.7 =[ 0.3 0 0.7 ]
0.5 0 0.5
Trạng thứ 2:
0.2 0.6 0.2
2 1 P [ 0.3 0 0.7 ] 0.3 0 0.7 =[ 0.41 0.18 0.41]
0.5 0 0.5
Trạng thứ 3:
10
3/5/2024
A (n)
Xác định Tính toán xác
Xây dựng ma Tính toán xác
không gian suất chuyển
trận chuyển suất cân bằng
trạng thái sau n bước
P (A A) P (A B ) P (A C )
(0) P P ( B A) P ( B B ) P ( B C )
E {...} P (C A) P (C B ) P (C C )
11
3/5/2024
Bài tập 2:
Xét một khu vực có 3 cửa hàng 1,2,3 với 1000 khách hàng .
• Cửa hàng 1 chiếm 20% thị phần 200 khách hàng.
• Cửa hàng 2 chiếm 50% thị phần 500 khách hàng.
• Cửa hàng 3 chiếm 30% thị phần 300 khách hàng.
Sau chu kỳ thời gian một tháng, tình hình các cửa hàng như sau:
• Với cửa hàng 1: 20 khách hàng của cửa hàng 1 chuyển sang
cửa hàng 2, 20 khách hàng 1 chuyển sang cửa hàng 3.
• Với cửa hàng 2: 35 khách hàng của cửa hàng 2 chuyển sang
cửa hàng 1, 15 khách hàng chuyển 2 sang cửa hàng 3.
• Với cửa hàng 3: 25 khách hàng của cửa hàng 3 chuyển sang
cửa hàng 1, 20 khách hàng 3 chuyển sang cửa hàng 2.
Dự báo tình hình thị phần của các cửa hàng tháng tới và tìm điểm cân
bằng (nếu có).
12
3/5/2024
13