You are on page 1of 19

CHƯƠNG 2

NGUỒN TIN
Giáo Viên: TS. Trần Trung Duy

Học Viện Công Nghệ Bưu Chính Viễn Thông TP. Hồ Chí Minh.
Email: trantrungduy@ptithcm.edu.vn.
Điện Thoại: 0938967217.
Nguồn Tin
 Để đánh giá định lượng cho tin tức, người ta đưa ra
khái niệm lượng tin.
 Lượng tin đưa ra khả năng dự đoán được của tin.
 Một tin có xác suất xuất hiện càng nhỏ thì có độ bất
ngờ càng lớn, lượng tin càng lớn, và ngược lại.
 Xét nguồn tin X rời rạc sinh ra các tin i với xác suất là
p(i), lượng tin i phải là một hàm có đặc điểm sau:
• Tỉ lệ nghịch với xác suất xuất hiện p(i), f(1/(p(i))).
• Hàm này phải bằng 0 khi p(i)=1
Nguồn Tin
 Nếu hai tin độc lập thống kê là i và j đồng thời xuất
hiện ta có tin là (i, j) , thì lượng tin chung phải bằng
tổng lượng tin của từng tin:

 Với luật nhân xác suất thì

 Vì vậy
Nguồn Tin
 Hàm loga thỏa mãn các yêu cầu này nên hàm
log(1/p(i)) được chọn để đánh giá định lường cho tin.
 Lượng tin của một tin i được ký hiệu là I(i). Định nghĩa
lượng tin của một tin i

 Đơn vị là bit hay nat hay hartley khi cơ số là 2, e hay


10.
 Cơ số 2 hay được chọn
Nguồn Tin
 Entropy của nguồn tin
 Entropy H được định nghĩa là giá trị trung bình thống
kê của lượng tin. Đó là lượng tin trung bình chứa trong
một ký tự bất kỳ của nguồn tin.
 Entropy của một nguồn M

 p(m) là xác suất của ký tự thứ m.


Nguồn Tin
 Entropy của nguồn tin
 Giá trị lớn nhất của entropy là

đạt được khi


 Tốc độ thông tin nguồn: R=rH, r (bit/s)
Ví dụ
• Cho X={x1, x2} có xác suất xuất hiện lần lượt
là:
– P(x1) = P(x2) = 0.5
– P(x1) = 0.96875 và P(x2) = 0.03125
– P(x1) = 1 và P(x2) = 0
Tính I(x1) và I(x2) cho mỗi trường hợp và nhận xét
Lượng Tin có Điều Kiện
• Lượng tin X = xi khi đã xảy ra Y = yj

( )
I ( xi / y j ) = − log P ( xi / y j ) .
Lượng Tin Tương Hỗ
• Lượng tin X = xi khi đã xảy ra Y = yj

I ( xi ; y j ) = I ( xi ) − I ( xi / y j )
 P ( xi / y j ) 
= log  ÷
 P ( xi ) ÷
 
Lượng Tin Tương Hỗ
• Lượng tin tương hỗ có điều kiện

• Giả sử có 3 tập tin rời rạc X, Y, Z và xi ∈ X, yj


∈ Y, zk ∈ Z Khi đó lượng tin tương hỗ có điều
kiện:
P( xi / y j zk )
I ( xi ; y j / zk ) = log
P( xi / zk )
Entropy đồng thời

n m
H ( XY ) = −∑∑ P ( xi , y j ) log P( xi , y j )
i =1 j =1
Entropy đồng thời
• H(XY) = H(X)+H(Y/X)
• H(XY) = H(Y)+H(X/Y)
• H(XYZ) = H(X)+H(Y/X)+H(Z/X,Y)
= H(XY) + H(Z/X,Y)
Entropy có điều kiện
• Xét hai biến ngẫu nhiên rời rạc xi∈X và yj ∈ Y
với xác suất xuất hiện lần lượt là P(x i), i = 1, 2,
., n và P(yj), j = 1, 2, ., m. Entropy có điều kiện
H(X/Y) của tập tích XY là độ bất định trung
bình của X khi đã xảy ra một tin bất kỳ trong
nguồn tin Y:
n m
H ( X / Y ) = −∑∑ P ( xi , y j ) log P ( xi / y j )
i =1 j =1
Tính chất của Entropy điều kiện
Entropy tương hỗ
• H(X;Y) = H(X) - H(Y/X)
• H(X;Y) = H(Y) - H(X/Y)
• H(X;YZ) = H(X;Y) + H(X;Z/Y)
BÀI TẬP
• Bài Tập 1: Nguồn tin X có 6 ký tự với xác suất
xuất hiện lần lượt là PA = ½, PB = ¼, PC = 1/8,
PD = PE =1/20, PF = 1/40.
a)Tính lượng thông tin chứa đựng trong thông
điệp sau: ABABBA và FDDFDF
b)Tính entropy H của nguồn tin X.
BÀI TẬP
• Bài Tập 2: Cho 6 ký tự với xác suất xuất hiện
lần lượt là PA = 0.4, PB =0.2, PC = 0.12, PD = PE
=0.1, PF = 0.08.
a)Tính lượng thông tin chứa đựng trong thông
điệp sau: ABCDEF và ACADAF.
b)Tính entropy H(X).
BÀI TẬP
• Bài Tập 3: Một nguồn tin gồm hai tin có xác
suất xuất hiện lần lượt là PA = x và PB = 1-x.
a)Tính entropy H(X) của nguồn.
b)Tìm x để H(X) lớn nhất.
BÀI TẬP
• Bài Tập 4: Một nguồn tin gồm ba tin A, B và
C có xác suất xuất hiện lần lượt là PA = 1/3, PB
= x và PC = y.
a)Tìm y và tính entropy H(X) của nguồn theo x.
b)Vẽ H(X) theo x.
c)Tìm x để H(X) lớn nhất.

You might also like