Professional Documents
Culture Documents
lec03 dịch
lec03 dịch
TS. Lê Nguyên
Khôi Trường Đại học Công nghệ, ĐHQGHN
Machine Translated by Google
Nội dung
Entropy
Entropy chung và entropy có điều kiện
Entropy tương đối và thông tin lẫn nhau
Quy tắc chuỗi cho entropy, entropy tương đối
và thông tin lẫn nhau
1
Lê Nguyên Khôi Lý thuyết thông tin
Machine Translated by Google
những gì được truyền đạt hoặc đại diện bởi một sự sắp
xếp hoặc chuỗi sự vật cụ thể
Thông tin là gì
Websters nói:
giao tiếp hoặc tiếp nhận kiến thức hoặc trí thông minh
kiến thức thu được từ điều tra, nghiên cứu hoặc hướng dẫn.
thuộc tính vốn có và được giao tiếp bởi một trong hai hoặc
nhiều trình tự hoặc sự sắp xếp thay thế của một cái gì đó tạo ra các hiệu
ứng cụ thể
cái gì đó (dưới dạng tin nhắn, dữ liệu thử nghiệm hoặc hình ảnh)
biện minh cho sự thay đổi trong một cấu trúc (như một kế hoạch hoặc lý
thuyết) thể hiện trải nghiệm thể chất hoặc tinh thần hoặc một cấu trúc khác
một thước đo định lượng về nội dung của thông tin; cụ thể: một đại lượng số
đo lường độ không chắc chắn trong kết quả của một thử nghiệm sẽ được thực
hiện
Thông tin là gì
Wikipedia nói:
Thông tin theo nghĩa kỹ thuật hạn chế nhất của nó là một thông điệp
(lời nói hoặc cách diễn đạt) hoặc tập hợp các thông điệp theo một
trình tự có thứ tự bao gồm các ký hiệu, hoặc đó là ý nghĩa có thể
được giải thích từ một thông điệp hoặc tập hợp các thông điệp. Thông
tin có thể được ghi lại hoặc truyền đi. Nó có thể được ghi lại dưới
dạng dấu hiệu, hoặc chuyển tải dưới dạng tín hiệu. Thông tin là bất kỳ
loại sự kiện nào ảnh hưởng đến trạng thái của một hệ thống động. Khái
niệm này có nhiều ý nghĩa khác trong các ngữ cảnh khác nhau.
Hơn nữa, khái niệm thông tin có liên quan chặt chẽ đến các
khái niệm về ràng buộc, giao tiếp, kiểm soát, dữ liệu, hình
thức, hướng dẫn, kiến thức, ý nghĩa, kích thích tinh thần, khuôn
mẫu, nhận thức, biểu diễn, và đặc biệt là entropy
Ký hiệu
= vectơ, = ma trận
Phạm vi:
: giảm hạng phạm vi, + 1,…,
Cardinality (số lượng kết quả cơ bản):
= số phần tử trong tập hợp
Ví dụ:
1 1 1 1 1 1
Xúc xắc: = [1; 2; 3; 4; 5; 6], = [ ; ; ; ; ; ]
6 6 6 6 6 6
Văn bản tiếng Anh: = [a; b; …; x; y; z; <dấu
cách>], = 0,058; 0,013; …; 0,016; 0,007; 0,193
=
()
Ví dụ:
Xúc xắc: = 1; 2; 3; 4; 5; 6
1
= [ 1 6 ; 1 6 ; 1 6 ; 1 6 ; 1 6 ; 6]
= 3,5 =
2 = 15,17 = 2 + 2
Nội dung thông tin Shannon (SIC) của một kết quả
có xác suất là - log2 Đóng góp của Shannon - một
quan điểm thống kê
Ví dụ 1: tung đồng xu
1 1
= [Đầu; Đuôi], = [ ; 2 2
], SIC = [1; 1] bit
rv Công thức:
= -
= - log2 () log2 ()
ở đâu = ,
Công thức:
= -
= - log2 () log2 ()
11
Lê Nguyên Khôi Lý thuyết thông tin
Machine Translated by Google
Entropy - Ví dụ
= - 1 - log 1 - - log ()
= [ 2 4 8 8
Sự thú vị
Nhấc điện thoại lên, chúng tôi không bao giờ biết chắc ai là người gọi
Không ngạc nhiên tại sao xe máy của tôi lại nổ máy vì nó được bảo
dưỡng tốt và có một người thợ giỏi
Phần lớn thời gian trong ngày của chúng ta bao gồm các thí
Bước một bước, chào hỏi một người bạn, đến trường,…
Nếu những sự kiện này đột nhiên trở nên thú vị, chúng tôi sẽ
gặp rắc rối
Entropy của xô
Entropy khớp
, = - log2 ,
= -
, log2 ,
, = - nhật ký ,
Entropy khớp
Tính toán,
, = =
= 1 1
2 4
= 0 1
4
, = - log ,
1 1 - 1 1
= - 4
2 log 4 bản ghi
- -2 1 1
4 bản ghi 4
= 1,5 bit
Lê Nguyên Khôi Lý thuyết thông tin 17
Machine Translated by Google
= - nhật ký
= =
= -
khúc gỗ
= -
, nhật ký
= =
, = =
= 1 1 3
2 4 4
= 0 1 1
4 4
= = =
= 2 1 2 1 3
3 3 ( 3, 3) 4
= 0 1 1
0,1 4
Lê Nguyên Khôi Lý thuyết thông tin 19
Machine Translated by Google
= = =
= 2 1 2 1 3
3 3 ( 3, 3) 4
= 0 1 0,1 1
4
= =
= 3 2 1 +
1
× 0,1
× 4 3, 3 4
= 0,689 bit
Lê Nguyên Khôi Lý thuyết thông tin 20
Machine Translated by Google
Bổ sung Entropy
, = =
= 1 1 3
2 4 4
= 0 1 1
4 4
,
= - nhật ký = - nhật ký
= - nhật ký , - - nhật ký
= , -
= 1 1 1 - 3 1
2, 4, 0, 4 4 , 4
= 0,689 bit
Lê Nguyên Khôi Thông tin Lý thuyết 21
Machine Translated by Google
Xác suất
, =
Hệ quả
, = + ,
, = = = =
= 1 1 1 1
số 8 16 32 32
= 1 1 1 1
16 số 8 32 32
= 1 1 1 1
16 16 16 16
= 1
0 0 0
4
Tính toán: , ,
Tính toán: , ,
Thí dụ
1 1 1 ; ; ; 1
1 1 1 log
1 1 log 1 1 1
= - 4 4 1 1
log 4 4 51
1 1 1 1 1 1 log
- 2 +log28-+86 16
log
6 816-8 32
416log
32
16 + 4 32 32 1 log
4 + 6 + 12 + 5 27
3 3 + + +4 22
= - 8
= = =
8 27 7 8 13
= - =
số 8 4 số 8
, = +
= -
, , nhật ký ,
= -
, nhật ký
= - -
, nhật ký , nhật ký
= - -
khúc gỗ , nhật ký
= +
Xác suất
, , = , ()
Entropy
, , = , + +
1: = 1: 1
= 1
( ) = khúc gỗ = nhật ký
Nhận xét:
Đó không phải là khoảng cách thực giữa các phân phối vì nó
không đối xứng và không thỏa mãn bất đẳng thức tam giác.
Tuy nhiên, thường hữu ích khi coi entropy tương đối là
"Khoảng cách" giữa các bản phân phối.
Thông tin lẫn nhau của hai biến ngẫu nhiên là một
Xem xét hai biến ngẫu nhiên và với hàm khối lượng
xác suất chung (,) và hàm khối lượng xác suất biên
() và (). Thông tin lẫn nhau là entropy tương đối giữa
phân phối chung ;và phân phối sản phẩm () ()
(,)
; = , nhật ký = ((,) () )
= (,)
(,) nhật ký
()
Lê Nguyên Khôi Lý thuyết thông tin 30
Machine Translated by Google
,
Thông tin lẫn nhau là đối xứng
; =;
;
Sử dụng ";" để tránh sự mơ hồ
giữa và ( , ; )
, = =
Đoán giá trị của
= 1 1
50% cơ hội đúng 2 4
= 0 1
nếu bạn biết thì sao? 4
3 2
nếu = 0 (= ) chọn = 0, đúng
4 3
1 1
nếu = 1 (= ) chọn = 1, đúng
4 1
Nhìn chung
3
× 2
+ 1
× 1 = 3
= 75% xác suất đúng
4 3 4 1 4
Dự đoán tốt nhất: chọn =
, = =
Máy tính; = 1 1
2 4
= 0 1
4
; = -
= + - (,)
, = 1,5
= 0,811 = 1
, = 1,5 ; = 0,311 = 0,5 ; = 0,311 = 0,689
= 0,811 = 1
Máy tính
,
, , ;
0 ≥ 0, 1 + 0, 2 > 0
1 0
and 2 0 do 0 or 1
= -
khúc gỗ
≥ 0 - 1 0 nhật ký 1 0 - 2 0 nhật ký 2 0
> 0 > 0
= +
do đó = = = = - =
= () =
= -
= = log = =
= -
= - = log = - =
= =
Bằng chứng
1. , ≥
2. , ; ≥;
3. , , - , ≤ , -
4. ; ≥; -; Dấu +;