You are on page 1of 49

TRƯỜNG ĐẠI HỌC THỦY LỢI

BÀI GIẢNG MÔN


TRUYỀN THÔNG SỐ VÀ MÃ HÓA

21/04/23 1
NỘI DUNG MÔN HỌC

Chương 1: Giới thiệu chung (3)

Chương 2: Mã hóa nguồn (6)

Chương 3: Mã hóa kênh (8)

Chương 4: Ghép kênh và TD tín hiệu số (9)

Chương 5: Mã đường truyền (8)

Chương 6: Điều chế, giải điều chế số (8)

Chương 7: Đồng bộ (3)


2
21/04/23
Chương 2

MÃ HÓA NGUỒN

Nội dung:
2.1 Mô hình toán học của nguồn tin
2.2 Đo lượng tin của nguồn tin
2.3 Các kỹ thuật mã hóa nguồn rời rạc
2.4 Các kỹ thuật mã hóa nguồn tương tự
Bài tập

4/21/2023 3 3
4.1 Mô hình toán học của nguồn tin:
▪ Nguồn tin: Nguồn tương tự: tín hiệu ngõ ra có dạng liên tục
Nguồn rời rạc: tín hiệu ngõ ra có dạng rời rạc
▪ Nguồn tin tạo ra các bản tin một cách ngẫu nhiên. Với nguồn rời rạc (Discrete
source), đầu ra là chuỗi các biến ngẫu nhiên rời rạc.
▪ Mô hình cho nguồn rời rạc:
Giả sử nguồn rời rạc gồm L ký hiệu :{x1, x2,…, xL}, với xác suất tương ứng là
{p1,p2,…,pL}. Lúc đó:
L

p
k =1
k = 1, k = 1,..., L

Ví dụ: Nguồn rời rạc nhị phân X sẽ gồm hai ký hiệu: {0,1} và P(X=0)+ P(X=1)=1.
❖ Nguồn rời rạc không nhớ DMS (Discrete Memoryless Source): phát ra chuỗi ký
hiệu là độc lập thống kê, nghĩa là:
P ( xn | xn −1 , xn − 2 ,...) = P ( xn )

4/21/2023 4 4
4.1 Mô hình toán học của nguồn tin:
Kênh rời rạc không nhớ và ma trận kênh
4.1 Mô hình toán học của nguồn tin:
Kênh rời rạc không nhớ và ma trận kênh

Nhận xét
4.1 Mô hình toán học của nguồn tin:
Kênh rời rạc không nhớ và ma trận kênh

Nhận xét
4.2 Đo lượng tin của nguồn tin:
4.2.1 Lượng tin của nguồn rời rạc:
▪ Tin tức liên quan đến sự ngạc nhiên mà chúng ta cảm nhận khi nhận được bản tin.
Bản tin ít có khả năng xảy ra sẽ mang nhiều tin tức hơn. Từ đó, người ta đưa ra khái
niệm lượng tin.
▪ Lượng tin:
➢ Lượng tin riêng có được khi xuất hiện bản tin xi (xảy ra sự kiện X= xi )

 1 
I ( xi ) = log   = − log P( xi )
 P ( xi 
)
• Đơn vị của lượng tin: Tùy vào cơ số hàm logarit (cơ số 2: đơn vị là bit, cơ số
e: đơn vị là nat, cơ số 10: Hartley)
• Tính chất: i/ I ( xi )  0, 0  pi  1
ii/ I ( xi )  I ( x j ), pi  p j

4/21/2023 8 8
4.2 Đo lượng tin của nguồn tin (tt):
▪ Lượng tin có điều kiện:

Trích: Kênh rời rạc không nhớ. Lượng tin tương hỗ - Tài liệu, ebook, giáo trình, hướng dẫn (timtailieu.vn)
4.2 Đo lượng tin của nguồn tin (tt):
▪ Lượng tin có điều kiện:

Trích: Kênh rời rạc không nhớ. Lượng tin tương hỗ - Tài liệu, ebook, giáo trình, hướng dẫn (timtailieu.vn)
4.2 Đo lượng tin của nguồn tin (tt):
▪ Lượng tin tương hỗ:

Trích: Kênh rời rạc không nhớ. Lượng tin tương hỗ - Tài liệu, ebook, giáo trình, hướng dẫn (timtailieu.vn)
4.2 Đo lượng tin của nguồn tin (tt):
▪ Lượng tin trung bình:
➢ Lượng tin trung bình chứa trong một ký hiệu bất kỳ của nguồn
L
I ( X ) = −  P ( xi ) log P ( xi )
i =1

➢ Nhận xét: lượng tin trung bình phản ánh được giá trị tin tức của cả nguồn tin.
Ví dụ: Một nguồn DMS gồm 2 ký hiệu {x0,x1} với xác suất xuất hiện các ký hiệu
tương ứng là 0.99 và 0.01.
Lượng tin riêng của x1: I ( x1 ) = − log 2 [ p( x1 )] = − log 2 (0.01) = 6.5 [bits / symbol ]
Lượng tin trung bình của nguồn:
I ( X ) = −0.99 log 2 (0.99) − 0.01log 2 (0.01) = 0.081 [bits / symbol ]
▪ Lượng tin tương hỗ trung bình:
L K
I ( X , Y ) =  P( xi , y j )I ( xi , y j )
i =1 j =1

4/21/2023 13 13
X Y
Channel
4.2 Đo lượng tin của nguồn tin (tt):
1- p0
Ví dụ: Cho mô hình như sau. Trong đó: 0 0
p1
X, Y là các nguồn rời rạc nhị phân. p0

với: P(X=1)=P(X=0)=1/2 1
1- p1
1

Xác định: I(Y=0,X=0); I(Y=1,X=0).


Lời giải:
P(Y = 0 | X = 0)
Ta có: I (0, 0) = log 2
P(Y = 0)
với:
P( y = 0 | X = 0) = 1 − p0
P(Y = 0) = P( y = 0 | X = 0) P( X = 0) + P( y = 0 | X = 1) P( X = 1)
1 1 1
= (1 − p0 ) + p1 = (1 − p0 + p1 )
2 2 2
2(1 − p0 ) 2 p0
 I (0, 0) = log 2 [bits]. Tương tự: I (1, 0) = log 2 [bits]
1 − p0 + p1 1 − p0 + p1

4/21/2023 14 14
4.2.2 Entropy của nguồn rời rạc:
▪ Giả sử nguồn rời rạc X gồm L ký hiệu {x1, x2,…, xL}, Entropy của nguồn X được
định nghĩa là:
L L
H ( X ) = −  P ( xi ) log P ( xi ) =  P ( xi ) I ( xi )
i =1 i =1

➢ Nhận xét:
• Entropy của nguồn chính là lượng tin trung bình của nguồn đó.
• H ( X )  log L .Nếu các ký hiệu của nguồn có xác suất xuất hiện
bằng nhau thì Entropy sẽ đạt giá trị cực đại.
L
1 1 1
P ( xi ) = , i = 1,..., L  H ( X ) = − log = log L
L i =1 L L
• H ( X )  0 . Dấu = xảy ra khi một ký hiệu có xác suất xuất hiện bằng 1,
còn xác suất xuất hiện của các ký hiệu còn lại là 0.

4/21/2023 15 15
4.2 Đo lượng tin của nguồn tin (tt):
Ví dụ: Cho hai nguồn rời rạc X, Y có
Y|X 0 1
xác suất xuất hiện đồng thời các ký hiệu
0 1/3 0
được mô tả như bảng sau.
1 1/3 1/3
Tính H(X) [bits]
Lời giải:
2
Ta có: H ( X ) = −  P( x )log
i =1
i 2 P( xi ) = − P( X = 0)log 2 P( X = 0) − P( X = 1)log 2 P( X = 1)
với: 1 1 2
P( X = 0) = P( X = 0, Y = 0) + P( X = 0, Y = 1) = + =
3 3 3
1 1
P( X = 1) = P( X = 1, Y = 0) + P( X = 1, Y = 1) = 0 + =
3 3
Suy ra:
2 2 1 1
H ( X ) = − log 2 − log 2 = 0.9183 [bits]
3 3 3 3

4/21/2023 16 16
4.3 Các phương pháp mã hóa nguồn rời rạc (Nén dữ liệu)
▪ Giả sử nguồn rời rạc X gồm L ký hiệu {x1, x2,…, xL}, với xác suất xuất hiện các ký
hiệu tương ứng là {p1,p2,…,pL}. Mã hóa nguồn X chính là quá trình biểu diễn các
ký hiệu xi của nguồn bởi các chuỗi bi có chiều dài Ri. (bi = [b1,b2,…,bRi], bi = 0/1)

Nguồn rời {xi} Mã hóa {bi}: 0/1


rạc X nguồn
▪ Yêu cầu của bộ mã hóa nguồn:
• Các từ mã biểu diễn ở dạng nhị phân.
• Quá trình mã hóa sao cho việc giải mã là duy nhất.
▪ Đánh giá hiệu quả của bộ mã hóa nguồn:
• Thông qua việc so sánh số lượng bit trung bình dùng để biểu diễn từ mã.
• Hiệu suất mã hóa:
H(X ) H(X): entropy của nguồn X. L −1
= R= pR
R : chiều dài trung bình của từ mã.
i i
R i =0

4/21/2023 17 17
4.3 Các phương pháp mã hóa nguồn rời rạc (tt)
4.3.1 Phương pháp mã hóa với từ mã có chiều dài bằng nhau (Mã đều):
▪ Tất cả các ký hiệu của nguồn được mã hóa bằng các từ mã có chiều dài bằng
nhau [từ mã R bit].
▪ Quá trình mã hóa không tổn hao, và việc giải mã là dể dàng và duy nhất.
▪ Ví dụ: mã ASCII, mã EBCDIC, mã Baudot,vv…
▪ Quá trình mã hóa:
• Giả sử nguồn gồm L ký hiệu đồng xác suất. Ta muốn mã hóa dùng R bit ?
• Chọn giá trị của R:  , L = 2m , m 
 log 2 L
R=
 log 2 L  + 1
 , otherwise
• Lúc đó, hiệu suất mã hóa:
H(X ) log 2 L
= =
R R
o Khi L lũy thừa của 2: log 2 L log 2 L
= = = 1  100%
R log 2 L
4/21/2023 18 18
4.3.1 Phương pháp mã hóa với từ mã có chiều dài bằng nhau (tt):
o Khi L không phải là lũy thừa của 2:
log 2 L log 2 L
= = 1
R log 2 L  + 1
→Khi L lớn thì log2L lớn→ hiệu suất cao. Ngược lại, khi L nhỏ, hiệu suất
sẽ rất thấp → mã hóa từng khối J ký hiệu một lúc.
▪ Quá trình mã hóa J ký hiệu cùng một lúc:
• Số ký hiệu có thể có của nguồn: LJ .
• Chọn chiều dài từ mã mã hóa: N. Yêu cầu giá trị của N phải thỏa:
2N  LJ → N  log2LJ = Jlog2L
Do N phải là số nguyên, nên: N =  J log 2 L  + 1
• Hiệu suất mã hóa:

=
H (X )
=
JH ( X )
=
J log 2 L → chọn J lớn thì hiệu suất
R N   +1
 J log 2 L  sẽ cao (dù cho L nhỏ)
4/21/2023 19 19
4.3.1 Phương pháp mã hóa với từ mã có chiều dài bằng nhau (tt)
Ví dụ: Cho nguồn DMS có 100 ký hiệu đồng xác suất.
a. Khi mỗi một ký hiệu được mã hóa tại một thời điểm. Tìm R=?  =?
• Chiều dài của từ mã: R = log 2 L  + 1 = log 2 100 + 1 = 7
→ Mỗi ký hiệu được biểu diễn bằng từ mã có chiều dài 7 bit.
• Hiệu suất mã hóa: H ( X ) log 2 L log 2 100
= = = = 94.91%
R R 7
b. Khi 3 ký hiệu được mã hóa cùng một lúc. Tìm N=?  =?
• Chiều dài của từ mã: R =  J log 2 L  + 1 = 3log 2 100  + 1 = 20
• Hiệu suất mã hóa: J log 2 L 3log 2 100
= = = 99.66%
  +1
 J log 2 L  20
Nhận xét: khi xác suất xuất hiện các ký hiệu không bằng nhau, hiệu suất sẽ thấp
hơn (do lúc đó H(X) < log2L) → dùng phương pháp mã hóa khác

4/21/2023 20 20
4.3.1 Phương pháp mã hóa với từ mã có chiều dài thay đổi (còn gọi là
phương pháp Mã hóa thống kê tối ưu hay Mã hóa entropy)
▪ Các ký hiệu của nguồn được mã hóa bằng các từ mã có chiều dài thay đổi.
▪ Các ký hiệu có xác suất xuất hiện lớn sẽ được mã hóa bằng từ mã có chiều dài
nhỏ, và ngược lại. Kết quả là, chiều dài trung bình của từ mã sẽ nhỏ →  cao.
▪ Ví dụ: mã Morse, mã Huffman, mã Shannon-Fano,vv…
▪ Vấn đề giải mã khi từ mã có chiều dài thay đổi:
Ví dụ: Nguồn DMS có 4 ký hiệu, được mã hóa theo bảng sau:
Ký hiệu ai Xác suất pi Tập mã 1 Tập mã 2

a1 1/2 1 0
a2 1/4 00 10
a3 1/8 01 110
a4 1/8 10 111

Giả sử chuỗi thu được: 001001…. Xác định ký hiệu đã mã hóa ?????
4/21/2023 21 21
Ví dụ (tt):
▪ Theo tập mã 1: 00 1 00 1 → a2a1a2a1
00 10 01 → a2a4a3
→ quá trình giải mã là không duy nhất
▪ Theo tập mã 2: 0 0 10 0 1 → a1a1a2a1
→ giải mã duy nhất
→ Để giải mã duy nhất → mã phân tách được → mã có tính prefix → mã phải thỏa
bất đẳng thức Kraft:
L

 2 − Rk

k =1
1

❖ Mã có tính prefix: không có từ mã nào có chiều dài n giống với n bit đầu tiên
của từ mã có chiều dài m (m>n).
Ví dụ: Tập mã 1: {1,00,01,10}: không có tính prefix
Tập mã 1: {0,10,110,111}: có tính prefix
4/21/2023 22 22
4.3.2 Phương pháp mã hóa với từ mã có chiều dài thay đổi (tt)
a. Phương pháp mã hóa Shannon-Fano:
❖ Các bước thực hiện:
▪ Liệt kê các ký hiệu theo thứ tự xác suất giảm dần
▪ Chia các ký hiệu làm hai nhóm sao cho tổng xác suất của mỗi nhóm là gần
bằng nhau nhất. Ký hiệu nhóm đầu là 0, nhóm sau là 1.
▪ Trong mỗi nhóm lại lại chia thành hai nhóm nhỏ có xác suất gần bằng nhau
nhất. Quá trình cứ tiếp tục cho đến khi chỉ còn một ký hiệu thì kết thúc.
❖ Ví dụ: Nguồn DMS có 7 ký hiệu với xác suất xuất hiện như sau:

ui u1 u2 u3 u4 u5 u6 u7
pi 0.34 0.23 0.19 0.1 0.07 0.06 0.01

Hãy thực hiện quá trình mã hóa Fano và tính hiệu suất mã hóa?

4/21/2023 23 23
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34
u2 0.23
u3 0.19
u4 0.10
u5 0.07
u6 0.06
u7 0.01

4/21/2023 24 24
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0
u2 0.23 0
u3 0.19 1
u4 0.10 1
u5 0.07 1
u6 0.06 1
u7 0.01 1

Nhóm 1: p = 0.57, nhóm 2: p = 0.43:  = |0.57-0.43 |= 0.14: nhỏ nhất

4/21/2023 25 25
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0 0
u2 0.23 0 1
u3 0.19 1 0
u4 0.10 1 1
u5 0.07 1 1
u6 0.06 1 1
u7 0.01 1 1

4/21/2023 26 26
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0 0
u2 0.23 0 1
u3 0.19 1 0
u4 0.10 1 1 0
u5 0.07 1 1 1
u6 0.06 1 1 1
u7 0.01 1 1 1

4/21/2023 27 27
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0 0
u2 0.23 0 1
u3 0.19 1 0
u4 0.10 1 1 0
u5 0.07 1 1 1 0
u6 0.06 1 1 1 1
u7 0.01 1 1 1 1

4/21/2023 28 28
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0 0
u2 0.23 0 1
u3 0.19 1 0
u4 0.10 1 1 0
u5 0.07 1 1 1 0
u6 0.06 1 1 1 1 0
u7 0.01 1 1 1 1 1

4/21/2023 29 29
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải:
Lập bảng như sau:
Ký hiệu ui Xác suất pi Lần chia Lần chia Lần chia Lần chia Lần chia Töø maõ
1 2 3 4 5
u1 0.34 0 0 00
u2 0.23 0 1 01
u3 0.19 1 0 10
u4 0.10 1 1 0 110
u5 0.07 1 1 1 0 1110
u6 0.06 1 1 1 1 0 11110
u7 0.01 1 1 1 1 1 11111

4/21/2023 30 30
a. Phương pháp mã hóa Shannon-Fano (tt):
Lời giải (tt):
▪ Kết quả giải mã: u1: 00 u4: 110
u2: 01 u5: 1110
u3: 10 u6: 11110 u7: 11111
▪ Hiệu suất mã hóa:
• Entropy của nguồn:
7
H (U ) = − pi log 2 pi = -[0.34log20.34 + 0.23log20.23 + …..+ 0.01log20.01]
i =1
= 2.38
• Chiều dài trung bình của từ mã:
7
R =  ni pi = (0.34x2) + (0.23x2) + …. + (0.01x5) = 2.45
i =1
• Hiệu suất:
H (U ) 2.38
= = = 0.97
R 2.45
4/21/2023 31 31
4.3.2 Phương pháp mã hóa với từ mã có chiều dài thay đổi (tt)
b. Phương pháp mã hóa Huffman:
❖ Các bước thực hiện:
▪ Liệt kê các ký hiệu theo thứ tự xác suất giảm dần
▪ Hai ký hiệu cuối có xác suất bé nhất được hợp thành ký hiệu mới có xác
suất mới bằng tổng hai xác suất.
▪ Các ký hiệu còn lại cùng với ký hiệu mới lại được liệt kê theo thứ tự xác
suất giảm dần.
▪ Quá trình cứ tiếp tục cho đến khi hợp thành một ký hiệu mới có xác suất
xuất hiện bằng 1.
❖ Ví dụ: Nguồn DMS có 7 ký hiệu với xác suất xuất hiện như sau:
ui u1 u2 u3 u4 u5 u6 u7
pi 0.34 0.23 0.19 0.1 0.07 0.06 0.01
Hãy thực hiện quá trình mã hóa Huffman và tính hiệu suất mã hóa?

4/21/2023 32 32
a. Phương pháp mã hóa Huffman:
Lời giải:
Quá trình được thực hiện như sau:

4/21/2023 33 33
a. Phương pháp mã hóa Huffman (tt):
Lời giải (tt):
▪ Kết quả giải mã:
ui u1 u2 u3 u4 u5 u6 u7
Töø maõ 00 10 11 011 0100 01010 01011

▪ Hiệu suất mã hóa:


• Entropy của nguồn:
7
H (U ) = − pi log 2 pi = - [0.34log20.34 + 0.23log20.23 + …..+ 0.01log20.01]
i =1
= 2.38
• Chiều dài trung bình của từ mã:
7
R =  ni pi = (0.34x2) + (0.23x2) + …. + (0.01x5) = 2.45
i =1
• Hiệu suất:
H (U ) 2.38
= = = 0.97
R 2.45
4/21/2023 34 34
4.3.3 Phương pháp mã hóa LZW ( Lempel-Ziv-Welch ):
▪ Phương pháp này độc lập với đặc tính thống kê của nguồn
▪ Quá trình thực hiện:
Ví dụ: Nguồn DMS phát ra chuỗi dữ liệu nhị phân như sau:
10101101001001110101000011001110101100011011
Hãy thực hiện quá trình mã hóa LZW?
Lời giải:
➢ Chia dữ liệu ngõ vào thành các cụm:
1 0 10 11 01 00 100 111 010 1000 011 001 110 101 10001 1011
→ Có 16 cụm→ dùng 4 bit để biểu diễn vị trí trong từ điển.
➢ Lập bảng mã hóa như hình sau:
• Cột vị trí: điền giá trị nhị phân 4 bit tăng dần, loại trừ 0000.
• Cột nội dung: điền vào giá trị các cụm, mỗi cụm trên một hàng.

4/21/2023 35 35
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø ñieån Töø maõ
1 0001 1 0000 Giá trị
2 0010 0 0000 khởi động
3 0011 10
4 0100 11
5 0101 01
6 0110 00
7 0111 100
8 1000 111
9 1001 010
10 1010 1000
11 1011 011
12 1100 001
13 110 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 36 36
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0
3 0011 10
4 0100 11
5 0101 01
6 0110 00
7 0111 100
8 1000 111
9 1001 010
10 1010 1000
11 1011 011
12 1100 001
13 1101 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 37 37
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0 00000
3 0011 10
4 0100 11
5 0101 01
6 0110 00
7 0111 100
8 1000 111
9 1001 010
10 1010 1000
11 1011 011
12 1100 001
13 1101 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 38 38
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0 00000
3 0011 10 00010
4 0100 11
5 0101 01
6 0110 00
7 0111 100
8 1000 111
9 1001 010
10 1010 1000
11 1011 011
12 1100 001
13 1101 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 39 39
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0 00000
3 0011 10 00010
4 0100 11 00011
5 0101 01
6 0110 00
7 0111 100
8 1000 111
9 1001 010
10 1010 1000
11 1011 011
12 1100 001
13 1101 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 40 40
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0 00000
3 0011 10 00010
4 0100 11 00011
5 0101 01 00101
6 0110 00 00100
7 0111 100 00110
8 1000 111 01001
9 1001 010 01010
10 1010 1000 01110
11 1011 011 01011
12 1100 001
13 1101 110
14 1110 101
15 1111 10001
16 1011

4/21/2023 41 41
4.3.3 Phương pháp mã hóa LZW:
Thöù töï Vò trí trong töø ñieån Noäi dung töø Töø maõ
ñieån
1 0001 1 00001
2 0010 0 00000
3 0011 10 00010
4 0100 11 00011
5 0101 01 00101
6 0110 00 00100
7 0111 100 00110
8 1000 111 01001
9 1001 010 01010
10 1010 1000 01110
11 1011 011 01011
12 1100 001 01101
13 1101 110 01000
14 1110 101 00111
15 1111 10001 10101
16 1011 11101

4/21/2023 42 42
4.4 Các phương pháp mã hóa nguồn tương tự:
4.4.1 Phương pháp mã hóa miền thời gian:
▪ Phương pháp mã hóa PCM
▪ Phương pháp mã hóa PCM vi sai (DPCM)
▪ Phương pháp mã hóa PCM vi sai thích nghi (ADPCM)
▪ Phương pháp mã hóa delta DM
(SV xem lại nội dung này trong môn học Hệ thống viễn thông 1)
4.4.2 Phương pháp mã hóa miền tần số:
❖ Phương pháp mã hóa băng con SBC (Sub- Band Coding)
➢ Tín hiệu được lọc vào một số dải tần con dùng giàn lọc, hay FFT,…
➢ Tín hiệu trong mỗi dải con sẽ được mã hóa một cách độc lập.
➢ Sau đó dữ liệu ở tất cả các băng con sẽ được đóng gói lại.
➢ Dùng trong mã hóa thoại, mã hóa audio (ví dụ định dạng nén MP3), vv…

4/21/2023 43 43
4.4.3 Phương pháp mã hóa dựa trên mô hình nguồn:
▪ Nguồn tin được mô hình gồm bộ lọc tuyến tính với kích thích phù hợp.
▪ Các tham số của bộ lọc và hàm kích thích được mã hóa để truyền đi, thay vì
phải truyền các mẫu dữ liệu đã mã hóa như các phương pháp khác.
▪ Chất lượng mã hóa không cao nhưng điểm đặc biệt là số bit truyền đi ít → tỉ lệ
nén rất cao.
▪ Các bộ mã hóa thoại (vocoder- voice coder) thông dụng: LPC, CELP,vv…
▪ Dùng trong mã hóa thoại ở các hệ thống thông tin di động GSM, CDMA.
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (Linear Predictive Coding)
➢ Kỹ thuật phân tích/ tổng hợp tiếng nói dựa trên mô hình cơ quan phát âm
của con người. Phía phát phân tích tín hiệu tiếng nói → thu được các tham
số → truyền các tham số → phía thu sử dụng các tham số và dựa trên mô
hình để tổng hợp tiếng nói.
➢ Ở phương pháp LPC, mỗi giá trị sẽ được ước lượng từ một hàm tuyến
tính của các giá trị trước đó.

4/21/2023 44 44
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Mô hình tạo tín hiệu tiếng nói:

4/21/2023 45 45
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Phân loại âm:
▪ Âm hữu thanh (voiced sound): nguyên âm, năng lượng lớn → xem như
chuỗi xung tuần hoàn.
▪ Âm vô thanh (unvoiced sound): phụ âm, năng lượng thấp và tần số cao
→ xem như chuỗi ngẫu nhiên.

4/21/2023 46 46
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Sơ đồ khối bộ mã hóa và giải mã LPC:
▪ Mã hóa:
Tín hiệu Xác định âm
Lấy mẫu {ap(k)}
thoại hữu thanh hay
Mã hóa
fs =8000 mẫu/s vô thanh và Pitch
kích thích
Kích thích
▪ Giải mã:
Pitch
Bộ tạo Bộ lọc IIR
Kích thích tín hiệu
Giải mã H(z)
{ap(k)}

G
H ( z) = p
Tín hiệu Lọc thông
1 +  a p (k ) z − k thoại
k =1 thấp

4/21/2023 47 47
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Quá trình mã hóa:
▪ Lấy mẫu:
• Tín hiệu tiếng nói được lấy mẫu ở tốc độ fs = 8000 mẫu/s.
• Sau đó được chia thành các segment: (180 mẫu, 22.5 ms)
▪ Xác định âm hữu thanh hay vô thanh:
• Căn cứ vào biên độ (năng lượng) hay tần số tín hiệu trong segment
• Dùng 1 bit để báo cho bộ giải mã biết.
▪ Ước lượng tần số pitch
• Dựa vào hàm tự tương quan
• Giá trị pitch được lượng tử hóa và mã hóa dùng 6 bit
▪ Xác định các thông số của bộ lọc
• Các hệ số của bộ lọc G, {ap(k)}.

4/21/2023 48 48
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Truyền các tham số:
▪ Với mã hóa PCM, tốc độ tín hiệu thoại: 64 kbps
▪ Với mã hóa LPC, tổng số bit trong mỗi segment là 54 bit. Tốc độ tín hiệu
2.4 kbps.

4/21/2023 49 49
❑ Phương pháp mã hóa dự đoán tuyến tính LPC (tt)
❖ Quá trình giải mã:
▪ Xác định tín hiệu kích thích và tần số pitch:
• Khi segment là âm vô thanh: tạo nguồn kích thích là nhiễu trắng
• Khi segment là âm hữu thanh: tạo nguồn là chuỗi xung tuần hoàn
▪ Xác định các hệ số G và {ap(k)} cho từng segment.
▪ Cho tín hiệu kích thích qua bộ lọc → tạo ra tín hiệu thoại.
▪ Mỗi segment được giải mã độc lập, sau đó được kết hợp lại với nhau.

4/21/2023 50 50

You might also like