Professional Documents
Culture Documents
Cơ sở lý thuyết truyền tin
Cơ sở lý thuyết truyền tin
Trả lời:
- Thông tin: là những tính chất xác định của vật chất mà con
người ( hoặc hệ thống kĩ thuật ) nhận được từ thế giới vật chất
bên ngoài hoặc từ những quá trình xảy ra trong bản thân nó
- Tin : là dạng vật chất cụ thể để biểu diễn hoặc thể hiện thông tin.
Có 2 dạng tin: tin rời rạc và tin liên tục VD : bản nhạc, bảng số
liệu, bài viết,…
- Tín hiệu: là các đại lượng vật lí biến thiên, phản ánh tin cần
truyền
Các đại lượng vật lý:
+ Dòng điện
+ Điện áp
+ Ánh sáng…
- Đường truyền tin: là môi trường vật lý trong đó tín hiệu được
truyền từ nơi phát đến nơi nhận.Trên đường truyền có những tác
động làm mất năng lượng, làm mất thông tin của tín hiệu.
■ Câu: Máy phát? Máy thu?
Máy phát:
+ Là thiết bị biến đổi tập tin thành tín hiệu tương ứng để truyền đi.
- Máy thu: + Là thiết bị khôi phục lại tin ban đầu từ tín hiệu nhận được.
- Nguồn rời rạc: là nguồn tạo ra các tin dưới dạng rời rạc (vd: một
tin liên tục cần truyền đi được rời rạc hóa, thì ta có thể truyền đi
các xung có biên độ khác nhau)
- Nguồn thông tin rời rạc: là nguồn tạo ra một chuỗi các biến ngẫu
nhiên rời rạc x1, x2, …, xn
- Độ dư của nguồn: được định nghĩa bởi biểu thức sau:
𝐻(𝐴) max − 𝐻(𝐴)
Dn = =1–𝜇
𝐻(𝐴)𝑚𝑎𝑥
𝐻(𝐴)
+ Trong đó: 𝜇 = gọi là hệ số nén tin
𝐻(𝐴)𝑚𝑎𝑥
Với nguồn rời rạc gồm s tin : H(A)max = logs và Dn =
𝐻(𝐴)
1-
𝑙𝑜𝑔𝑠
- Khả năng phát của nguồn rời rạc được định nghĩa bởi biểu thức
sau:
1
H’(A) = Vn.H(A) = 𝐻 (𝐴) (𝑏𝑖𝑡⁄𝑠𝑒𝑐 , 𝑏𝑝𝑠)
𝑇𝑛
+ Biểu thị lượng thông tin trung bình mà nguồn phát ra được
trong một đơn vị thời gian
Câu 5: Các định nghĩa về kênh rời rạc? Lượng thông tin trung bình
truyền qua kênh rời rạc
Trả lời:
- Kênh tin: là môi trường truyền tín hiệu từ nguồn tới đích
- Kênh rời rạc/liên tục: kênh được gọi là rời rạc nếu không gian
tín hiệu vào và không gian tín hiệu ra là rời rạc/liên tục
- Nếu sự truyền tin trong kênh là liên tục theo thời gian thì kênh
dgl liên tục theo thời gian. Nếu sự truyền tin chỉ thực hiện ở thời
điểm rời rạc theo thời gian thì kênh dgl rời rạc theo thời gian
- Nếu sự chuyển đổi ký hiệu vào là x thành ký hiệu ra là y không
phụ thuộc vào các chuyển đổi trước đó thì kênh dgl không nhớ.
Nếu sự chuyển đổi đó phụ thuộc vào chọn gốc thời gian thì
kênh đgl dừng
- Lượng thông tin trung bình truyền qua kênh rời rạc trong một
đơn vị thời gian:
1
𝐼′ (𝐴𝐵) = 𝐼 (𝐴𝐵) = 𝑉𝑘 . 𝐼(𝐴𝐵) (2.22)
𝑇𝑘
+ Kênh nén tin: 𝑻𝒌 < 𝑻𝒏
+ Kênh giãn tin: 𝑻𝒌 > 𝑻𝒏
Câu 6: Những chỉ tiêu chất lượng cơ bản của hệ thống truyền tin?
Trả lời:
- Tính hữu hiệu: thể hiện trên các mặt sau:
+ Tốc độ truyền tin cao
+ Truyền được đồng thời nhiều tin khác nhau
+ Chi phí cho một bit thông tin thấp
- Độ tin cậy:
+ Đảm bảo độ chính xác của việc thu nhận tin cao, xác suất thu
sai (BER) thấp
- Tính an toàn:
Bí mật:
Không thể khai thác thông tin trái phép
Chỉ có người nhận mới hiểu được thông tin
Xác thực: gắn trách nhiệm của bên gửi-bên nhận với bản
tin(chữa ký số)
Toàn vẹn:
Thông tin không bị bóp méo (cắt xén, xuyên tạc, sửa
đổi)
Thông tin dược nhận phải nguyên vẹn kể cả nội dung
và hình thức
Khả dụng: mọi tài nguyên và dịch vụ của hệ thống phải
được cung cấp đầy đủ cho người dùng hợp pháp
- Đảm bảo chất lượng dịch vụ (QoS): đây là một chỉ tiêu rất quan
trọng đặc biệt với các dịch vụ thời gian thực nhạy cảm với độ trễ
(truyền tiếng nói, hình ảnh)
Câu 7: Mối quan hệ giữa khoảng cách cực tiểu và sửa sai mã?
Trả lời:
- Định nghĩa: khoảng cách nhỏ nhất giữa hai từ mã bất kỳ của bộ
mã gọi là khoảng cách cực tiểu
do = mind(∝𝑛𝑖 , ∝𝑗𝑛 ); ∀𝑖 ≠ 𝑗, 𝑖 = 1 ÷ 𝑠, 𝑗 = 1 ÷ 𝑠
- Khả năng sửa sai của bộ mã có độ dư được đánh giá thông qua
các định lý sau:
Định lý 1: Một bộ mã đều nhị phân, có thể phát hiện được
tất cả các trường hợp sai có bội W(𝑒⃗) <=𝜎 nếu thỏa mãn:
do>=𝜎 + 1
Định lý 2: Điều kiện cần và đủ để một bộ mã đều nhị
phân, có thể phát hiện được tất cả các trường hợp sai có
bội W(𝑒⃗) <= t, nếu thỏa mãn: do>=2t +1
Định lý 3: Điều kiện cần và đủ để một bộ mã nhị phân, có
thể phát hiện được tất cả các trường hợp sai có bội 𝜎 và có
thể sửa được tất cả các trường hợp sai có bội t (t<=𝜎), nếu
thỏa mãn : do>= t+ 𝜎 + 1
Câu 8: Cơ chế phát hiện và sửa sai của bộ mã?
Trả lời:
- Giả sử bộ mã dung có độ dài từ mã là n:
+ Số tổ hợp mã nhị phân n dấu có thể có là: No = 2𝑚
+ Để truyền các tin của nguồn ta chỉ cần: N = 2𝑘 từ mã dung (từ
mã dung để mã hóa cho các tin của nguồn)
+ Số tổ hợp mã còn lại No – N = 2𝑛 − 2𝑘 : gọi là số tổ hợp mã
cấm
+ Do có nhiễu tác động, một từ mã dung có thể chuyển thành N
= 2𝑘 từ mã có thể có (xét cả trường hợp véc-tơ sai 𝑒⃗ = ⃗0⃗) . Như
vậy, số trường hợp chuyển có thể có khi truyền N tổ hợp mã là:
N.No
+ Trong đó:
N = 2^k trường hợp chuyển đúng
2^k(2^k) trường hợp chuyển thành các tổ hợp mã
dung khác (không phát hiện được sai)
+ Số trường hợp chuyển sai có thể phát hiện được:
2^k.2^n – [2^k + 2^k(2^k – 1)] = 2^k(2^n – 2^k) = N(No
– N)
+ Tỷ số giữa số trường hợp chuyển sai có thể phát hiện được và
số trường hợp chuyển có thể có:
2^k(2^n – 2^k)/2^k.2^n = 1 – 2^k/2^n = 1 – N/No
+ Tỷ số giữa số trường hợp chuyển sai có thể sửa được và số
trường hợp sai có thể có:
𝑁−𝑁𝑜 1
=
𝑁(𝑁−𝑁𝑜) 𝑁
+ Tỷ số này không phụ thuộc vào các phương pháp nhân hoạch
- các phương pháp mã hóa và giải mã. Nghĩa là ta có thể sửa được
một số sai nào đó bởi những cách phân hoạch nào đó. Đó là ý nghĩa
của việc đi tìm những bộ mã khác nhau, cấu trúc của nó phụ thuộc
vào tính chất thống kê của kênh (dựa vào xác suất phân bố sai nhầm
trong kênh)
Câu 9: Cơ sở lý thuyết phổ của quá trình ngẫu nhiên và biểu diễn
hình học cho thể hiện của tín hiệu ngẫu nhiên?(Slide thầy cho)
Câu 10: Trình bày các khái niệm về H1(A), H2(A), Hn(A), H(A/B),
C’?
Trả lời:
- H1(A) (entropy của nguồn tin rời rạc) là: trung bình thống kê
của lượng thông tin riêng, chứa trong các tin của nguồn rời rạc
H1(A) = -𝑀{𝐼 (𝑎𝑖) = − ∑𝑠𝑖=1 𝑝(𝑎𝑖)𝑙𝑜𝑔𝑝(𝑎𝑖)
- H2(A) là: entropy hai chiều của nguồn rời rạc – đặc trưng cho
lượng thông tin ( độ bất đinh ) của nguồn khi kể đến sự phụ
thuộc giữa một bộ 2 tin
- Hn(A) là: entropy n chiều của nguồn rời rạc – đặc trưng cho
lượng thông tin (độ bất định) của nguồn, khi kể đến sự phụ
thuộc giữa một bộ gồm n tin
Hn(A) = H(A/AA…A)