You are on page 1of 8

Câu 1: Nêu khái niệm thông tin, tin, tín hiệu, đường truyền tin,

Trả lời:
- Thông tin: là những tính chất xác định của vật chất mà con
người ( hoặc hệ thống kĩ thuật ) nhận được từ thế giới vật chất
bên ngoài hoặc từ những quá trình xảy ra trong bản thân nó
- Tin : là dạng vật chất cụ thể để biểu diễn hoặc thể hiện thông tin.
Có 2 dạng tin: tin rời rạc và tin liên tục VD : bản nhạc, bảng số
liệu, bài viết,…
- Tín hiệu: là các đại lượng vật lí biến thiên, phản ánh tin cần
truyền
Các đại lượng vật lý:
+ Dòng điện
+ Điện áp
+ Ánh sáng…

- Đường truyền tin: là môi trường vật lý trong đó tín hiệu được
truyền từ nơi phát đến nơi nhận.Trên đường truyền có những tác
động làm mất năng lượng, làm mất thông tin của tín hiệu.
■ Câu: Máy phát? Máy thu?
Máy phát:

+ Là thiết bị biến đổi tập tin thành tín hiệu tương ứng để truyền đi.

+Yêu cầu của phép biến đổi:

+ Thành phần chính: Khối điều chế

- Máy thu: + Là thiết bị khôi phục lại tin ban đầu từ tín hiệu nhận được.

+ Thành phần chính: Khối giải điều chế

Câu 2: Nêu định nghĩa và phân loại nhiễu?


Trả lời:
- Nhiễu: là mọi yếu tố ngẫu nhiên có ảnh hưởng xấu ảnh hưởng
đến việc thu tin. Những yếu tố này tác động xấu đến tin truyền
đi từ bên phát đến bên thu
- Phân loại: theo những dấu hiệu sau:
1. Theo bề rộng phổ của nhiễu:
 Nhiễu giải rộng (phổ rộng như của ánh sáng trắng
gọi là tạp âm trắng)
 Nhiễu giải hẹp ( gọi là tạp âm màu)
2. Theo quy luật biến thiên thời gian của nhiễu: nhiễu rời rạc,
nhiễu liên tục
3. Theo phương thức mà nhiễu tác động lên tín hiệu: nhiễu
cộng, nhiễu nhân, nhiễu hỗn hợp
4. Theo cách bức xạ của nhiễu:
 Nhiễu thụ động: là các tia phản xạ từ các mục tiêu
giả hoặc từ các địa vật trở về đài ta xét khi các tia
sóng của nó đập vào chúng
 Nhiễu tích cực: do một nguồn bức xạ năng lượng (
các đài or các hệ thống lân cận) or máy phát nhiễu
của đối phương chĩa vào hệ thống đang xét
5. Theo nguồn gốc phát sinh: nhiễu công nghiệp, nhiễu khí
quyển, nhiễu vũ trụ…
Câu 3: Nêu định nghĩa nguồn tin, mã hóa, mã hiệu?
Trả lời:
- Nguồn tin: là nơi sản sinh ra tin
+ Nếu tập tin là hữu hạn thì nguồn sinh ra nó gọi là nguồi rời rạc
+ Nếu tập tin vô hạn thì nguồn sinh ra nó gọi là nguồi liên tục
- Mã hóa: là một phép biểu diễn s tin khác nhau, của một nguồn
rời rạc nào đó. Trong một bộ ký hiệu xác định nào đí, chứa m ký
hiệu khác nhau. Nhằm mục đích tăng tính hữu hiệu và độ tin cậy
của hệ thống truyền tin
+ m – cơ số của bộ mã
+ m < s : mỗi tin của nguồn được đặt tương ứng với một dãy (
tổ hợp) gồm n ký hiệu của bộ ký hiệu. Dãy này đgl từ mã
+ ni: độ dài của từ mã
- Mã hiệu(code): là sản phẩm của phép mã hóa, là tập các từ mã
được lập ra theo một luật đã được định trước. Tập các từ mã này
tạo nên một không gian V (V = {∝𝑛𝑖𝑖 , 𝑖 = 1 ÷ 𝑠}

Câu 4: Nêu định nghĩa khoảng cách mã/tốc độ phát/độ dư mã/khả


năng phát tin của nguồn rời rạc?
Trả lời:
Khoảng cách mã: khoảng cách giữa hai từ mã bất kỳ của một bộ mã đều là số những vị trí
(thành phần) của chúng tính theo cùng một thứ tự mà tại đó chúng có các dấu khác nhau

d(∝𝑛𝑖 ,∝𝑗𝑛 )- khoảng cách giữa hai từ mã: ∝𝑛𝑖 ∝𝑗𝑛


- Tốc độ phát của nguồn rời rạc: nếu gọi Tn là độ rộng trung bình
của mỗi xung thì tốc độ phát của nguồn tin rời rạc được xác định
như sau:
1
𝜗𝑛 = – số xung trong một đơn vị thời gian
𝑇𝑛
+ Thứ nguyên [𝜗𝑛 ] = bốt = số dấu (xung)/sec

- Nguồn rời rạc: là nguồn tạo ra các tin dưới dạng rời rạc (vd: một
tin liên tục cần truyền đi được rời rạc hóa, thì ta có thể truyền đi
các xung có biên độ khác nhau)
- Nguồn thông tin rời rạc: là nguồn tạo ra một chuỗi các biến ngẫu
nhiên rời rạc x1, x2, …, xn
- Độ dư của nguồn: được định nghĩa bởi biểu thức sau:
𝐻(𝐴) max − 𝐻(𝐴)
Dn = =1–𝜇
𝐻(𝐴)𝑚𝑎𝑥
𝐻(𝐴)
+ Trong đó: 𝜇 = gọi là hệ số nén tin
𝐻(𝐴)𝑚𝑎𝑥
Với nguồn rời rạc gồm s tin : H(A)max = logs và Dn =
𝐻(𝐴)
1-
𝑙𝑜𝑔𝑠
- Khả năng phát của nguồn rời rạc được định nghĩa bởi biểu thức
sau:
1
H’(A) = Vn.H(A) = 𝐻 (𝐴) (𝑏𝑖𝑡⁄𝑠𝑒𝑐 , 𝑏𝑝𝑠)
𝑇𝑛
+ Biểu thị lượng thông tin trung bình mà nguồn phát ra được
trong một đơn vị thời gian
Câu 5: Các định nghĩa về kênh rời rạc? Lượng thông tin trung bình
truyền qua kênh rời rạc
Trả lời:
- Kênh tin: là môi trường truyền tín hiệu từ nguồn tới đích
- Kênh rời rạc/liên tục: kênh được gọi là rời rạc nếu không gian
tín hiệu vào và không gian tín hiệu ra là rời rạc/liên tục
- Nếu sự truyền tin trong kênh là liên tục theo thời gian thì kênh
dgl liên tục theo thời gian. Nếu sự truyền tin chỉ thực hiện ở thời
điểm rời rạc theo thời gian thì kênh dgl rời rạc theo thời gian
- Nếu sự chuyển đổi ký hiệu vào là x thành ký hiệu ra là y không
phụ thuộc vào các chuyển đổi trước đó thì kênh dgl không nhớ.
Nếu sự chuyển đổi đó phụ thuộc vào chọn gốc thời gian thì
kênh đgl dừng
- Lượng thông tin trung bình truyền qua kênh rời rạc trong một
đơn vị thời gian:
1
𝐼′ (𝐴𝐵) = 𝐼 (𝐴𝐵) = 𝑉𝑘 . 𝐼(𝐴𝐵) (2.22)
𝑇𝑘
+ Kênh nén tin: 𝑻𝒌 < 𝑻𝒏
+ Kênh giãn tin: 𝑻𝒌 > 𝑻𝒏

Câu 6: Những chỉ tiêu chất lượng cơ bản của hệ thống truyền tin?
Trả lời:
- Tính hữu hiệu: thể hiện trên các mặt sau:
+ Tốc độ truyền tin cao
+ Truyền được đồng thời nhiều tin khác nhau
+ Chi phí cho một bit thông tin thấp
- Độ tin cậy:
+ Đảm bảo độ chính xác của việc thu nhận tin cao, xác suất thu
sai (BER) thấp
- Tính an toàn:
 Bí mật:
 Không thể khai thác thông tin trái phép
 Chỉ có người nhận mới hiểu được thông tin
 Xác thực: gắn trách nhiệm của bên gửi-bên nhận với bản
tin(chữa ký số)
 Toàn vẹn:
 Thông tin không bị bóp méo (cắt xén, xuyên tạc, sửa
đổi)
 Thông tin dược nhận phải nguyên vẹn kể cả nội dung
và hình thức
 Khả dụng: mọi tài nguyên và dịch vụ của hệ thống phải
được cung cấp đầy đủ cho người dùng hợp pháp
- Đảm bảo chất lượng dịch vụ (QoS): đây là một chỉ tiêu rất quan
trọng đặc biệt với các dịch vụ thời gian thực nhạy cảm với độ trễ
(truyền tiếng nói, hình ảnh)
Câu 7: Mối quan hệ giữa khoảng cách cực tiểu và sửa sai mã?
Trả lời:
- Định nghĩa: khoảng cách nhỏ nhất giữa hai từ mã bất kỳ của bộ
mã gọi là khoảng cách cực tiểu
do = mind(∝𝑛𝑖 , ∝𝑗𝑛 ); ∀𝑖 ≠ 𝑗, 𝑖 = 1 ÷ 𝑠, 𝑗 = 1 ÷ 𝑠
- Khả năng sửa sai của bộ mã có độ dư được đánh giá thông qua
các định lý sau:
 Định lý 1: Một bộ mã đều nhị phân, có thể phát hiện được
tất cả các trường hợp sai có bội W(𝑒⃗) <=𝜎 nếu thỏa mãn:
do>=𝜎 + 1
 Định lý 2: Điều kiện cần và đủ để một bộ mã đều nhị
phân, có thể phát hiện được tất cả các trường hợp sai có
bội W(𝑒⃗) <= t, nếu thỏa mãn: do>=2t +1
 Định lý 3: Điều kiện cần và đủ để một bộ mã nhị phân, có
thể phát hiện được tất cả các trường hợp sai có bội 𝜎 và có
thể sửa được tất cả các trường hợp sai có bội t (t<=𝜎), nếu
thỏa mãn : do>= t+ 𝜎 + 1
Câu 8: Cơ chế phát hiện và sửa sai của bộ mã?
Trả lời:
- Giả sử bộ mã dung có độ dài từ mã là n:
+ Số tổ hợp mã nhị phân n dấu có thể có là: No = 2𝑚
+ Để truyền các tin của nguồn ta chỉ cần: N = 2𝑘 từ mã dung (từ
mã dung để mã hóa cho các tin của nguồn)
+ Số tổ hợp mã còn lại No – N = 2𝑛 − 2𝑘 : gọi là số tổ hợp mã
cấm
+ Do có nhiễu tác động, một từ mã dung có thể chuyển thành N
= 2𝑘 từ mã có thể có (xét cả trường hợp véc-tơ sai 𝑒⃗ = ⃗0⃗) . Như
vậy, số trường hợp chuyển có thể có khi truyền N tổ hợp mã là:
N.No
+ Trong đó:
 N = 2^k trường hợp chuyển đúng
 2^k(2^k) trường hợp chuyển thành các tổ hợp mã
dung khác (không phát hiện được sai)
+ Số trường hợp chuyển sai có thể phát hiện được:
2^k.2^n – [2^k + 2^k(2^k – 1)] = 2^k(2^n – 2^k) = N(No
– N)
+ Tỷ số giữa số trường hợp chuyển sai có thể phát hiện được và
số trường hợp chuyển có thể có:
2^k(2^n – 2^k)/2^k.2^n = 1 – 2^k/2^n = 1 – N/No
+ Tỷ số giữa số trường hợp chuyển sai có thể sửa được và số
trường hợp sai có thể có:
𝑁−𝑁𝑜 1
=
𝑁(𝑁−𝑁𝑜) 𝑁

+ Tỷ số này không phụ thuộc vào các phương pháp nhân hoạch
- các phương pháp mã hóa và giải mã. Nghĩa là ta có thể sửa được
một số sai nào đó bởi những cách phân hoạch nào đó. Đó là ý nghĩa
của việc đi tìm những bộ mã khác nhau, cấu trúc của nó phụ thuộc
vào tính chất thống kê của kênh (dựa vào xác suất phân bố sai nhầm
trong kênh)

Câu 9: Cơ sở lý thuyết phổ của quá trình ngẫu nhiên và biểu diễn
hình học cho thể hiện của tín hiệu ngẫu nhiên?(Slide thầy cho)
Câu 10: Trình bày các khái niệm về H1(A), H2(A), Hn(A), H(A/B),
C’?
Trả lời:
- H1(A) (entropy của nguồn tin rời rạc) là: trung bình thống kê
của lượng thông tin riêng, chứa trong các tin của nguồn rời rạc
H1(A) = -𝑀{𝐼 (𝑎𝑖) = − ∑𝑠𝑖=1 𝑝(𝑎𝑖)𝑙𝑜𝑔𝑝(𝑎𝑖)
- H2(A) là: entropy hai chiều của nguồn rời rạc – đặc trưng cho
lượng thông tin ( độ bất đinh ) của nguồn khi kể đến sự phụ
thuộc giữa một bộ 2 tin
- Hn(A) là: entropy n chiều của nguồn rời rạc – đặc trưng cho
lượng thông tin (độ bất định) của nguồn, khi kể đến sự phụ
thuộc giữa một bộ gồm n tin
Hn(A) = H(A/AA…A)

=− ∑𝑠𝑖=1 ∑𝑠𝑗=1 … ∑𝑠𝑘=1 𝑝(𝑎𝑖𝑎𝑗 … 𝑎𝑘)𝑙𝑜𝑔𝑝(𝑎𝑖 ⁄𝑎𝑗 … 𝑎𝑘 )


- H(A/B) là lượng thông tin tổn hao trung bình của mỗi tin ở đầu
phát khi đầu thu đã thu được một dấu nào đó
H(A/B) = - ∑𝑠𝑖=1 ∑𝑡𝑗=1 𝑝(𝑎𝑖𝑏𝑗)𝑙𝑜𝑔𝑝( 𝑎𝑖 ⁄𝑏𝑗)
- H(B/A) là lượng thông tin riêng trung bình chứa trong mỗi tin ở
đầu thu khi đầu phát đã phát đi một tin nào đó
H(B/A) = - ∑𝑡𝑗=1 ∑𝑠𝑖=1 𝑝(𝑏𝑗⁄𝑎𝑖)log 𝑝(𝑏𝑗⁄𝑎𝑖)
- I(AB) là lượng thông tin tương hỗ
I(A,B) = H(A) – H(A/B) = H(B) – H(B/A)
= H(A) + H(B) – H(A.B)
- C’ là khả năng thông qua ( thông lượng) của kênh rời rạc – là
giá trị cực đại của lượng thông tin trung bình truyền qua kênh
rời rạc trong một đơn vị thời gian, lấy theo mọi phân bố xác suất
có thể có của nguồn tin
C’ = max 𝐼′ (𝐴𝐵) = 𝑉𝑘. max 𝐼(𝐴𝐵)
𝐴 𝐴
+Đặt C = max 𝐼 (𝐴𝐵) – khả năng thông qua của kênh
𝐴
đối với một dấu (một lý hiệu)
 C’ = Vk.C (bit/sec)
Câu:

You might also like