You are on page 1of 77

BỘ CÂU HỎI ÔN TẬP MÔN DATA MINING

Câu 1: Data Mining được định nghĩa là gì ?


a. Là một quy trình tìm kiếm, phát hiện các tri thức mới, tiềm ẩn, hữu dụng trong cơ sở
dữ liệu lớn
b. Khai phá dữ liệu
c. Khai khoáng dữ liệu
d. Tìm kiếm thông tin trên Internet

Câu 2: Thuật ngữ Data Mining dịch ra tiếng Việt có nghĩa là:
a. Khai phá dữ liệu hoặc Khai thác dữ liệu
b. Khai phá luật kết hợp
c. Khai phá tập mục thường xuyên
d. Khai phá tri thức từ dữ liệu lớn

Câu 3: Thuật ngữ Knowledge Discovery from Databases – KDD có nghĩa là:
a. Trích chọn các mẫu hoặc tri thức hấp dẫn (không tầm thường, ẩn, chưa biết và hữu
dụng tiềm năng) từ tập dữ liệu lớn
b. Khai phá dữ liệu
c. Khai thác dữ liệu
d. Tìm kiếm dữ liệu

Câu 4: Phát biểu nào sau đây là đúng ?


a. Data Mining là một bước trong quá trình khai phá tri thức-KDD
b. Thuật ngữ Data Mining đồng nghĩa với thuật ngữ Knowledge Discovery from
Databases
c. Data Mining là quá trình tìm kiếm thông tin có ích trên Internet
d. Tiền xử lí dữ liệu là qua trình tìm kiếm thông tin có ích từ cơ sở dữ liệu lớn

Câu 5: Hiện nay, Data Mining đã được ứng dụng trong:


a. Hệ quản trị CSDL SQL Server
b. Hệ quản trị CSDL Access
c. Hệ quản trị CSDL Foxpro
d. Microsoft Word 2010

Câu 6: Thuật ngữ Tiền xử lí dữ liệu bằng tiếng Anh là:


a. Data Preprocessing
Khoa CNTT – Data Mining 1
b. Data Processing
c. Preprocessing in Database
d. Data Process

Câu 7: Cho CSDL Giao tác như hình vẽ,

Số lượng giao dịch trong cơ sở dữ liệu là:


a. 5
b. 16
c. 6
d. 10

Câu 8: Cho CSDL giao dịch như hình vẽ,

Độ hỗ trợ của tập mục X={A, M} là:


a. 3 (60%)
b. 4 (80%)
c. 5 (100%)
d. 2 (40%)

Câu 9: Thuật toán Apriori có nhược điểm chính là:


a. Tốn nhiều bộ nhớ và thời gian. Không thích hợp với các mẫu lớn. Chi phí để duyệt
CSDL nhiều.
b. Không tìm được các tập thường xuyên
c. Kết quả của thuật toán không ứng dụng được trong các bài toán thực tế
d. Thuật toán quá phức tạp, khó hiểu

Khoa CNTT – Data Mining 2


Câu 10: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên thỏa Min_support:


a. {A,C}
b. {D}
c. {A,D}
d. {B, C, D}

Câu 11: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào không là tập mục thường xuyên:


a. {A,C,D}
b. {A,E}
c. {A, C}
d. {B,E}

Câu 12: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào không là tập mục thường xuyên:


a. {D}
b. {A,E}
c. {A, C}
d. {B,E}

Câu 13: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Khoa CNTT – Data Mining 3


Sử dụng thuật toán Apriori, sau lần duyệt thứ nhất, tập mục chứa 1-item bị loại bỏ là:
a. {D}
b. {A}
c. {B}
d. {A}, {D}

Câu 14: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào không là tập mục thường xuyên:


a. {B, D}
b. {A, E}
c. {A, C}
d. {B, E}

Câu 15: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên với độ hỗ trợ là 75%:


a. {B,E}
b. {A,E}
c. {A, C}
d. {B,C}

Câu 16: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Khoa CNTT – Data Mining 4


Tập nào là tập mục thường xuyên với độ hỗ trợ là = 70%
a. Không có tập nào
b. {A, E}
c. {A, C, D}
d. {B, C, D}

Câu 17: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào thỏa mãn các điều kiện đã cho:
a. A-->C
b. A-->D
c. A--> E
d. AB-->C

Câu 18: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào thỏa mãn các điều kiện đã cho:
a. B-->E
b. A-->D
c. A--> E
d. AB-->C

Khoa CNTT – Data Mining 5


Câu 19: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào thỏa mãn các điều kiện đã cho:
a. A-->C
b. A-->D
c. A--> E
d. AB-->C

Câu 20: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào có độ tin cậy = 100%


a. A-->C
b. A-->D
c. AD--> E
d. AB-->C

Câu 21: Cho tập mục thường xuyên X={A, B}, từ tập X có thể sinh ra các luật kết hợp
sau:
a. A--> B, B--> A, không tính luật AB --> và --> AB
b. A-->B, B--> A, A--> và --> B
c. A--> B
d. B--> A

Câu 22: Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút m

Khoa CNTT – Data Mining 6


a. 2 đường đi
b. 1 đường đi
c. 3 đường đi
d. 4 đường đi

Câu 23: Cho FP-Tree như hình vẽ, có mấy đường đi kết thúc ở nút p

a. 2 đường đi
b. 1 đường đi
c. 3 đường đi
d. 4 đường đi

Câu 24: Hai thuật toán FP-Growth và Apriori dùng để:


a. Tìm các tập mục thường xuyên
b. Tìm các luật kết hợp
c. Tìm các tập mục có k - item
d. Thực hiện công việc khác

Câu 25: Phương pháp nào không phải là phương pháp phân lớp:
a. Chia các đối tượng thành từng lớp để giảng dạy
Khoa CNTT – Data Mining 7
b. Phân lớp dựa trên Cây quyết định
c. Phân lớp dựa trên xác suất Bayes
d. Phân lớp dựa trên Mạng Nơron

Câu 26: Cho tập ví dụ học như bảng. Có bao nhiêu thuộc tính để phân lớp ?

a. 4 thuộc tính
b. 3 thuộc tính
c. 5 thuộc tính
d. 6 thuộc tính

Câu 27: Cho tập ví dụ học như bảng. Thuộc tính kết luận Play Ball có bao nhiêu giá trị:

a. 2 giá trị
b. 3 giá trị
c. 5 giá trị
d. 1 giátrị

Câu 28: Cho tập ví dụ học như bảng. Các thuộc tính dùng để phân lớp là:

Khoa CNTT – Data Mining 8


a. Outlook, Temperature, Humidity, Wind
b. Outlook, Temperature, Humidity, Wind, Play Ball
c. Day, Outlook, Temperature, Humidity, Wind
d. Day, Outlook, Temperature, Humidity, Wind, Play Ball

Câu 29: Khi chọn 1 thuộc tính A để làm gốc cây quyết định. Nếu thuộc tính A có 3 giá
trị thì cây quyết định có bao nhiêu nhánh?
a. 3 nhánh
b. 2 nhánh
c. Nhiều nhánh
d. Phải biết kết luận C có bao nhiêu giá trị thì mới phân nhánh được

Câu 30: Sử dụng thuật toán ILA, khi kết luận C có n giá trị thì ta cần chia bảng chứa
các ví dụ học thành mấy bảng con:
a. n bảng con
b. 2 bảng con
c. không phải chia
d. Thành nhiều bảng tùy theo giá trị của n

Câu 31: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA, cần chia bảng ví dụ học
này thành mấy bảng con:

a. 2 bảng
b. 3 bảng
c. không cần chia
d. Tùy theo thuộc tính được chọn

Câu 32: Cho giá trị của A là 3500, Sử dụng phương pháp chuẩn hóa Tỷ lệ Thập phân–
decimal scale, giá trị của A sau khi chuẩn hóa là:
a. 0.35
b. 3.5
c. 0.015
Khoa CNTT – Data Mining 9
d. Giá trị khác

Câu 33: ID3 sử dụng hàm hàm nào để xác định thuộc tính làm gốc phân nhánh trong
quá trình xây dựng cây quyết định:
a. Emtropy và Gain
b. Entropy
c. Gain
d. Gainratio

Câu 34: Đường kính của cụm được định nghĩa là khoảng cách giữa 2 phần tử xa nhau
nhất trong cùng 1 cụm. Cho 1 cụm gồm các phần tử C={x1, x2, x3, x4} với x1(0,0),
x2(1,0), x3(6,0), x4(10, 0)
a. d=10
b. d=4
c. d=6
d. d=1

Câu 35: Cho miền giá trị của A từ -186 đến 917. Sử dụng phương pháp chuẩn hóa Tỷ lệ
Thập phân– decimal scale, miền giá trị của A sau khi chuẩn hóa là: a. - 0.186 đến 0.917

b. 0.0 đến 1.0


c. 0.0 đến 9.17
d. Giá trị khác

Câu 36: Gom cụm (clustering) gì:


a. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là
phân tích cụm là qúa trình chia một tập các đối tượng thực thể hay trừu tượng thành
nhóm các đối tượng sao cho các phần tử trong cùng một nhóm thì có mức độ tương tự
nhau hơn là giữa các phần tử của nhóm này với các phần tử của nhóm khác.
b. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là
phân tích cụm là qúa trình chia một tập các đối tượng thực thể hay trừu tượng thành
nhóm các đối tượng sao cho các phần tử khác nhóm thì có mức độ tương tự nhau hơn là
giữa các phần tử trong cùng một nhóm.
c. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là
phân tích cụm là qúa trình chia một tập các đối tượng thực thể hay trừu tượng thành
nhóm các đối tượng sao dễ sử dụng nhất.
d. Phân cụm dữ liệu(Data Clustering) hay phân cụm, cũng có thể gọi là
Khoa CNTT – Data Mining 10
phân tích cụm là qúa trình chia các đối tượng thành từng nhóm sau cho số nhóm là ít
nhất.

Câu 37: Thuật ngữ tiếng Anh nào có nghĩa là phân cụm dữ liệu
a. Data Clustering
b. Data Classification
c. Association Rule
d. Data Mining

Câu 38: Thuật ngữ tiếng Anh nào có nghĩa là Khai phá dữ liệu
a. Data Mining
b. Data Clustering
c. Data Classification
d. Association Rule

Câu 39: Thuật ngữ tiếng Anh nào có nghĩa là Phân lớp dữ liệu
a. Data Classification
b. Data Clustering
c. Data Mining
d. Association Rule

Câu 40: Có N phần tử cần chia thành 1 cụm. Hỏi có bao nhiêu cách chia cụm:
a. 1 cách
b. 0 cách
c. 2 cách
d. N cách

Câu 41: Có N phần tử cần chia thành m cụm, với m>N. Hỏi có bao nhiêu cách chia
cụm:
a. 0 cách
b. m cách
c. 2 cách
d. N cách

Câu 42: Có bao nhiêu thuật toán phân cụm:


a. Rất nhiều
b. Chỉ có 3 thuật toán Liên kết đơn, liên kết đầy đủ, k-mean
Khoa CNTT – Data Mining 11
c. Chỉ có 2 thuật toán Liên kết đơn và liên kết đầy đủ
d. Chỉ có 2 thuật toán Liên kết đơn và k-mean

Câu 43: Trong thuật toán phân cụm k-mean, ban đầu k tâm được chọn:
a. Chọn ngẫu nhiên
b. Chọn k phần tử nằm ở tâm
c. Chọn k các phần tử có giá trị nhỏ nhất
d. Chọn k phần tử có giá trị bằng giá trị trung bình của các phần tử trong tập dữ liệu

Câu 44: Sử dụng thuật toán k-mean để chia N điểm vào k cụm, khi đó:
a. k<=N
b. k=N
c. k>N
d. k khác N

Câu 45: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Khoảng cách giữa 2 phần tử x1 và x2 bằng bao nhiêu:

a. bằng 1
b. bằng 2
c. bằng 0
d. bằng 9

Câu 46: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Khoảng cách giữa 2 phần tử x1 và x5 bằng bao nhiêu:

a. bằng 5
Khoa CNTT – Data Mining 12
b. bằng 2
c. bằng 0
d. bằng 9

Câu 47: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Sử dụng thuật toán liên kết đơn (Single Linkage), bước đầu tiên 2 phần tử nào được
chọn để gom thành 1 cụm:
a. x1 và x2
b. x1 và x3
c. x2 và x3
d. x3 và x5

Câu 48: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự.

Sử dụng thuật toán liên kết đầy đủ (Complete Linkage), bước đầu tiên 2 phần tử nào
được chọn để gom thành 1 cụm:
a. x1 và x2
b. x1 và x3
c. x2 và x3
d. x3 và x5

Câu 49: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 2.5
hỏi có mấy cụm được sinh ra:

Khoa CNTT – Data Mining 13


a. 3 cụm
b. 2 cụm
c. 1 cụm
d. 4 cụm

Câu 50: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 5
hỏi có mấy cụm được sinh ra:

a. 1 cụm
b. 2 cụm
c. 3 cụm
d. 4 cụm

Câu 51: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 3.5
hỏi có mấy cụm được sinh ra:

Khoa CNTT – Data Mining 14


a. 2 cụm
b. 3 cụm
c. 1 cụm
d. 4 cụm

Câu 52: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 1.5
hỏi có mấy cụm được sinh ra:

a. 4 cụm
b. 2 cụm
c. 1 cụm
d. 5 cụm

Câu 53: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 0.5
hỏi có mấy cụm được sinh ra:

Khoa CNTT – Data Mining 15


a. 5 cụm
b. 2 cụm
c. 1 cụm
d. 4 cụm

Câu 54: ID3 viết tắt của cụm từ nào?


a. Interactive Dichotomizer 3
b. Interface Dictionary 3
c. Items Desc 3
d. 3 Interacty Rich

Câu 55: Nhiệm vụ của thuật toán ID3 là?


a. Đưa ra cây quyết định từ một tập dữ liệu huấn luyện
b. Không giả quyết vấn đề liên quan tới cây quyết định
c. Tìm ra một tập trong cây
d. Không có cây quyết định được tìm ra

Câu 56: Phần mềm nào sau đây sử dụng minh họa thuật toán Apriori
a. Phần mềm Weka
b. Phần mềm Project
c. Phần mềm Prolog
d. Phần mềm Spy bot

Câu 57: Phần mềm Weka cài đặt một số thuật toán trong lĩnh vực nào?
a. Data Mining
b. Tìm kiếm văn bản
c. Trí tuệ nhân tạo
d. Học máy

Khoa CNTT – Data Mining 16


Câu 58: Đầu vào của thuật toán FP_growth là gì?
a. Một CSDL giao dịch, min_sup_count
b. Tập các mục thường xuyên
c. Độ tin cậy
d. Độ hỗ trợ

Câu 59: Đầu ra của thuật toán FP_growth là gì?


a. Tập các mục thường xuyên
b. Một CSDL giao dịch, min_sup_count
c. Support
d. Độ hỗ trợ

Câu 60: Giá trị Gain của thuộc tính A trong tập S ký hiệu là?
a. Gain(S,A)
b. Gain(A,S)
c. Gain(entropy,S, A)
d. Gain(S,A,entropy)

Câu 61: Quá trình khai phá tri thức trong CSDL (KDD) có thể phân chia thành các giai
đoạn sau:
a. Trích chọn dữ liệu, tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, đánh giá và
biểu diễn tri thức
b. Tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, đánh giá và biểu diễn tri thức
c. Trích chọn dữ liệu, tiền xử lý dữ liệu, biến đổi dữ liệu, khai phá dữ liệu, khai phá luật
kết hợp
d. Tiền xử lý dữ liệu, phân lớp, phân cụm, đánh giá và biểu diễn tri thức

Câu 62: Các loại đặc trưng của dữ liệu:


a. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng đo
theo tỷ lệ
b. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng
theo khối lượng
c. Đặc trưng danh nghĩa, đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng theo
chiều dài
d. Đặc trưng theo thứ tự, đặc trưng đo theo khoảng, đặc trưng đo theo tỷ lệ

Câu 63: Một số bài toán điển hình trong khai phá dữ liệu là:
Khoa CNTT – Data Mining 17
a. Khai phá luật kết hợp, phân loại, phân cụm, hồi qui...
b. Khai phá luật kết hợp, xây dựng máy tìm kiếm...
c. Web mining, Text mining, mạng nơron…
d. Bài toán nhận dạng, bài toán tìm kiếm thông tin, bài toán lựa chọn đặc trưng...

Câu 64: Một số thách thức lớn trong quá trình khai phá dữ liệu là (chọn đáp án đúng
nhất):
a. Dữ liệu quá lớn, dữ liệu bị thiếu hoặc nhiễu, sự phức tạp của dữ liệu, dữ liệu thường
xuyên thay đổi...
b. Trình độ của con người còn hạn chế, dữ liệu không được lưu trữ tập trung...
c. Dữ liệu quá lớn, máy khai phá dữ liệu có tốc độ hạn chế...
d. Tốc độ xử lý của máy tính còn hạn chế, dữ liệu thường xuyên thay đổi...

Câu 65: Một số lĩnh vực liên quan đến khai phá tri thức – KDD là:
a. Machine Learning, Visualization, Statistics, Databases…
b. Machine Learning, Programming, Statistics, Databases…
c. Machine Learning, Visualization, Statistics, BioInfomatics…
d. Support Vector Machine, Clustering, Statistics, Databases…

Câu 66: Khai phá dữ liệu có lợi ích gì?


a. Cung cấp hỗ trợ ra quyết định, dự báo, khái quát dữ liệu...
b. Tìm kiếm các quy luật, tìm kiếm các cụm và phân loại dữ liệu
c. Tìm kiếm nhanh thông tin, thống kê dữ liệu, chọn đặc trưng của dữ liệu...
d. Tạo ra cơ sở tri thức mới, hỗ trợ dự báo thời tiết, dự báo động đất, dự báo sóng
thần...

Câu 67: Làm sạch dữ liệu (Data Cleaning) là quá trình:


a. Loại bỏ nhiễu và dữ liệu không nhất quán
b. Tìm kiếm dữ liệu có ích
c. Tìm kiếm dữ liệu có ích trong cơ sở dữ liệu lớn
d. Tổ hợp nhiều nguồn dữ liệu khác nhau

Câu 68: Một số ứng dụng tiềm năng của Khai phá dữ liệu:
a. Phân tích và quản lý thị trường, Quản lý và phân tích rủi ro, Quản lý và phân tích
các sai hỏng, Khai thác Web, Khai thác văn bản (text mining)…
b. Tìm kiếm văn bản, Tìm kiếm hình ảnh, Tìm kiếm tri thức mới trên Internet...
c. Phân tích tâm lí khách hàng, Hỗ trợ kinh doanh, tối ưu hóa phần cứng máy tính...
Khoa CNTT – Data Mining 18
d. Phân tích thị trường chứng khoán, bất động sản, tìm kiếm dữ liệu bằng các máy tìm
kiếm...

Câu 69: Các cơ sở dữ liệu cần khai phá là:


a. Quan hệ, Giao tác, Hướng đối tượng, Không gian, Thời gian, Text, XML, Multi-
media, WWW, …
b. Text, XML, Multi-media, WWW, …
c. Cơ sở dữ liệu khách hàng, cơ sở dữ liệu nghiên cứu không gian, cơ sở dữ liệu trong
ngân hàng, cơ sở dữ liệu thống kê…
d. Cơ sở dữ liệu tuyển sinh đại học, cơ sở dữ liệu dự báo thời tiết, cơ sở dữ liệu thống kê
dân số…

Câu 70: Thuật ngữ Big Data có nghĩa là:


a. Big data nói đến các tập dữ liệu rất lớn và phức tạp tới mức các kỹ thuật IT truyền
thống không xử lí nổi.
b. Dữ liệu rất lớn
c. Dữ liệu được tích hợp từ nhiều nguồn khác nhau
d. Dữ liệu khổng lồ trên Internet

Câu 71: Thuật ngữ BioInfomatics có nghĩa là


a. Giải quyết các bài toán sinh học bằng việc sử dụng các phương pháp của khoa học
tính toán
b. Sinh học phân tử
c. Tìm kiếm dữ liệu mới từ sinh học
d. Khai thác các thông tin có ích trong lĩnh vực y học

Câu 72: Phát biểu nào sau đây là đúng


a. Data Mining là một bước quan trọng trong quá trình khai phá tri thức từ dữ liệu –
KDD
b. Tiền xử lí dữ liệu là chọn ra các đặc trưng tiêu biểu trong tập dữ liệu lớn
c. Mọi dữ liệu đều có thể tìm kiếm được bằng máy tìm kiếm của Google
d. Data Mining là công cụ giúp các lập trình viên dễ dàng tìm kiếm thông tin hơn

Câu 73: Làm sạch dữ liệu là:


a. Điền giá trị thiếu, làm trơn dữ liệu nhiễu, định danh hoặc xóa ngoại lai, và khử tính
không nhất quán
b. Chuẩn hóa và tổng hợp
Khoa CNTT – Data Mining 19
c. Bước cuối cùng trong quá trình Data Mining d.
Tích hợp CSDL, khối dữ liệu hoặc tập tin phức

Câu 74: Các bài toán thuộc làm sạch dữ liệu là:
a. Xử lý giá trị thiếu, Dữ liệu nhiễu: định danh ngoại lai và làm trơn, Chỉnh sửa dữ liệu
không nhất quán, Giải quyết tính dư thừa tạo ra sau tích hợp dữ liệu.
b. Làm trơn theo biên, phương pháp đóng thùng, điền giá trị thiếu, Giải quyết tính dư
thừa tạo ra sau tích hợp dữ liệu.
c. Phân cụm, phân lớp, hồi quy, biểu diễn dữ liệu.
d. Phân cụm, tìm luật kết hợp, tìm kiếm đặc trưng

Câu 75: Cho một tập dữ liệu có n đặc trưng. Có bao nhiêu tập con không rỗng chứa các
đặc trưng được lựa chọn:
a. 2^n -1
b. 2^n
c. Vô số tập con
d. n^2

Câu 76: Một số phương pháp loại bỏ dữ liệu nhiễu là:


a. Bỏ qua bản ghi có dữ liệu bị thiếu, điền giá trị thiếu bằng tay, điền giá trị tự động
b. Loại bỏ dựa trên quan sát, loại bỏ khi lựa chọn đặc trưng
c. Loại bỏ toàn bộ dữ liệu bị nhiễu và thay thế bằng tập dữ liệu mới, lựa chọn các đặc
trưng quan trọng
d. Sử dụng các thuật toán phân lớp, phân cụm, tìm luật kết hợp

Câu 77: Cho bản ghi dữ liệu, giá trị của các thuộc tính như sau: X=(6, 2, 5, 7, 5, ?). Dấu
hỏi là giá trị của thuộc tính bị thiếu. Sử dụng phương pháp tính trung bình giá trị của các
thuộc tính của bản ghi hiện có, hãy cho biết vị trí dấu hỏi điền giá trị là bao nhiêu:

a. 5
b. 6
c. 9
d. Giá trị khác

Câu 78: Khi xử lý thiếu giá trị của các bản ghi dữ liệu, phương pháp ‘Bỏ qua bản ghi có
giá trị thiếu’ chỉ thích hợp khi:
a. Các bản ghi có dữ liệu bị thiếu chiếm tỷ lệ nhỏ trong toàn bộ dữ liệu
Khoa CNTT – Data Mining 20
b. Các bản ghi có dữ liệu bị thiếu chiếm tỷ lệ lớn trong toàn bộ dữ liệu
c. Có thể bỏ qua tất cả các bản ghi bị thiếu
d. Không thể bỏ qua, phải tìm các giá trị để điền vào các bản ghi bị thiếu

Câu 79: Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các
mục (item) trong CSDL. X là một tập chứa các mục thuộc I. Giao dịch hỗ trợ X là giao
dịch chứa tất cả các mục có trong X. Độ hỗ trợ của tập mục X được định nghĩa là:
a. Support(X)=Số lượng giao dịch hỗ trợ X / N
b. Support(X)=Số lượng giao dịch hỗ trợ X
c. Support(X)=Số lượng giao dịch hỗ trợ X / N * |I|, trong đó |I| là tổng số mục trong
CSDL
d. Support(X)=Số lượng giao dịch hỗ trợ X *100%

Câu 80: Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các
mục (item) trong CSDL. X, Y là tập chứa các mục thuộc I. Độ tin cậy của luật kết hợp
X Y được định nghĩa là:
a. Confidence(XY)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ
X
b. Confidence(XY)=Số lượng giao dịch hỗ trợ X / Số lượng giao dịch hỗi trợ Y
c. Confidence(XY)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ
Y
d. Confidence(XY)=Số lượng giao dịch hỗ trợ cả X và Y /N

Câu 81: Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các
mục (item) trong CSDL. X, Y là tập chứa các mục thuộc I. Độ hỗ trợ của luật kết hợp
X Y được định nghĩa là:
a. Support(XY)=Số lượng giao dịch hỗ trợ cả X và Y / N
b. Support(XY)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ Y
c. Support(XY)=Số lượng giao dịch hỗ trợ cả X và Y / Số lượng giao dịch hỗ trợ X
d. Support(XY)=Số lượng giao dịch hỗ trợ cả X / Số lượng giao dịch hỗ trợ Y

Câu 82: Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các
mục (item) trong CSDL. Min_Supp là độ hỗ trợ tối thiểu. X là tập chứa các mục thuộc
I. Tập mục X được gọi là tập mục thường xuyên (frequent itemset) nếu:
a. Support(X)>=Min_Supp
b. Support(X)<=Min_Supp
c. Support(X)=Min_Supp
Khoa CNTT – Data Mining 21
d. Support(X: Min_Supp/N

Câu 83: Cho cơ sở dữ liệu giao dịch gồm N giao dịch (bản ghi). I là tập chứa tất cả các
mục (item) trong CSDL. Min_Supp là độ hỗ trợ tối thiểu, Min_Conf là độ tin cậy tối
thiểu. X, Y là tập chứa các mục thuộc I. Luật kết hợp XY được chọn nếu:
a. Support(XY)>=Min_Supp, Confidence(XY)>=Min_Conf
b. Support(XY)=Min_Supp, Confidence(XY)=Min_Conf
c. Support(XY)<Min_Supp, Confidence(XY)<Min_Conf
d. Support(XY)>Min_Supp, Confidence(XY)=Min_Conf

Câu 84: Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Các tập mục thường xuyên có 1 mục thỏa mãn Min_Supp là:
a. F:4, C:4, A:3, C:3, M:3, P:3
b. C:4, A:3, C:3, M:3, P:3
c. F:4, C:4
d. A:3, C:3, M:3, P:3

Câu 85: Cho CDSL giao dịch như hình vẽ, Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Tập mục thường xuyên có 4 mục thỏa mãn Min_Supp là:


a. FCAM:3
b. FCAM:2
c. FC:4

Khoa CNTT – Data Mining 22


d. FCAM:4

Câu 86: Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Cơ sở điều kiện của nút M là:


a. {F:2, C:2, A:2} và { F:1, C:1, A:1, B:1}
b. {F:2, C:2, A:2}
c. F:1, C:1, A:1
d. F: 3, C:3, A:3

Câu 87: Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Cơ sở điều kiện của nút M là:


a. {F:2, C:2, A:2, M:2} và { C:1, B:1}
b. {F:2, C:2, A:2, M:2}
c. C:3
d. F: 3, C:3, A:3

Câu 88: Cho CDSL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Khoa CNTT – Data Mining 23


Cây điều kiện FP của P là:
a. {C:3}| p
b. {CF:3}|p
c. {C:4}|p
d. Cây điều kiện là rỗng

Câu 89: Cho CSDL giao dịch như hình vẽ. Độ hỗ trợ tối thiểu Min_Support = 3 (60%)
và độ tin cậy tối thiểu Min_Confidence = 100%.

Cây điều kiện FP của A là:


a. {F:3, C:3}| p
b. {CF:3}|p
c. {C:4}|p
d. Cây điều kiện là rỗng

Câu 90: Cho CSDL giao dịch gồm N mục phân biệt, tổng số các tập mục được sinh ra
(không tính tập rỗng) là:
a. 2^N - 1
b. 2^N
c. N
d. Vô số tập mục

Câu 91: Cho A, B, C, D là các item và A-->BC là luật kết hợp thỏa mãn độ hỗ trợ tối
thiểu Min_Sup và độ tin cậy tối thiểu Min_Conf. Hãy cho biết luật kết hợp nào sau

Khoa CNTT – Data Mining 24


đây chắc chắn thỏa mãn Min_Sup và Min_Conf mà không cần phải tính độ hỗ trợ và độ
tin cậy:
a. AB-->C
b. A-->D
c. ABD-->C
d. D-->C

Câu 92: Cho A, B, C, là các item và A-->BC là luật kết hợp thỏa mãn độ hỗ trợ tối thiểu
Min_Sup và độ tin cậy tối thiểu Min_Conf. Ta thấy rằng luật kết hợp AB-->C cũng thỏa
mãn điều kiện về độ hỗ trợ tối thiểu và độ tin cậy tối thiểu vì:
a. Conference(AB-->C) >= Conference(A-->BC)
b. Conference(AB-->C) <= Conference(A-->BC)
c. Conference(AB-->C: Conference(A-->BC)
d. Chưa kết luận được AB-->C có thỏa độ hỗ trợ tối tiểu và độ tin cậy tối thiểu hay
không

Câu 93: Cho A, B, C, D là các mục trong cơ sở dữ liệu giao dịch. Kết luận nào sau đây
là sai:
a. Support(ABC) < Support(ABCD)
b. Support(ABC) >= Support(ABCD)
c. Support(AB) >= Support(ABC)
d. Support(AB) <= Support(A)

Câu 94: Phát biểu nào sau đây là đúng:


a. Confidence(AC--> B) >= Confidence(A--> BC)
b. Confidence(AC--> B: Confidence(A--> BC)
c. Confidence(A--> AB)>=Confidence(AC-->C)
d. Confidence(AB--> C) >= Confidence(AC--> B)

Câu 95: Giả sử ta có các tập mục thường xuyên {A,B}, {A,C}, {B,D} chứa 2-item. Sử
dụng thuật toán Apriori để ghép các tập mục có 2-item thành các tập mục có 3-item ,
các ứng viên sinh ra có 3-item là:
a. {A, B, C}, {A, B, D}
b. {A, B, C}, {A, B, D}, {A, B, C, D}
c. {A, B, C}, {B, C, D}
d. {A, B, C}, {C, B, D}

Khoa CNTT – Data Mining 25


Câu 96: Trong thuật toán Apriori, tập mục chứa k-item được tạo ra bằng cách nào trong
các cách sau:
a. Tạo ra từ tập chứa k-1 item bằng cách ghép 2 tập k-1 item với nhau với điều kiện là 2
tập k-1 item này phải có chung nhau k-2 item
b. Tổ hợp k item từ các item có trong cơ sở dữ liệu giao dịch.
c. Lấy ngẫu nhiên k item sau đó ghép lại với nhau.
d. Sinh mọi tập con có k item từ các item có trong cơ sở dữ liệu giao dịch

Câu 97: Cho tập L3={abc, abd, ade, ace} là các tập mục thường xuyên chứa 3-item.
Để tạo các ứng viên chứa 4-item abcd, ta cần ghép các tập chứa 3-item nào với nhau?
a. abc và abd
b. abc và ade
c. abc và ace
d. abd và ade

Câu 98: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào không thỏa mãn điều kiện đề bài:
a. BA-->E
b. BC -->E
c. C--> E
d. B-->C

Câu 99: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%), Min_Cofidence
= 50%.

Luật kết hợp nào có độ tin cậy = 100%


a. B-->E
b. A-->D
Khoa CNTT – Data Mining 26
c. C--> E
d. AB-->C

Câu 100: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%),
Min_Cofidence = 50%.

Luật kết hợp nào có độ tin cậy = 75%


a. B-->CE
b. A-->D
c. C--> E
d. AB-->C

Câu 101: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên với độ hỗ trợ là 50%:


a. {A, C}
b. {A, E}
c. {A, C, D}
d. {B, C, D}

Câu 102: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên có độ hỗ trợ cao nhất:


a. {B, E}
b. {A, E}
c. {A, C, D}

Khoa CNTT – Data Mining 27


d. {B, C, D}

Câu 103: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên với độ hỗ trợ là 100%:


a. Không có tập nào
b. {A, E}
c. {A, C, D}
d. {B, E}

Câu 104: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên với độ hỗ trợ là 25%:


a. {A, C, D}
b. {A, C}
c. {E, B}
d. {B, C}

Câu 105: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%),
Min_Cofidence = 50%.

Các luật kết hợp nào có độ tin cậy = 100%


a. {BC-->E, B-->E}
b. A-->D
c. AC--> E
d. B-->C

Khoa CNTT – Data Mining 28


Câu 106: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Sử dụng thuật toán Apriori, sau lần duyệt thứ nhất, các danh sách L1 chứa các tập mục
thường xuyên có 1-item được tạo ra là
a. L1={{A}, {B}, {C}, {E}}
b. L1={{A}, {B}, {C}, {D}}
c. L1={{A}, {B}, {D}, {E}}
d. L1={{A}, {D}, {C}}

Câu 107: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Tập nào là tập mục thường xuyên với độ hỗ trợ là = 70%


a. Không có tập nào
b. {A, E}
c. {A, C, D}
d. {B, C, D}

Câu 108: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Sử dụng thuật toán Apriori để tìm các tập mục thường xuyên, số lần duyệt CSDL là:
a. 3 lần
b. 2 lần
c. 4 lần
d. 1 lần
Câu 109: Cho FP-Tree như hình vẽ, mũi tên nét đứt biểu thị cho:

Khoa CNTT – Data Mining 29


a. Con trỏ xuất phát từ bảng đầu mục, trỏ vào nút sinh ra đầu tiên có cùng tên. Nút sinh
ra sau có con trỏ từ nút cùng tên sinh ra ngay trước đó trỏ vào
b. Đường đi trên cây
c. Nút sinh ra sau trỏ vào nút cùng tên sinh ra trước
d. Hướng để duyệt cây

Câu 110: Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút P là:

a. {f:2, c:2, a:2, m:2} và {c:1, b:1}


b. {f:3, c:3, a:3, m:2}
c. {f:4, c:3, a:3, m:2}
d. {f:2, c:2, a:2, m:2, p:2} và {c:1, b:1, p:1}

Câu 111: Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút M là:

a. {f:2, c:2, a:2}, {f:1, c:1, a:1, b:1}

Khoa CNTT – Data Mining 30


b. {f:4, c:4, a:3}, {f:4, c:3, a:3, b:1}
c. {f:2, c:2, a:2, m:2}, {f:1, c:1, a:1, b:1, m:1}
d. {f:2, c:2, a:2, m:2, p:2} , {c:1, b:1, p:1}

Câu 112: Cho FP-Tree như hình vẽ, cơ sở điều kiện của nút a là:

a. {f:3, c:3}
b. {f:4, c:3}
c. {f:4, c:3, a:3}
d. {f:3, c:3, a:3

Câu 113: Khẳng định nào sau đây là sai:


a. FP-Tree là cây nhị phân
b. FP-Tree là cây tổng quát
c. Khi thêm 1 giao dịch vào FP-Tree đều phải thêm bắt đầu từ gốc.
d. Bảng đầu mục – Header Table dùng để lưu 3 thông tin: Tên item, Số lượng item đó
xuất hiện trong CSDL giao dịch và Con trỏ dùng để trỏ đến nút cùng tên được sinh ra
đầu tiên

Câu 114: Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt =
‘Married’, TaxInc=’80K’ thì kết luận có giá trị gì?

Khoa CNTT – Data Mining 31


a. No
b. Yes
c. Không phân lớp được
d. Thiếu thông tin để kết luận

Câu 115: Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’Yes’, MarSt =
‘Married’, TaxInc=’40K’ thì kết luận có giá trị gì?

a. No
b. Yes
c. Không phân lớp được
d. Thiếu thông tin để kết luận

Câu 116: Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt =
‘Single’, TaxInc=’140K’ thì kết luận có giá trị gì?

a. Yes
b. No
c. Không phân lớp được
d. Thiếu thông tin để kết luận

Khoa CNTT – Data Mining 32


Câu 117: Cho cây quyết định như hình vẽ. Hãy cho biết Refund=’No’, MarSt =
‘Single’, TaxInc=’80K’ thì kết luận có giá trị gì?

a. Yes
b. No
c. Không phân lớp được
d. Married

Câu 118: Cho cây quyết định như hình vẽ. Có bao nhiêu luật sinh ra từ cây quyết định
trên:

a. 4 luật
b. 2 luật
c. 1 luật
d. Nhiều luật

Câu 119: Có thể sử dụng phân lớp dựa trên mạng Nơron nhân tạo. Vậy mạng Nơron
nhân tạo là gì?
a. Là mô hình toán học mô phỏng theo mạng Nơron sinh học để giải quyết các bài toán
b. Là mạng máy tính có tốc độ truyền thông cao
c. Là mạng Nơron do con người tạo ra

Khoa CNTT – Data Mining 33


d. Là một phương pháp để phân loại Gen của các loài sinh vật

Câu 120: Cho tập ví dụ học như bảng. Entropy của kết luận C= Play Ball là:

a. Entropy(C)=1
b. Entropy(C)=3
c. Entropy(C)=0.5
d. Entropy(C)=6

Câu 121: Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook = ‘Sunny’ là:

a. Giá trị khác


b. Entropy(Outlook = ‘Sunny’)=1
c. Entropy(Outlook = ‘Sunny’)=0.5
d. Entropy(Outlook = ‘Sunny’)=0

Câu 122: Cho tập ví dụ học như bảng. Entropy của thuộc tính Outlook là:

a. Giá trị khác


b. Entropy(Outlook)=1
c. Entropy(Outlook)=0.5
d. Entropy(Outlook)=0

Khoa CNTT – Data Mining 34


Câu 123: Cho tập ví dụ học như bảng. P(Play Ball= ‘Yes’ | Outlook=’Overcast’) là:

a. 2/3
b. 1/3
c. 0/3
d. Giá trị khác

Câu 124: Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Outlook=’Overcast’) là:

a. 0/3
b. 1/3
c. 2/3
d. Giá trị khác

Câu 125: Cho tập ví dụ học như bảng. P(Play Ball= ‘No’ | Wind =’Weak’) là:

a. 2/3
b. 1/3
c. 0/3
d. Giá trị khác

Khoa CNTT – Data Mining 35


Câu 126: Cho tập ví dụ học như bảng. P(Play Ball= ‘No’) là:

a. 1/2
b. 1/3
c. 0/3
d. Giá trị khác

Câu 127: Cho tập ví dụ học như bảng. P(Wind= ‘Weak’) là:

a. 4/6
b. 3/6
c. 2/6
d. Giá trị khác

Câu 128: Độ phân biệt (độ lộn xộn) của kết luận C với thuộc tính A được tính theo công
thức:
a. Gain(C,A)=Entropy(C)-Entropy(A)
b. Gain(C,A)=Entropy(C)+Entropy(A)
c. Gain(C,A)=Entropy(A)-Entropy(C)
d. Gain(C,A)=Entropy(C)*Entropy(A)

Câu 129: Kết luận nào trong các kết luận sau là sai:
a. Thuật toán Quilan chọn ngẫu nhiên 1 thuộc tính để làm gốc cây quyết định
b. Độ phân biệt (độ lộn xộn) của một thuộc tính với kết luận C cao nhất thì Entropy của
nó thấp nhất
c. Thuật toán học khái niệm CLS chọn ngẫu nhiên 1 thuộc tính để làm gốc cây quyết
định

Khoa CNTT – Data Mining 36


d. Entropy là một số biến thiên trong đoạn [0,1].

Câu 130: Kết luận C gồm 2 giá trị Yes và No. Entropy(C: 1 nói nên điều gì:
a. Số kết luận ‘Yes’=Số kết luận ‘No’
b. Số kết luận ‘Yes’ =0
c. Số kết luận ‘No’ =0
d. Không kết luận được điều gì

Câu 131: Kết luận C gồm 2 giá trị Yes và No. Entropy(C: 0 nói nên điều gì:
a. Số kết luận ‘Yes’=0 hoặc Số kết luận ‘No’
b. Số kết luận ‘Yes’ = Số kết luận ‘No’
c. Số kết luận ‘No’ =1 và Số kết luận ‘Yes’ = 1
d. Không kết luận được điều gì

Câu 132: Khi sử dụng thuật toán Quilan để xây dựng cây quyết định. Tại mỗi bước của
thuật toán ta chọn thuộc tính nào trong số các thuộc tính còn lại để làm gốc phân nhánh?

a. Thuộc tính có độ phân biệt cao nhất


b. Thuộc tính có độ phân biệt thấp nhất
c. Thuộc tính có Entropy cao nhất
d. Chọn ngẫu nhiên

Câu 133: Khi sử dụng thuật toán CLS (Concept Learning System) để xây dựng cây
quyết định. Tại mỗi bước của thuật toán ta chọn thuộc tính nào trong số các thuộc tính
còn lại để làm gốc phân nhánh?
a. Chọn ngẫu nhiên
b. Thuộc tính có độ phân biệt thấp nhất
c. Thuộc tính có Entropy cao nhất
d. Thuộc tính có độ phân biệt cao nhất

Câu 134: Entropy là một đại lượng có miền giá trị là:
a. [0 ; 1]
b. (0 ; 1)
c. Miền giá trị là tập số nguyên dương
d. Miền giá trị là tập số thực dương

Câu 135: Thuật toán Quilan là thuật toán dùng để:


Khoa CNTT – Data Mining 37
a. Xây dựng cây quyết định
b. Tìm các luật
c. Tìm độ phân biệt của các thuộc tính
d. Giúp ta tìm ra 1 thuộc tính làm gốc cây quyết định

Câu 136: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp
gồm có 1 thuộc tính:

a. 4 tổ hợp
b. 5 tổ hợp
c. 6 tổ hợp
d. 2 tổ hợp

Câu 137: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp
gồm có 2 thuộc tính phân biệt:

a. 6 tổ hợp
b. 5 tổ hợp
c. 4 tổ hợp
d. 2 tổ hợp

Câu 138: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp
gồm có 3 thuộc tính phân biệt:

Khoa CNTT – Data Mining 38


a. 4 tổ hợp
b. 1 tổ hợp
c. 6 tổ hợp
d. 2 tổ hợp

Câu 139: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Có bao nhiêu tổ hợp
gồm có 4 thuộc tính phân biệt:

a. 1 tổ hợp
b. 4 tổ hợp
c. 6 tổ hợp
d. 2 tổ hợp

Câu 140: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’No’, xét tổ hợp 1 thuộc tính. Tổ hợp thuộc tính nào là tổ hợp lớn nhất:

a. Humidity=’High’
b. Wind=’Weak’
c. Outlook=’Sunny’
d. Humidity=’Normal

Khoa CNTT – Data Mining 39


Câu 141: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’No’ ta tìm được bao nhiêu luật:

a. 2 luật
b. 3 luật
c. 1 luật
d. 4 luật

Câu 142: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’No’ ta tìm được các luật sau:

a. If Humidity=’High’ Then Play Ball = ‘No’ và If Outlook = ‘Rain’ Then Play Ball =
‘No’
b. If Humidity=’High’ Then Play Ball = ‘No’
c. If Humidity=’Normal’ Then Play Ball = ‘No’và If Outlook = ‘Rain’ Then Play Ball =
‘No’
d. If Outlook=’Sunny’ Then Play Ball = ‘No’và If Wind = ‘Strong’ Then Play Ball =
‘No’

Câu 143: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’Yes’ ta tìm được các luật sau:

Khoa CNTT – Data Mining 40


a. If Outlook=’Overcast’ Then Play Ball = ‘No’ và If Outlook = ‘Sunny’ and
Temperature =’Cold’ Then Play Ball = ‘Yes’
b. If Humidity=’Normal’ Then Play Ball = ‘Yes’
c. If Humidity=’Weak’ Then Play Ball = ‘Yes’và If Outlook = ‘Overcast’ Then Play
Ball = ‘Yes’
d. If Outlook=’Sunny’ Then Play Ball = ‘Yes’và If Wind = ‘Strong’ Then Play Ball =
‘Yes’

Câu 144: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’Yes’ ta tìm được mấy luật:

a. 2 luật
b. 3 luật
c. 1 luật
d. 0 luật

Câu 145: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Tập ví dụ học trên sinh
ra ít nhất mấy luật

Khoa CNTT – Data Mining 41


a. 4 luật
b. 3 luật
c. 2 luật
d. 6 luật

Câu 146: Cho tập ví dụ học như bảng. Sử dụng thuật toán ILA. Với bảng Play
Ball=’Yes’, xét tổ hợp 1 thuộc tính. Tổ hợp thuộc tính nào là tổ hợp lớn nhất:

a. Outlook=’Overcast’
b. Wind=’Weak’
c. Outlook=’Sunny’
d. Humidity=’Normal

Câu 147: Độ đo ‘gần gũi’ là gì ?


a. Đây là một độ đo chỉ ra mức độ tương tự hay không tương tự giữa hai vector đặc
trưng
b. Độ đo giữa 2 phần tử bất kỳ
c. Khoảng cách giữa 2 phần tử trong không gian
d. Độ đo sử dụng trong Data Mining để phân cụm dữ liệu

Câu 148: Độ đo ‘gần gũi’ gồm có:


a. Độ đo tương tự và độ đo không tương tự
b. Độ đo khoảng cách và độ đo tình cảm
c. Độ đo Ơclit và độ đo phi Ơclit

Khoa CNTT – Data Mining 42


d. Độ đo tương tự và độ đo khoảng cách trong không gian 2 chiều

Câu 149: Độ đo khoảng cách trong không gian Ơclit là độ đo:


a. Độ đo không tương tự
b. Độ đo tương tự
c. Độ đo giữa 2 đối tượng cùng loại
d. Độ đo giữa 2 đối tượng khác loại

Câu 150: Cho 2 điểm trong mặt phẳng toạ độ Oxy, cho 2 điểm A(x1, y1), B(x2, y2).
Khoảng cách Ơclit giữa 2 điểm này là:
a. d=sqr(sqrt(x1-x2)+sqrt(y1-y2)) trong đó sqr là hàm bình phương, sqrt là hàm lấy căn.

b. d=sqr(sqrt(x1+x2)+sqrt(y1+y2)) trong đó sqr là hàm bình phương, sqrt là hàm lấy


căn.
c. d=x1*x2+y1*y2
d. Công thức khác

Câu 151: Cho hai điểm A(0,1), B(4, 4). Sử dụng độ đo khoảng cách Ơclit thì khoảng
cách giữa 2 điểm là
a. d(A,B)=5
b. d(A,B)=3
c. d(A,B)=4
d. d(A,B)=1

Câu 152: Cho tập C={x1, x2,. ..xk} gồm k phần tử, mỗi phần tử là một vector trong
không gian N chiều. Vector trung bình mC của tập C là một vector trong không gian N
chiều được định nghĩa là:
a. mC= (x1+x2+...+xk)/k
b. mC= (x1+x2+...+xk)
c. mC= (x1+x2+...+xk)/N
d. mC= (x1+x2+...+xk)/k*N

Câu 153: Trong thuật toán phân cụm k-mean, sau khi chọn được k điểm làm tâm, phần
tử x sẽ được gán vào cụm C sao cho:
a. Khoảng cách từ x đến tâm cụm C là nhỏ nhất
b. Khoảng cách từ x đến tâm cụm C là lớn nhất
c. Khoảng cách từ x đến tâm cụm C bằng 0
Khoa CNTT – Data Mining 43
d. Khoảng cách từ x đến tâm cụm C bằng k

Câu 154: Trong thuật toán k-mean, sau khi gán các đối tượng vào k cụm cần phải:
a. Tính lại tâm của các cụm
b. Tính khoảng cách giữa các phần tử trong cụm
c. Tìm một số phần tử đại diện của cụm
d. Trộn các cụm lại với nhau để số cụm sinh ra là ít nhất

Câu 155: Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4). Sử dụng thuật toán phân cụm
k-mean để chia 4 điểm vào 2 cụm. Kết quả phân cụm là:
a. C1={A, B} ; C2={C, D}

b. C1={A, C} ; C2={B, D}
c. C1={A, B, C} ; C2={D}
d. C1={A, B, D} ; C2={C}

Câu 156: Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4), E( 1, 0). Sử dụng thuật toán
phân cụm k-mean để chia 5 điểm vào 2 cụm. Kết quả phân cụm là:
a. C1={A, B, E} ; C2={C, D}
b. C1={A, C, E} ; C2={B, D}
c. C1={A, B, C} ; C2={D, E}
d. C1={A, B, D} ; C2={C, E}

Câu 157: Cho cụm C gồm các điểm A(1, 1), B(2, 1), C(3,1). Giả sử đại diện của cụm là
một điểm (vector trung bình). Vetor trung bình của cụm là: a. mC = (2 ; 1)

b. mC = (2 ; 0)
c. mC = (2.5 ;1.5)
d. mC=(0 ; 0)

Câu 158: Cho cụm C gồm các điểm A(1, 1), B(2, 4), C(6,1). Giả sử tâm của cụm là
vector trung bình. Tâm của cụm là:
a. mC = (3 ; 2)
b. mC = (2 ; 3)
c. mC = (2.5 ;1.5)
d. mC=(6 ; 1)

Câu 159: k-Mean phù hợp với các cụm có hình dạng nào sau đây:
Khoa CNTT – Data Mining 44
a. Dạng hình cầu
b. Cụm dài và mảnh
c. Các cụm có các điểm phân bố ngẫu nhiên
d. Hình dạng bất kỳ

Câu 160: Phát biểu nào sau đây không là nhược điểm của thuật toán K-mean
a. Thuật toán khó cài đặt
b. Không đảm bảo đạt được tối ưu toàn cục
c. Khó phát hiện các loại cụm có hình dạng phức tạp và nhất là các dạng cụm không
lồi
d. Cần phải xác định trước số cụm k

Câu 161: Thuật toán phân cụm k-mean dừng khi:


a. Không thể gán (hoặc gán lại) từng điểm vào cụm khác
b. Số cụm sinh ra là k
c. Tùy theo yêu cầu của người dùng
d. Khi tất cả các phần tử đã được gán vào k cụm

Câu 162: Hãy chọn phát biểu sai trong các phát biểu sau đây về thuật toán phân cụm k-
mean:
a. Phụ thuộc vào thứ tự các phần tử đưa vào phân cụm
b. Cần phải xác định trước số cụm cần sinh ra
c. k-mean phù hợp với các cụm có dạng hình cầu
d. Vector được chọn làm tâm của mỗi cụm là vector trung bình của cụm đó

Câu 163: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Sử dụng thuật toán liên kết đơn (Single Linkage), sau khi gom x1 và x2 thành cụm
C={x1, x2} thì khoảng cách giữa cụm C và x3 bằng bao nhiêu:

a. bằng 2
b. bằng 3
c. bằng 0
d. bằng 9
Khoa CNTT – Data Mining 45
Câu 164: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Sử dụng thuật toán liên kết đơn (Single Linkage), sau khi gom x1 và x2 thành cụm
C={x1, x2} thì khoảng cách giữa x3 và x4 bằng bao nhiêu:

a. bằng 3
b. bằng 2
c. bằng 0
d. bằng 9

Câu 165: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự. Sử dụng
thuật toán liên kết đầy đủ (Complete Linkage), sau khi gom x1 và x2 thành cụm C={x1,
x2} thì khoảng cách giữa cụm C và x3 bằng bao nhiêu:

a. bằng 9
b. bằng 3
c. bằng 1
d. bằng 2

Câu 166: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng
3.5, các cụm sinh ra là

Khoa CNTT – Data Mining 46


a. C1={x1, x2, x3, x4} ; C2={x5}
b. C1={x1, x2, x3} ; C2={x4, x5}
c. C1={x1, x2} ; C2={x3, x4, x5}
d. C1={x1, x2} ; C2={x4, x5} ; C3={x3}

Câu 167: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng
2.5, các cụm sinh ra là

a. C1={x1, x2, x3} ; C2={x4} ; C3={x5}


b. C1={x1, x2, x3} ; C2={x4, x5}
c. C1={x1, x2} ; C2={x3, x4, x5}
d. C1={x1, x2} ; C2={x4, x5} ; C3={x3}

Câu 168: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng
1.5, các cụm sinh ra là

Khoa CNTT – Data Mining 47


a. C1={x1, x2} C2={x3} ; C3={x4} ; C4={x5}
b. C1={x1, x2} ; C2={x4, x5} ; C3={x3}
c. C1={x1, x2} ; C2={x3, x4} ; C4={ x5}
d. C1={x1} ; C2={x2} ; C3={x4, x5} ; C4={x3}

Câu 169: Cho sơ đồ ngưỡng không tương tự như hình vẽ. Cắt sơ đồ tại ngưỡng bằng 5,
các cụm sinh ra là

a. C1={x1, x2, x3, x4, x5}


b. C1={x1, x2} ; C2={x3, x4, x5}
c. C1={x1, x2} ; C2={x3, x4} ; C4={ x5}
d. C1={x1} ; C2={x2} ; C3={x4}; C4={x4} ; C5={x5}

Câu 170: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Sử dụng thuật toán liên kết đầy đủ (Complete Linkage), sau khi gom x1 và x2 thành
cụm C={x1, x2} thì khoảng cách giữa x3 và x4 bằng bao nhiêu:

Khoa CNTT – Data Mining 48


a. bằng 3
b. bằng 2
c. bằng 1
d. bằng 9

Câu 171: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.
Sử dụng thuật toán liên kết đơn (Single Linkage). Bước đầu tiên ta gom x1, x2, vào cụm
C1, ma trận không tương tự P1 sinh ra là ma trận cấp mấy:

a. cấp 4
b. cấp 5
c. cấp 1
d. cấp 3

Câu 172: Kết quả của quá trình phân cụm phân cấp là:
a. Một sơ đồ ngưỡng tương tự (hoặc không tương tự).
b. Một danh sách các cụm
c. Một cây nhị phân biểu diễn quá trình gom cụm
d. k cụm được sinh ra, với k cho trước

Câu 173: Chọn phát biểu sai trong các phát biểu sau:
a. Thuật toán phân cụm phân cấp phụ thuộc vào trình tự đưa các phần tử vào phân cụm
b. Cắt sơ đồ ngưỡng tương tự hoặc không tương tự tại một ngưỡng nào đó, ta sẽ được
danh sách các cụm
c. Single Linkage, Complete Linkage là 2 trường hợp đặc biệt của thuật toán phân cấp d.
Kết quả phân cụm phụ thuộc vào việc chọn đặc trưng, chọn độ đo gần gũi, chọn đại diện
của cụm và chọn thuật toán phân cụm

Khoa CNTT – Data Mining 49


Câu 174: Thuật toán Apriori : Ghép 2 tập mục có 3-tems với nhau để được tập mục có
4-item. Các tập mục nào có thể ghép được với nhau : a. L1={abc}, L2={abd}

b. L1={abc}, L2={aed}
c. L1={abc}, L2={ebd}
d. L1={gbc}, L2={abd}

Câu 175: Thuật toán Apriori : Ghép 2 tập mục có 4-tems với nhau, ta sẽ được tập mục
có bao nhiêu item :
a. 5-items
b. 6-items
c. 7-items
d. 8-items

Câu 176: Thuật toán Apriori : Cho 2 tập mục L1={abcd}, L2={abck}. Ghép L1 và L2
với nhau thành tập mục L, ta được tập mục nào sau đây?
a. L={abcdk}
b. L={abc}
c. L={dk}
d. L={abck}

Câu 177: Cho tập mục thường xuyên L={ABCDE}, giả sử tất cả các luật kết hợp sinh
ra đều thỏa mãn điều kiện, hỏi có bao nhiêu luật kế hợp được sinh ra?
a. Có 30 luật
b. Có 20 luật
c. Có 5 luật
d. Có 32 luật

Câu 178: FP-Tree: Có 2 đường đi từ gốc tới nút p là: abcd:2 và abce:2. Cây điều kiện
FP của nút p là:
a. {abc:4}|p
b. {abc:2}|p
c. {abcde:4}|p
d. {de:4}|p

Khoa CNTT – Data Mining 50


Câu 179: Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4), E(0,0). Sử dụng thuật toán
phân cụm k-mean để chia 5 điểm vào 2 cụm. Kết quả phân cụm là: a. C1={A, B, E} ;
C2={C, D}
b. C1={A, B} ; C2={C, D}
c. C1={A, B, E} ; C2={C, D, E}
d. C1={A, E} ; C2={B, C, D}

Câu 180: Cho các điểm A(1, 1), B(2, 1), C(4, 3), D(5, 4), E(0,0). Sử dụng thuật toán
phân cụm k-mean để chia 5 điểm vào 2 cụm. Cụm C1 được hình thành gồm 3 phần tử
A, B, E. Vector trung bình (trọng tâm) của cụm là: a. mC1=(1, 2/3)

b. mC1=(0, 2/3)
c. mC1=(1, 3)
d. mC1=(1, 2)

Câu 181: Đường kính của cụm được định nghĩa là khoảng cách giữa 2 phần tử xa nhau
nhất trong cùng 1 cụm. Cho 1 cụm gồm các phần tử C={x1, x2, x3, x4} với x1(10, 0),
x2(1, 0), x3(6, 0), x4(4, 0)
a. d=9
b. d=8
c. d=10
d. d=2

Câu 182: Khoảng cách giữa 2 cụm C1, C2 được định nghĩa là khoảng cách giữa 2 phần
tử x thuộc C1 và y thuộc C2 sao khoảng cách giữa x và y là lớn nhất. Cho 2 cụm
C1={x1, x2}, C2={x3, x4, x5}, với x1(0, 0), x2(1, 0), x3(6, 0), x4(4, 0), x5(3,0), khoảng
cách giữa 2 cụm này là:
a. d=6
b. d=4
c. d=2
d. d=1

Câu 183: Khoảng cách giữa 2 cụm C1, C2 được định nghĩa là khoảng cách giữa 2
phần tử x thuộc C1 và y thuộc C2 sao khoảng cách giữa x và y là bé nhất. Cho 2 cụm
C1={x1, x2}, C2={x3, x4, x5}, với x1(0, 0), x2(1, 0), x3(6, 0), x4(4, 0), x5(3,0),
khoảng cách giữa 2 cụm này là:
a. d=2
Khoa CNTT – Data Mining 51
b. d=4
c. d=6
d. d=1

Câu 184: Khoảng cách giữa 2 cụm C1, C2 được định nghĩa là giá trị trung bình của mọi
khoảng cách giữa 2 phần tử x thuộc C1 và y thuộc C2. Cho 2 cụm C1={x1, x2},
C2={x3, x4}, với x1(0, 0), x2(1, 0), x3(6, 0), x4(4, 0), khoảng cách giữa 2 cụm này là:
a. d=4.5
b. d=4.0
c. d=6.0
d. d=1.5

Câu 185: Cho tập dữ liệu gồm m phần tử, mỗi phần tử là một vector trong không gian n
chiều, cần phân tập này thành k cụm theo thuật toán k-mean. Điều kiện nào sau đây phải
thỏa mãn trong mối quan hệ giữa m, n và k
a. m>=k
b. m<k
c. m=k+n
d. k>m+n

Câu 186: Trong thuật toán liên kết đơn sử dụng ma trận, cho ma trận không tương tự P0
cấp 5 x 5. Khi 2 cụm được trộn với nhau thành 1 cụm thì ma trận P1 có cấp là bao
nhiêu?
a. Cấp 4 x 4
b. Cấp 3 x 3
c. Cấp 5 x 5
d. Cấp 2 x 2

Câu 187: Trong thuật toán liên kết đơn sử dụng ma trận, ở một bước nào đó tập dữ liệu
đang phân thành 4 cụm, vậy cần xây dựng ma trận không tương tự cấp mấy?
a. Cấp 4 x 4
b. Cấp 3 x 3
c. Cấp 5 x 5
d. Cấp 2 x 2

Câu 188: Hoveland và Hind giới thiệu thuật toán CLS lần đầu tiên vào năm bao nhiêu?

Khoa CNTT – Data Mining 52


a. Năm 50 của thế kỷ XX
b. Năm 40 của thế kỷ XX
c. Năm 60 của thế kỷ XX
d. Năm 70 của thế kỷ XX

Câu 189: Kết quả của thuật toán CLS là đưa ra cây quyết định dựa trên:
a. Các mẫu mô tả quyết định
b. Các ngày để quan tâm
c. Các con số tính toán
d. Tất cả đều sai

Câu 190: Thuật toán ID3 được cung cấp vào thời gian nào của thế kỷ XX ?
a. Thập niên 70
b. Thập niên 50
c. Thập niên 60
d. Thập niên 90

Câu 191: Công thức để tính Information Gain của tập dữ liệu S và thuộc tính A là :
a. Gain(S, A)=Entropy(S)-Entropy(A)
b. Gain(S, A)=Info(A)+Entropy(A)
c. Gain(S, A)=Entropy(A)-Info(A)
d. Gain(S, A)=Entropy(A)-Entropy(S)

Câu 192: Missing Data là gì ?


a. Là tập dữ liệu bị thiếu
b. Là tập các dữ liệu sử dụng để phân cụm
c. Là tập dữ liệu bị nhiễu
d. Là tập các dữ liệu chứa các thông tin hữu ích

Câu 193: Noisy Data là gì


a. Là tập dữ liệu bị nhiễu
b. Là tập dữ liệu bị thiếu
c. Là tập các dữ liệu chứa các thông tin dư thừa
d. Là tập các dữ liệu không bị nhiễu

Câu 194: Với công thức tính Gain thông thường không phù hợp với tình huống nào ?
a. Với các thuộc tính có rất nhiều giá trị
Khoa CNTT – Data Mining 53
b. Không phụ hợp với ba thuộc tính
c. Không phù hợp với tập chỉ có duy nhất một mẫu
d. Mọi trường hợp đều phù hợp

Câu 195: Tập dữ liệu S gồm các thuộc tính A, B, C, D. Gain(S, A)=0.3, Gain(S,B)=0.6,
Gain(S,C)=0.14, Gain(S,D)=0.99. Thuộc tính nào được chọn để phân nhánh?

a. Thuộc tính D
b. Thuộc tính A
c. Thuộc tính B
d. Thuộc tính C

Câu 196: Tập dữ liệu S gồm các thuộc tính A, B, C, D. Entropy(A)=0.3,


Entropy(B)=0.6, Entropy(C)=0.14, Entropy(D)=0.99. Thuộc tính nào được chọn để
phân nhánh?
a. Thuộc tính C
b. Thuộc tính A
c. Thuộc tính B
d. Thuộc tính D

Câu 197: Tiến trình Khai phá tri thức – KDD gồm các bước như sau:
a. Lựa chọn dữ liệu, tiền xử lí dữ liệu, chuyển dạng, khai phá dữ liệu, trình diễn dữ liệu
b. Lựa chọn dữ liệu, chuyển dạng, khai phá dữ liệu, tiền xử lí dữ liệu, trình diễn dữ liệu

c. Lựa chọn dữ liệu, khai phá dữ liệu, trình diễn dữ liệu tiền, xử lí dữ liệu
d. Lựa chọn dữ liệu, khai phá dữ liệu, trình diễn dữ liệu

Câu 198: Sự bùng nổ của dữ liệu trong những năm gần đây có nhiều nguyên nhân,
trong đó có những nguyên nhân sau (chọn đáp án đúng nhất):
a. Công nghệ phần cứng phát triển mạnh, năng lực số hóa của con người ngày càng
cao, bùng nổ công nghệ mạng, tác nhân tạo mới dữ liệu ngày càng nhiều...
b. Khoa khọc kỹ thuật ngày càng tiến bộ, nguồn nhân lực ngành Công nghệ thông tin
ngày càng đông, nhu cầu khai thác thông tin ngày càng nhiều...
c. Thông tin thu thập từ việc nghiên cứu các hành tinh, thông tin chống khủng bố,
thông tin quảng cáo ngày càng nhiều...
d. Dữ liệu quảng cáo ngày càng nhiều, bùng nổ các mạng xã hội,...

Khoa CNTT – Data Mining 54


Câu 199: Data Integeation là:
a. Cách kết hợp dữ liệu tìm được từ các nguồn dữ liệu khác nhau
b. Tích hợp thông tin khách hàng phục vụ quá trình Data Mining
c. Phân chia dữ liệu phục vụ quá trình Data Mining
d. Là bước thực hiện sau khi đã tìm kiếm tri thức mới từ dữ liệu

Câu 200: Phát biểu nào sai về ‘Tiền xử lí dữ liệu’:


a. Dữ liệu sau khi Tiền xử lí sẽ thành tri thức mới
b. Không có dữ liệu tốt, không thể có kết quả khai phá tốt
c. Phân lớn công việc xây dựng một kho dữ liệu là trích chọn, làm sạch và chuyển đổi
dữ liệu —Bill Inmon
d. Dữ liệu có chất lượng cao nếu như phù hợp với mục đích sử dụng trong điều hành, ra
quyết định, và lập kế hoạch.

Câu 201: Các bài toán chính trong ‘Tiền xử lí dữ liệu’ là:
a. Làm sạch dữ liệu, Tích hợp dữ liệu, Chuyển dạng dữ liệu, Rút gọn dữ liệu, Rời rạc dữ
liệu
b. Làm sạch dữ liệu, Tích hợp dữ liệu, Chuyển dạng dữ liệu, Rời rạc dữ liệu
c. Phân lớp, Tìm luật kết hợp, Gom cụm
d. Lựa chọn đặc trưng, Tìm thuật toán để Khai phá dữ liệu

Câu 202: Xếp thùng - Binning - là phương pháp rời rạc hóa đơn giản nhất. Phương pháp
này gồm có:
a. Phân hoạch cân bằng bề rộng Equal-width và Phân hoạch cân bằng theo chiều sâu
Equal-depth
b. Xếp thùng theo chiều sâu và Xếp thùng làm trơn theo giá trị nhỏ nhất
c. Làm trơn theo giá trị lớn nhất và làm trơn theo giá trị nhỏ nhất d. Làm
trơn theo biên phải và làm trơn theo biên trái

Câu 203: Phương pháp Xếp thùng - Binning là phương pháp:


a. Sắp xếp dữ liệu tăng dần và chia đều vào các thùng, sau đó sử dụng phương pháp làm
trơn theo trung bình, theo biên, theo trung tuyến.
b. Chia đều dữ liệu vào các thùng, sau đó sử dụng phương pháp làm trơn theo trung
bình, theo biên, theo trung tuyến.
c. Sắp xếp dữ liệu tăng dần và chia vào các thùng, mỗi thùng có số phần tử tùy ý, sau đó
sử dụng phương pháp làm trơn theo trung bình, theo biên, theo trung tuyến.

Khoa CNTT – Data Mining 55


d. Sắp xếp dữ liệu giảm dần và chia đều vào N thùng, loại bỏ các thùng không cần thiết

Câu 204: Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34.
Chia tập dữ liệu trên thành 3 thùng. Kết quả chia thùng theo chiều sâu là:
a. Bin 1: 4, 8, 9, 15; Bin 2: 21, 21, 24, 25; Bin 3: 26, 28, 29, 34
b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26
c. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34
d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

Câu 205: Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34.
Chia tập dữ liệu trên thành 3 thùng theo chiều sâu. Kết quả chia thùng làm trơn theo
trung bình là:
a. Bin 1: 9, 9, 9, 9; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29
b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26
c. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34
d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

Câu 206: Cho tập dữ liệu được xếp theo giá: 4, 8, 9, 15, 21, 21, 24, 25, 26, 28, 29, 34.
Chia thành 3 thùng theo chiều sâu. Kết quả phương pháp chia thùnglàm trơn theo biên
là:
a. Bin 1: 4, 4, 4, 15; Bin 2: 21, 21, 25, 25; Bin 3: 26, 26, 26, 34
b. Bin 1: 4, 4, 4, 4; Bin 2: 21, 21, 21, 21; Bin 3: 26, 26, 26, 26
c. Bin 1: 9, 9, 9, 9; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29
d. Bin 1: 15, 15, 15, 15; Bin 2: 23, 23, 23, 23; Bin 3: 29, 29, 29, 29

Câu 207: Phương pháp xếp thùng phân hoạch cân bằng theo bề rộng là:
a. Chi miền giá trị thành N đoạn có độ dài như nhau
b. Chia miền xác định thành N đoạn ‘’đều nhau về số lượng’’ các đoạn có xấp xỉ số ví
dụ mẫu.
c. Lựa chọn số phần tử ngẫu nhiên và xếp và N thùng
d. Các phần tử có giá trị như nhau sẽ được xếp vào cùng 1 thùng

Câu 208: Trong quá trình Tiền xử lí dữ liệu người ta thường dùng một số phương pháp
chuẩn hóa dữ liệu sau:
a. Min-Max, z-Score, Tỷ lệ thập phân – decimal scale
b. 2NF, 3NF, BCNF
Khoa CNTT – Data Mining 56
c. Đưa về hệ đếm thập phân, Hệ nhị phân, hệ Hecxa
d. Chuẩn hóa về dữ liệu văn bản, hình ảnh, âm thanh

Câu 209: Một số chiến lược rút gọn dữ liệu là:


a. Tập hợp khối dữ liệu, Giảm đa chiều – loại bỏ thuộc tính không quan trọng, Nén dữ
liệu, Giảm tính số hóa – dữ liệu thành mô hình, Rời rạc hóa và sinh cây khái niệm
b. Tìm kiếm thêm thông tin có ích, xây dựng cây quyết định, phân nhóm dữ liệu
c. Phân lớp dữ liệu, tìm đặc trưng của dữ liệu, loại bỏ nhiễu
d. Loại bỏ phần tử ngoại lai, tìm các dữ liệu quan trọng, đưa về mô hình toán học

Câu 210: Thuật toán k-mean được sử dụng để:


a. Phân cụm tập dữ liệu thành k cụm
b. Phân cụm tập dữ liệu thành k tâm
c. Phân tập dữ liệu thành các cụm sao cho mỗi cụm có k phần tử
d. Phân cụm tập dữ liệu thành các cụm.

Câu 211: Công thức chuẩn hóa theo phương pháp Min-Max nào đúng:

a. Đáp án A
b. Đáp án B
c. Đáp án C
d. Đáp án D

Câu 212: Công thức chuẩn hóa theo Tỷ lệ thập phân nào đúng:

Khoa CNTT – Data Mining 57


a. Đáp án A
b. Đáp án B
c. Đáp án C
d. Đáp án D

Câu 213: Cho miền giá trị từ 12000 đến 98000, Sử dụng phương pháp Min-Max để
chuẩn hóa về đoạn [0.0 ; 1.0]. Giá trị 73000 được chuẩn hóa là:
a. 0.716
b. 0.800
c. 0.500
d. Giá trị khác

Câu 214: Cho miền giá trị từ 120 đến 980, Sử dụng phương pháp Min-Max để chuẩn
hóa về đoạn [0.0 ; 10]. Giá trị 550 được chuẩn hóa là:
a. 5.0
b. 8.0
c. 9.0
d. Giá trị khác

Câu 215: Cho miền giá trị của A từ -986 đến 917, Sử dụng phương pháp chuẩn hóa Tỷ
lệ Thập phân– decimal scale, miền giá trị của A sau khi chuẩn hóa là: a. - 0.986 đến
0.917
b. 0.0 đến 1.0
c. 0.0 đến 9.17
d. Giá trị khác

Câu 216: Cho giá trị của A là 1500, Sử dụng phương pháp chuẩn hóa Tỷ lệ Thập phân–
decimal scale, giá trị của A sau khi chuẩn hóa là:
Khoa CNTT – Data Mining 58
a. 0.15
b. 1.5
c. 0.015
d. Giá trị khác

Câu 217: Phát biểu nào đúng về Phương pháp phân tích thành phần chính (Principal
Component Analysis-PCA):
a. Chỉ áp dụng cho dữ liệu số và dùng khi số chiều vector lớn
b. Chỉ áp dụng cho dữ liệu văn bản và dùng khi số chiều vector lớn
c. áp dụng cho mọi loại dữ liệu
d. Tìm đặc trưng quan trọng của tập dữ liệu

Câu 218: Phát biểu nào đúng về Phương pháp phân tích thành phần chính (Principal
Component Analysis-PCA:
a. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector trực giao tốt nhất để trình diễn dữ
liệu. Tập dữ liệu gốc được rút gọn thành N vector dữ liệu c chiều: c thành phần chính
(chiều được rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần
chính.
b. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector đại diện để trình diễn dữ liệu. Tập
dữ liệu gốc được rút gọn thành N vector dữ liệu c chiều: c thành phần chính (chiều được
rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính. c. Cho
N vector dữ liệu k-chiều, tìm c (<= k) vector trực giao tốt nhất để trình diễn dữ liệu. Tập
dữ liệu gốc được rút gọn thành N vector dữ liệu k chiều: k thành phần chính (chiều được
rút gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính.

d. Cho N vector dữ liệu k-chiều, tìm c (<= k) vector để trình diễn dữ liệu. Tập dữ liệu
gốc được rút gọn thành 1 vector dữ liệu c chiều: c thành phần chính (chiều được rút
gọn). Mỗi vector dữ liệu là tổ hợp tuyến tính của các vector thành phần chính.

Câu 219: Rời rạc hóa là:


a. Rút gọn số lượng giá trị của thuộc tính liên tục bằng cách chia miền giá trị của thuộc
tính thành các đoạn. Nhãn đoạn sau đó được dùng để thay thế giá trị thực. b. Đưa dữ
liệu về dạng số nhị phân
c. Biểu diễn dữ liệu thành dạng dữ liệu không liên tục
d. Chuyển đổi dữ liệu sang dạng sóng điện từ

Khoa CNTT – Data Mining 59


Câu 220: Cho L là tập mục thường xuyên, S là tập con của L thì với mọi tập con S’ của
S ta có:
a. Conference(S’-->L-S) <= Conference(S-->L-S)
b. Conference(S’-->L-S: Conference(S-->L-S)
c. Conference(S’-->L-S) > Conference(S-->L-S)
d. Không so sánh được Conference(S’-->L-S) và Conference(S-->L-S)

Câu 221: Cho X, Y là các tập mục, X là tập con của Y thì ta có:
a. Support(X)>=Support(Y)
b. Support(X)<=Support(Y)
c. Support(X) =Support(Y)
d. Không so sánh được Support(X) và Support(Y)

Câu 222: Cho X={A,B}, Y={A, B, C} là các tập mục, ta có:


a. Support(X)>=Support(Y)
b. Support(X)<=Support(Y)
c. Support(X) =Support(Y)
d. Không so sánh được Support(X) và Support(Y)

Câu 223: Cho X không là tập mục thường xuyên thì với mọi tập Y chứa X ta có kết
luận:
a. Y không là tập mục thường xuyên
b. Y là tập mục thường xuyên
c. X là tập mục thường xuyên
d. Không thể kết luận được điều gì

Câu 224: Cho X ={A,B,C} là tập mục thường xuyên, Y={A, B} ta có kết luận:
a. Y là tập mục thường xuyên
b. Y không là tập mục thường xuyên
c. C là tập mục thường xuyên
d. X không là tập mục thường xuyên

Câu 225: Kết luận nào sau đây là sai:


a. Tập con của một tập mục thường xuyên KHÔNG là tập mục thường xuyên
b. Tập con của một tập mục thường xuyên là tập mục thường xuyên
c. Nếu luật kết hợp A-->BC thỏa mãn điều kiện của bài toán thì AB-->C cũng là luật
kết hợp thỏa mãn điều kiện của bài toán
Khoa CNTT – Data Mining 60
d. Cho tập mục X={X1, X2, …, Xn}. Nếu tất cả các mục Xi trong X đều không là tập
mục thường xuyên thì mọi tập con Y của X cũng không là tập mục thường xuyên.

Câu 226: Cho X ={A, B} không là tập mục thường xuyên, Y = {A, B, C} ta có kết
luận:
a. Y không là tập mục thường xuyên
b. Y là tập mục thường xuyên
c. X là tập mục thường xuyên
d. C không là tập mục thường xuyên

Câu 227: Cho X ={X1, X2, …, Xn } là tập các mục. Y là tập con của X. Nếu tất cả các
mục Xi đều không là tập mục không thường xuyên thì ta có kết luận:
a. Y không là tập mục thường xuyên
b. Y là tập mục thường xuyên
c. X là tập mục thường xuyên
d. Tập X – Y là tập mục thường xuyên

Câu 228: Ý tưởng chính của thuật toán Apriori là:


a. Tạo ra các tập phổ biến (thường xuyên) có 1 item, rồi tiếp đến là 2 items, 3 items...
cho đến khi chúng ta tạo ra tập phổ biến của mọi kích thước. Mỗi tập item được tạo ra
phải được tính toán độ hỗ trợ và độ tin cậy. Tập k-item được tạo ra từ tập k-1 items. Tạo
danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi một tập k-1 items có
trong danh sách.
b. Tạo ra các tập phổ biến (thường xuyên) có 1 item, rồi tiếp đến là 2 items, 3 items...
cho đến khi chúng ta tạo ra tập phổ biến của mọi kích thước. Tập k item được tạo ra từ
tập k-1 items. Tạo danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi
một tập k-1 items có trong danh sách. Loại bỏ các tập item không thỏa độ hỗ trợ và độ
tin cậy
c. Tạo bảng chứa các item phổ biến, loại bỏ các item không phổ biến. Giả sử có k item
là ứng viên. Tính các tập mục mà mỗi mục có số lượng phần tử là tổ hợp chập 1, 2, 3,
… k của k item. Loại bỏ các item không thỏa mãn độ hỗ trợ và độ tin cậy.
d. Lần lượt tạo ra danh sách các item dự kiến của tập k-items bằng cách hợp từng đôi
một tập k-1 items có trong danh sách. Loại bỏ các tập item không thỏa độ hỗ trợ và độ
tin cậy.

Câu 229: Cho tập mục thường xuyên X có độ dài k (k mục), từ tập X có thể sinh ra bao
nhiêu luật kết hợp:
Khoa CNTT – Data Mining 61
a. 2^k-2, không tính luật X và X
b. 2^k không tính luật X và X
c. k luật
d. Vô số luật kết hợp

Câu 230: Cho tập mục thường xuyên X={A, B, C}, từ tập X có thể sinh ra bao nhiêu
luật kết hợp:
a. 6 luật, không tính luật X và X
b. 8 luật, không tính luật X và X
c. 3 luật
d. 1 luật

Câu 231: Cho tập mục thường xuyên X={A, B, C, D}, từ tập X có thể sinh ra bao nhiêu
luật kết hợp:
a. 14 luật, không tính luật X và X
b. 16 luật, không tính luật X
c. 3 luật
d. 1 luật

Câu 232: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Sử dụng thuật toán Apriori, sau lần duyệt thứ hai, danh sách L2 chứa các tập mục
thường xuyên có 2-item được tạo ra là:
a. L2={{A,C}, {B,C}, {B,E}, {C,E}}
b. L2={{ A,D}, {B,D}, {B,E}, {C,E}}
c. L2= {{B,C}, {B,E}, {C,E}}
d. L2= {{A,C}, {C,E}}

Câu 233: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Khoa CNTT – Data Mining 62


Sử dụng thuật toán Apriori, sau lần duyệt thứ hai, các tập mục có 2-item được không
thỏa mãn độ hỗ trợ tối thiểu là:
a. {A,B} và {A,E}
b. {A,B} và {A,D}
c. {A,C} và {B,C }
d. {A,C}, {B,E}

Câu 234: Cho CSDL giao dịch như hình vẽ với Min_Support = 2 (50%).

Sử dụng thuật toán Apriori, cho L2={{A,C}, {B,C}, {B,E}, {C,E}} là danh sách các tập
mục thường xuyên có 2-item. Giả sử tập mục {A,B} và {A,E} không là tập mục thường
xuyên. Sau khi ghép các tập mục thường xuyên 2-item với nhau để được danh sách L3
chứa các tập mục thường xuyên có 3-item, L3 là: a. L3={{B, C, E}}

b. L3={{A,B, C} và {A,C,E}}
c. L3={{A,C,E} và {B,C,E }}
d. L3={{A,B,C,}}

Câu 235: Cho tập ví dụ học như bảng.

Theo phân lớp Bayes thì bộ X={Outlook=’Overcast’, Temperature=’Cold’,


Humidity=’Normal’, Wind=’Strong’} thuộc lớp nào:
a. Lớp Play Ball = ‘Yes’
Khoa CNTT – Data Mining 63
b. Lớp Play Ball=’No’
c. Không phân lớp được
d. Lớp Outlook=’Overcast’

Câu 236: Cho tập ví dụ học như bảng.

Theo phân lớp Bayes thì bộ X={Outlook=’Rain’, Temperature=’Cold’,


Humidity=’High’, Wind=’Weak’} thuộc lớp nào:
a. Lớp Play Ball = ‘No’
b. Lớp Play Ball=’Yes’
c. Không phân lớp được
d. Lớp Outlook=’Rain’

Câu 237: Cho tập ví dụ học như bảng.

Theo phân lớp Bayes thì bộ X={Outlook=’Rain’, Temperature=’Cold’,


Humidity=’Normal’, Wind=’Weak’} thuộc lớp nào:
a. Lớp Play Ball = ‘No’
b. Lớp Play Ball=’Yes’
c. Không phân lớp được
d. Lớp Outlook=’Rain’

Câu 238: Cho tập ví dụ học như bảng.

Khoa CNTT – Data Mining 64


Theo phân lớp Bayes thì bộ X={Outlook=’Sunny’, Temperature=’Cold’,
Humidity=’Normal’, Wind=’Strong’} thuộc lớp nào:
a. Lớp Play Ball = ‘Yes’
b. Lớp Play Ball=’No’
c. Không phân lớp được
d. Lớp Outlook=’Rain’

Câu 239: Cho FP-Tree như hình vẽ, cây điều kiện FP của nút f là:

a. Cây rỗng
b. {f:4}
c. {f:4, c:1}
d. {f:3, c:3, a:3

Câu 240: Cho FP-Tree như hình vẽ, cây điều kiện FP của nút C là:

Khoa CNTT – Data Mining 65


a. Cây rỗng
b. {f:4}
c. {f:4, c:1}
d. {f:1, c:1}

Câu 241: Cho FP-Tree như hình vẽ, cây điều kiện FP của nút a là:

a. {f:4, c:3}
b. {f:3, c:3}
c. {f:4, c:3, a:3}
d. {f:3, c:3, a:3

Câu 242: Cho đồ thị như hình vẽ, đồ thị trên biểu diễn gì ?

Khoa CNTT – Data Mining 66


a. So sánh Thời gian thực thi với số lượng giao dịch
b. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 thuật toán FP-Growth và
Apriori theo số lượng giao dịch (nghìn giao dịch)
c. So sánh 2 thuật toán FP-Growth và Apriori
d. Mối quan hệ giữa 2 thuật toán FP-Growth và Apriori

Câu 243: Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:

a. Với cùng số lượng giao dịch như nhau, thời gian thực thi của thuật toán FP-Growth
luôn nhiều hơn thời gian thực thi của thuật toán Apriori
b. Với cùng số lượng giao dịch như nhau, thời gian thức thi thuật toán FP-Growth luôn
ít hơn thời gian thực thi thuật toán Apriori
c. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth
d. Hai thuật toán FP-Growth và Apriori đều thức thi với thời gian rất nhỏ.

Câu 244: Cho đồ thị như hình vẽ. Nhận xét nào sau đây là sai:

Khoa CNTT – Data Mining 67


a. Với cùng số lượng giao dịch như nhau, thời gian thức thi thuật toán FP-Growth luôn
ít hơn thời gian thực thi thuật toán Apriori
b. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth
c. Khi số lượng giao tác rất nhỏ, thời gian thực thi của 2 thuật toán FP-Growth và
Apriori là tương đương
d. Thuật toán FP-Growth thực hiện nhanh hơn thuật toán Apriori

Câu 245: Cho đồ thị như hình vẽ, đồ thị trên biểu diễn gì ?

a. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 thuật toán FP-Growth và
Apriori trên 2 Database D1 và Database D2
b. So sánh giữa Thời gian thực thi (tính bằng giây) của 2 thuật toán FP-Growth và
Apriori theo ngưỡng của độ hỗ trợ trên 2 Database D1 và Database D2
c. So sánh 2 thuật toán FP-Growth và Apriori theo ngưỡng độ tin cậy
d. Mối quan hệ giữa 2 thuật toán FP-Growth và Apriori

Khoa CNTT – Data Mining 68


Câu 246: Cho đồ thị như hình vẽ. Từ đồ thị ta thấy:

a. Với cùng ngưỡng của độ hỗ trợ, thời gian thực thi của thuật toán FP-Growth luôn
nhiều hơn thời gian thực thi của thuật toán Apriori
b. Với cùng ngưỡng của độ hỗ trợ, thời gian thức thi thuật toán FP-Growth luôn ít hơn
thời gian thực thi thuật toán Apriori
c. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth
d. Hai thuật toán FP-Growth và Apriori đều thức thi với thời gian rất nhỏ.

Câu 247: Cho đồ thị như hình vẽ. Nhận xét nào sau đây là sai:

a. Với cùng ngưỡng độ hỗ trợ, thời gian thức thi thuật toán FP-Growth luôn ít hơn thời
gian thực thi thuật toán Apriori
b. Thuật toán Apriori thực hiện nhanh hơn thuật toán FP-Growth

Khoa CNTT – Data Mining 69


c. Khi số ngưỡng của độ hỗ trợ rất lớn, thời gian thực thi của 2 thuật toán FP-Growth và
Apriori là tương đương
d. Thuật toán FP-Growth thực hiện nhanh hơn thuật toán Apriori

Câu 248: Hãy cho biết đáp án nào trong các đáp án trên là đúng:

a. Đáp án B
b. Đáp án A
c. Đáp án C
d. Đáp án D

Câu 249: Hãy cho biết đáp án nào trong các đáp án trên là đúng:

a. Đáp án B
b. Đáp án A
c. Đáp án C
d. Đáp án D

Câu 250: Hãy cho biết đáp án nào trong các đáp án trên là đúng:

Khoa CNTT – Data Mining 70


a. Đáp án B
b. Đáp án A
c. Đáp án C
d. Đáp án D

Câu 251: Cho tập ví dụ học như bảng.

X={Outlook=’Sunny’, Temperature=’Cold’, Humidity=’Normal’, Wind=’Strong’} là


một mẫu. Thuộc Wind có các giá trị ‘Weak’ và ‘Strong’, với:
a. P(Weak | Yes)=2/3; P(Weak | No) = 1/3; P(Strong | Yes) = 2/3; P(Strong | No) = 2/3
b. P(Weak | Yes)=2/3; P(Weak | No) = 2/3; P(Strong | Yes) = 1/3; P(Strong | No) = 1/3
c. P(Weak | Yes)=1/3; P(Weak | No) = 2/3; P(Strong | Yes) = 3/3; P(Strong | No) = 1/3
d. P(Weak | Yes)=2/3; P(Weak | No) = 0/3; P(Strong | Yes) = 1/3; P(Strong | No) = 1/3

Câu 252: Cho tập ví dụ học như bảng.

Khoa CNTT – Data Mining 71


X={Outlook=’Sunny’, Temperature=’Cold’, Humidity=’Normal’, Wind=’Strong’}là
một mẫu. Thuộc Humidity có các giá trị ‘Normal’ và ‘High’, với:
a. P(Normal | Yes)=2/3; P(Normal | No) = 1/3; P(High | Yes) = 1/3; P(High | No)= 2/3
b. P(Normal | Yes)=1/3; P(Normal | No) = 3/3; P(High | Yes) = 0/3; P(High | No)= 2/3
c. P(Normal | Yes)=3/3; P(Normal | No) = 1/3; P(High | Yes) = 0/3; P(High | No)= 2/3
d. P(Normal | Yes)=0/3; P(Normal | No) = 2/3; P(High | Yes) = 3/3; P(High | No)= 2/3

Câu 253: Cho 3 điểm x, y, z. Độ đo khoảng cách d phải thỏa mãn các điều kiện nào:
a. d(x,y)>0 ; d(x,y)=d(y,x) ; d(x,y) =0 ; d(x,y)<=d(x,z)+d(z,y)
b. d(x,y)>=0 ; d(x,y)<=d(x,z)+d(z,y)
c. d(x,y)>=0 ; d(x,y)=d(y,x) ; d(x,x) =0 ; d(x,y)<=d(x,z)+d(z,y)
d. d(x,y)>=0 ; d(x,x) =0 ; d(x,y)<=d(x,z)+d(z,y)

Câu 254: Khi chọn đại diện cho cụm, có thể chọn các đại diện sau:
a. Đại diện điểm, đại diện siêu cầu
b. Đại diện siêu phẳng, đại diện điểm
c. Đại diện điểm, đại diện siêu phẳng và đại diện siêu cầu
d. Đại diện siêu cầu, đại siêu phẳng

Câu 255: Có N phần tử cần chia thành m cụm, mỗi cụm có ít nhất 1 phần tử. Gọi
S(N,m) là số cách chia N phần tử vào m cụm. Công thức nào sau đây cho ta tổng số
cách chia cụm:
a. S(N, m) = m.S(N, m) + S(N - 1, m - 1)
b. S(N, m) = N.S(N - 1, m) + S(N - 1, m - 1)
c. S(N, m) = m.S(N - 1, m) + S(N - 1, m - 1)
d. S(N, m) = S(N - 1, m) + m.S(N - 1, m - 1)

Câu 256: Có N phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Công thức
nào sau đây cho ta tổng số cách chia cụm:
a. S(N,2) = 2^N - 1

Khoa CNTT – Data Mining 72


b. S(N,2) = 2^(N-1)
c. S(N,2) = 2^(N-1) - 1
d. S(N,2) = 2^N

Câu 257: Có N phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Công thức
nào sau đây cho ta tổng số cách chia cụm:
a. S(N,2) = 2^N - 1
b. S(N,2) = 2^(N-1)
c. S(N,2) = 2^(N-1) - 1
d. S(N,2) = 2^N

Câu 258: Có 4 phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Hỏi có bao
nhiêu cách chia cụm:
a. 16 cách
b. 15 cách
c. 7 cách
d. 1 cách

Câu 259: Có 5 phần tử cần chia thành 2 cụm, mỗi cụm có ít nhất 1 phần tử. Hỏi có bao
nhiêu cách chia cụm:
a. 7 cách
b. 32 cách
c. 15 cách
d. 1 cách

Câu 260: Hãy chọn định nghĩa đúng về Ma trận không tương tự:
a. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không
tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) có giá trị là i*j
b. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận
không tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) bằng 0
c. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận không
tương tự P(X) là ma trận cấp N N mà phần tử nằm ở vị trí (i, j) bằng độ không tương tự
d(xi,xj) giữa hai vector xi và xj.
d. Cho tập X gồm N phần tử {x1, x2, …, xN}, mỗi phần tử là một vector. Ma trận
không tương tự P(X) là ma trận cấp N N mà phần tử nằm trên đường chéo chính bằng 0,
các phần tử khác có giá trị bất kỳ

Khoa CNTT – Data Mining 73


Câu 261: Phát biểu nào sau đây không đúng về Ma trận không tương tự:
a. Là ma trận đối xứng qua đường chéo chính
b. Là ma trận cho biết độ không tương tự giữa 2 phần tử bất kỳ
c. Các phần tử nằm trên đường chéo chính bằng có giá trị 0
d. Là ma trận mà các phần tử trên đường chéo chính bằng 1

Câu 262: Sơ đồ gần gũi là :


a. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi ở đó hai cụm được trộn với nhau tạo
thành sơ đồ hình cây
b. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi biểu diễn mối quan hệ giữa các phần
tử trong quá trình phân cụm
c. Sơ đồ gần gũi là sơ đồ không tương tự
d. Sơ đồ gần gũi là một sơ đồ xét mức độ gần gũi ở đó hai cụm được trộn với nhau ở lần
đầu tiên. Khi sử dụng độ đo không tương tự (tương tự), sơ đồ gần gũi được gọi là một sơ
đồ không tương tự (tương tự).

Câu 263: Độ phức tạp của thuật toán k-Mean là:


a. O(n+k+t) trong đó n là số phần tử cần phân cụm, k là số cụm, t là số lần lặp
b. O(n^2) trong đó n là số phần tử cần phân cụm c. O(n) trong đó n là số phần
tử cần phân cụm
d. O(n*k*t) trong đó n là số phần tử cần phân cụm, k là số cụm, t là số lần lặp

Câu 264: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như sau:

Sử dụng thuật toán liên kết đầy đủ (Complete Linkage). Bước đầu tiên ta gom x1, x2
hình vào cụm C1={x1, x2}, bước thứ 2 ta sẽ thực hiện thế nào: a. Gom x3 với C1

b. Gom x4 với C1
c. Gom x3 với x5
d. Gom x3 với x4

Câu 265: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Khoa CNTT – Data Mining 74


Sử dụng thuật toán liên kết đơn (Single Linkage). Bước đầu tiên ta gom x1, x2, vào cụm
C1, bước thứ 2 ta sẽ gom hai cụm nào với nhau:
a. Gom x3 với x4
b. Gom x4 với C1
c. Gom x3 với x5
d. Gom x3 với C1

Câu 266: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Sử dụng thuật toán liên kết đơn (Single Linkage). Bước đầu tiên ta gom x1, x2 vào cụm
C1, ma trận không tương tự P1 được sinh ra có dòng thứ nhất liệt kê từ trái sang phải là:

a. 0 ; 9 ; 8 ; 7
b. 1 ; 9 ; 6 ; 5
c. 1 ; 2 ; 6 ; 6
d. 0 ; 2 ; 6 ; 5

Câu 267: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Sử dụng thuật toán liên kết đầy đủ (Complete Linkage). Bước đầu tiên ta gom x1, x2
vào cụm C1, ma trận không tương tự P1 được sinh ra có dòng thứ nhất liệt kê từ trái
sang phải là:
a. 0 ; 2 ; 6 ; 5

Khoa CNTT – Data Mining 75


b. 1 ; 9 ; 6 ; 5
c. 1 ; 2 ; 6 ; 5
d. 0 ; 9 ; 8 ; 7

Câu 268: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Sử dụng thuật toán liên kết đơn (Single Linkage). Bước đầu tiên gom x1 và x2 hình
thành cụm C1={x1, x2}; bước 2 ta gom C1 và x3 hình thành cụm C2={x1, x2, x3}.
Hỏi bước thứ 3, ta sẽ gom thế nào:
a. Gom x4 với C1
b. Gom x4 với x5
c. Gom x5 với C1
d. Gom x4 với C2

Câu 269: Cho tập dữ liệu X={x1, x2, x3, x4, x5} và ma trận không tương tự như hình.

Sử dụng thuật toán liên kết đầy đủ (Complete Linkage). Bước đầu tiên gom x1 và x2
hình thành cụm C1={x1, x2}; bước 2 ta gom x3 và x4 hình thành cụm C2={x3, x4}.
Hỏi bước thứ 3, ta sẽ gom thế nào:
a. Gom x3 với C2
b. Gom x3 với x5
c. Gom x5 với C2
d. Gom C1 với x5

Câu 270: Phát biểu nào đúng về thuật toán liên kết đơn:
a. Chọn 2 cụm gần nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa
cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Max{d(Ci,Cq); d(Cj,Cq)}

Khoa CNTT – Data Mining 76


b. Chọn 2 cụm xa nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa
cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Min{d(Ci,Cq); d(Cj,Cq)}
c. Chọn 2 cụm xa nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa d.
Chọn 2 cụm gần nhau nhất Ci, Cj để trộn với nhau thành cụm Cp. Khoảng cách giữa
cụm mới Cp và các cụm còn lại Cq là d(Cp,Cq)=Min{d(Ci,Cq); d(Cj,Cq)} cụm mới Cp
và các cụm còn lại Cq là d(Cp,Cq)=Max{d(Ci,Cq); d(Cj,Cq)}

Khoa CNTT – Data Mining 77

You might also like