You are on page 1of 40

Tóm tắt

Cơ sở dữ liệu song ngữ, bao gồm các cặp văn bản song ngữ hay các cặp câu
song ngữ, đóng một vai trò rất quan trọng trong nhiều ứng dụng ngôn ngữ tự nhiên,
như dịch máy thống kê, xây dựng từ điển song ngữ, tìm kiếm đa ngôn ngữ. Việc xây
dựng cơ sở dữ liệu này bằng tay là một việc tốn nhiều chi phí và thời gian. May mắn
thay là có rất nhiều dữ liệu song ngữ ở các dạng khác nhau trên Internet. Việc khai phá
ra các thành phần tương đương (song ngữ) với chất lượng cao sẽ tạo nên một cơ sở dữ
liệu song ngữ rất lớn phục vụ cho nhiều ứng dụng khác nhau.
Luận văn tập trung vào nghiên cứu và phát triển các kỹ thuật trong khai phá cơ sở
dữ liệu song ngữ Anh-Việt từ World Wide Web (WWW), cụ thể là trên các trang web
song ngữ trong định dạng html. Nhiệm vụ của khai phá dữ liệu song ngữ là tự động tìm ra
hai thành phần có ngữ nghĩa tương ứng trong tập những văn bản thuộc hai ngôn ngữ khác
nhau. Hai thành phần được dóng hàng hoặc được ghép cặp này càng nhỏ thì thông tin hay
tri thức thu được từ đó càng lớn. Thành phần ở đây có thể là văn bản, đoạn, câu và từ,...
Loại thành phần mà chúng tôi xét đến trong luận văn này là văn bản.
Để ghép cặp những văn bản html trong một tập văn bản trong hai ngôn ngữ mà
luận văn khai thác là tiếng Anh và tiếng Việt, chúng tôi tìm hiểu các công nghệ trong các
nghiên cứu hiện tại, xác định ưu điểm nhược điểm và tính khả thi để ứng dụng trong
thực tiễn luận văn này. Có hai tiếp cận đối với bài toán này là dựa trên nội dung (thông
thường là dựa trên đối sánh các cặp từ là bản dịch của nhau – từ điển song ngữ), hoặc là
dựa trên sự tương đồng về cấu trúc trang html. Trong phạm vi luận văn này, chúng tôi
theo tiếp cận dựa trên cấu trúc. Cụ thể chúng tôi khảo sát các đặc trưng cấu trúc khác
nhau như độ tương đồng cấu trúc thẻ của văn bản, độ tương đồng cấu trúc url của văn
bản, và nhiều yếu tố phụ để giảm thời gian chạy của hệ thống. Đồng thời chúng tôi cũng
theo tiếp cận học máy (theo [5]), và áp dụng phương pháp học cây quyết định cho bài
toán này. Đặc biệt chúng tôi đã mô hình hóa bài toán cho bộ phân loại Naïve Bayes và
áp dụng lựa chọn thuộc tính và cho kết quả dóng hàng văn bản tốt hơn khi sử dụng cây
quyết định như trong [5]. Để thực nghiệm, chúng tôi xây dựng một hệ thống làm các
nhiệm vụ: chuẩn bị cơ sở dữ liệu thô từ Internet; một số bước tiền xử lý ngôn ngữ; và
các mô đun dóng hàng văn bản. Kết quả đạt được là khá khả quan với độ chính xác
dóng hàng văn bản khoảng 96% đối với mô hình phân loại Bayes.

2
Mục lục
Tóm tắt........................................................................................... ..............................2
Mục lục.................................................................................................. .......................3
Mở đầu..................................................................................................................... .....3
Chương 1 Giới thiệu............................................................................ ........................4
1.1. Vai trò và tầm quan trọng của dữ liệu song ngữ..............................................................4
1.2. Các nghiên cứu liên quan.................................................................................................6
1.3. Mục tiêu và tiếp cận giải quyết vấn đề...........................................................................10
1.4. Cấu trúc luận văn...........................................................................................................11
Chương 2. Các tiếp cận và kỹ thuật cho bài toán khai phá dữ liệu song ngữ........ 11
2.1. Lọc theo cấu trúc............................................................................................................11
2.2. Lọc theo nội dung..........................................................................................................15
2.3 Các đặc trưng khác..........................................................................................................17
2.4. Thuật toán lập trình động...............................................................................................18
Chương 3. Mô hình học máy cho bài toán đối sánh văn bản............................ ......20
3.1 Mô hình phân loại theo cây quyết định...........................................................................20
3.2. Mô hình phân loại Naive Bayes ....................................................................................25
Chương 4. Thực nghiệm và kết quả.......................................... ...............................27
4.1. Kiến trúc tổng quan hệ thống.........................................................................................28
4.2. Bộ công cụ download và xác định ngôn ngữ.................................................................28
4.3. Xây dựng cơ sở dữ liệu thô............................................................................................32
4.4. Xây dựng bộ phân loại và kết quả phân loại..................................................................34
4.5. Hướng dẫn sử dụng chương trình..................................................................................37
Kết luận.......................................................................................... ............................39
Tài liệu tham khảo................................................................................... ..................40

Mở đầu

Văn bản song ngữ có vai trò thiết yếu trong một số lĩnh vực của xử lý ngôn ngữ
tự nhiên, như dịch máy thống kê, tìm kiếm thông tin trong môi trường đa ngữ,
Trong dịch máy thống kê, các kho dữ liệu song ngữ bao gồm nhiều cặp văn bản
với chất lượng dịch cao là nguồn tài nguyên quan trọng nhất quyết định chất lượng của

3
hệ dịch. Đối với một số cặp ngôn ngữ, việc tạo ra kho dữ liệu song ngữ là không khó
(nếu như cặp ngôn ngữ đó đều phổ biến rộng rãi trên thế giới, ví dụ với cặp tiếng Anh
và tiếng Pháp). Tuy nhiên thật không may cho khá nhiều cặp ngôn ngữ như Anh-Việt,
trong đó có một ngôn ngữ ít phổ biến hơn như tiếng Việt, việc xây dựng các kho dữ
liệu song ngữ rất khó khăn. Điều này chủ yếu do số lượng các văn bản song ngữ có thể
khai thác được còn quá ít và chất lượng dịch chưa cao. Thực hiện công việc này bằng
tay là một việc nặng nề và tốn kém. Đây là một trở ngại lớn cho việc phát triển các
ứng dụng xử lý ngôn ngữ tự nhiên dựa trên tiếp cận thống kê, nhất là cho các cặp ngôn
ngữ như Anh - Việt.
Hiện nay lượng thông tin trên Internet rất lớn, và do nhu cầu giao lưu quốc tế,
số lượng trang web có hai ngôn ngữ Anh và Việt cũng trở nên phổ biến hơn. Đây là
nguồn tài nguyên quý giá đối với việc khai thác dữ liệu song ngữ trên Internet. Hơn
nữa, đối với tiếng Việt, các nghiên cứu về khai phá tự động dữ liệu song ngữ còn ít với
kết quả còn hạn chế, hầu như chưa có kho ngữ liệu song ngữ nào được công bố rộng
rãi. Do vậy, việc nghiên cứu phát triển các phương pháp tự động xây dựng các kho dữ
liệu song ngữ cho các cặp ngôn ngữ Anh – Việt là một chủ đề nghiên cứu rất ý nghĩa.
về mặt nghiên cứu và có tính thực tiễn cao. Trong luận văn này chúng tôi giới hạn mức
dữ liệu ở mức văn bản, tức là khai phá các văn bản song ngữ Anh Việt (không phải
mức câu hay mức từ). Chúng tôi với luận văn này mong muốn với lý thuyết đưa ra và
hệ thống thực nghiệm hi vọng sẽ đáp ứng phần nào nhu cầu về văn bản song ngữ cho
cặp ngôn ngữ Anh-Việt. Cụ thể luận văn sẽ tập trung vào hai nhiệm vụ chính:
Tìm hiểu, nghiên cứu, phát triển các công nghệ trong bài toán khai phá dữ liệu
song ngữ, cụ thể cho xây dựng các cặp văn bản song ngữ.
Xây dựng công cụ khai phá các cặp văn bản song ngữ trên World Wide Web cho
cặp ngôn ngữ Anh –Việt.

Chương 1 Giới thiệu

1.1. Vai trò và tầm quan trọng của dữ liệu song ngữ
Văn bản song ngữ là tài nguyên ngôn ngữ giàu có cho nhiệm vụ quản lý văn
bản đa ngữ khác nhau, gồm trích rút văn bản ngôn ngữ bắt chéo, khai phá văn bản đa
ngữ và ngôn ngữ máy tính. Một tập văn bản song ngữ là tài nguyên cơ bản cho tạo cơ

4
sở tri thức ngôn ngữ đa ngữ như dịch máy và từ điển theo chủ đề đa ngữ. Với sự phát
triển của World Wide Web, thông tin điện tử có thể truy cập có số lượng ngôn ngữ
ngày càng tăng. Có thông tin nói rằng, ở trong năm 2005, hơn 50% nội dung trang web
là thuộc về những ngôn ngữ khác ngoài tiếng Anh. Với sự đa dạng như vậy, Web thực
sự là tập hợp khổng lồ tài liệu đa ngữ bởi nó tạo ra nơi lưu trũ văn bản lớn cho việc
xây dựng dữ liệu song ngữ.
Trong xử lý ngôn ngữ tự nhiên, điều cần đặc biệt lưu ý là cần phát triển tài
nguyên từ vựng chuyên sâu gồm từ vựng ( ví dụ tập từ vựng cho ngữ pháp có tính rõ
ràng về mặt ngôn ngữ, cho tập mẫu cho hệ thống trích thông tin, những bản thể cho
chống nhập nhằng nghĩa). Tài nguyên này là thiết yếu cho tăng khả năng của hệ thống
và thay đổi giữa các lĩnh vực dễ hơn. Ví dụ, để tin cậy, một hệ thống trích thông tin
cần truy cập tới từ điển ngôn ngữ chất lượng cao. Hầu hết các tài nguyên từ điển ngôn
ngữ đều được phát triển bằng tay với chuyên gia tạo từ điển ngôn ngữ. Dự án như vậy
là đắt đỏ và kết quả tài nguyên có mức độ bao phủ thường giới hạn, và yêu cầu tập
trung mức độ cao cho miền mới. Thu thập tự động từ vựng đang hứa hẹn nhiều và tiếp
cận hiệu quả để thực hành và tăng khả năng đứng vững khi có sự phát triển gần đây
của xử lý ngôn ngữ tự nhiên, kỹ thuật học máy và dữ liệu trong đó dữ liệu song ngữ
ngày càng phát triển và trong đó dữ liệu Anh-Việt cũng đóng góp cho các đề tài liên
quan đến hai ngôn ngữ này.
Cơ sở các cặp câu song ngữ đóng vai trò thiết yếu trong dịch máy thống kê.
Theo [2], dịch máy thống kê là một mô hình dịch máy trong đó những bản dịch được
tạo ra trên nền tảng mô hình thống kê mà tham số của chúng đã được lấy từ sự phân
tích kho văn bản song ngữ. Tiếp cận thống kê tương phản với tiếp cận dựa trên luật
trong dịch máy như là dịch máy dựa trên mẫu và hiện là tiếp cận mang lại thành công
nhất đối trong lĩnh vực dịch máy.
Cross-language information retrieval (CLIR) là sự truy tìm những tài liệu liên
quan dựa trên cơ sở những câu hỏi được đưa ra bởi con người và trả lại một tập hợp tài
liệu thỏa mãn câu hỏi trong những ngôn ngữ khác ngôn ngữ của câu hỏi. Hệ thống
CLIR có ba hướng tiếp cận chủ yếu: dịch máy, dữ liệu song ngữ hay có tính so sánh,
và từ điển mà máy có thể đọc. Đối với tiếp cận sử dụng dữ liệu song ngữ, các truy vấn
được dịch trên cơ sở của mục từ được trích từ tập tài liệu song ngữ hoặc so sánh.
Trong tập văn bản song ngữ, cặp hay một tập tài liệu được xác định trong những ngôn
ngữ khác nhau. Một văn bản so sánh được chứa những tài liệu trong những ngôn ngữ
khác nhau.

5
Từ các mô tả những lĩnh vực và yêu cầu văn bản song ngữ của từng lĩnh vực thì
chúng ta có thể thấy rằng văn bản song ngữ đóng một vai trò quan trọng trong xử lý
ngôn ngữ tự nhiên.
1.2. Các nghiên cứu liên quan
Web là tài nguyên khổng lồ và hầu như miễn phí cho tất cả mọi người. Và xuất
phát từ nhu cầu văn bản song ngữ của các lĩnh vực khác trong xử lý ngôn ngữ tự
nhiên, nhiều nhà nghiên cứu đã phát triển và xây dựng các hệ thống tự động khai phá
dữ liệu song ngữ từ Web.
Theo [1, 3] các website song ngữ thường đặt tên tương tự nhau cho các trang
web song ngữ. Chủ website song ngữ đặt như vậy để giữ lại dấu vết của những trang
web theo ngôn ngữ của chúng. Những tên trang web luôn gồm có một substring chung
chỉ ra tính song song song của những trang web, cùng đi với một substring khác được
sử dụng như là cờ ngôn ngữ chỉ ra ngôn ngữ của mỗi tài liệu cụ thể. Như vậy những cờ
ngôn ngữ thường nối vào đằng trước, ở giữa và cuối của substring chung của cặp tài
liệu song ngữ. Hơn nữa, những cờ ngôn ngữ thường được nối tới phần chung bằng các
ký tự gạch ngang ‘-’ hoặc gạch dưới ‘_’. Ví dụ, khi một trang web tiếng Anh với tên là
“document-en.htm” được tạo thì một bản dịch của nó trong tiếng việt sẽ là “document-
vn.htm” để chỉ ra tính song song để dễ quản lý website. Ở trường hợp khác cờ ngôn
ngữ chỉ được nối tới tên file của những tài liệu của một ngôn ngữ cụ thể. Ví dụ, nếu tài
liệu tiếng Anh được gọi là “document.htm” được tạo thì bản tiếng Việt của nó sẽ là
document-vn.htm để chỉ ra sự khác biệt ngôn ngữ. Tất cả những điều trên sẽ hỗ trợ các
tài liệu web song ngữ qua được model so sánh tên file - modul quan trọng nhất trong
PTMiner.
PTMiner có một cách tiếp cận trong so sánh cấu trúc thẻ html của trang web.
Trong tiếp cận này, hệ thống phân ra hai loại thẻ, một loại có ý nghĩa - ảnh hưởng đến
cấu trúc giao diện của trang web, còn loại thẻ còn lại sẽ không có ý nghĩa tức không có
ảnh hưởng đến cấu trúc trang web, ví dụ: với loại có ý nghĩa: <p>, <h1>, <table>,
<td>,... còn loại không có ý nghĩa: <meta>, <font>,..Sau khi đã chuyển sang tuyến tính
(hoặc có thể tạo cây) để dóng hàng, và số đặc trưng chỉ là 1, tỉ lệ thẻ không được dóng
hàng, tỉ lệ này cũng có thể tối ưu bằng học máy kết hợp với các đặc trưng khác của hệ
thống.
Theo [5] STRAND lấy modul so sánh cấu trúc thẻ html làm trái tim của hệ
thống. STRAND có nhiều phiên bản, ở phiên bản cũ, hệ thống khai phá web qua ba
bước:

6
Locating - xác định những trang có lẽ có bản dịch song ngữ
Generating - tạo các cặp thí sinh có lẽ là bản dịch
Structure filtering - lọc cấu trúc bỏ ra những cặp không là bản dịch
Trong bước locating, STRAND sử dụng trình tìm kiếm AltaVista để tìm kiếm
hai kiểu trang web đó là: cha và anh em.
Một trang cha là một trang chứa những link đến nhiều phiên bản khác nhau của
một tài liệu; ví dụ:

Hình 1: Ví dụ về trang cha


Nhìn vào ví dụ trên, trang cha chứa link đến các phiên bản khác nhau của cùng
một nội dung. Các phiên bản là tiếng Anh, tiếng Trung, tiếng Việt. Sau đó để tạo cặp trang
web thí sinh thì chỉ cần lấy hai link của hai bản tiếng Việt và Tiếng Anh với nhau.
Trang anh em là trang trong một ngôn ngữ và nó chứa một link đến bản đó
trong ngôn ngữ khác. Ví dụ:

Hình 2: Ví dụ về trang anh em


Nhìn vào ví dụ trên, trang này chứa một link đến một bản khác trong tiếng Anh.
Để ghép tạo cặp thí sinh thì chỉ cần ghép trang này với bản tiếng Anh tương ứng.
Trong bước generating, cho những cặp url có khả năng chứa bản dịch qua
modul so sánh url. STRAND cũng tạo các luật để so sánh, chẳng hạn, en -> vn. Ngoài
ra, trong modul này của STRAND có thêm tính năng hỗ trợ thay thế, loại bỏ nhiều
đoạn trong url, ví dụ:

7
Hình 3: Ví dụ về loại bỏ nhiều đoạn
Bước structure filtering thì sẽ được trình bày ở phần lọc cấu trúc.
Trong STRAND phiên bản mới có thêm modul so sánh content, sẽ trình bày ở
đoạn lọc nội dung.
Theo [4] PCMS nói chung là giống STRAND. Nhưng có một số điểm khác
biệt.
Thứ nhất, trong phần tính độ tương tự cấu trúc url của hai trang web thì hệ
thống tính toán cụ thể còn STRAND và PTMiner chỉ thay thế loại bỏ kiểm tra chúng
có giống nhau hay không. PCMS tiền xử lý những thư mục con trong url mà xác định
ngôn ngữ của trang web. PCMS thay thế chúng bằng chuỗi ký tự duy nhất. Ví dụ url:
.../english/....file.htm sẽ thành ..../***/....file.htm. Tiếp đó, một số tiêu chí được tính
toán như sau:
Tỉ lệ số thư mục con của url của hai trang web. Công thức là:
| len( A) − len( B) |
URL diff (A, B) =
len( A) +len( B)

Trong công thức trên len(A) là số thư mục con của url A, và len(B) là số thư
mục con của url B. Nếu số thư mục con của A và B như nhau thì tỉ lệ khác nhau sẽ
là 0.
Tỉ lệ thư mục con có tên giống nhau. Công thức là:
2 * comdir ( A, B )
URL dirsim(A, B) =
len( A) + len( B )

Trong công thức trên, comdir(PA,PB) là số thư mục con có tên giống nhau.

8
Thứ hai, trong modul so sánh nội dung, PCMS triển khai mô hình không gian
vecto song ngữ. Ý tưởng của mô hình này là mỗi trang web được đại diện bởi một
vecto các mục từ, và tập trang web của một ngôn ngữ là một không gian vecto có số
chiều bằng số từ vựng của ngôn ngữ đó. Vì số mục từ của hai ngôn ngữ bất kỳ là khác
nhau nên PCMS đưa ra cách chuyển đổi số chiều của không gian vecto của ngôn ngữ
này bằng số chiều của không gian vecto của ngôn ngữ kia. Và công thức cosine
coefficient được sử dụng để tính độ tương tự. Công thức như sau:
p

∑xi =1
i yi
Cosine ecoefficient = p p

∑xi2 * ∑y i2
i =1 i =1

Với p là số mục từ tiếng Anh.


Theo [5], modul so sánh nội dung của hai trang web là quan trọng nhất của hệ
thống. Và so sánh toàn bộ nội dung được quy về so sánh đoạn, so sánh đoạn dựa trên
mô hình ánh xạ từ -từ Hai đoạn đã được dóng hàng với nhau đã thỏa mãn điều kiện số
từ được dóng hàng lớn hơn một ngưỡng nào đó. Tổng số từ được dóng hàng của cả
trang web bằng tổng của tất cả các đoạn. Đặc trưng rút ra là số từ được dóng hàng trên
tổng số từ của hai trang web.
Theo [6] Một hệ thống được xây dựng, tự động khai phá dữ liệu song ngữ dựa trên
dóng hàng DOM Tree. Ý tưởng này rất hay ở chỗ nó đi vào thực tế của cấu trúc html của
trang web là cấu trúc cây chứ không phải là tuyến tính. Mô hình DOM Tree có nhược
điểm là nắm bắt khó hơn, liên quan đến xác suất có điều kiện. Thời gian chạy của dóng
hàng cây DOM nhiều hơn so với dóng hàng tuyến tính. Ví dụ về DOM Tree:

Hình 4: Sự khác nhau giữa mô hình DOM chuẩn và mô hình DOM sau thu gọn
Mô hình dóng hàng cây DOM định nghĩa dóng hàng như tiến trình không thay
đổi thứ tự cây. Ví dụ node A được dóng hàng với node B thì con của A sẽ bị xóa hoặc
được dóng hàng với con của B.

9
Để thẩm tra một cặp trang web thí sinh có đúng là song song, một bộ phân lớp
dựa trên maximum entropy nhị phân được sử dụng.
Tiêu chi tương đồng cấu trúc hẻ html được tính như sau: tất cả thẻ html của
trang web được nối thành một chuỗi. Sau đó khoảng cách nhỏ nhất giữa hai chuỗi thẻ
liên quan đến cặp thí sinh được tính toán, và độ tương đồng thẻ html là tỉ lệ số thẻ
giống nhau chia cho tổng số thẻ.
Điểm cho dóng hàng câu được định nghĩa là tỉ lệ số câu đã dóng hàng và tổng
số câu trong cả hai file.
1.3. Mục tiêu và tiếp cận giải quyết vấn đề
Với vai trò, tầm quan trọng của dữ liệu song ngữ đối với các ứng dụng xử lý
ngôn ngữ tự nhiên, đồng thời được thúc đẩy bởi việc thiếu cơ sở dữ liệu song ngữ Anh
-Việt cho nhiều nghiên cứu khác, luận văn tập trung vào các công việc:
Tìm hiểu, nghiên cứu, phát triển các công nghệ trong bài toán khai phá dữ liệu
song ngữ, cụ thể cho xây dựng các cặp văn bản song ngữ.
Xây dựng công cụ khai phá các cặp văn bản song ngữ trên World Wide Web cho
cặp ngôn ngữ Anh –Việt.
Phần 1.2 đã trình bày một cách tóm tắt những nghiên cứu trong khai phá dữ liệu
song ngữ. Có thể chia làm hai tiếp cận chính là tiếp cận dựa trên nội dung và tiếp cận
dựa trên cấu trúc của trang web. Đối với tiếp cận dựa trên nội dung, chúng ta phải sử
dụng từ điển song ngữ. Do việc từ điển song ngữ Anh – Việt có quá nhiều nhập nhằng,
hơn nữa do thời gian có hạn nên chúng tôi tập trung vào nghiên cứu theo tiếp cận thứ
hai là dựa vào cấu trúc văn bản (trang web). Phương pháp được chúng tôi sử dụng và
phát triển dựa trên nghiên cứu [3,5], với hai phần:
Xác định các thuộc tính dùng để đo độ tương tự giữa hai trang html
Áp dụng thuật toán học máy để xây dựng mô hình trên tập các thuộc tính trên.
Đối với phần thứ nhất, chúng tôi sẽ sử dụng các thuộc tính sau:
So sánh độ tương đồng tên file của trang web
So sánh độ tương đồng cấu trúc url
So sánh cấu trúc html của cặp trang web
Và một số tiêu chí khác để làm giảm thời gian chạy của hệ thống như ngày sửa,
tỉ lệ âm tiết, tỉ lệ chunk.

10
Đối với thuật toán học máy, chúng tôi mô hình hóa và áp dụng cho hai thuật
toán là Naïve Bayes và Decision Tree (cây quyết định).
1.4. Cấu trúc luận văn
Chương 1. Giới thiệu vai trò của dữ liệu song ngữ và bài toán khai phá dữ liệu song
ngữ đặt ra.
Chương 2. Đưa ra lý thuyết về các đặc trưng có thể trích ra các đặc trưng có thể dùng
làm đặc trưng phân loại.
Chương 3. Mô hình học máy cho bài toán đối sán h văn bản
Chương 4. Đưa ra kiến trúc hệ thống dùng để thực nghiệm và kết quả phân loại
Kết luận đánh giá kết quả hướng phát triển của hệ thống

Chương 2. Các tiếp cận và kỹ thuật cho bài toán khai phá
dữ liệu song ngữ
2.1. Lọc theo cấu trúc
Trên World Wide Web tồn tại nhiều dữ liệu, và nhiều kiểu định dạng dữ liệu,
chẳng hạn htm, xhtml, doc, pdf,... và luận văn chỉ sử dụng văn bản định dạng html –
trang web (có thể là html động khi download lưu vào ổ cứng nó có thêm đuôi html, ví
dụ: *.cfm.html).

11
Các trang web có nền tảng là text, có chứa thẻ đánh dấu, chỉ thị cho chương
trình về cách hiển thị hay xử lý văn bản.
Trong html có bốn loại phần tử đánh dấu:
Đánh dấu có cấu trúc miêu tả mục đích của phần văn bản (ví dụ, <h1>Golf</h1>
sẽ điều khiển phần mềm đọc hiển thị "Golf" là đề mục cấp một),
Đánh dấu trình bày miêu tả phần hiện hình trực quan của phần văn bản bất kể
chức năng của nó là gì (ví dụ, <b>boldface</b> sẽ hiển thị đoạn văn bản
boldface).
Đánh dấu liên kết ngoài chứa phần liên kết từ trang này đến trang kia <a
href="http://www.wikipedia.org/">Wikipedia</a> sẽ hiển thị từ Wikipedia như
là một liên kết ngoài đến một url).
Các phần tử thành phần điều khiển giúp tạo ra các đối tượng (ví dụ, các nút và
các danh sách)
Bên dưới trang web là các thẻ html và văn bản thuần túy. Trong tiếp cận cấu trúc, có 2
kỹ thuật nhỏ:
Thứ nhất, chỉ quan tâm đến các thẻ cấu trúc và điều khiển giống như lọc cấu
trúc của hệ thống PTMiner.
Thứ hai, tất cả thẻ có ảnh hưởng đến cái nhìn được từ phía người dùng, tức loại
bỏ các comment trong file html.
Để việc dóng hàng tốt hơn, việc phân biệt nonmarkup text và markup text là
cần thiết. thuộc tính của thẻ là nonmarkup text hiển thị là markup text.
Modul so sánh cấu trúc thực hiện hai bước sau:
Bước 1: chuyển các thẻ nội dung của file html thành cấu trúc tuyến tính hay
chuỗi tuần tự của các từ tố của các thẻ cho các trang web của hai ngôn ngữ mà hệ
thống quan tâm ở đây là Anh và Việt, với modul này nội dung trang web được đưa về
chuỗi của bốn loại từ tố:
[start:label], label là tên thẻ html, ví dụ, [start:html], [start:script]
[end:label]
[chunk:length], length số ký tự khác ‘trắng’ của văn bản đánh dấu
[chunka:length], length số ký tự khác ‘trắng’ của văn bản không đánh dấu

12
Còn các yếu tố khác trong html như chú thích thì nó không ảnh hưởng nhiều
đến sự tương đồng của hai trang web nên bị loại bỏ khi chuyển sang tuyến tính.
Ví dụ: source: <font size=’20’>COLTECH </font> sẽ được chuyển tuyến tính thành
[start:font], [chunka:9], [chunk:7],[end:font].
Bước 2: dóng hàng hai chuỗi từ tố đại diện cho hai trang web song ngữ việc
dóng hàng dùng thuật toán quy hoạch động sẽ được trình bày bên dưới.
Ví dụ:
Source trang web:

Hình 5a: Ví dụ về source trang web


Chuỗi từ tố:

Hình 5b: Ví dụ về dóng hàng hai chuỗi từ tố cho hai văn bản
Sau khi dóng hàng, để xác định hai trang web đưa ra có là bản dịch hay không
thì cần phải có thông số để có thể tạo các quyết định với thông số này. Và bốn thông số
được đưa ra kiểm nghiệm chất lượng dóng hàng trang web:
dp: tỉ lệ từ tố không được dóng hàng
n: số từ tố [chunka:length] đã dóng hàng nhưng độ dài length không
bằng nhau
r: độ tương quan độ dài của văn bản nonmarkup đã được dóng hàng.
Chính là tương quan length trong [chunka:length]
p: độ tin cậy của r

13
Tỉ lệ khác nhau dp với ý nghĩa khác là chỉ ra lỗi của những từ tố trong chuỗi
tuyến tính ở một bên không tương ứng với từ tố nào bên chuỗi còn lại. Từ ví dụ trên,
một bên chứa H1 header nhưng không có trong bên văn bản kia. Lượng lớn lỗi như
vậy sẽ chỉ ra hai tài liệu không có chất liệu giống nhau đủ để suy xét xem có phải là
bản dịch hay không. Điều này có thể xảy ra, ví dụ, khi hai tài liệu đều là bản dịch của
một, nhưng một tài liệu có nhiều nội dung hơn cái còn lại, thì dĩ nhiên tỉ lệ khác nhau
là cao và là cặp thí sinh tồi.
Số chunk văn bản không đánh dấu đã được dóng hàng chỉ ra chất lượng của
dóng hàng. Thuật toán lập trình động cố gắng tối ưu việc dóng hàng đối với văn bản
đánh dấu. Bên cạnh đó, chunk văn bản không đánh dấu sẽ tương ứng với chunk khác.
Với hai tham số còn lại r và p chỉ ra các chunk văn bản không đánh dấu có tương quan
theo độ dài không. Khi hai tài liệu được dóng hàng với cái khác là bản dịch, thì đáng
tin cậy hơn nếu cái nào có mối tương quan tuyến tính theo độ dài của chunk văn bản
không đánh dấu: ngắn đi với ngắn, trung bình đi với trung bình, dài đi với dài. Chỉ số
tương quan Pearson được đưa ra chỉ ra mối quan hệ độ dài của chunk văn bản không
đánh dấu, giá trị của p chỉ ra độ tin cậy của r. Trong luận văn này p được chọn 0.01.
Công thúc của r như sau:

∑ XY − ∑ N∑
X Y

r=
(∑ X )2
(∑ Y ) 2

(∑ X 2
− )(∑ Y −
2
)
N N

Khi đã có r và p thì phải kiểm định giả thiết, các bước kiểm định giả thiết,
Giả thuyết không và giả thuyết đối nghịch
H0: ρ =0

HA: ρ #0

ρ <0

ρ >0

Tính giá trị kiểm định:


r−ρ
t= 1− r2
n−2

14
Xác định giá trị khởi tạo tcritical từ bảng Pearson:
Critical values for Pearson r
Xem trong “critical r Pearson.bmp”
Với df = n-1 thì :
Với df = n – 2 thì:
. tcritical = tα,df
. tcritical = tα,df
Tạo quyết định
Nếu |t| > tcritical từ bỏ H0
Ngược lại không bác bỏ H0
Kết luận
Nếu bác bỏ H0, giá trị r được chấp nhận, có tồn tại mối tương quan giữa
độ dài.
Nếu không bác bỏ H0, giá trị r không được chấp nhận, không tồn tại mối
tương qua giữa hai độ dài.
2.2. Lọc theo nội dung
Khi mà các tiêu chí đại diện cho độ tương đồng cấu trúc html của trang web
không phát huy hiệu quả thì các tiêu chí tương đồng nội dung của trang web sẽ là lựa
chọn tốt cho kiểm tra một cặp có đúng là bản dịch không.
Tiếp cận này đưa ra chỉ số tốt hơn so với so chỉ số cấu trúc tài liệu, bởi vì nó đi
thẳng vào vấn đề. Hai trang web là bản dịch của nhau tức là nội dung của trang này là
bản dịch sang ngôn ngữ khác của nội dung trang kia. Như Ma và Liberma chỉ ra rằng
không phải tất cả bản dịch trong giống bản gốc. Hơn nữa tương đồng theo cấu trúc chỉ
áp dụng cho tập dữ liệu có đánh dấu, và chắc chắn rằng nhiều bộ sưu tập đa ngôn ngữ
trên www tồn tại nhiều văn bản song ngữ không có cấu trúc thẻ. Cuối cùng, những ứng
dụng khác cho phát hiện những bản dịch vẫn tiếp tục được nghiên cứu như dóng hàng
văn bản tài liệu con, phát hiện trùng lặp. Tất cả nhận xét trên chỉ ra rằng tiếp cận theo
content không phục thuộc vào độ tương đồng cấu trúc. Dưới dây chỉ ra cách tính chỉ số
độ tương đồng nội dung.

15
Chúng ta định nghĩa chỉ số tương đồng nội dung là tsim cho hai văn bản theo
mô hình đối xứng từ-từ của văn bản song ngữ. Theo đó một link là một cặp (x,y) với x
là từ trong ngôn ngữ L1 và y là từ trong ngôn ngữ L2. Mô hình chứa một từ điển song
ngữ có chứa xác suất của tất cả kiểu link. Trong đó có một kiểu đặc biệt, là một từ có
thể là Null, nhưng không thể cả hai. Mô hình này không quan tâm đến trật tự từ. Một
ví dụ như sau:

Hình 6: Ví dụ về hai văn bản có những link giữa các từ


Tiếp theo tính xác suất của chuỗi link có khả năng lớn nhất như thế nào. Xác
suất này có thể tính đơn giản là tổ hợp từ các xác suất những link có thể có. Theo [5]
thì tập link tốt nhất là bài toán MWBM(maximum-weighted bipartie matching): có đồ
thị có trọng số G = (V1 U V2, E), với trọng số ci,j (i € V1, j € V2) , phải tìm M ⊆ E sao
cho mỗi đỉnh có tối đa một cạnh trong M và ∑ e∈M
ci ,h là lớn nhất. Thuật toán MWBM

chạy nhanh nhất với độ phức tạp O(ve + v 2 logv) . Áp dụng tới bài toán này thì độ
phức tạp là O(max(|X|,|Y|) 3 ) , ở đây X và Y là độ dài của văn bản tính theo từ.
Để sử dụng MWBM tìm chuỗi link có khả năng lớn nhất, những từ L 1 là V1 và
L2 là V2 . Nếu hai từ x,y có xác suất p(x,y) > 0, một link sẽ tồn tại nối chúng lại với
nhau với trọng số là log p(x,y), nếu một từ x, y là NULL với xác suất khác không thì
một link được cộng vào đồ thị giữa x (y) và đỉnh NULL được cộng tới V2 (V1). Mỗi x
hoặc y có thể liên kết tới NULL làm cho có nhiều link tới NULL. Một tổng trọng số
của các link sẽ là xác suất tính theo log của chuỗi link đó, và là lớn nhất tổng các xác
xuất.
Tsim là cao khi nhiều link trong chuỗi tốt nhất không có đỉnh NULL. Hơn nữa
nên được chia cho độ dài của văn bản. Bởi vậy:
log Pr(two - word links in best matching)
tsim =
log Pr(all links in best matching )

Một công thức đơn giản khác được áp dụng là coi tất cả từ vựng có xác suất
bằng nhau. Giả định này đưa ra cộng thức cho tsim là :

16
number of two - word links in best matching
tsim =
number of links in best matching


2 * number of two - word links in best matching
tsim =
sum of word

Hai công thức này ý nghĩa là như nhau. Lý do tính tsim với giả định xác suất bằng
nhau là vì chúng ta không cần tính MWBM, nhưng có thể tìm thấy MCBM(maximum
cardinality bipartite matching) từ đây tất cả link có thể có đều có trong số như nhau. Thuật
toán MCBM có độ phức tạp thời gian là O(e v ) hay O(|X|.|Y|. | X | + | Y | , với X, Y như
công thức trên. Ví dụ như hình 2 ta có tsim(X,Y) = 7/9.
Một thuật toán có thời gian chạy tốt là thuật toán tham ăn. Thuật toán tham ăn sẽ
chọn trong những cạnh còn lại một cạnh có trọng số lớn nhất, và bỏ ra khỏi đồ thị. Độ
phức tạp của thuật toán tham ăn là O(max(X,Y)log max(X,Y)). Nếu các link có trọng số
như nhau thì đơn giản là lấy ngẫu nhiên các cạnh đến khi không thể lấy được nữa.
Với công thức tsim và giả định xác xuất như nhau thì ta có thể dùng lập trình
động với hai chuỗi từ của hai văn bản.
2.3 Các đặc trưng khác
Ngoài các yếu tố tương đồng cấu trúc html và tương đồng nội dung thì ta còn
có thể tận dụng các yếu tố sau:
Ratio n: có nghĩa là tỉ lệ số chunk văn bản không đánh dấu đã dóng hàng có độ
dài không bằng nhau chia cho tổng số chunk văn bản không đánh dấu đã dóng hàng.
Yếu tố này tại sao lại có ý nghĩa? Là vì giả sử nếu hai văn cùng được tạo cặp với một
cái khác và đều có n = 10; nhưng tổng số chunk không đánh dấu khác nhau thì cặp nào
có tổng số lớn hơn sẽ có ưu thế hơn trong việc chọn cặp vì như vậy tức tỉ lệ khác nhau
ít hơn so với trang web còn lại.
Ratio size file: kích thước file ở đây được tính theo số byte thực sự. tỉ lệ này
cũng cung cấp một chỉ số đáng tin cậy. Nếu tỉ lệ này quá lớn thì cặp này đương nhiên
sẽ bị loại bỏ.
Date distance: Một file bản dịch của một file khác thường thì được up lên www
cùng một thời gian hoặc chênh lệch ít. Nếu hai file cách nhau quá xa chẳng hạn như 1
tháng hoặc năm chẳng hạn dĩ nhiên là bỏ. Xin lưu ý ở đây là ngày modify chứa không

17
phải ngày tạo vì khi ta download một file về thì ngày tạo chính là ngày nó được
download về.
File name similarity: thương các trang web lớn và song song thì ngoài cấu trúc
thư mục thì cả tên file cũng song song thậm chí là giống nhau nếu thư mục khác nhau.
Bởi vậy chỉ số này rất tốt cho phân loại đối với web site tuân thủ chặt chẽ về tên file.
Chẳng hạn với www.undp.org.vn
Directory number difference và directory name similarity, các web site song
ngữ thường có cấu trúc thư mục phân cấp và song song, hai yếu tố này phản ánh phần
nào sự song song đó. Thường thì các tên thư mụ là tương tự nhau chỉ trừ thư mục chỉ
ngôn ngữ.
Với ratio sylllable number và ratio chunk number: với ratio chunk number thì
quá rõ bởi vì tỉ lệ dp không cho thấy sự tỉ lệ số chunk giữa hai trang web là bao nhiêu.
Với ratio chunk làm nổi bật sự giống nhau về chunk. Ví dụ với 9, 10 chunk thì dp = 1 /
19, ratio chunk = 9/10 rõ ràng ratio chunk rõ rệt hơn (coi như dóng hàng tối đa). Ratio
syllable number– tỷ lệ số âm tiết cũng như vậy nếu sự khác biệt là lớn thì cặp đang xét
cũng sẽ bị bỏ qua.
2.4. Thuật toán lập trình động
Quy hoạch động là thuật toán chính trong luận văn này nó được áp dụng nhiều
lần để tính nhiều tiêu chí khác nhau. Nó được dùng để dóng hàng chuỗi từ tố của trang
web phục vụ tính các đặc trưng tương đồng cấu trúc. Ngoài ra, nó cũng được dùng để
tính một số đặc trưng liên quan đến tương đồng tên file, tương đồng cấu trúc thư mục
của url. Bởi vậy thật quan trọng nghiên cứu quy hoạch động áp dụng vào lập trình.
Quy hoạch động là kỹ thuật bottom-up, tính nghiệm của các bài toán từ nhỏ đến
lớn và ghi lại các kết quả đã tính được. Khi tính nghiệm của bài toán lớn thông qua
nghiệm của các bài toán con, ta chỉ việc sử dụng các kết quả đã được ghi lại. Điều đó
giúp ta tránh được phải tính nhiều lần nghiệm của cùng một bài toán con. Thuật toán
được thiết kế bằng kỹ thuật quy hoạch động sẽ là thuật toán lặp, điều này tiết kiệm thời
gian chạy của hệ thống rất nhiều . Để thuận tiện cho việc sử dụng lại nghiệm của các
bài toán con, chúng ta lưu lại các nghiệm đã tính vào một bảng.
Tóm lại, để giải một bài toán bằng quy hoạch động, chúng ta cần thực hiện các
bước sau:
Đưa ra cách tính nghiệm của các bài toán con đơn giản nhất.

18
Tìm ra các công thức (hoặc các quy tắc) xây dựng nghiệm của bài toán
thông qua nghiệm của các bài toán con.
Thiết kế bảng để lưu nghiệm của các bài toán con.
Tính nghiệm của các bài toán con từ nhỏ đến lớn và lưu vào bảng.
Sau đây, chúng ta sẽ đưa ra thuật toán được thiết kế bằng kỹ thuật quy hoạch
động cho bài toán dóng hàng hai chuỗi từ tố.
Trường hợp đơn giản nhất khi một trong hai dãy a và b rỗng (m = 0 hoặc n = 0),
ta thấy ngay dãy con chung dài nhất là dãy rỗng.
Ta xét các đoạt đầu của hai dãy a và b, đó là các dãy (a 1,a2,…,ai) và (b1,b2,…,aj)
với 0 ≤ i ≤ m và 0 ≤ j ≤ n. Gọi L(i,j) là độ dài lớn nhất của dãy con chung của hai dãy
(a1,a2,…,ai) và (b1,b2,…,aj). Do đó L(n,m) là độ dài lớn nhất của dãy con chung của a
và b. Bây giờ ta đi tìm cách tính L(i,j) thông qua các L(s,t) với 0 ≤ s ≤ i và 0 ≤ t ≤ j. Dễ
dàng thấy rằng:
L(0,j) = 0 với mọi j
L(i,0) = 0 với mọi i (1)

Nếu i > 0 và j > 0 và ai # bj thì

L(i,j) = max [L(i,j-1), L(i-1,j)] (2)

Nếu i > 0 và j > 0 và ai = bj thì

L(i,j) = 1 + L(i-1,j-1) (3)


Sử dụng các công thức đệ quy (1), (2), (3) để tính các L(i,j) lần lượt với i =
0,1,…,m và j = 0,1,…,n. Chúng ta sẽ lưu các giá trị L(i,j) vào mảng L[0..m][0..n].
Công việc tiếp theo là từ mảng L ta xây dựng dãy con chung dài nhất của a và
b. Giả sử k = L[m][n] và dãy con chung dài nhất là c = (c 1,…ck-1, ck). Ta xác định các
thành phần của dãy c lần lượt từ phải sang trái, tức là xác định ck, rồi ck-1,…,c1. Ta xem
xét các thành phần của mảng L bắt từ L[m,n]. Giả sử ta đang ở ô L[i][j] và ta đang cần
xác định cr, (1 <= r <= k). Nếu ai = bj thì theo (3) ta lấy cr = ai, giảm r đi 1 và đi đến ô
L[i-1][j-1]. Còn nếu ai # bj thì theo (2) hoặc L[i][j] = L[i][j-1], hoặc L[i][j] = L[i-1][j].
Trong trường hợp L[i][j] = L[i][j-1] ta đi tới ô L[i][j-1], còn nếu L[i][j] = L[i-1][j] ta đi
tới ô L[i-1][j]. Tiếp tục quá trình trên ta xác định được tất cả các thành phần của dãy
con dài nhất.

19
Nhưng xin lưu ý rằng ý nghĩa ai = bj khác bình thường một chút, ở đây ai, bj là
hai từ tố trong chuỗi tuyến tính nên ai = bj được định nghĩa là hoặc ai = bj hoặc ai, bj là
chunk text có thể thể là không hoặc có đánh đâu nhưng phải thỏa mãn cùng loại tức cả
hai cùng là văn bản đánh dấu hoặc cùng không.

Chương 3. Mô hình học máy cho bài toán đối sánh văn bản

3.1 Mô hình phân loại theo cây quyết định


Giải thuật học cây quyết định
Sau đây sẽ là phần trình bày cây quyết định ID3 và một số cải tiến giải thuật
tăng khả năng học.

20
ID3 là biểu diễn khái niệm ở dạng cây quyết định. Biểu diễn này cho phép
chúng ta xác định phân loại của một đối tượng bằng cách kiểm tra các giá trị của nó
trên một số thuộc tính nào đó.
Như vậy nhiệm vụ giải thuật ID3 là học cây quyết định từ một tập các ví dụ
huấn luyện. Và giải thuật cây quyết định có:
Đầu vào là một tập dữ liệu huấn luyện mỗi ví dụ trong tập có tập giá trị cho tập
các thuộc tính trong đó có một thuộc tính đích
Đầu ra là các cây quyết định phân loại đúng với các ví dụ trong tập dữ liệu và
có thể phân loại (dự đoán) đúng với cả ví dụ trong tương lai.
Cây quyết định là cây mà root và node trong là đại diện một thuộc tính, mỗi
cạnh được gán một giá trị của thuộc tính của node phía trên, leaf được gán nhãn true
hoặc false.
Giải thuật ID3 xây dựng cây quyết định từ trên – xuống
ID3 xây dựng cây quyết định từ trên xuống. Lưu ý rằng đối với bất kỳ thuộc
tính nào, chúng ta cũng có thể phân vùng tập hợp các ví dụ rèn luyện thành những tập
con tách rời, mà ở đó mọi ví dụ trong một phân vùng có giá trị chung cho thuộc tính
đó. ID3 chọn một thuộc tính để kiểm tra tại nút hiện tại của cây và dùng thuộc này để
phân vùng tập ví dụ thành những tập con; thuật toán khi đó xây dựng theo đệ quy một
cây con cho từng phân vùng. Việc này tiếp tục cho đến khi một ví dụ của phân vùng
đều thuộc vào một lớp (nhãn), và lớp (nhãn) đó trở thành nút lá của cây.
Vì thứ tự của các thuộc tính là quan trọng đối với việc xây dựng một cây quyết
định đơn giản, ID3 phụ thuộc rất nhiều vào tiêu chuẩn chọn lựa trắc nghiệm để làm
gốc của cây. Trước hệ chúng tôi sẽ trình bày thuật toán xây dựng cây quyết định ID3,
và việc làm thế nào chọn thuộc tính làm root tại mỗi lần đệ quy sẽ được tình bày trong
phần tiếp theo.
Thuật toán xây dựng cây quyết định từ tập huấn luyện và tập thuộc tính:

Function DecisionTree(tập_huấn_luyện, tập_thuộc_tính)


begin
if mọi ví dụ đều thuộc trong cùng một lớp s
then
return nút lá gán nhãn s

21
else if tập thuộc tính là rỗng
then
return nút này gán cái nhãn chiếm đa số trong tập_huấn_luyện
else
begin
chọn một thuộc tính P từ tập_thuộc_tính làm gốc cho cây hiện tại
xóa P ra khỏi tập thuộc tính
với mỗi giá trị v của P
begin
tạo một nhánh có nhãn là v
đặt vào phân_vùng_v các ví dụ trong tập_huấn_luyện có giá trị v
của thuộc tính P
if phân_vùng_v là rỗng
then
gắn nút có nhãn chiếm đa số trong tập_huấn_luyện vào
nhánh v
else
gọi DecisionTree(phân_vùng_v, tập_thuộc_tính) gắn vào nhánh
v
end
end
end

Trong quá trình xây dựng cây quyết định , phân vùng của một nhánh mới ở vào
một trong những trường hợp sau:
Tập ví dụ của một phân vùng có nhiều hơn một loại nhãn -> giải thuật tiếp tục
đệ quy xây dựng cây con.
Tất cả các ví dụ đều thuộc cùng một lớp, chẳng hạn như toàn true hoặc false ->
node là với nhãn của phân vùng được trả về.

22
Phân vùng không có ví dụ nào -> giải thuật trả về số nhãn tối đa trong tập mẫu
của cây cha.
Không còn thuộc tính nào -> nghĩa là dữ liệu bị nhiễu, khi đó giải thuật phải sử
dụng luật nào đó để xử lý, chẳng hạn luật đa số, lớp nào có nhiều ví dụ hơn sẽ được
dùng để gán nhãn cho nút lá trả về.
Ta thấy rằng để có một cây quyết định đơn giản, hay một cây có chiều cao là
thấp, ta nên chọn một thuộc tính sao cho tạo ra càng nhiều phân vùng chỉ chứa các ví
dụ thuộc cùng một lớp càng tốt. Một phân vùng chỉ gồm có ví dụ thuộc cùng một lớp
(nhãn), ta nối phân vùng đó có tính thuần nhất. Vậy để cây quyết định có kích thước
nhỏ ta cần phương pháp để xác định thuộc tính tốt nhất cho việc tạo ra càng nhiều
phân vùng thuần nhất càng tốt. ID3 sử dụng lý thuyết thông tin để tìm thuộc tính phân
loại tốt nhất.
Thuộc tính nào dùng để phân loại tốt nhất
Một tập hợp là thuần nhất nếu như tất cả các phần tử của tập hợp đều thuộc
cùng một loại, và khi đó ta nói tập hợp này có độ pha trộn là thấp nhất.
Khi tập ví dụ là thuần nhất thì có thể nói: ta biết chắc chắn về nhãn của một ví
dụ thuộc tập này, hay ta có lượng thông tin về tập đó là cao nhất. Khi tập ví dụ có độ
pha trộn cao nhất, nghĩa là số lượng các ví dụ ở tất cả các nhãn là như nhau, thì khi đó
ta không thể đoán chính xác một ví dụ trong tập này có nhãn là gì hay nói cách khác là
lượng thông tin của tập mẫu này là ít nhất. Vậy làm thế nào chọn thuộc tính chia tập ví
dụ ban đầu thành các tập con thuần nhất càng nhanh càng tốt. Và lý thuyết thông tin đã
đưa ra cách tính độ thuần nhất của một tập hợp: entropy.
Entropy đo tính thuần nhất của một tập ví dụ
Khái niệm entropy của một tập S được định nghĩa trong lý thuyết thông tin là số
lượng bít cần thiết để mã hóa thông tin của một lớp trong tập ví dụ. Trong trường hợp
tối ưu , mã có độ dài ngắn nhất. Theo lý thuyết thông tin mã có độ dài tối ưu là mã gán
–log2p bít cho lớp có xác suất là p.
Entropy đo độ thuần nhất của tập dữ liệu, công thức tổng quát là:
c
Entropy(S) = ∑− p
i =1
i log 2 p i

ở đây pi là xác suất của lớp i trong tập dữ liệu S. Giá trị của entropy thuộc đoạn [0,1]

23
Nếu Entropy(S)=0 tức là tập dữ liệu thuần nhất.
Nếu Entropy(S)=1 tức tập dữ liệu hỗn tạp nhất tất cả lớp đều có xác suất bằng nhau.
Tóm lại Entropy(S) càng nhỏ thì tập ví dụ càng thuần nhất.
Với c=2 ta có đồ thị của Entropy(S):

Hình 7: đồ thị của Entropy với dữ liệu có hai nhãn


Với mỗi thuộc tính, nó chia tập ví dụ S thành các tập con S v thì lượng thông tin
thu được information gain là:

| Sv |
Gain(S,A) = Entropy(S) - ∑
v∈Values ( A ) | S |
Entropy ( S v )

Với mô hình cây quyết định, đôi khi xảy ra hiện tượng “quá khớp” hiện tượng
này do dữ liệu ít phân bố không theo đúng tỉ lệ của mỗi giá trị của mỗi thuộc tính, để
khắc phục hiện tượng này người ta lại chia tập huấn luyện thành 2 tập là tập huấn
luyện và tập phê chuẩn. Người ta tìm cây thỏa mãn size(decision tree) +
size(missclassifications(tree)) trên tập phê chuẩn, hoặc dừng không khai triển node
trong nào có inforgain nhỏ nhất trong quá trình tạo cây.
Với thuộc tính có nhiều giá trị thì càng nhiều giá trị càng kém tính khái quát bởi
vậy một đơn vị đo khác được đưa ra đó là gainratio:
GainRaio(S,A) = Gain(S,A) / SplitInformation(S,A) với

| Si | | Si |
∑i =1 | S | 2 | S |
c
SplitInformation(S,A) = - log

24
Cách phân loại của cây quyết định, với mỗi cặp trang web có tập giá trị tương
ứng với tập thuộc tính, các giá trị của các thuộc tính này sẽ đi theo các nhánh của cây
đã được xây dựng khi nào đến lá thì dừng và sẽ có nhãn tương ứng nhãn của lá.
3.2. Mô hình phân loại Naive Bayes
Định lý Bayes cho phép tính xác suất xảy ra của một sự kiện ngẫu nhiên A khi
biết sự kiện liên quan B đã xảy ra. Xác suất này được ký hiệu là P(A|B), và đọc là "xác
suất của A nếu có B". Đại lượng này được gọi xác suất có điều kiện hay xác suất hậu
nghiệm vì nó được rút ra từ giá trị được cho của B hoặc phụ thuộc vào giá trị đó.
Theo định lí Bayes, xác suất xảy ra A khi biết B sẽ phụ thuộc vào 3 yếu tố:
Xác suất xảy ra A của riêng nó, không quan tâm đến B. Kí hiệu là P(A) và đọc
là “xác suất của A”. Đây được gọi là xác suất biên duyên hay xác suất tiên
nghiệm, nó là "tiên nghiệm" theo nghĩa rằng nó không quan tâm đến bất kỳ
thông tin nào về B.
Xác suất xảy ra B của riêng nó, không quan tâm đến A. Kí hiệu là P(B) và đọc là
"xác suất của B". Đại lượng này còn gọi là hằng số chuẩn hóa (normalising
constant), vì nó luôn giống nhau, không phụ thuộc vào sự kiện A đang muốn
biết.
Xác suất xảy ra B khi biết A xảy ra. Kí hiệu là P(B|A) và đọc là "xác suất của B
nếu có A". Đại lượng này gọi là khả năng (likelihood) xảy ra B khi biết A đã
xảy ra. Chú ý không nhầm lẫn giữa khả năng xảy ra A khi biết B và xác suất
xảy ra A khi biết B.
Khi biết ba đại lượng này, xác suất của A khi biết B cho bởi công thức:

Từ đó dẫn tới

Áp dụng Naive Bayes cho mô hình phân loại của luận văn
Những ứng dụng của Bayes thường được dựa trên một giả thuyết có tính triết
học Bayesian probability ngầm định rằng độ bất định và kỳ vọng có thể tính toán được
giống như xác suất.

25
Với Bayes ngây thơ ngoài giả thuyết Bayes, thì còn giả thuyết ngây thơ, giả
thuyết ngây thơ là các đặc trưng của cặp trang web là độc lập với nhau.
Áp dụng cho xây dựng mô hình ngôn ngữ:
Gọi C là lớp hay nhãn của cặp thí sinh. Giá trị của C là true hoặc false. Còn tập
thuộc tính ký hiệu As tương ứng với một tập các đặc trưng hay tiêu chí phân lớp, tức là:
As = a1 a2 ... an
Mỗi ai có thể nhận một giá trị nguyên vj
As = v1v2...vn.
Vậy với mỗi cặp trang web, việc được gán nhãn gì thì phục thuộc vào hai xác
suất có điều kiện sau:
P(C=true/a1=v1a2=v2... an=vn) và P(C=false/a1=v1a2=v2... an=vn)
Xác suất nào lớn hơn thì cặp trang web đó sẽ có nhãn tương ứng.
Theo định lý Bayes ta có:
P (a 1 = v1a 2 = v 2 ... a n = v n /C = true)
P(C=true/ a1=v1a2=v2... an=vn) = P (C = true)
P (a1 = v1 a 2 = v 2 a n = v n )

P (a 1 = v1a 2 = v 2 ... a n = v n /C = false)


P(C=false/ a1=v1a2=v2... an=vn) = P(C = false)
P (a1 = v1 a 2 = v 2 a n = v n )

Khi so sánh hai xác suất P(C=true/As=v1v2...vn) và P(C=false/As=v1v2...vn), vế


phải của khai triển Bayes có mẫu chung ta có thể bỏ qua. Chỉ cần so sánh tử thôi.
Vì có giả định ngây thơ là các đặc trưng độc lập với nhau, nên ta có:
P(a1=v1a2=v2... an=vn/C=true)P(C=true) =
P(a1=v1/C=true) P(a2=v2/C=true)... P(an=vn/C=true) P(C=true)
P(a1=v1a2=v2... an=vn/C=false)P(C=false) =
P(a1=v1/C=false) P(a2=v2/C=false)... P(an=vn/C=false) P(C=false)

Từ đó ta chỉ cần tính xác suất từng thành phần ở bên phải, sau đó tích lại và so
sánh xem cái nào lớn hơn thì gán nhãn tương ứng.
Ta có các xác suất thành phần được tính dựa trên thống kê:
P(C=true) = count(nhãn true) / số cặp trong tập huấn luyện.

26
P(a1=v1/C=true) =
count(nhãn true, có thuộc tính a1 có giá trị v1) / count(nhãn true).
P(a2=v2/C=true) =
count(nhãn true, có thuộc tính a2 có giá trị v2) / count(nhãn true).
......
P(an=vn/C=true) =
count(nhãn true, có thuộc tính an có giá trị vn) / count(nhãn true).
P(C=false) = count(nhãn false) / số cặp trong tập huấn luyện.
P(a1=v1/C=false) =
count(nhãn false, có thuộc tính a1 có giá trị v1) / count(nhãn false).
P(a2=v2/C=false) =
count(nhãn false, có thuộc tính a2 có giá trị v2) / count(nhãn false).
......
P(an=vn/C=false) =
count(nhãn false, có thuộc tính an có giá trị vn) / count(nhãn false).

Và mô hình ngôn ngữ Bayes chính là tất cả xác suất ở trên cho tất cả giá trị của
tất cả thuộc tính trong hai class true và false, với mẫu bất kỳ, ví dụ:
(input= u1u2...un) thì nhãn của ví dụ này sẽ là gì phụ thuộc vào kết quả của hai biểu thức:
P(a1=u1/C=false) P(a2=u2/C=false)... P(an=un/C=false) P(C=false)

P(a1=u1/C=true) P(a2=u2/C=true)... P(an=un/C=true) P(C=true)
Cách tính mỗi thành phần như trên hoặc tìm trong nơi lưu trữ các xác suất thành
phần và lấy ra giá trị phù hợp, chẳng hạn P(a1=u1/C=false) = P(a1=v1/C=false) với v1=u1 .

Chương 4. Thực nghiệm và kết quả

27
4.1. Kiến trúc tổng quan hệ thống
Sơ đồ kiến trúc tổng quan

Hình 8: Sơ đồ kiến trúc hệ thống

Bước 1,2: hệ thống dùng tool GNU Wget để dowload toàn bộ file html tĩnh và
động của website nào đó về máy.
Bước 3,4: bước này làm nhiệm vụ tính toán tất cả thông số, đưa vào dữ liệu ban
đầu, đồng thời với bộ lọc thô sẽ làm giảm kích thước dữ liệu làm giảm thời gian chạy
cho các giai đoạn sau. Dữ liệu trong “Data with indexes” là các cặp trang web trong
hai ngôn ngữ Anh-Việt cùng với chỉ số của các đặc trưng chính và phụ
Bước 5,6: Để có hệ thống tốt thì cần phải có mô hình huấn luyện và kiểm tra,
bước này có nhiệm vụ tạo dữ liệu huấn luyện, và kiểm tra bằng cách lấy ngẫu nhiên.
Sau đó dùng cây quyết định, và Bayes ngây thơ
Bước 7,8: Với mô hình đã có, tất cả dữ liệu ban đầu sẽ được đi qua, và kết quả
cuối cùng sẽ ở Parallel text.

4.2. Bộ công cụ download và xác định ngôn ngữ


Download
Có hai cách tìm kiếm và download những website tiếng Việt

28
Thứ nhất, làm bằng tay, tìm kiếm và xác định các địa chỉ website song ngữ
Anh-Việt, sau đó dùng tool GNU Wget để download cả trang web đó về.
Thứ hai, chạy tự động dùng tool GNU Wget download ở mỗi site của một trang
web một số lượng nào đó, và nếu tồn tại số lượng trang web tiếng Anh-Việt lớn
hơn giới hạn nào đó thì download cả trang web đó về.
Luận văn này sử dụng cách thứ nhất, với mỗi địa chỉ website tiếng Việt chúng
tôi thực hiện trong cửa sổ command line câu lệnh:
wget.exe -r -nc -x -E --reject css,js,jpg,gif,wmv,wma pdf,mp3,mp4 -i urls.txt
hoặc cũng có thể liệt kê những địa chỉ đó vào một file và dùng câu lệnh
wget.exe -r -nc -x -E --reject css,js,jpg,gif,wmv,wma,pdf,mp3,mp4 url
Một số website đã download xong, một số thì chưa. Kết quả download như sau:
Bảng 1: Các websites và số lượng trang web tiếng Anh, tiếng Việt đã down được
Số số trang web số trang web
website song ngữ
thứ tự tiếng Anh tiếng Việt
1 www.honda.com.vn 27 465
2 www.undp.org.vn 1652 1278
3 www.na.gov.vn 6352 5184
4 www.vietnamtourism.com 1410 1234
www.vietnamnet.vn và
5 2060 17549
english.vietnamnet.vn
6 www.toyotavn.com.vn 8 169
7 www.cpv.org.vn 1920 16640
8 www.vietnamgateway.org:100 441 8640
9 www.nhandan.com.vn 453 3263
10 ww.voanews.com 2587 2863
11 www.bbc.co.uk và news.bbc.co.uk 6274 1232
12 ukinvietnam.fco.gov.uk 447 255
Xác định ngôn ngữ
Thường trong các website song ngữ, các substring chỉ tính song song thì cũng
là chỉ ngôn ngữ của trang web đó. Bởi vậy, nếu trong url của webpage có chứa thông
tin liên quan đến ngôn ngữ tiếng Anh hoặc tiếng Việt thì sẽ được cho url trang web vào
danh sách ngôn ngữ tương ứng.

29
Trong khóa luận, dùng các substring định nghĩa trước, nếu một trong substring
được tìm thấy trong url, thì ngôn ngữ trang sẽ tương ứng với substring đó. Chúng tôi
dùng các substring sau:
Substring là sự kết hợp của english, eng, en, e, tienganh, vietnamese,
vietnam, vn, v, tiengviet, các substring kết hợp với .*., \*\, \*., _, -, lang=,
language=. Bảng sau đây là những substring được tạo ra:
Bảng 2a: Những substring ngôn ngữ có thể có trong url của trang web

Ngôn ngữ .*. \*\ \*. _*

English .english. \english\ \english. _english

Eng .eng. \eng\ \eng. _eng

En .en. \en\ \en. _en

E .e. \e\ \e. _e

tienganh .tienganh. \tienganh\ \tienganh. _tienganh

vietnamese .vietnamese. \vietnamese\ \vietnamese. _vietnamese

vietnam .vietnam. \vietnam\ \vietnam. _vietnam

Vn .vn. \vn\ \vn. _vn

V .v. \v\ \v. _v

tiengviet .tiengviet. \tiengviet\ \tiengviet. _tiengviet

30

Bảng 2b: Những substring ngôn ngữ có thể có trong url của trang web

Ngôn ngữ *_ *- -* lang= language=

English _english english- -english lang=english language=english

Eng _eng eng- -eng lang=eng language=eng

En _en en- -en lang=en language=en

E _e e- -e lang=e language=e

Tienganh _tienganh tienganh- -tienganh lang=tienganh language=tienganh

Vietnamese _vietnamese vietnamese- -vietnamese lang=vietnamese language=vietnamese

Vietnam _vietnam vietnam- -vietnam lang=vietnam language=vietnam

Vn _vn vn- -vn lang=vn language=vn

V _v v- -v lang=v language=v

Tiengviet _tiengviet tiengviet- -tiengviet lang=tiengviet language=tiengviet

Chẳng hạn, ngay một số url website chứa substring nêu trên:
http://www.bbc.co.uk/vietnamese/... ,
http://www.vietnamtourism.com/v_pages/..., ...
Đếm số âm tiết
Nếu trong url của trang web không có thông tin ngôn ngữ, thì với cách xác định
ngôn ngữ bằng cách đếm số âm tiết của từng ngôn ngữ Anh và Việt. Sau đó tính tier lệ
số âm tiết trên tổng số âm tiết của cả trang web(gồm cả âm tiết không phải là của tiếng
Anh lẫn tiếng Việt) và xác định giới hạn của những tỉ lệ này. Việc xác định giới hạn
này, chúng tôi sau nhiều lần khảo sát bằng tay đã gán như sau:
Đặt te là tỉ lệ âm tiết của tiếng anh, đặt tv là tỉ lệ âm tiết tiếng việt, ta có điều
kiện xác định ngôn ngữ như sau:
Nếu tv > 0.7 và te < 0.3 thì webpage đó là tiếng việt
Nếu không te > 0.7 và tv < 0.2 thì webpage đó là tiếng anh

31
Bằng kết hợp substring ngôn ngữ và đếm số âm tiết, số lượng trang web tiếng
Anh và tiếng Việt như bảng 1.
4.3. Xây dựng cơ sở dữ liệu thô
Thông số lọc thô
Chúng tôi tạo ra cặp thí sinh bằng cách ghép mỗi trang tiếng Anh với tất cả
trang tiếng Việt trong một site. Vì vậy số cặp thí sinh là rất lớn. Và Bộ lọc thô có
nhiệm vụ xác định giới hạn rộng, nhưng vẫn đảm bảo lọc bỏ nhiều cặp thí sinh để cho
những giai đoạn sau giảm thời gian chạy của hệ thống.
Tất cả đặc trưng (thuộc tính) được tận dụng để lọc thô. Các giới hạn (biên) để
lọc thô, được thiết lập rộng bằng tay, nên không phải kiểm nghiệm nhiều. Sau đây là
những đặc trưng và giới hạn (biên) để lọc thô:
Tỉ lệ kích thước (tính theo byte) của hai trang web, thường thì các câu tiếng
Anh khi được dịch sang tiếng Việt sẽ thành câu dài hơn, tương ứng thì kích thước
trang web tiếng Việt thường lớn hơn nên giá trị thiết lập là: low = 0.8, high = 1.25.
Khoảng cách thực ra trong hệ thống được tính theo mili giây nhưng chúng tôi
quy về ngày. Khoảng cách ngày hai webpage tiếng anh được modify và up lên khác
nhau nhỏ hơn max là 7.0 ngày.
Tỉ lệ giống nhau giữa hai tên file. Với những website tuân thủ chặt chẽ tỉ lệ này
thì cũng rất có lợi nếu chỉ xét những website này, nhưng vì nhiều website không chặt
về đặc trưng này nên đặc trưng này không lọc được nhiều lắm. Ví dụ về tên hai trang
web, index_en.html và index.html dùng lập trình động sẽ đưa ra kết quả là
0.8695652173913043. Biên của đặc trưng này là min = 0.3.
Tỉ lệ giống nhau của tên các thư mục con. Cách tính như sau lấy số tên thư mục
con giống nhau nhân hai chia cho tổng số thư mục con, nên nhớ tên thư mục con sẽ
được thay thế bằng xâu cố định nếu tên thư mục chỉ ra ngôn ngữ của trang web. Ví dụ:
...\htx\english\c1330\ và ...\htx\vietnamese\...
Khi cho hai xâu chỉ thư mục con này qua tiền xử lý sẽ trở thành:
...\htx\***\c1330\ và ...\htx\***\...
Sau đó dùng lập trình động để tìm ra phần chung và tính độ tương đồng và kết
quả là 2 * 2 / (3 + 2) = 0.8 với việc dóng hàn htx – htx, *** – *** (english –
vietnamese).

32
Giá trị biên được thiết lập cho đặc trưng này là min = 0.1.
Tỉ lệ khác nhau của số thư mục con. Với đặc trưng này, chúng tôi coi rằng đã là
trang web song ngữ thì cấu trúc thư mục là có cấu trúc song song. Đặc tính thể hiện
hai trang web nằm trong cấu trúc song song và khác nhau không quá xa. Cách tính lấy
trị tuyệt đối hiệu số thư mục con chia cho tổng số thư mục con của url của hai trang
web. Ví dụ:
...\htx\english\c1330\ và ...\htx\vietnamese\...
Chỉ cần đếm và tính kết quả là |5 – 4| / 5 = 0.2.
Giá trị biên của đặc trưng tương đồng số thư mục con là max = 0.334.
Tỉ lệ số âm tiết của hai webpage, âm tiết được tách bởi ký tự không phải chữ cái
và không phải là ‘-’, bởi vậy số âm tiết là số âm tiết của tất cả ngôn ngữ. Giá trị biên
của đặc trưng này là: low = 0.3, high = 1.25. tại sao lại lệch so với 1.0 thế? Là vì tỉ lệ ở
đây là số âm tiết của trang tiếng Anh chia cho số âm tiết của trang tiếng Việt mà một
câu tiếng Việt là bản dịch thì thường có độ dài hơn câu tiếng Anh.
Tỉ lệ số chunk. Đặc trưng này rất có ý nghĩa là vì đã là bản dịch thì việc cấu
trúc thẻ tương tự nhau thì khi dóng hàng số chunk cũng tương tự nhau. Nếu hai trang
web có số chunk lệch nhau quá lớn thì không thể là bản dịch được. Giá trị biên của đặc
trưng này là: low = 0.7, high = 1.35.
Một trang web mà số chunk quá ít hoặc số âm tiết quá nhỏ thì không có ý nghĩa
cho các lĩnh vực khác bởi vậy lọc số chunk, số âm tiết là cần thiết để tiết kiệm thời
gian cho hệ thống. Còn nếu số chunk mà quá lớn thì khi dóng hàng lập trình động cần
lượng bộ nhớ lớn để lưu trữ. Cũng tương tự với văn bản của trang web mà quá lớn nếu
không cẩn thận thì khi dóng hàng nội dung hoặc dóng hàng câu của các ứng dụng khác
không chạy được vì thiếu bộ nhớ. Bằng kiểm tra và trong quá trình thực hành giá trị
biên dần được điều chỉnh cho phù hợp và giá trị của biên là số âm tiết min = 40; số
min chunk là 20, max số chunk là 15000.
Tuy bốn đặc trưng dp, n, r,p thể hiện chất lượng dóng hàng, nhưng qua đây ta
cũng có thể lọc chúng để cho kích thước cặp thí sinh giảm xuống cho cả phần lọc cấu
trúc và lọc nội dung (nếu hệ thống có). Chúng tôi gán cố định cho p là 0.01 để đảm
bảo độ chặt chẽ của r. Bởi vậy qua tham khảo và kiểm nghiệm một số cặp chúng tôi
đặt các biên rộng một chút đảm bảo không lọc lỗi các cặp là bản dịch. Cụ thể là: max
dp = 0.25, max n = 40, min r = 0.9, ngoài ra một thông số n chia cho tổng số text
nonmarkup đã được dóng hàng với biên là max 0.25.

33
Kết quả lọc thô
Kết quả sau khi sau xác định ngôn ngữ , tạo cặp và lọc thô ta có tương ứng với
mỗi website có số lượng cặp trang web thí sinh như sau:
Bảng 3: Các website và số lượng, tỉ lệ cặp thí sinh

Số số cặp Tỉ lệ so với tổng số


website song ngữ
thứ tự thí sinh cặp thí sinh

1 www.honda.com.vn 42 0.1%

2 www.undp.org.vn 23545 56.25%

3 www.na.gov.vn 18169 43.40%

4 www.vietnamtourism.com 10 0.024%

www.vietnamnet.vn và
5 0 0%
english.vietnamnet.vn

6 www.toyotavn.com.vn 16 0.038%

7 www.cpv.org.vn 0 0%

8 www.vietnamgateway.org:100 0 0%

9 www.nhandan.com.vn 0 0%

10 www.voanews.com 14 0.033%

11 www.bbc.co.uk và news.bbc.co.uk 0 0%

12 ukinvietnam.fco.gov.uk 65 0.155%

tổng số 41861 100%

4.4. Xây dựng bộ phân loại và kết quả phân loại


Chương này chính là thực hiện các bước 5,6,7,8 trong sơ đồ tổng quan hệ thống hình 8.
Chuẩn bị dữ liệu

34
Từ 41861 cặp trang web thí sinh, chúng tôi lấy ngẫu nhiên 5000 cặp huấn luyện
và 1000 cặp test không giống với bất kỳ cặp huấn luyện nào. Sau đó chúng tôi gán
nhãn bằng tay cho tất cả cặp huấn luyện và cặp test. Sau khi gán nhãn, thống kê cho
thấy: trong tập huấn luyện có 687 cặp có nhãn true, trong tập test có 128 cặp nhãn true.
Dữ liệu huấn luyện: teaching/teaching và teaching/teaching-labeled
Dữ liệu kiểm tra: teaching/testing và teaching/testing-labeled
Mỗi cặp thí sinh đều có thông số cho tất cả thuộc tính, theo đúng thứ tự sau:
Bảng 4: Thuộc tính (đặc trưng) và thứ hạng theo sự xắp sếp sẵn

0 1 2 3 4

dp n ration r sizeratio

5 6 7 8 9 10

datedistance filenamesim dirnumdiff dirnamesim wordratio chunkratio

Từ đây số được thay thế cho tên thuộc tính ví dụ thuộc tính 0 chính là dp, thuộc
tính 6 chính là filenamesim,...
Mô hình cây quyết định
Từ các dữ liệu huấn luyện, chúng tôi xây dựng mô hình bằng tool jaDTi-0.5.1
của Jean-Marc Francois để tạo mô hình. Chúng tôi xây dựng hai mô hình, mô hình thứ
nhất chỉ gồm ba thuộc tính, mô hình thứ hai gồm tất cả thuộc tính. Hai mô hình được
tạo ra và chứa trong hai file là teaching/teaching-labeled3.dot và teaching/teaching-
labeled11.dot tương ứng, sau đó chúng tôi dùng tool Graphviz 2.22 để từ mô hình tạo
mô phỏng cây quyết định trong hai file ảnh: teaching/teaching-labeled3.jpg và
teaching/eaching-labeled3.jpg. Kết quả trực quan thấy rằng cây quyết định dùng tất cả
thuộc tính nhỏ hơn gọn hơn cây quyết định dùng ba thuộc tính dp, n, r.
Kết quả thống kê trong bảng sau:
Bảng 5: Độ chính xác và recall của decision tree

35
số lượng thuộc tính sử dụng precision recall số lượng cặp song ngữ

3 0.55932203 0.515625 5221

11 0.92741935 0.898438 5404

Toàn bộ cặp song ngữ lấy từ dữ liệu ban đầu nằm trong hai file tương ứng với
hai bộ thuộc tính:
./data3.paired, ./data11.paired
Mô hình Naive Bayes
Trước khi tạo được mô hình Naive Bayes, chúng ta phải chuẩn hóa các giá trị
của từng thuộc tính. Và việc chuẩn hóa cần thông số gap khoảng cách của từng thuộc
tính. Giá trị những gap được thiết lập bằng tay, qua nhiều lần kiểm nghiệm. Kiểm
nghiệm bằng cách, mỗi lần chỉ cho tạo mô hình Naive Bayes, và cho chạy trên tập test,
tính precison và recall, đối với mỗi thuộc tính, nếu precison và recall vẫn tăng thì gap
của thuộc tính đó bị chia nhỏ cho đến khi precision và recall không tăng., hoặc tăng
không đáng kể so với tỉ lệ gap bị chia nhỏ (gap càng nhỏ thì số lượng giá trị của thuộc
tính đó càng nhiều, dữ liệu càng bị phân mảnh, cây quyết định giảm đi tính khái quát) .
Dữ liệu huấn luyện đã chuẩn hóa: teaching/teaching-labeled-standarded
Dữ liệu test đã chuẩn hóa: teaching/testing-labeled-standarded
Riêng đối với Naive Bayes, chúng tôi thiết kế hệ thống để với bất kỳ tổ hợp
thuộc tính nào cũng đưa ra được precison, recall và toàn bộ cặp song ngữ trong giữa
liệu ban đầu.
Chúng tôi đưa ra 2 bộ thuộc tính để tính toán precison và recall, bộ thứ nhất
gồm dp, n, r và bộ ai gồm filenamesim và dirnamesim (6 và 8), bộ có recall và
precision cao nhất được liệt kê trong file teaching/combinning-attributes.prerec
Kết quả thống kê trong bảng sau:

36
Bảng 6: Độ chính xác và recall của Naive Bayes

số lượng thuộc tính số lượng cặp


precision recall
sử dụng song ngữ

3 0.44339622641509435 0.3671875 4718

Tối ưu 2 (6,8) 0.967479674796748 0.9296875 5198

Toàn bộ cặp song ngữ lấy từ dữ liệu ban đầu nằm trong hai file tương ứng với hai
bộ thuộc tính:
./ data-nb013.paired, ./ data-nb68.paired
4.5. Hướng dẫn sử dụng chương trình
Cài đặt tool/wget-1.11.4-1-setup.exe
Chạy từ command line hoặc dùng wget.exe -r -nc -x -E --reject
css,js,jpg,gif,wmv,wma -i urls.txt
Hoặc wget.exe -r -nc -x -E --reject css,js,jpg,gif,wmv,wma url
Urls.txt chứa các sites mà bạn muốn download, url là site mà bạn muốn
download.
Sử dụng: java -Xms128m -Xmx1300m -jar StructureIndexes.jar <input file path>
Với <input file path> là path của input_example_sites.txt để dóng hàng và tạo
các chỉ số khác chi tiết xem file output, trong config/input_example_sites.txt
Sử dụng: java -jar CreatingData.jar <input file path>
Với <input file path> là path của input_teaching.txt để tạo dữ liệu training và
testing chi tiết xem file input_teaching.txt.
Sử dụng: java -Xmx1300m -jar jaDTi-0.5.1.jar <labeled train data path>
<labeled test data path> <path of all data > <mode> để tạo mô hình cây quyết định,
thống kế độ chính xác, tạo file dot, list tất cả cặp thỏa mãn, <mode> chọn 11 (tất cả
thuộc tính) hoặc 3 chỉ chọn dp, n, r làm thuộc tính tạo cây. <path of all data> trỏ đến
thư mục chứa tất cả dữ liêu.

37
Dùng tool/graphviz-2.22.2.msi để từ file .dot chứa mô hình tạo cây có cái nhìn
trực quan hơn.
Sử dụng: java -jar NaiveBayes.jar <config Naive Bayes path>
Với <config Naive Bayes path> trỏ đến naivebayes-1.txt hoặc naivebayes-2.txt
hoặc naivebayes-3.txt nếu muốn thống kê độ chính xác recall của tất tổ hợp thuộc tính
hay đưa ra danh sách tất cả cặp song ngữ từ cặp dự thí ban đầu hay thống kê độ chính
xác và recall của một tổ hợp thuộc tính cụ thể có ở trong file config.

38
Kết luận

Chúng tôi đã tìm hiểu, nghiên cứu những công nghệ mới nhất như mô hình
DOM tree, so sánh cấu trúc html, so sánh content, của những trang web.
Xây dựng hệ thống khai phá dữ liệu song ngữ trên world wide web cho cặp
ngôn ngữ Anh –Việt. Tuy vậy do nhiều nguyên nhân nên hệ thống tích hợp không hết
những công nghệ mới nhất mà chỉ đến so sánh cấu trúc html và sử dụng một số tiêu
chí khác như tương đồng cấu trúc url, tên file,....
Kết quả đạt được là khả quan, dùng cây quyết định thì độ chính xác 92,74%,
còn Naive Bayes thì 96,74%.
Định hướng phát triển, tích hợp thêm tiêu chí tương đồng nội dung và điều
chỉnh lại hệ thống cho hoàn thiện hơn.

39
Tài liệu tham khảo

[1] Van B. Dang, Ho Bao-Quoc. 2007. Automatic Construction of English-Vietnamese


Parallel Corpus through Web Mining. Proceedings of 5th IEEE International
Conference on Computer Science - Research, Innovation and Vision of the Future
(RIVF’2007), Hanoi, Vietnam.
[2] Christopher D. Manning and Hinrich Schütze Foundations of Statistical Natural
Language Processing. MIT Press, 1999
[3] Jian-Yun Nie, Jiang Chen, Exploiting the Web as Parallel Corpora for Cross
language Information Retrieval, 2008
[4] Bo li, Juan Liu, Mining Chinese-English Parallel Corpora from the Web
[5] P. Resnik and N. A. Smith. 2003. The Web as a Parallel Corpus. Computational
Linguistics, 2003,
[6] Lei Shi, Cheng Niu, Ming Zhou, Jianfeng Gao. 2006. A DOM Tree Alignment Model for
Mining Parallel Data from the Web. ACL 2006.

40

You might also like