Professional Documents
Culture Documents
Chương 17
Trí tuệ nhân tạo có thể giải thích dựa trên quy tắc
Sinem AKYOL1
1 PGS. Giáo sư; Đại học Firat, Khoa Kỹ thuật, Khoa Kỹ thuật Phần mềm.
sakyol@firat.edu.tr Số ORCID: 0000-0001-9308-3500
305
Machine Translated by Google
306
Machine Translated by Google
TRỪU TƯỢNG
Trí tuệ nhân tạo nổi bật trong nhiều lĩnh vực bằng cách hỗ trợ các nhiệm vụ và bắt
chước hệ thống học tập của con người để tạo ra giải pháp. Các thuật toán trí tuệ nhân
tạo được hỗ trợ bởi mạng lưới thần kinh sâu ngày càng được sử dụng rộng rãi trong nhiều
lĩnh vực khác nhau như hệ thống năng lượng, y học, robot và xử lý hình ảnh, cho thấy sự
tích hợp của chúng vào cuộc sống hàng ngày của chúng ta.
Tuy nhiên, bất chấp những tiến bộ này, công nghệ đang phát triển này vẫn thiếu khả năng
tạo dựng niềm tin và thường được coi là một “hộp đen” mờ đục. Các kỹ thuật Trí tuệ nhân
tạo có thể giải thích (XAI) đã được phát triển để giải quyết vấn đề này và làm cho các
quyết định của mô hình trở nên dễ hiểu, cho phép các cá nhân hiểu và giải thích chúng.
XAI dựa trên quy tắc là phương pháp áp dụng cách tiếp cận dựa trên quy tắc để giải
thích kết quả của các mô hình Trí tuệ nhân tạo. Trong phương pháp này, các quy tắc có
thể hiểu được được tạo ra để có thể giải thích và hỗ trợ người dùng hiểu được quy trình
Các phương pháp XAI dựa trên quy tắc thường được phân loại là bất khả tri về mô hình,
dựa vào tối ưu hóa mô hình hoặc được thiết kế riêng cho mạng thần kinh. Những phương
pháp này đóng một vai trò quan trọng trong các ứng dụng Trí tuệ nhân tạo, đặc biệt là
trong tài chính, y học và luật. XAI dựa trên quy tắc đảm bảo độ tin cậy và tính minh
bạch bằng cách cho phép người dùng hiểu lý do tại sao mô hình lại tạo ra một kết quả cụ
thể. Các quy tắc có thể biểu thị các đặc điểm của dữ liệu đầu vào hoặc đầu ra của mô
hình, cho phép người dùng diễn giải kết quả một cách dễ hiểu. Do đó, người dùng ngày
càng tin tưởng hơn vào quá trình ra quyết định của các mô hình Trí tuệ nhân tạo và có
cơ hội đặt câu hỏi cũng như nâng cao độ chính xác của hệ thống. Nghiên cứu này giới
thiệu về việc sử dụng và phát triển rộng rãi các kỹ thuật trí tuệ nhân tạo và học máy
trong đời sống con người. Ngoài ra, nó nhấn mạnh tầm quan trọng và sự phát triển của
XAI. Nghiên cứu xác định và nhấn mạnh tầm quan trọng của Trí tuệ nhân tạo có thể giải
thích được đồng thời cung cấp những hiểu biết sâu sắc về các khái niệm và mối quan hệ
chính của nó (khả năng diễn giải, khả năng giải thích, khả năng diễn giải). Bằng cách
tập trung vào việc phân loại các phương pháp XAI, nó giới thiệu các kỹ thuật XAI dựa
Từ khóa: Trí tuệ nhân tạo, XAI, XAI dựa trên quy tắc
307
Machine Translated by Google
1. GIỚI THIỆU
Đặc biệt, các thuật toán dựa trên trí tuệ nhân tạo được hỗ trợ bởi mạng lưới thần
kinh sâu đang thay đổi cách mọi người tiếp cận các nhiệm vụ trong thế giới thực. Trong
những năm gần đây, việc sử dụng thuật toán học máy để tự động hóa các khía cạnh khác
nhau của quy trình làm việc khoa học, kinh doanh và xã hội ngày càng gia tăng cùng với
sự phát triển của nghiên cứu trong lĩnh vực học sâu. Việc sử dụng các thuật toán học
máy trong các lĩnh vực hệ thống năng lượng và năng lượng, y học, nhãn khoa, rối loạn
phát triển, robot và phương tiện tự động, phân loại và phát hiện sử dụng thành công, xử
lý hình ảnh, xử lý giọng nói và âm thanh, an ninh mạng, v.v., cho thấy những điều này
các thuật toán thâm nhập vào cuộc sống hàng ngày của chúng ta (Das và Rad, 2020).
Các kỹ thuật Machine Learning, một phương pháp rất thành công trong việc học các mẫu
phức tạp để đưa ra các dự đoán nhất quán và đáng tin cậy, được chia thành ba nhóm nhỏ
là học có giám sát, không giám sát và học tăng cường, như trong Hình 1. Mỗi phương pháp
Machine Learning cung cấp các giải pháp và cơ hội tuyệt vời để những vấn đề khác nhau
thuộc các lĩnh vực khác nhau từ trước đến nay. Với sự tiến bộ của các mô hình học tập
tổng hợp và học sâu, nó đã trở thành phương pháp được ưa chuộng cho nhiều ứng dụng trong
thế giới thực như đề xuất phim, dịch máy và nhận dạng giọng nói. Trong quá trình học
tập, các mô hình ML vượt trội hơn con người về tốc độ, khả năng tái tạo và quy mô. Những
mô hình này, sau khi được triển khai, có thể hoàn thành nhiệm vụ nhanh hơn, tạo ra kết
quả nhất quán và có thể được chuyển sang hệ thống khác một cách đơn giản và rẻ tiền.
Mặt khác, việc đào tạo một người thực hiện một nhiệm vụ mất nhiều thời gian và phát
sinh thêm chi phí nếu cá nhân đó còn trẻ. Ngoài ra, thông tin cá nhân không thể được
sao chép bằng cách sao chép hoặc chuyển giao (Köse, 2022).
Học máy
Một số nhà nghiên cứu nhận ra sự cần thiết phải giải thích về trí tuệ nhân tạo và hệ
thống thông minh dựa trên máy học đã bắt đầu khám phá
308
Machine Translated by Google
và đề xuất các phương pháp từ lâu. Bằng chứng lâu đời nhất về mối quan hệ giữa cơ sở
dữ liệu thư mục và cách giải thích thuật ngữ có thể được tìm thấy trong các hệ thống
chuyên gia do Neches et al xuất bản. vào năm 1985 (Neches và cộng sự, 1985). Người ta
nhận thấy rằng đã có sự gia tăng các nghiên cứu về trí tuệ nhân tạo có thể giải thích
được trong những năm gần đây, tập trung vào việc làm cho kết quả trở nên dễ hiểu hơn,
Bài báo có tiêu đề "Chương trình trí tuệ nhân tạo có thể giải thích của DARPA: Kiểm
tra tầm quan trọng của khả năng giải thích đối với" Bộ Quốc phòng "điều tra tầm quan
trọng của khả năng giải thích đối với Bộ Quốc phòng và xác định Cơ quan Dự án Nghiên
cứu Tiên tiến Quốc phòng (DARPA) là cơ quan nghiên cứu nâng cao Chương trình này bắt
đầu vào năm 2017 và có kế hoạch 4 năm. Dự án trí tuệ nhân tạo có thể giải thích giải
quyết ba vấn đề nghiên cứu và phát triển khác nhau: tạo ra nhiều mô hình hơn, thiết kế
giao diện dùng để giải thích và hiểu nhu cầu tâm lý để giải thích hiệu quả. Nghiên cứu
này nhằm mục đích phát triển trí tuệ nhân tạo có thể giải thích được về các kỹ thuật
Vào giữa năm 2017, chính phủ Trung Quốc đã công bố “Kế hoạch phát triển trí tuệ nhân
tạo thế hệ tiếp theo” nhằm thúc đẩy khả năng mở rộng cao và mạnh mẽ của trí tuệ nhân
tạo (Xu và cộng sự, 2019). Cuối cùng, vào giữa năm 2018, Liên minh Châu Âu đã ban hành
"Quy định bảo vệ dữ liệu chung" (GDPR), cấp cho công dân "Quyền giải thích" đối với
các quyết định bị ảnh hưởng bởi các quy trình thuật toán (Wachter et al., 2017). Kết
quả tìm kiếm của các cơ sở dữ liệu thư mục lớn cho thấy sự gia tăng nhanh chóng số
lượng ấn phẩm liên quan đến AI có thể giải thích (XAI), chứng tỏ tác động đáng kể của
những sự kiện này đối với các nhà nghiên cứu. Cơ sở dữ liệu thư mục được coi là nguồn
chính của các ấn phẩm liên quan đến XAI dựa trên các tài liệu nghiên cứu trong lĩnh
Để định nghĩa XAI, Hình 2 minh họa các thuật ngữ được đề cập thường xuyên nhất, thể
hiện các đặc điểm cơ bản của từng thuật ngữ và mối quan hệ của chúng. Khái niệm về
tính dễ hiểu là khái niệm nền tảng trong XAI, được liên kết với các khái niệm khác
(Hagras, 2018). Tính dễ hiểu và tính dễ hiểu đều phụ thuộc vào khả năng người dùng cảm
nhận được kiến thức thu được từ một mô hình (Páez, 2019). Ví dụ, tính dễ hiểu có liên
quan chặt chẽ đến tính cô đọng, tính có thể diễn giải và tính có thể giải thích được.
Tính ngắn gọn đề cập đến cách giải thích ngắn gọn và rõ ràng dành cho con người
(Abdollahi và Nasraoui, 2018), trong khi khả năng giải thích và khả năng diễn giải đề
cập đến khả năng hiểu được kết quả đầu ra của mô hình AI của người quan sát.
Khả năng giải thích và khả năng diễn giải dường như là những thuật ngữ liên quan thường
xuyên bị lạm dụng, gây nhầm lẫn và có khả năng cản trở việc tạo ra các tiêu chuẩn hóa.
309
Machine Translated by Google
thuật ngữ (Carvalho và cộng sự, 2019). Khả năng giải thích trong XAI đề cập đến
đặc tính tích cực của mô hình AI, bao gồm các đặc điểm và phương pháp cần thiết
để làm rõ hoặc tiết lộ hoạt động bên trong của nó (Adadi và Berrada, 2018). Mặt
khác, mức độ mà con người có thể hiểu một mô hình AI một cách thụ động, được biểu
thị bằng khả năng diễn giải. Sự biện minh cho phép những người dùng không rành về
kỹ thuật có một cách dễ dàng để nắm bắt quá trình học tập cơ bản của một mô hình
dự đoán, cho phép họ biện minh cho các quyết định của mô hình. Nhu cầu về các mô
hình AI có thể giải thích được đã thu hút được sự chú ý. Nói chung, XAI nâng cao
khả năng chấp nhận và khả năng sử dụng của các mô hình AI hiện có bằng cách cho
phép người dùng tham gia gỡ lỗi và tạo mô hình (Minh và cộng sự, 2022).
Sự cô đọng Sự thú vị
Hình 2: Kết nối giữa các từ thường dùng trong trường XAI
Trong chương này, định nghĩa về XAI được đưa ra ở phần thứ hai, cùng với phần
thảo luận về sự cần thiết của XAI. Trình bày sự so sánh giữa phương pháp XAI và
hộp đen. Sau đó, những ưu điểm và nhược điểm của XAI sẽ được giải quyết. Trong
phần thứ ba, năm phương pháp phân loại của XAI sẽ được thảo luận. Phần thứ tư tập
trung vào các phương pháp XAI dựa trên quy tắc dựa trên định dạng đầu ra. Cuối
cùng, trong phần thứ năm, nghiên cứu được kết luận.
Trong những năm gần đây, trí tuệ nhân tạo nổi lên như một chủ đề nổi bật trong
hầu hết mọi lĩnh vực công nghệ. Hệ thống AI hỗ trợ rất nhiều cho các nhiệm vụ bằng
cách bắt chước hệ thống học tập của con người và tạo ra giải pháp cho các vấn đề.
Tuy nhiên, công nghệ AI đang phát triển này vẫn chưa tạo dựng được niềm tin hoàn
toàn vào kết quả mà nó mang lại cho con người và thiếu câu trả lời cho các câu
310
Machine Translated by Google
Các mô hình học máy giống như những chiếc hộp đen khó diễn giải. Dữ liệu phân loại như
giới tính, tuổi tác và chủng tộc thường có thể gây ra rủi ro trong các mô hình AI. Ngoài
ra, các mô hình AI có thể bị giảm hiệu suất khi dữ liệu được sử dụng trong giai đoạn ứng
dụng khác với dữ liệu huấn luyện. Do đó, điều quan trọng là các mô hình AI phải đáng tin
Do cấu trúc cơ bản phức tạp và phi tuyến tính, khiến chúng mờ đục và khó hiểu, phần
lớn các mô hình học máy và học sâu được các nhà khoa học và công chúng gọi là “hộp đen”.
Do sự mờ đục này, các kiến trúc trí tuệ nhân tạo (XAI) có thể giải thích được hiện nay là
cần thiết. Nhu cầu này chủ yếu được thúc đẩy bởi ba yếu tố: nhu cầu tăng tính minh bạch
của mô hình, nhu cầu tương tác của con người với chúng và nhu cầu về tính chính xác của
Do đó, nhiều phương pháp tiếp cận theo từng miền cụ thể và phụ thuộc vào ngữ cảnh đã
được phát triển để xử lý việc giải thích các mô hình học máy và đưa ra lời giải thích cho
con người. Với nhiều cách tiếp cận XAI mới nằm rải rác và cần có cấu trúc, xu hướng này
Trí tuệ nhân tạo đã trở thành một lĩnh vực thiết yếu trong hầu hết mọi ngành, dẫn đến
sự gia tăng nhanh chóng nghiên cứu về Trí tuệ nhân tạo có thể giải thích được kể từ năm
2019 (Arrieta và cộng sự, 2020). Các kỹ thuật Trí tuệ nhân tạo có thể giải thích được là
các phương pháp cho phép hiểu và giải thích các kết quả của AI. Trong những lĩnh vực mà
cuộc sống con người bị ảnh hưởng, chẳng hạn như y học, tài chính và luật, việc sử dụng các
kỹ thuật AI có thể giải thích được là đặc biệt quan trọng (Pehlivanlı và Delologlu, 2021).
Trí tuệ nhân tạo có thể giải thích nhằm mục đích đưa ra quyết định của các mô hình mà
không cần giải thích và điều đó có thể tạo ra các tình huống rủi ro dễ hiểu hơn.
XAI đại diện cho một tập hợp các phương pháp cho phép con người hiểu, diễn giải và giải
thích kết quả của các thuật toán học máy (Bilekyigit, 2022).
Hộp đen (Trí tuệ nhân tạo) Lý do đằng sau hành động của bạn
Nhiệm vụ
là gì?
Sự thông minh)
Tôi hiểu lý do.
Mới
Tôi nắm được lý do.
Đào tạo Máy móc Có thể giải thích được Có thể giải thích được Tôi biết những khoảnh khắc thành công của bạn.
Dữ liệu Học hỏi Người mẫu Giao diện Tôi nhận thức được những thất bại của bạn.
311
Machine Translated by Google
Có thể thấy sự so sánh giữa mô hình trí tuệ nhân tạo có thể giải thích (XAI) và mô
hình hộp đen (trí tuệ nhân tạo), còn được gọi là hộp trắng, trong Hình 3. Các mô hình
hộp trắng vốn có thể diễn giải được, giúp dễ hiểu kết quả đầu ra của chúng hơn, nhưng
chúng ít hơn chính xác. Mặt khác, mô hình hộp đen chính xác hơn nhưng khó diễn giải hơn.
Cần có các kỹ thuật XAI phức tạp hơn để xây dựng các mô hình đáng tin cậy. Ngoài các mô
hình hộp trắng và hộp đen, còn có các mô hình hộp màu xám, mang lại sự cân bằng tốt giữa
khả năng diễn giải và độ chính xác (Ali và cộng sự, 2023).
XAI có nhiều ưu điểm. Một trong số đó là nó giúp cải thiện mô hình bằng cách hiểu
được điểm yếu của nó. Ngoài ra, khi khó tin tưởng vào các quyết định của hệ thống mà
chúng ta không thể quan sát và hiểu được, trí tuệ nhân tạo có thể giải thích sẽ giúp
thiết lập niềm tin đó. Nó tạo ra cảm giác tin cậy vào mô hình bằng cách giảm thiểu rủi
ro. Nó cũng cung cấp cơ hội để theo dõi hiệu suất của hệ thống. Cùng với những ưu điểm
này, cũng có một số nhược điểm. Bất lợi đầu tiên là thiếu nghiên cứu khoa học đầy đủ
trong lĩnh vực này. Một nhược điểm nữa là tính bất cập, chính xác và thiếu tính đo lường
Mục tiêu chính của phương pháp tiếp cận XAI là diễn giải và làm cho toàn bộ quá
trình phát triển hệ thống trí tuệ nhân tạo trở nên minh bạch và dễ hiểu, từ đầu vào đến
đầu ra. Những kỹ thuật này tạo ra những lời giải thích có thể ở nhiều định dạng khác
nhau, bao gồm quy tắc, con số, văn bản, hình ảnh hoặc sự kết hợp của những định dạng
này. Nhiều cách mà công nghệ hỗ trợ AI đang được sử dụng để giải quyết các vấn đề khác
nhau trong các ngành khác nhau đã dẫn đến nhiều cách giải thích khác nhau (De Graaf và
Malle, 2017; Vilone và Longo, 2021b). Những người thực hành AI, nhà phát triển hệ thống
và nhà thiết kế tìm thấy những lời giải thích thực tế trong một mô hình phản ánh trung
thực logic. Ví dụ, những giải thích dựa trên quy tắc cung cấp một tập hợp các nguyên
Tuy nhiên, người dùng cuối muốn những lời giải thích có thể tùy chỉnh kể một "câu
chuyện" bằng cách làm nổi bật các tính năng đầu vào có ảnh hưởng nhiều nhất đến dự đoán
của mô hình. Ví dụ: giải thích bằng lời nói và hình ảnh có thể truyền đạt một cách trực
quan lý do đằng sau việc phân loại hình ảnh động vật (Vilone và Longo, 2021a).
Năm tiêu chí chính đã được xác định để phân biệt các phương pháp XAI. Đầu tiên, phạm
vi của lời giải thích có thể mang tính toàn cầu hoặc có giới hạn. Trên toàn cầu, mục
tiêu là làm cho quá trình suy luận hoàn chỉnh của mô hình trở nên minh bạch và dễ hiểu.
Mục tiêu của phạm vi cục bộ là giải thích từng suy luận của mô hình (Dam và cộng sự,
2018). Giai đoạn mà một phương pháp đưa ra lời giải thích được gọi là giai đoạn thứ hai
312
Machine Translated by Google
kích thước. Bằng cách tính đến khả năng giải thích ngay từ đầu và trong quá trình đào tạo, các
phương pháp tiếp cận trước nhằm tạo ra một mô hình có thể diễn giải một cách tự nhiên đồng thời
đạt được mức độ chính xác cao nhất (Došilović và cộng sự, 2018; Lou và cộng sự, 2012). Mặt khác,
các phương pháp post hoc bảo tồn một mô hình đã được huấn luyện và sử dụng bộ giải thích bên
ngoài để tái tạo hoặc giải thích hành vi của nó trong quá trình thử nghiệm.
(Došilović và cộng sự, 2018; Montavon và cộng sự, 2018; Páez, 2019). Cuối cùng nhưng không kém
phần quan trọng, quy trình phân loại hình ảnh của mô hình có thể rất khác so với quy trình phân
loại tài liệu dựa trên văn bản. Do đó, dữ liệu đầu vào—dù là chuỗi số/phân loại, hình ảnh, văn
bản hay thời gian—có thể cực kỳ quan trọng đối với kỹ thuật diễn giải. Tùy thuộc vào loại vấn đề,
các phương pháp XAI có thể khác nhau, chẳng hạn như phân loại hoặc hồi quy, tùy thuộc vào vấn đề
cơ bản. Tương tự, đối với dữ liệu đầu ra, các điều kiện khác nhau có thể yêu cầu các định dạng
giải thích khác nhau: số, quy tắc, văn bản, hình ảnh hoặc hỗn hợp.
Việc phân loại các mô hình XAI được thể hiện trong Hình 4.
PHƯƠNG PHÁP
Phạm vi Sân khấu Dữ liệu đầu vào Loại vấn đề Định dạng đầu ra
Địa phương Hậu hoc Hình ảnh hồi quy Quy tắc
Trộn
Hiểu và giải thích các quá trình ra quyết định của hệ thống trí tuệ nhân tạo là rất quan
trọng đối với độ tin cậy và khả năng chấp nhận của chúng. Về vấn đề này, XAI dựa trên quy tắc
cung cấp một cách tiếp cận mạnh mẽ để đưa ra lời giải thích và mức độ dễ hiểu. XAI dựa trên quy
tắc dựa trên cấu trúc bao gồm các quy tắc rõ ràng và dễ hiểu cho phép hiểu được quá trình ra
quyết định. Cách tiếp cận này nâng cao niềm tin của người dùng vào hệ thống trí tuệ nhân tạo bằng
cách cung cấp cơ chế giải thích làm sáng tỏ cách đưa ra quyết định, từ đó chứng thực các quyết
4.1. Phương pháp XAI dựa trên quy tắc với cây quyết định
Sử dụng cây quyết định, có thể tạo ra các giải thích dựa trên quy tắc. Các quy tắc này thể
hiện khả năng diễn giải cao hơn trong khi giống với mô hình hộp đen. Ví dụ: sử dụng các liên kết
logic để kết hợp tải trọng được chia dọc theo các tuyến đường từ
313
Machine Translated by Google
đầu vào cho các dự đoán, phương pháp của Bride và cộng sự trích xuất các công thức logic
dưới dạng cây quyết định. Các quy tắc này cung cấp thông tin về quá trình ra quyết định
bằng cách được phân tích bằng các kỹ thuật suy luận logic (Bride et al., 2018). Mô hình
cục bộ nhạy cảm phân chia (Krishnan và Wu, 2017) và Trích xuất mô hình (Bastani và
Bastani, 2017) sử dụng cây quyết định để xấp xỉ các mô hình phức tạp, nhằm phản ánh khả
năng diễn giải của các đặc điểm thống kê trong các mô hình phức tạp.
Giải thích quy tắc bắt chước trả về các bộ quy tắc tượng trưng hoạt động tương tự như mô
hình hộp đen cơ bản. Phương pháp này xác định vùng tối đa của một lớp cụ thể bằng cách sử
dụng các ví dụ nguyên mẫu và xây dựng bộ quy tắc giới hạn vùng này (Asano và Chun, 2021;
Để kết hợp hiệu quả một số cây quyết định được đào tạo độc lập trên dữ liệu phân tán
thành một cây, Andrzejak et al. đề xuất một kỹ thuật ba bước. Đầu tiên, mỗi cây quyết định
được chuyển thành một bộ quy tắc chỉ định một vùng trong không gian đầu ra và nhân đôi
đường dẫn từ gốc đến lá. Không gian tính năng đầy đủ được bao phủ bởi từng khu vực, bị
ngắt kết nối. Sau đó, các vùng được kết hợp bằng phương pháp quét đường, sắp xếp các đường
viền của từng vùng và thống nhất các vùng lân cận. Cuối cùng, bằng cách sử dụng kỹ thuật
lấy cảm hứng từ C5.0, cây quyết định được trích xuất từ các vùng (Andrzejak và cộng sự,
2013).
Một cách tiếp cận khác được gọi là Quy tắc quyết định chính quy (RDR), được đề xuất
bởi D'Alterio et al. RDR tạo ra các cây quyết định được xác định bởi các chuyên gia.
Những cây này sở hữu một cấu trúc độc đáo với khả năng ưu tiên một thuộc tính hơn các
thuộc tính khác. Các quy tắc được giải thích bằng cách sử dụng biểu thức chính quy và được
tối ưu hóa dựa trên các tiêu chí về khả năng diễn giải cùng với độ chính xác và phạm vi
bao phủ. Quy tắc quyết định chính quy đã được áp dụng thành công trong nhiều lĩnh vực khác
nhau, đặc biệt là trong chẩn đoán y tế, phân tích tài chính và luật (D'Alterio và cộng
sự, 2020). Có thể xem hình ảnh ví dụ minh họa các quy tắc được trích xuất bằng cây quyết
Hình 5: Hình ảnh ví dụ về các quy tắc rút ra từ cây quyết định
314
Machine Translated by Google
4.2. Phương pháp XAI dựa trên quy tắc với mạng thần kinh
Trong tài liệu, các mô hình XAI dựa trên quy tắc được phát triển bằng Mạng thần kinh đã được
đề xuất. Anchor đã sử dụng LSTM (Bộ nhớ ngắn hạn dài) để trích xuất các quy tắc IF-THEN được gọi
là "neo". Các neo này xác định cụ thể các tính năng của một ví dụ đầu vào cung cấp đủ thông tin
cho bộ phân loại để đưa ra dự đoán chính xác (Ribeiro và cộng sự, 2018).
Các nhà nghiên cứu đã phân loại các kỹ thuật XAI sử dụng quy tắc IF-THEN để giải thích chức
năng suy luận của mạng lưới thần kinh. Theo phân loại của Bologna và Hayashi (2018) và
Hailesilassie (2016), các kỹ thuật này có thể được chia thành ba nhóm: I) kỹ thuật phân rã, rút
ra các quy tắc từ các nơ-ron ẩn và đầu ra bằng cách kiểm tra các trọng số gắn liền với chúng;
(II) các phương pháp sư phạm, coi mạng lưới thần kinh cơ bản như một hộp đen và tái tạo chức năng
của nó bằng cách sử dụng các quy tắc được trích xuất mà không xem xét các trọng số; và (III) các
phương pháp chiết trung, kết hợp các yếu tố từ cả hai cách tiếp cận phân rã và sư phạm. Phần này
phân loại các phương pháp XAI bằng cách sử dụng ba lớp trên thay vì kiến trúc mạng thần kinh
Kỹ thuật phân tách: Phân chia các giá trị kích hoạt nơ-ron ẩn thông qua phân cụm (Setiono và
Liu, 1995) nhóm các giá trị kích hoạt của các nơ-ron ẩn và thay thế chúng bằng giá trị trung bình
của cụm để xây dựng quy tắc IF-THEN. Bằng cách xem xét các kết hợp tiềm năng trong các đầu ra
phân đoạn của mạng phân đoạn, các quy tắc sẽ được phát triển. Công cụ trích xuất kiến thức mạng
thần kinh (NNKX) (Bondarenko và cộng sự, 2017) tạo ra các cây quyết định nhị phân từ các mạng
thần kinh sigmoidal chuyển tiếp nhiều lớp theo cách tương tự như thế này. Để tạo các cụm, nó nhóm
Một phương pháp tốt hơn để có được các quy tắc phân số và không chắc chắn được gọi là Phân
tích khoảng thời gian hiệu lực (VIA), dựa trên Khoảng thời gian (Palade và cộng sự, 2001). Các
giá trị kích hoạt của mọi đơn vị (hoặc nhóm đơn vị) trong DNN được VIA tìm thấy nằm trong nhiều
khoảng hiệu lực khác nhau. Mỗi quy tắc được trích xuất có một lớp mục tiêu duy nhất làm đầu ra
và một tập hợp các khoảng hiệu lực làm điều kiện tiên quyết. Palade và cộng sự. cho rằng VIA đôi
khi mắc lỗi trong khi xác định liệu một quy tắc có phù hợp với mạng hay không. Khoảng thời gian
không phải lúc nào cũng tốt nhất. Bằng cách sửa đổi các khoảng thời gian cho đầu vào hoặc đầu ra
và truyền bá mạng tiến hoặc lùi, khoảng thời gian sẽ vượt qua những hạn chế này. Tuy nhiên, để
đạt được hiệu suất tương đương về độ chính xác dự đoán, một số mạng thần kinh nhất định cần một
số quy tắc phân số. Trong những trường hợp như vậy, người ta đề xuất chuyển đổi các phân số này
315
Machine Translated by Google
các quy tắc thành các quy tắc mờ bằng cách đưa các toán tử OR vào giữa các quy tắc
sử dụng toán tử tương tác mờ (Palade và cộng sự, 2001; Vilone và Longo, 2021a).
Perceptron nhiều lớp có thể giải thích được (IMLP) trả lại các quy tắc tượng
trưng cho Perceptron nhiều lớp có thể giải thích được (DIMLP) (Bologna và Hayashi,
2017; Bologna và Hayashi, 2018; Bologna, 2018). Trong IMLP, mỗi nơ-ron lớp ẩn đầu
tiên có một nơ-ron đầu vào duy nhất và chức năng kích hoạt từng bước, nhưng các lớp
ẩn sau được ghép nối hoàn toàn và có chức năng kích hoạt sigmoid. Hàm kích hoạt bước
chuyển thành hàm cầu thang trong DIMLP, tương tự như hàm sigmoid. Sau lớp tổng hợp
tối đa, việc suy luận quy tắc được thực hiện bằng cách định vị vị trí của các siêu
phẳng phân biệt thích hợp đóng vai trò là đường viền giữa các lớp đầu ra.
Kỹ thuật đảo ngược là nền tảng của Trích xuất quy tắc thông qua Kỹ thuật đảo
ngược (RxREN), sử dụng chúng để xác định phạm vi dữ liệu của từng nơ-ron quan trọng
trong các lớp thích hợp đồng thời loại bỏ các nơ-ron đầu vào không liên quan không
đóng góp vào kết quả. Phương pháp đệ quy tạo ra các quy tắc phân cấp cho các trường
hợp phân biệt giữa các đặc điểm rời rạc và các thuộc tính liên tục. Một biến thể của
RxREN được gọi là Trích xuất quy tắc từ Mạng thần kinh với dữ liệu được phân loại
(RxNCM) (Biswas và cộng sự, 2017). Nó sử dụng các ví dụ đầu vào được phân loại chính
xác trong quy trình xác định phạm vi, giống như RxREN. Hiệu suất của LSTM ban đầu
được mô phỏng thông qua việc sử dụng đầu vào cho bộ phân loại dựa trên quy tắc và
các quy tắc được tạo theo cách này gần giống với hiệu suất đó
Nhiều kỹ thuật XAI dựa trên quy tắc có tính đơn điệu, có nghĩa là chúng tạo ra
một tập hợp quy tắc ngày càng tăng. Tuy nhiên, kết quả thu được bằng cách áp dụng
tiêu chí mới đôi khi có thể khiến kết quả trước đó không hợp lệ. Garcez và cộng sự.
đã mô tả một kỹ thuật để nắm bắt các quy tắc ký hiệu không đơn điệu được mã hóa
trong mạng. Thuật toán bắt đầu bằng cách sắp xếp một phần các vectơ theo giá trị
kích hoạt của tập dữ liệu huấn luyện. Sau đó, dựa trên các giá trị đặc trưng của
trường hợp đã chọn, nó thiết lập điểm đầu vào tối thiểu cần thiết để kích hoạt nơ-
ron đầu ra và phát triển một quy tắc (Garcez et al., 2001).
Cuối cùng, hai thuật toán đã được đề xuất để trích xuất cây quyết định (DT) từ
trọng số của DNN. Phương pháp đầu tiên huấn luyện một DT mềm bằng cách sử dụng
phương pháp giảm độ dốc ngẫu nhiên để phân vùng dữ liệu và đưa ra quyết định phân
cấp về cách xây dựng đường dẫn từ gốc đến lá, sử dụng các dự đoán của DNN và các bộ
lọc đã học của nó. Cách tiếp cận thứ hai được tạo ra rõ ràng cho các nhiệm vụ phân
loại hình ảnh và tìm cách giải thích về mặt ngữ nghĩa cốt lõi của CNN, trong đó các
bộ lọc của mạng sẽ thay thế cho các thành phần đối tượng khác nhau. Bằng cách thay đổi một
316
Machine Translated by Google
hàm mất mát cụ thể, các bộ lọc của mạng được tạo ra để thể hiện các phần đối tượng nhằm xây
dựng các DT đó. DT sau đó được xây dựng lặp đi lặp lại cho từng cặp bộ lọc/bộ phận cho mỗi hình
ảnh. Phương pháp quy nạp quy tắc C4.5 được sử dụng trong phương pháp C4.5Rule-PANE (Zhou và
Jiang, 2003) để trích xuất các quy tắc IF-THEN từ tập dữ liệu huấn luyện, trong đó các nhãn ban
đầu được thay thế bằng các nhãn dự đoán bởi tập hợp vì tập huấn luyện đã được cập nhật. Để bắt
chước quá trình suy luận của tập hợp, C4.5Rule-PANE trích xuất một bộ quy tắc từ tập dữ liệu
huấn luyện đã sửa đổi, trong đó các nhãn ban đầu được thay thế bằng các nhãn dự đoán của tập
hợp. Phương pháp DecText (Boz, 2002) trích xuất các DT có độ chính xác cao từ DNN. Nó áp dụng
một phương pháp đã biết để tìm ra cách phân chia tốt nhất dựa trên giá trị của từng đặc điểm,
sau đó tạo bộ quy tắc dựa trên số lượng mẫu trong mỗi nhánh để dự đoán lớp đạt được độ chính
xác cao nhất trong mỗi nhánh. Bộ quy tắc được chuyển đổi thành cấu trúc cây cho kết quả đầu ra
4.3. Các phương pháp XAI dựa trên quy tắc với siêu dữ liệu
Các thuật toán siêu hình đã được sử dụng để phát triển các mô hình trí tuệ nhân tạo có thể
giải thích được (XAI) dựa trên quy tắc. Các thuật toán di truyền được sử dụng trong Trích xuất
quy tắc di truyền (G-REX) (Johansson và cộng sự, 2004) để tạo ra các quy tắc IF-THEN với toán
tử AND/OR. Thuật toán di truyền được GLocalX sử dụng (Guidotti và cộng sự, 2019; Setzu và cộng
sự, 2021) để tạo ra các quy tắc cục bộ nhằm làm rõ các dự đoán do bộ phân loại cung cấp trên
một trường hợp cụ thể. Các quy tắc được trích xuất này đưa ra một tập hợp các phản thực sẽ dẫn
đến các kết quả khác nhau nếu các thuộc tính của thể hiện bị thay đổi, cũng như các giải thích
Tối ưu hóa đàn kiến (ACO), còn được gọi là phương pháp khám phá-khai thác, tuân theo chiến
lược bao phủ tuần tự. Với phương pháp này, các bộ quy tắc phân loại IF-THEN không có thứ tự
được tạo ra và chúng có thể được kiểm tra và giải thích riêng lẻ một cách độc lập với nhau.
ACO xây dựng một bộ quy tắc không có thứ tự mới ở mỗi giai đoạn và đối chiếu chúng với các quy
tắc từ các lần lặp lại trước đó. Bộ trước được thay thế nếu bộ mới có ít quy tắc hơn hoặc độ
chính xác dự đoán tốt hơn (Otero và Freitas, 2016). AntMinter+, sử dụng hệ thống kiến tối đa-
tối thiểu lặp lại, bắt đầu bằng một tập trống và tạo ra một bộ quy tắc đơn điệu trong khi cho
phép đưa kiến thức miền thông qua biểu diễn đồ thị tuần hoàn vô hướng của không gian giải pháp.
Các cạnh của biểu đồ cho biết các giá trị biến tiếp theo nào có thể đạt được từ một nút và các
nút ở cùng độ sâu trong biểu đồ biểu thị các phân vùng liên quan đến các biến đầu vào. Một quy
tắc mô tả một tuyến đường kết nối các nút bắt đầu và kết thúc. Khi đã đạt được một tỷ lệ phần
317
Machine Translated by Google
hoặc khi các quy tắc bổ sung không thể nâng cao độ chính xác của bộ phân loại thì
thuật toán sẽ kết thúc. Phương pháp dựa trên học tập tích cực (ALBA), sử dụng
AntMinter+ kết hợp với SVM phi tuyến, có thể tạo ra các mô hình dựa trên quy tắc
Để cung cấp các bộ quy tắc có thể hiểu được thể hiện sự phụ thuộc giữa đầu vào
và đầu ra, bốn kỹ thuật dựa trên logic mờ đã được trình bày (Vilone và Longo,
2021a). Thuật toán Học máy dựa trên di truyền mờ tổng quát (GBML), kết hợp các yếu
tố của phương pháp tiếp cận Michigan và Pittsburgh, được sử dụng trong khuôn khổ
tối ưu hóa đa mục tiêu tiến hóa (EMO). Mỗi quy tắc mờ được biểu diễn dưới dạng một
chuỗi số nguyên có độ dài cố định mã hóa các tập mờ tiền đề và bộ phân loại dựa
trên quy tắc mờ được biểu diễn dưới dạng chuỗi số nguyên thống nhất có độ dài thay
đổi mã hóa bộ quy tắc mờ (Ishibuchi và Nojima, 2007). Mô hình MOEAIF (Mờ diễn giải
dựa trên thuật toán tiến hóa đa mục tiêu) dựa trên quy tắc mờ được sử dụng để
phân loại dữ liệu biểu hiện gen. GBML và MOEAIF định lượng độ phức tạp của các bộ
quy tắc theo số lượng quy tắc mờ và/hoặc tổng số điều kiện tiền đề của quy tắc mờ
để tối đa hóa độ chính xác của các bộ quy tắc dựa trên các mẫu huấn luyện được phân
loại chính xác (Wang và Palade, 2011). Cách tiếp cận của Jin (2000) dựa trên thuật
toán 5 bước. Đầu tiên, nó sử dụng dữ liệu để tạo ra các quy tắc mờ phù hợp với các
trường hợp cực đoan. Nó cũng loại bỏ các quy tắc thừa và mâu thuẫn bằng cách so
sánh mức độ giống nhau của các quy tắc. Thứ ba, dựa trên yêu cầu hiệu suất cục bộ,
nó sử dụng thuật toán di truyền để tối ưu hóa cấu trúc quy tắc. Thứ tư, nó loại bỏ
các quy tắc không hiệu quả sau khi thực hiện đào tạo bổ sung các tham số quy tắc
bằng kỹ thuật học dựa trên độ dốc. Cuối cùng, nó sử dụng các kỹ thuật chính quy
Sử dụng tập hợp các mối quan hệ và tính năng từ tập dữ liệu đầu vào do chuyên
gia lựa chọn, Pierrard et al. kỹ thuật xây dựng các luật mờ. Sau đó, phương pháp
phân cụm tập mục thường xuyên được sử dụng để trích xuất những tập hợp thích hợp
nhất. Các tác giả đề xuất sử dụng các số liệu như số lượng mối quan hệ hoặc tính
năng trong tiền đề của mệnh đề hoặc giá trị hỗ trợ của chúng, mặc dù chúng không
cung cấp số liệu chính xác để đánh giá tầm quan trọng của một liên kết (Pierrard
Các quy tắc phân loại IF-THEN được làm cho dễ hiểu thông qua phương pháp lập
trình tiến hóa ba bước được gọi là Khai thác quy tắc phân loại có thể diễn giải
(ICRM). Số lượng quy tắc và hạn chế nên được giữ ở mức tối thiểu để mọi thứ trở
nên dễ hiểu hơn. Ban đầu, nó tạo ra một nhóm quy tắc chỉ có các so sánh thuộc tính-
giá trị duy nhất. Kỹ thuật Pittsburgh, dựa trên thuật toán di truyền Học quy tắc
318
Machine Translated by Google
các quá trình tiến hóa để nâng cao tính chính xác của các quy tắc chỉ sử dụng các
thuộc tính thích hợp. Ngoại trừ lớp được đặt làm mặc định, IRL trả về quy tắc cho
lớp đầu ra. Bằng cách tối đa hóa sản phẩm có độ chính xác và thu hồi, bước thứ ba
sẽ tối đa hóa độ chính xác của bộ phân loại (Cano và cộng sự, 2013).
Kızıloluk và Alatas đã sử dụng Thuật toán tối ưu hóa nghị viện để dự đoán bệnh
dựa trên quy tắc trong dữ liệu sức khỏe (Kiziloluk và Alatas, 2015).
Tương tự, Akyol và Alatas đã sử dụng thuật toán Tối ưu hóa đàn mèo để tự động phát
hiện các quy tắc phân loại trong cơ sở dữ liệu bao gồm dữ liệu số hoặc dữ liệu loại
hỗn hợp. Không có quá trình xử lý trước nào được thực hiện để xác định phạm vi thích
hợp của các thuộc tính liên quan trong quy tắc; thay vào đó, thuật toán tối ưu hóa
đã tự động cung cấp chúng cùng với các quy tắc. Hơn nữa, họ đã sử dụng một hàm mục
tiêu có thể dễ dàng đáp ứng các mục tiêu khác nhau và linh hoạt. Trong nghiên cứu
của mình, họ đã thu được các quy tắc chính xác và dễ hiểu bằng cách sử dụng bốn bộ
dữ liệu sức khỏe lấy từ kho lưu trữ UCI (Akyol và Alatas, 2016).
Một đoạn quy tắc thu được từ nghiên cứu này được hiển thị trong Hình 6. Cột đầu
tiên hiển thị các quy tắc thu được từ các biến quyết định trong tập dữ liệu, trong
khi cột thứ hai cho biết lớp mà quy tắc hoạt động. TP đại diện cho số lượng dữ liệu
được phân loại chính xác và FP đại diện cho số lượng dữ liệu được phân loại không
chính xác.
Hình 6: Ví dụ về XAI dựa trên quy tắc với các thuật toán metaheuristic
5. KẾT LUẬN
Nghiên cứu này nhấn mạnh tầm quan trọng của khả năng giải thích trong lĩnh vực
trí tuệ nhân tạo và tập trung vào các phương pháp trí tuệ nhân tạo có thể giải
thích (XAI). XAI nhằm mục đích cung cấp khả năng giải thích và diễn giải kết quả của
các mô hình trí tuệ nhân tạo một cách dễ hiểu, với mục tiêu xây dựng niềm tin. Một
trong những ưu điểm của XAI là hỗ trợ cải tiến mô hình, mang lại độ tin cậy và giảm
thiểu rủi ro. Khi so sánh giữa XAI và mô hình trí tuệ nhân tạo, mô hình XAI có xu
hướng dễ hiểu hơn nhưng có thể cho kết quả kém chính xác hơn, trong khi trí tuệ
nhân tạo
319
Machine Translated by Google
mô hình đạt được độ chính xác cao hơn nhưng ít có khả năng diễn giải hơn. Các mô hình
hộp màu xám mang lại sự cân bằng giữa khả năng diễn giải và độ chính xác. Ngoài ra, năm
tiêu chí chính đã được xác định để phân loại các phương pháp XAI: phạm vi giải thích,
giai đoạn tạo giải thích, loại dữ liệu đầu vào và đầu ra, loại vấn đề và định dạng dữ
liệu được sử dụng. Các tiêu chí này cho phép sử dụng các hình thức giải thích khác nhau
và phát triển các phương pháp có thể áp dụng cho các vấn đề phân loại và hồi quy khác
nhau.
Cuối cùng, các phương pháp XAI dựa trên quy tắc đã được kiểm tra. Trí tuệ nhân tạo
có thể giải thích dựa trên quy tắc là một cách tiếp cận hiệu quả để hiểu và giải thích
các quyết định của hệ thống trí tuệ nhân tạo. Cách tiếp cận này không chỉ thúc đẩy niềm
tin của người dùng vào hệ thống mà còn đảm bảo rằng các quyết định có thể giải thích và
kiểm chứng được. Các hệ thống trí tuệ nhân tạo có thể giải thích dựa trên quy tắc có
tầm quan trọng đáng kể trong các lĩnh vực như y học, tài chính và an ninh, những lĩnh
vực mà sự hiểu biết và chấp nhận các quyết định là rất quan trọng. Dự kiến các nghiên
cứu sâu hơn sẽ được tiến hành và các phương pháp mới sẽ được phát triển trong lĩnh vực
này trong tương lai.
320
Machine Translated by Google
Abdollahi, B., & Nasraoui, O. (2018). Tính minh bạch trong học máy công bằng: trường hợp
của hệ thống đề xuất có thể giải thích được. Học tập của con người và máy móc:
trực quan, có thể giải thích, đáng tin cậy và minh bạch, 21-35.
Adadi A, Berrada M (2018) Nhìn trộm bên trong hộp đen: khảo sát về trí tuệ nhân tạo có
Akyol, S., & Alataş, B. (2016). Tự động khai thác các quy tắc phân loại số chính xác và
dễ hiểu bằng thuật toán tối ưu hóa đàn mèo. Tạp chí Khoa Kỹ thuật và Kiến trúc của
Ali, S., Abuhmed, T., El-Sappagh, S., Muhammad, K., Alonso-Moral, JM, Confalonieri, R., ...
& Herrera, F. (2023). Trí tuệ nhân tạo có thể giải thích được (XAI): Những gì
chúng ta biết và những gì còn lại để đạt được Trí tuệ nhân tạo đáng tin cậy. Thông
Andrzejak, A., Langner, F., & Zabala, S. (2013, tháng 4). Các mô hình có thể giải thích
được từ dữ liệu phân tán thông qua việc hợp nhất các cây quyết định. Vào năm 2013,
Hội nghị chuyên đề của IEEE về trí tuệ tính toán và khai thác dữ liệu (CIDM) (trang.
1-9). IEEE.
Arrieta, AB, Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A.,
(Biên tập.). (2020). Trí tuệ nhân tạo có thể giải thích (XAI): Các khái niệm, phân
Asano, K., & Chun, J. (2021). Giải thích hậu kỳ bằng cách sử dụng quy tắc bắt chước cho
dữ liệu số. Trong Hội nghị quốc tế lần thứ 13 về Đại lý và trí tuệ nhân tạo, ICAART
Augusta, MG, & Kathirvalavakumar, T. (2012). Kỹ thuật đảo ngược mạng lưới thần kinh để
trích xuất quy tắc trong các vấn đề phân loại. Chữ cái xử lý thần kinh, 35, 131-150.
Bastani, O., Kim, C., & Bastani, H. (2017). Khả năng giải thích thông qua trích xuất mô
Bilekyigit, S. (2022) Phân tích nguy cơ suy tim bằng phương pháp học máy, Karamanoğlu
Biswas, SK, Chakraborty, M., Purkayastha, B., Roy, P., & Thounaojam, D.
M. (2017). Trích xuất quy tắc từ dữ liệu huấn luyện bằng mạng nơ-ron.
Tạp chí Quốc tế về Công cụ Trí tuệ Nhân tạo, 26(03), 1750006.
321
Machine Translated by Google
Bologna, G. (2018). Một nghiên cứu trích xuất quy tắc dựa trên mạng lưới thần kinh tích
chập. Trong Học máy và trích xuất kiến thức: IFIP TC 5 lần thứ hai, TC 8/WG 8.4,
8.9, TC 12/WG 12.9 Hội nghị quốc tế đa miền, CD-MAKE 2018, Hamburg, Đức, ngày 27–30
tháng 8 năm 2018, Kỷ yếu 2 ( trang 304-313). Nhà xuất bản quốc tế Springer.
Bologna, G., & Hayashi, Y. (2017). Đặc điểm của các quy tắc tượng trưng được nhúng trong
mạng DIMLP sâu: thách thức đối với tính minh bạch của học sâu. Tạp chí Nghiên cứu
Bologna, G., & Hayashi, Y. (2018). Một nghiên cứu so sánh về trích xuất quy tắc từ các
nhóm mạng lưới thần kinh, cây nông được tăng cường và SVM. Trí tuệ tính toán ứng
Boz, O. (2002, tháng 7). Trích xuất cây quyết định từ mạng lưới thần kinh được đào tạo.
Trong Kỷ yếu của hội nghị quốc tế ACM SIGKDD lần thứ tám về Khám phá tri thức và
Cô dâu, H., Dong, J., Dong, JS, & Hóu, Z. (2018). Hướng tới học máy đáng tin cậy và có
thể giải thích bằng cách sử dụng lý luận tự động. Trong Phương pháp chính thức và
Kỹ thuật phần mềm: Hội nghị quốc tế lần thứ 20 về Phương pháp kỹ thuật chính thức,
ICFEM 2018, Gold Coast, QLD, Australia, ngày 12-16 tháng 11 năm 2018, Kỷ yếu 20
Cano, A., Zafra, A., & Ventura, S. (2013). Một thuật toán khai thác quy tắc phân loại có
thể giải thích được. Khoa học thông tin, 240, 1-20.
Carvalho, DV, Pereira, EM, & Cardoso, JS (2019). Khả năng diễn giải của máy học: Khảo sát
D'Alterio, P., Garibaldi, JM, & John, RI (2020, tháng 7). Hệ thống phân loại mờ khoảng
loại 2 có giới hạn dành cho AI có thể giải thích được (XAI). Năm 2020 Hội nghị
số 8). IEEE.
Dam, HK, Tran, T., & Ghose, A. (2018, tháng 5). Phân tích phần mềm có thể giải thích được.
Trong Kỷ yếu của Hội nghị quốc tế lần thứ 40 về Kỹ thuật phần mềm: Những ý tưởng
Das, A., & Rad, P. (2020). Cơ hội và thách thức trong nhân tạo có thể giải thích được
trí tuệ (xai): Một cuộc khảo sát. bản in trước arXiv arXiv:2006.11371.
322
Machine Translated by Google
De Graaf, MM, & Malle, BF (2017, tháng 10). Cách mọi người giải thích hành động (và các
hệ thống thông minh tự động cũng vậy). Trong chuỗi Hội nghị chuyên đề mùa thu
AAAI 2017.
Došilović, FK, Brčić, M., & Hlupić, N. (2018, tháng 5). Trí tuệ nhân tạo có thể giải
thích: Một cuộc khảo sát. Năm 2018, Công ước quốc tế lần thứ 41 về công nghệ
thông tin và truyền thông, điện tử và vi điện tử (MIPRO) (trang 0210-0215). IEEE.
Fox, M., Long, D., & Magazzeni, D. (2017). Quy hoạch có thể giải thích được bản in
Garcez, ADA, Broda, K., & Gabbay, DM (2001). Trích xuất tri thức biểu tượng từ mạng
lưới thần kinh đã được huấn luyện: Một cách tiếp cận đúng đắn. Trí tuệ nhân tạo,
125(1-2), 155-207.
Guidotti, R., Monreale, A., Giannotti, F., Pedreschi, D., Ruggieri, S., & Turini, F.
(2019). Giải thích thực tế và phản thực tế cho việc ra quyết định hộp đen. Hệ
Bắn súng, D., & Aha, D. (2019). Chương trình trí tuệ nhân tạo có thể giải thích (XAI)
Hagras, H. (2018). Hướng tới AI dễ hiểu, có thể giải thích được của con người. Máy
Hailesilassie, T. (2016). Thuật toán trích xuất quy tắc cho mạng nơ-ron sâu: A
Ishibuchi, H., & Nojima, Y. (2007). Phân tích sự cân bằng giữa khả năng diễn giải và độ
chính xác của các hệ thống mờ bằng phương pháp học máy dựa trên di truyền mờ đa
mục tiêu. Tạp chí Quốc tế về Lý luận Gần đúng, 44(1), 4-31.
Hồi giáo, MR, Ahmed, MU, Barua, S., & Begum, S. (2022). Đánh giá có hệ thống về trí tuệ
nhân tạo có thể giải thích được về các lĩnh vực và nhiệm vụ ứng dụng khác nhau.
Jin, Y. (2000). Mô hình hóa mờ của hệ thống nhiều chiều: giảm độ phức tạp và cải thiện
khả năng diễn giải. Giao dịch IEEE trên hệ thống mờ, 8(2), 212-221.
Johansson, U., Niklasson, L., & König, R. (2004, tháng 6). Độ chính xác và tính dễ hiểu
trong các mô hình khai thác dữ liệu. Trong Kỷ yếu của hội nghị quốc tế lần thứ
Kiziloluk, S., & Alatas, B. (2015). Tự động khai thác các quy tắc phân loại số bằng
323
Machine Translated by Google
https://link.gale.com/apps/doc/A585717957/AONE?u=anon~2d19ecd6&
sid=googleScholar&xid=3186dc12
Krishnan, S., & Wu, E. (2017, tháng 5). Palm: Giải thích về học máy cho việc gỡ lỗi lặp
đi lặp lại. Trong Kỷ yếu của hội thảo lần thứ 2 về phân tích dữ liệu con người
Lou, Y., Caruana, R., & Gehrke, J. (2012, tháng 8). Các mô hình dễ hiểu để phân loại và
hồi quy. Trong Kỷ yếu của hội nghị quốc tế ACM SIGKDD lần thứ 18 về Khám phá tri
Minh, D., Wang, HX, Li, YF, & Nguyen, TN (2022). Trí tuệ nhân tạo có thể giải thích: đánh
giá toàn diện. Đánh giá trí tuệ nhân tạo, 1-66.
Montavon, G., Samek, W., & Müller, KR (2018). Các phương pháp diễn giải và hiểu mạng lưới
Neches, R., Swartout, WR, & Moore, JD (1985). Tăng cường bảo trì và giải thích các hệ
thống chuyên gia thông qua các mô hình phát triển rõ ràng của chúng. Giao dịch của
Otero, FE, & Freitas, AA (2016). Cải thiện khả năng diễn giải của các quy tắc phân loại
được phát hiện bởi thuật toán đàn kiến: kết quả mở rộng. Tính toán tiến hóa,
24(3), 385-409.
Páez, A. (2019). Bước ngoặt thực dụng trong trí tuệ nhân tạo có thể giải thích được (XAI).
Páez, A. (2019). Bước ngoặt thực dụng trong trí tuệ nhân tạo có thể giải thích được (XAI).
Palade, V., Neagu, DC, & Patton, RJ (2001). Giải thích mạng lưới thần kinh được đào tạo
bằng cách trích xuất quy tắc. Trong trí tuệ tính toán. Lý thuyết và ứng dụng: Hội
nghị quốc tế, Ngày mờ lần thứ 7 Dortmund, Đức, ngày 1–3 tháng 10 năm 2001 Kỷ yếu 7
Pehlivanlı, A. Ç., và Deliloğlu, RAS (2021). Hibrit Açıklanabilir Yapay Zeka Tasarımı và
Pierrard, R., Poli, JP, & Hudelot, C. (2018, tháng 7). Học các mối quan hệ và tính chất
mờ cho trí tuệ nhân tạo có thể giải thích được. Năm 2018 IEEE
324
Machine Translated by Google
Ribeiro, MT, Singh, S., & Guestrin, C. (2018, tháng 4). Neo: Giải thích bất khả tri về mô
hình có độ chính xác cao. Trong Kỷ yếu hội nghị AAAI về trí tuệ nhân tạo (Tập 32, số
1).
Setiono, R., & Liu, H. (1995, tháng 8). Hiểu mạng lưới thần kinh thông qua quy tắc
Setzu, M., Guidotti, R., Monreale, A., Turini, F., Pedreschi, D., & Giannotti, F.
(2021). Glocalx-Giải thích từ cục bộ đến toàn cầu về mô hình ai hộp đen.
URL 1: https://boosted.ai/blog/asset-managers-need-explainable-ai-but-what-is-it-and-how-can-i-
incorporate-it-into-my-process
Verbeke, W., Martens, D., Mues, C., & Baesens, B. (2011). Xây dựng các mô hình dự đoán tỷ
lệ rời bỏ khách hàng dễ hiểu bằng các kỹ thuật quy tắc tiên tiến. Hệ chuyên gia có
Vilone, G., & Longo, L. (2021a). Phân loại các phương pháp trí tuệ nhân tạo có thể giải
thích thông qua các định dạng đầu ra của chúng. Học máy và khai thác kiến thức,
3(3), 615-661.
Vilone, G., & Longo, L. (2021b). Các khái niệm về khả năng giải thích và cách tiếp cận đánh
giá đối với trí tuệ nhân tạo có thể giải thích được. Thông tin tổng hợp, 76, 89-106.
Wachter, S., Mittelstadt, B., & Russell, C. (2017). Giải thích phản thực tế mà không cần mở
Wang, Z., & Palade, V. (2011, tháng 12). Xây dựng các mô hình mờ có thể giải thích được để
phân tích dữ liệu chiều cao trong chẩn đoán ung thư. Trong bộ gen BMC (Tập 12, số 2,
Xu, F., Uszkoreit, H., Du, Y., Fan, W., Zhao, D., & Zhu, J. (2019). AI có thể giải thích:
Một cuộc khảo sát ngắn gọn về lịch sử, lĩnh vực nghiên cứu, cách tiếp cận và thách thức.
Trong Xử lý ngôn ngữ tự nhiên và tính toán tiếng Trung: Hội nghị quốc tế CCF lần thứ
Ngày 14 tháng 1 năm 2019, Kỷ yếu, Phần II 8 (trang 563-574). Nhà xuất bản quốc tế
Springer.
Chu, ZH, & Jiang, Y. (2003). Chẩn đoán y khoa với C4. 5 quy tắc trước bởi tập hợp mạng lưới
thần kinh nhân tạo. Giao dịch của IEEE về thông tin
325
Machine Translated by Google