You are on page 1of 22

Machine Translated by Google

Chương 17

Trí tuệ nhân tạo có thể giải thích dựa trên quy tắc

Sinem AKYOL1

1 PGS. Giáo sư; Đại học Firat, Khoa Kỹ thuật, Khoa Kỹ thuật Phần mềm.
sakyol@firat.edu.tr Số ORCID: 0000-0001-9308-3500

305
Machine Translated by Google

306
Machine Translated by Google

TRỪU TƯỢNG

Trí tuệ nhân tạo nổi bật trong nhiều lĩnh vực bằng cách hỗ trợ các nhiệm vụ và bắt

chước hệ thống học tập của con người để tạo ra giải pháp. Các thuật toán trí tuệ nhân

tạo được hỗ trợ bởi mạng lưới thần kinh sâu ngày càng được sử dụng rộng rãi trong nhiều

lĩnh vực khác nhau như hệ thống năng lượng, y học, robot và xử lý hình ảnh, cho thấy sự

tích hợp của chúng vào cuộc sống hàng ngày của chúng ta.

Tuy nhiên, bất chấp những tiến bộ này, công nghệ đang phát triển này vẫn thiếu khả năng

tạo dựng niềm tin và thường được coi là một “hộp đen” mờ đục. Các kỹ thuật Trí tuệ nhân

tạo có thể giải thích (XAI) đã được phát triển để giải quyết vấn đề này và làm cho các

quyết định của mô hình trở nên dễ hiểu, cho phép các cá nhân hiểu và giải thích chúng.

XAI dựa trên quy tắc là phương pháp áp dụng cách tiếp cận dựa trên quy tắc để giải

thích kết quả của các mô hình Trí tuệ nhân tạo. Trong phương pháp này, các quy tắc có

thể hiểu được được tạo ra để có thể giải thích và hỗ trợ người dùng hiểu được quy trình

ra quyết định của hệ thống Trí tuệ nhân tạo.

Các phương pháp XAI dựa trên quy tắc thường được phân loại là bất khả tri về mô hình,

dựa vào tối ưu hóa mô hình hoặc được thiết kế riêng cho mạng thần kinh. Những phương

pháp này đóng một vai trò quan trọng trong các ứng dụng Trí tuệ nhân tạo, đặc biệt là

trong tài chính, y học và luật. XAI dựa trên quy tắc đảm bảo độ tin cậy và tính minh

bạch bằng cách cho phép người dùng hiểu lý do tại sao mô hình lại tạo ra một kết quả cụ

thể. Các quy tắc có thể biểu thị các đặc điểm của dữ liệu đầu vào hoặc đầu ra của mô

hình, cho phép người dùng diễn giải kết quả một cách dễ hiểu. Do đó, người dùng ngày

càng tin tưởng hơn vào quá trình ra quyết định của các mô hình Trí tuệ nhân tạo và có

cơ hội đặt câu hỏi cũng như nâng cao độ chính xác của hệ thống. Nghiên cứu này giới

thiệu về việc sử dụng và phát triển rộng rãi các kỹ thuật trí tuệ nhân tạo và học máy

trong đời sống con người. Ngoài ra, nó nhấn mạnh tầm quan trọng và sự phát triển của

XAI. Nghiên cứu xác định và nhấn mạnh tầm quan trọng của Trí tuệ nhân tạo có thể giải

thích được đồng thời cung cấp những hiểu biết sâu sắc về các khái niệm và mối quan hệ

chính của nó (khả năng diễn giải, khả năng giải thích, khả năng diễn giải). Bằng cách

tập trung vào việc phân loại các phương pháp XAI, nó giới thiệu các kỹ thuật XAI dựa

trên quy tắc.

Từ khóa: Trí tuệ nhân tạo, XAI, XAI dựa trên quy tắc

307
Machine Translated by Google

1. GIỚI THIỆU

Đặc biệt, các thuật toán dựa trên trí tuệ nhân tạo được hỗ trợ bởi mạng lưới thần

kinh sâu đang thay đổi cách mọi người tiếp cận các nhiệm vụ trong thế giới thực. Trong

những năm gần đây, việc sử dụng thuật toán học máy để tự động hóa các khía cạnh khác

nhau của quy trình làm việc khoa học, kinh doanh và xã hội ngày càng gia tăng cùng với

sự phát triển của nghiên cứu trong lĩnh vực học sâu. Việc sử dụng các thuật toán học

máy trong các lĩnh vực hệ thống năng lượng và năng lượng, y học, nhãn khoa, rối loạn

phát triển, robot và phương tiện tự động, phân loại và phát hiện sử dụng thành công, xử

lý hình ảnh, xử lý giọng nói và âm thanh, an ninh mạng, v.v., cho thấy những điều này

các thuật toán thâm nhập vào cuộc sống hàng ngày của chúng ta (Das và Rad, 2020).

Các kỹ thuật Machine Learning, một phương pháp rất thành công trong việc học các mẫu

phức tạp để đưa ra các dự đoán nhất quán và đáng tin cậy, được chia thành ba nhóm nhỏ

là học có giám sát, không giám sát và học tăng cường, như trong Hình 1. Mỗi phương pháp

Machine Learning cung cấp các giải pháp và cơ hội tuyệt vời để những vấn đề khác nhau

thuộc các lĩnh vực khác nhau từ trước đến nay. Với sự tiến bộ của các mô hình học tập

tổng hợp và học sâu, nó đã trở thành phương pháp được ưa chuộng cho nhiều ứng dụng trong

thế giới thực như đề xuất phim, dịch máy và nhận dạng giọng nói. Trong quá trình học

tập, các mô hình ML vượt trội hơn con người về tốc độ, khả năng tái tạo và quy mô. Những

mô hình này, sau khi được triển khai, có thể hoàn thành nhiệm vụ nhanh hơn, tạo ra kết

quả nhất quán và có thể được chuyển sang hệ thống khác một cách đơn giản và rẻ tiền.

Mặt khác, việc đào tạo một người thực hiện một nhiệm vụ mất nhiều thời gian và phát

sinh thêm chi phí nếu cá nhân đó còn trẻ. Ngoài ra, thông tin cá nhân không thể được

sao chép bằng cách sao chép hoặc chuyển giao (Köse, 2022).

Học máy

Giám sát gia cố Không được giám sát

Học hỏi Học hỏi Học hỏi

hồi quy Phân loại


Giảm kích cỡ xuống Phân cụm

Hình 1: Phân loại các thuật toán machine learning

Một số nhà nghiên cứu nhận ra sự cần thiết phải giải thích về trí tuệ nhân tạo và hệ

thống thông minh dựa trên máy học đã bắt đầu khám phá

308
Machine Translated by Google

và đề xuất các phương pháp từ lâu. Bằng chứng lâu đời nhất về mối quan hệ giữa cơ sở

dữ liệu thư mục và cách giải thích thuật ngữ có thể được tìm thấy trong các hệ thống

chuyên gia do Neches et al xuất bản. vào năm 1985 (Neches và cộng sự, 1985). Người ta

nhận thấy rằng đã có sự gia tăng các nghiên cứu về trí tuệ nhân tạo có thể giải thích

được trong những năm gần đây, tập trung vào việc làm cho kết quả trở nên dễ hiểu hơn,

vốn là thách thức trong lĩnh vực học máy.

Bài báo có tiêu đề "Chương trình trí tuệ nhân tạo có thể giải thích của DARPA: Kiểm

tra tầm quan trọng của khả năng giải thích đối với" Bộ Quốc phòng "điều tra tầm quan

trọng của khả năng giải thích đối với Bộ Quốc phòng và xác định Cơ quan Dự án Nghiên

cứu Tiên tiến Quốc phòng (DARPA) là cơ quan nghiên cứu nâng cao Chương trình này bắt

đầu vào năm 2017 và có kế hoạch 4 năm. Dự án trí tuệ nhân tạo có thể giải thích giải

quyết ba vấn đề nghiên cứu và phát triển khác nhau: tạo ra nhiều mô hình hơn, thiết kế

giao diện dùng để giải thích và hiểu nhu cầu tâm lý để giải thích hiệu quả. Nghiên cứu

này nhằm mục đích phát triển trí tuệ nhân tạo có thể giải thích được về các kỹ thuật

học máy (Gunning và Aha, 2019).

Vào giữa năm 2017, chính phủ Trung Quốc đã công bố “Kế hoạch phát triển trí tuệ nhân

tạo thế hệ tiếp theo” nhằm thúc đẩy khả năng mở rộng cao và mạnh mẽ của trí tuệ nhân

tạo (Xu và cộng sự, 2019). Cuối cùng, vào giữa năm 2018, Liên minh Châu Âu đã ban hành

"Quy định bảo vệ dữ liệu chung" (GDPR), cấp cho công dân "Quyền giải thích" đối với

các quyết định bị ảnh hưởng bởi các quy trình thuật toán (Wachter et al., 2017). Kết

quả tìm kiếm của các cơ sở dữ liệu thư mục lớn cho thấy sự gia tăng nhanh chóng số

lượng ấn phẩm liên quan đến AI có thể giải thích (XAI), chứng tỏ tác động đáng kể của

những sự kiện này đối với các nhà nghiên cứu. Cơ sở dữ liệu thư mục được coi là nguồn

chính của các ấn phẩm liên quan đến XAI dựa trên các tài liệu nghiên cứu trong lĩnh

vực trí tuệ nhân tạo (Islam và cộng sự, 2022).

Để định nghĩa XAI, Hình 2 minh họa các thuật ngữ được đề cập thường xuyên nhất, thể

hiện các đặc điểm cơ bản của từng thuật ngữ và mối quan hệ của chúng. Khái niệm về

tính dễ hiểu là khái niệm nền tảng trong XAI, được liên kết với các khái niệm khác

(Hagras, 2018). Tính dễ hiểu và tính dễ hiểu đều phụ thuộc vào khả năng người dùng cảm

nhận được kiến thức thu được từ một mô hình (Páez, 2019). Ví dụ, tính dễ hiểu có liên

quan chặt chẽ đến tính cô đọng, tính có thể diễn giải và tính có thể giải thích được.

Tính ngắn gọn đề cập đến cách giải thích ngắn gọn và rõ ràng dành cho con người

(Abdollahi và Nasraoui, 2018), trong khi khả năng giải thích và khả năng diễn giải đề

cập đến khả năng hiểu được kết quả đầu ra của mô hình AI của người quan sát.

Khả năng giải thích và khả năng diễn giải dường như là những thuật ngữ liên quan thường

xuyên bị lạm dụng, gây nhầm lẫn và có khả năng cản trở việc tạo ra các tiêu chuẩn hóa.

309
Machine Translated by Google

thuật ngữ (Carvalho và cộng sự, 2019). Khả năng giải thích trong XAI đề cập đến

đặc tính tích cực của mô hình AI, bao gồm các đặc điểm và phương pháp cần thiết

để làm rõ hoặc tiết lộ hoạt động bên trong của nó (Adadi và Berrada, 2018). Mặt

khác, mức độ mà con người có thể hiểu một mô hình AI một cách thụ động, được biểu

thị bằng khả năng diễn giải. Sự biện minh cho phép những người dùng không rành về

kỹ thuật có một cách dễ dàng để nắm bắt quá trình học tập cơ bản của một mô hình

dự đoán, cho phép họ biện minh cho các quyết định của mô hình. Nhu cầu về các mô

hình AI có thể giải thích được đã thu hút được sự chú ý. Nói chung, XAI nâng cao

khả năng chấp nhận và khả năng sử dụng của các mô hình AI hiện có bằng cách cho

phép người dùng tham gia gỡ lỗi và tạo mô hình (Minh và cộng sự, 2022).

Dễ hiểu Khả năng sử dụng

Sự cô đọng Sự thú vị

Dễ hiểu Khả năng chấp nhận

Khả năng giải thích


Tính chính đáng

Khả năng giải thích

Hình 2: Kết nối giữa các từ thường dùng trong trường XAI

Trong chương này, định nghĩa về XAI được đưa ra ở phần thứ hai, cùng với phần

thảo luận về sự cần thiết của XAI. Trình bày sự so sánh giữa phương pháp XAI và

hộp đen. Sau đó, những ưu điểm và nhược điểm của XAI sẽ được giải quyết. Trong
phần thứ ba, năm phương pháp phân loại của XAI sẽ được thảo luận. Phần thứ tư tập
trung vào các phương pháp XAI dựa trên quy tắc dựa trên định dạng đầu ra. Cuối

cùng, trong phần thứ năm, nghiên cứu được kết luận.

2. TRÍ TUỆ NHÂN TẠO CÓ THỂ GIẢI THÍCH

Trong những năm gần đây, trí tuệ nhân tạo nổi lên như một chủ đề nổi bật trong

hầu hết mọi lĩnh vực công nghệ. Hệ thống AI hỗ trợ rất nhiều cho các nhiệm vụ bằng

cách bắt chước hệ thống học tập của con người và tạo ra giải pháp cho các vấn đề.

Tuy nhiên, công nghệ AI đang phát triển này vẫn chưa tạo dựng được niềm tin hoàn

toàn vào kết quả mà nó mang lại cho con người và thiếu câu trả lời cho các câu

hỏi như thế nào và tại sao.

310
Machine Translated by Google

Các mô hình học máy giống như những chiếc hộp đen khó diễn giải. Dữ liệu phân loại như

giới tính, tuổi tác và chủng tộc thường có thể gây ra rủi ro trong các mô hình AI. Ngoài

ra, các mô hình AI có thể bị giảm hiệu suất khi dữ liệu được sử dụng trong giai đoạn ứng

dụng khác với dữ liệu huấn luyện. Do đó, điều quan trọng là các mô hình AI phải đáng tin

cậy, có trách nhiệm và hiệu quả (Bilekyigit, 2022).

Do cấu trúc cơ bản phức tạp và phi tuyến tính, khiến chúng mờ đục và khó hiểu, phần

lớn các mô hình học máy và học sâu được các nhà khoa học và công chúng gọi là “hộp đen”.

Do sự mờ đục này, các kiến trúc trí tuệ nhân tạo (XAI) có thể giải thích được hiện nay là

cần thiết. Nhu cầu này chủ yếu được thúc đẩy bởi ba yếu tố: nhu cầu tăng tính minh bạch

của mô hình, nhu cầu tương tác của con người với chúng và nhu cầu về tính chính xác của

các suy luận của họ (Fox và cộng sự, 2017).

Do đó, nhiều phương pháp tiếp cận theo từng miền cụ thể và phụ thuộc vào ngữ cảnh đã

được phát triển để xử lý việc giải thích các mô hình học máy và đưa ra lời giải thích cho

con người. Với nhiều cách tiếp cận XAI mới nằm rải rác và cần có cấu trúc, xu hướng này

còn lâu mới được giải quyết.

Trí tuệ nhân tạo đã trở thành một lĩnh vực thiết yếu trong hầu hết mọi ngành, dẫn đến

sự gia tăng nhanh chóng nghiên cứu về Trí tuệ nhân tạo có thể giải thích được kể từ năm

2019 (Arrieta và cộng sự, 2020). Các kỹ thuật Trí tuệ nhân tạo có thể giải thích được là

các phương pháp cho phép hiểu và giải thích các kết quả của AI. Trong những lĩnh vực mà

cuộc sống con người bị ảnh hưởng, chẳng hạn như y học, tài chính và luật, việc sử dụng các

kỹ thuật AI có thể giải thích được là đặc biệt quan trọng (Pehlivanlı và Delologlu, 2021).

Trí tuệ nhân tạo có thể giải thích nhằm mục đích đưa ra quyết định của các mô hình mà

không cần giải thích và điều đó có thể tạo ra các tình huống rủi ro dễ hiểu hơn.

XAI đại diện cho một tập hợp các phương pháp cho phép con người hiểu, diễn giải và giải

thích kết quả của các thuật toán học máy (Bilekyigit, 2022).

Hộp đen (Trí tuệ nhân tạo) Lý do đằng sau hành động của bạn
Nhiệm vụ
là gì?

Điều gì khiến bạn chọn cái đó thay


vì cái khác?
Máy móc Bạn đạt được thành công ở
Đào tạo Đã học
điểm nào?
Học hỏi
Dữ liệu Chức năng Khi nào bạn gặp thất bại?
Quá trình
Khi nào tôi có thể dựa vào bạn?

Quá trình sửa lỗi là gì?

Hộp Trắng (Nhân tạo có thể giải thích


Nhiệm vụ

Sự thông minh)
Tôi hiểu lý do.
Mới
Tôi nắm được lý do.
Đào tạo Máy móc Có thể giải thích được Có thể giải thích được Tôi biết những khoảnh khắc thành công của bạn.

Dữ liệu Học hỏi Người mẫu Giao diện Tôi nhận thức được những thất bại của bạn.

Tôi biết khi nào tôi có thể tin tưởng bạn.


Quá trình
Tôi hiểu nguyên nhân lỗi của bạn.

Hình 3: So sánh trí tuệ nhân tạo và XAI (URL 1)

311
Machine Translated by Google

Có thể thấy sự so sánh giữa mô hình trí tuệ nhân tạo có thể giải thích (XAI) và mô

hình hộp đen (trí tuệ nhân tạo), còn được gọi là hộp trắng, trong Hình 3. Các mô hình

hộp trắng vốn có thể diễn giải được, giúp dễ hiểu kết quả đầu ra của chúng hơn, nhưng

chúng ít hơn chính xác. Mặt khác, mô hình hộp đen chính xác hơn nhưng khó diễn giải hơn.

Cần có các kỹ thuật XAI phức tạp hơn để xây dựng các mô hình đáng tin cậy. Ngoài các mô

hình hộp trắng và hộp đen, còn có các mô hình hộp màu xám, mang lại sự cân bằng tốt giữa

khả năng diễn giải và độ chính xác (Ali và cộng sự, 2023).

XAI có nhiều ưu điểm. Một trong số đó là nó giúp cải thiện mô hình bằng cách hiểu

được điểm yếu của nó. Ngoài ra, khi khó tin tưởng vào các quyết định của hệ thống mà

chúng ta không thể quan sát và hiểu được, trí tuệ nhân tạo có thể giải thích sẽ giúp

thiết lập niềm tin đó. Nó tạo ra cảm giác tin cậy vào mô hình bằng cách giảm thiểu rủi

ro. Nó cũng cung cấp cơ hội để theo dõi hiệu suất của hệ thống. Cùng với những ưu điểm

này, cũng có một số nhược điểm. Bất lợi đầu tiên là thiếu nghiên cứu khoa học đầy đủ

trong lĩnh vực này. Một nhược điểm nữa là tính bất cập, chính xác và thiếu tính đo lường

định lượng của bản đồ giải thích.

3. PHÂN LOẠI PHƯƠNG PHÁP XAI

Mục tiêu chính của phương pháp tiếp cận XAI là diễn giải và làm cho toàn bộ quá

trình phát triển hệ thống trí tuệ nhân tạo trở nên minh bạch và dễ hiểu, từ đầu vào đến

đầu ra. Những kỹ thuật này tạo ra những lời giải thích có thể ở nhiều định dạng khác

nhau, bao gồm quy tắc, con số, văn bản, hình ảnh hoặc sự kết hợp của những định dạng

này. Nhiều cách mà công nghệ hỗ trợ AI đang được sử dụng để giải quyết các vấn đề khác

nhau trong các ngành khác nhau đã dẫn đến nhiều cách giải thích khác nhau (De Graaf và

Malle, 2017; Vilone và Longo, 2021b). Những người thực hành AI, nhà phát triển hệ thống

và nhà thiết kế tìm thấy những lời giải thích thực tế trong một mô hình phản ánh trung

thực logic. Ví dụ, những giải thích dựa trên quy tắc cung cấp một tập hợp các nguyên

tắc logic được xác định rõ ràng và dễ hiểu.

Tuy nhiên, người dùng cuối muốn những lời giải thích có thể tùy chỉnh kể một "câu

chuyện" bằng cách làm nổi bật các tính năng đầu vào có ảnh hưởng nhiều nhất đến dự đoán

của mô hình. Ví dụ: giải thích bằng lời nói và hình ảnh có thể truyền đạt một cách trực

quan lý do đằng sau việc phân loại hình ảnh động vật (Vilone và Longo, 2021a).

Năm tiêu chí chính đã được xác định để phân biệt các phương pháp XAI. Đầu tiên, phạm

vi của lời giải thích có thể mang tính toàn cầu hoặc có giới hạn. Trên toàn cầu, mục

tiêu là làm cho quá trình suy luận hoàn chỉnh của mô hình trở nên minh bạch và dễ hiểu.

Mục tiêu của phạm vi cục bộ là giải thích từng suy luận của mô hình (Dam và cộng sự,

2018). Giai đoạn mà một phương pháp đưa ra lời giải thích được gọi là giai đoạn thứ hai

312
Machine Translated by Google

kích thước. Bằng cách tính đến khả năng giải thích ngay từ đầu và trong quá trình đào tạo, các

phương pháp tiếp cận trước nhằm tạo ra một mô hình có thể diễn giải một cách tự nhiên đồng thời

đạt được mức độ chính xác cao nhất (Došilović và cộng sự, 2018; Lou và cộng sự, 2012). Mặt khác,

các phương pháp post hoc bảo tồn một mô hình đã được huấn luyện và sử dụng bộ giải thích bên

ngoài để tái tạo hoặc giải thích hành vi của nó trong quá trình thử nghiệm.

(Došilović và cộng sự, 2018; Montavon và cộng sự, 2018; Páez, 2019). Cuối cùng nhưng không kém

phần quan trọng, quy trình phân loại hình ảnh của mô hình có thể rất khác so với quy trình phân

loại tài liệu dựa trên văn bản. Do đó, dữ liệu đầu vào—dù là chuỗi số/phân loại, hình ảnh, văn

bản hay thời gian—có thể cực kỳ quan trọng đối với kỹ thuật diễn giải. Tùy thuộc vào loại vấn đề,

các phương pháp XAI có thể khác nhau, chẳng hạn như phân loại hoặc hồi quy, tùy thuộc vào vấn đề

cơ bản. Tương tự, đối với dữ liệu đầu ra, các điều kiện khác nhau có thể yêu cầu các định dạng

giải thích khác nhau: số, quy tắc, văn bản, hình ảnh hoặc hỗn hợp.

Việc phân loại các mô hình XAI được thể hiện trong Hình 4.

PHƯƠNG PHÁP

Phạm vi Sân khấu Dữ liệu đầu vào Loại vấn đề Định dạng đầu ra

Toàn cầu tiền nghiệm Phân loại Phân loại Số

Địa phương Hậu hoc Hình ảnh hồi quy Quy tắc

Mô hình bất khả tri văn bản văn bản


Mô hình cụ thể Chuỗi thời gian Thị giác

Trộn

Hình 4: Phân loại các phương pháp XAI

4. PHƯƠNG PHÁP XAI DỰA TRÊN QUY TẮC

Hiểu và giải thích các quá trình ra quyết định của hệ thống trí tuệ nhân tạo là rất quan

trọng đối với độ tin cậy và khả năng chấp nhận của chúng. Về vấn đề này, XAI dựa trên quy tắc

cung cấp một cách tiếp cận mạnh mẽ để đưa ra lời giải thích và mức độ dễ hiểu. XAI dựa trên quy

tắc dựa trên cấu trúc bao gồm các quy tắc rõ ràng và dễ hiểu cho phép hiểu được quá trình ra

quyết định. Cách tiếp cận này nâng cao niềm tin của người dùng vào hệ thống trí tuệ nhân tạo bằng

cách cung cấp cơ chế giải thích làm sáng tỏ cách đưa ra quyết định, từ đó chứng thực các quyết

định theo cách có thể hiểu được.

4.1. Phương pháp XAI dựa trên quy tắc với cây quyết định

Sử dụng cây quyết định, có thể tạo ra các giải thích dựa trên quy tắc. Các quy tắc này thể

hiện khả năng diễn giải cao hơn trong khi giống với mô hình hộp đen. Ví dụ: sử dụng các liên kết

logic để kết hợp tải trọng được chia dọc theo các tuyến đường từ

313
Machine Translated by Google

đầu vào cho các dự đoán, phương pháp của Bride và cộng sự trích xuất các công thức logic

dưới dạng cây quyết định. Các quy tắc này cung cấp thông tin về quá trình ra quyết định

bằng cách được phân tích bằng các kỹ thuật suy luận logic (Bride et al., 2018). Mô hình

cục bộ nhạy cảm phân chia (Krishnan và Wu, 2017) và Trích xuất mô hình (Bastani và

Bastani, 2017) sử dụng cây quyết định để xấp xỉ các mô hình phức tạp, nhằm phản ánh khả

năng diễn giải của các đặc điểm thống kê trong các mô hình phức tạp.

Giải thích quy tắc bắt chước trả về các bộ quy tắc tượng trưng hoạt động tương tự như mô

hình hộp đen cơ bản. Phương pháp này xác định vùng tối đa của một lớp cụ thể bằng cách sử

dụng các ví dụ nguyên mẫu và xây dựng bộ quy tắc giới hạn vùng này (Asano và Chun, 2021;

Vilone và Longo, 2021a).

Để kết hợp hiệu quả một số cây quyết định được đào tạo độc lập trên dữ liệu phân tán

thành một cây, Andrzejak et al. đề xuất một kỹ thuật ba bước. Đầu tiên, mỗi cây quyết định

được chuyển thành một bộ quy tắc chỉ định một vùng trong không gian đầu ra và nhân đôi

đường dẫn từ gốc đến lá. Không gian tính năng đầy đủ được bao phủ bởi từng khu vực, bị

ngắt kết nối. Sau đó, các vùng được kết hợp bằng phương pháp quét đường, sắp xếp các đường

viền của từng vùng và thống nhất các vùng lân cận. Cuối cùng, bằng cách sử dụng kỹ thuật

lấy cảm hứng từ C5.0, cây quyết định được trích xuất từ các vùng (Andrzejak và cộng sự,

2013).

Một cách tiếp cận khác được gọi là Quy tắc quyết định chính quy (RDR), được đề xuất

bởi D'Alterio et al. RDR tạo ra các cây quyết định được xác định bởi các chuyên gia.

Những cây này sở hữu một cấu trúc độc đáo với khả năng ưu tiên một thuộc tính hơn các

thuộc tính khác. Các quy tắc được giải thích bằng cách sử dụng biểu thức chính quy và được

tối ưu hóa dựa trên các tiêu chí về khả năng diễn giải cùng với độ chính xác và phạm vi

bao phủ. Quy tắc quyết định chính quy đã được áp dụng thành công trong nhiều lĩnh vực khác

nhau, đặc biệt là trong chẩn đoán y tế, phân tích tài chính và luật (D'Alterio và cộng

sự, 2020). Có thể xem hình ảnh ví dụ minh họa các quy tắc được trích xuất bằng cây quyết

định trong Hình 5.

Hình 5: Hình ảnh ví dụ về các quy tắc rút ra từ cây quyết định

(Bondarenko và cộng sự, 2017)

314
Machine Translated by Google

4.2. Phương pháp XAI dựa trên quy tắc với mạng thần kinh

Trong tài liệu, các mô hình XAI dựa trên quy tắc được phát triển bằng Mạng thần kinh đã được

đề xuất. Anchor đã sử dụng LSTM (Bộ nhớ ngắn hạn dài) để trích xuất các quy tắc IF-THEN được gọi

là "neo". Các neo này xác định cụ thể các tính năng của một ví dụ đầu vào cung cấp đủ thông tin

cho bộ phân loại để đưa ra dự đoán chính xác (Ribeiro và cộng sự, 2018).

Các nhà nghiên cứu đã phân loại các kỹ thuật XAI sử dụng quy tắc IF-THEN để giải thích chức

năng suy luận của mạng lưới thần kinh. Theo phân loại của Bologna và Hayashi (2018) và

Hailesilassie (2016), các kỹ thuật này có thể được chia thành ba nhóm: I) kỹ thuật phân rã, rút

ra các quy tắc từ các nơ-ron ẩn và đầu ra bằng cách kiểm tra các trọng số gắn liền với chúng;

(II) các phương pháp sư phạm, coi mạng lưới thần kinh cơ bản như một hộp đen và tái tạo chức năng

của nó bằng cách sử dụng các quy tắc được trích xuất mà không xem xét các trọng số; và (III) các

phương pháp chiết trung, kết hợp các yếu tố từ cả hai cách tiếp cận phân rã và sư phạm. Phần này

phân loại các phương pháp XAI bằng cách sử dụng ba lớp trên thay vì kiến trúc mạng thần kinh

(Vilone và Longo, 2021a).

Kỹ thuật phân tách: Phân chia các giá trị kích hoạt nơ-ron ẩn thông qua phân cụm (Setiono và

Liu, 1995) nhóm các giá trị kích hoạt của các nơ-ron ẩn và thay thế chúng bằng giá trị trung bình

của cụm để xây dựng quy tắc IF-THEN. Bằng cách xem xét các kết hợp tiềm năng trong các đầu ra

phân đoạn của mạng phân đoạn, các quy tắc sẽ được phát triển. Công cụ trích xuất kiến thức mạng

thần kinh (NNKX) (Bondarenko và cộng sự, 2017) tạo ra các cây quyết định nhị phân từ các mạng

thần kinh sigmoidal chuyển tiếp nhiều lớp theo cách tương tự như thế này. Để tạo các cụm, nó nhóm

và truyền ngược các giá trị kích hoạt từ lớp trước.

Một phương pháp tốt hơn để có được các quy tắc phân số và không chắc chắn được gọi là Phân

tích khoảng thời gian hiệu lực (VIA), dựa trên Khoảng thời gian (Palade và cộng sự, 2001). Các

giá trị kích hoạt của mọi đơn vị (hoặc nhóm đơn vị) trong DNN được VIA tìm thấy nằm trong nhiều

khoảng hiệu lực khác nhau. Mỗi quy tắc được trích xuất có một lớp mục tiêu duy nhất làm đầu ra

và một tập hợp các khoảng hiệu lực làm điều kiện tiên quyết. Palade và cộng sự. cho rằng VIA đôi

khi mắc lỗi trong khi xác định liệu một quy tắc có phù hợp với mạng hay không. Khoảng thời gian

không phải lúc nào cũng tốt nhất. Bằng cách sửa đổi các khoảng thời gian cho đầu vào hoặc đầu ra

và truyền bá mạng tiến hoặc lùi, khoảng thời gian sẽ vượt qua những hạn chế này. Tuy nhiên, để

đạt được hiệu suất tương đương về độ chính xác dự đoán, một số mạng thần kinh nhất định cần một

số quy tắc phân số. Trong những trường hợp như vậy, người ta đề xuất chuyển đổi các phân số này

315
Machine Translated by Google

các quy tắc thành các quy tắc mờ bằng cách đưa các toán tử OR vào giữa các quy tắc

sử dụng toán tử tương tác mờ (Palade và cộng sự, 2001; Vilone và Longo, 2021a).

Perceptron nhiều lớp có thể giải thích được (IMLP) trả lại các quy tắc tượng

trưng cho Perceptron nhiều lớp có thể giải thích được (DIMLP) (Bologna và Hayashi,

2017; Bologna và Hayashi, 2018; Bologna, 2018). Trong IMLP, mỗi nơ-ron lớp ẩn đầu

tiên có một nơ-ron đầu vào duy nhất và chức năng kích hoạt từng bước, nhưng các lớp

ẩn sau được ghép nối hoàn toàn và có chức năng kích hoạt sigmoid. Hàm kích hoạt bước

chuyển thành hàm cầu thang trong DIMLP, tương tự như hàm sigmoid. Sau lớp tổng hợp

tối đa, việc suy luận quy tắc được thực hiện bằng cách định vị vị trí của các siêu

phẳng phân biệt thích hợp đóng vai trò là đường viền giữa các lớp đầu ra.

Kỹ thuật đảo ngược là nền tảng của Trích xuất quy tắc thông qua Kỹ thuật đảo

ngược (RxREN), sử dụng chúng để xác định phạm vi dữ liệu của từng nơ-ron quan trọng

trong các lớp thích hợp đồng thời loại bỏ các nơ-ron đầu vào không liên quan không

đóng góp vào kết quả. Phương pháp đệ quy tạo ra các quy tắc phân cấp cho các trường

hợp phân biệt giữa các đặc điểm rời rạc và các thuộc tính liên tục. Một biến thể của
RxREN được gọi là Trích xuất quy tắc từ Mạng thần kinh với dữ liệu được phân loại

và phân loại sai

(RxNCM) (Biswas và cộng sự, 2017). Nó sử dụng các ví dụ đầu vào được phân loại chính

xác trong quy trình xác định phạm vi, giống như RxREN. Hiệu suất của LSTM ban đầu

được mô phỏng thông qua việc sử dụng đầu vào cho bộ phân loại dựa trên quy tắc và

các quy tắc được tạo theo cách này gần giống với hiệu suất đó

(Vilone và Longo, 2021a).

Nhiều kỹ thuật XAI dựa trên quy tắc có tính đơn điệu, có nghĩa là chúng tạo ra

một tập hợp quy tắc ngày càng tăng. Tuy nhiên, kết quả thu được bằng cách áp dụng

tiêu chí mới đôi khi có thể khiến kết quả trước đó không hợp lệ. Garcez và cộng sự.

đã mô tả một kỹ thuật để nắm bắt các quy tắc ký hiệu không đơn điệu được mã hóa

trong mạng. Thuật toán bắt đầu bằng cách sắp xếp một phần các vectơ theo giá trị

kích hoạt của tập dữ liệu huấn luyện. Sau đó, dựa trên các giá trị đặc trưng của

trường hợp đã chọn, nó thiết lập điểm đầu vào tối thiểu cần thiết để kích hoạt nơ-

ron đầu ra và phát triển một quy tắc (Garcez et al., 2001).

Cuối cùng, hai thuật toán đã được đề xuất để trích xuất cây quyết định (DT) từ

trọng số của DNN. Phương pháp đầu tiên huấn luyện một DT mềm bằng cách sử dụng

phương pháp giảm độ dốc ngẫu nhiên để phân vùng dữ liệu và đưa ra quyết định phân

cấp về cách xây dựng đường dẫn từ gốc đến lá, sử dụng các dự đoán của DNN và các bộ

lọc đã học của nó. Cách tiếp cận thứ hai được tạo ra rõ ràng cho các nhiệm vụ phân

loại hình ảnh và tìm cách giải thích về mặt ngữ nghĩa cốt lõi của CNN, trong đó các

bộ lọc của mạng sẽ thay thế cho các thành phần đối tượng khác nhau. Bằng cách thay đổi một

316
Machine Translated by Google

hàm mất mát cụ thể, các bộ lọc của mạng được tạo ra để thể hiện các phần đối tượng nhằm xây

dựng các DT đó. DT sau đó được xây dựng lặp đi lặp lại cho từng cặp bộ lọc/bộ phận cho mỗi hình

ảnh. Phương pháp quy nạp quy tắc C4.5 được sử dụng trong phương pháp C4.5Rule-PANE (Zhou và

Jiang, 2003) để trích xuất các quy tắc IF-THEN từ tập dữ liệu huấn luyện, trong đó các nhãn ban

đầu được thay thế bằng các nhãn dự đoán bởi tập hợp vì tập huấn luyện đã được cập nhật. Để bắt

chước quá trình suy luận của tập hợp, C4.5Rule-PANE trích xuất một bộ quy tắc từ tập dữ liệu

huấn luyện đã sửa đổi, trong đó các nhãn ban đầu được thay thế bằng các nhãn dự đoán của tập

hợp. Phương pháp DecText (Boz, 2002) trích xuất các DT có độ chính xác cao từ DNN. Nó áp dụng

một phương pháp đã biết để tìm ra cách phân chia tốt nhất dựa trên giá trị của từng đặc điểm,

sau đó tạo bộ quy tắc dựa trên số lượng mẫu trong mỗi nhánh để dự đoán lớp đạt được độ chính

xác cao nhất trong mỗi nhánh. Bộ quy tắc được chuyển đổi thành cấu trúc cây cho kết quả đầu ra

được gọi là cây quyết định sét (Vilone và Longo, 2021a).

4.3. Các phương pháp XAI dựa trên quy tắc với siêu dữ liệu

Các thuật toán siêu hình đã được sử dụng để phát triển các mô hình trí tuệ nhân tạo có thể

giải thích được (XAI) dựa trên quy tắc. Các thuật toán di truyền được sử dụng trong Trích xuất

quy tắc di truyền (G-REX) (Johansson và cộng sự, 2004) để tạo ra các quy tắc IF-THEN với toán

tử AND/OR. Thuật toán di truyền được GLocalX sử dụng (Guidotti và cộng sự, 2019; Setzu và cộng

sự, 2021) để tạo ra các quy tắc cục bộ nhằm làm rõ các dự đoán do bộ phân loại cung cấp trên

một trường hợp cụ thể. Các quy tắc được trích xuất này đưa ra một tập hợp các phản thực sẽ dẫn

đến các kết quả khác nhau nếu các thuộc tính của thể hiện bị thay đổi, cũng như các giải thích

nhân quả cho các dự đoán của bộ phân loại.

Tối ưu hóa đàn kiến (ACO), còn được gọi là phương pháp khám phá-khai thác, tuân theo chiến

lược bao phủ tuần tự. Với phương pháp này, các bộ quy tắc phân loại IF-THEN không có thứ tự

được tạo ra và chúng có thể được kiểm tra và giải thích riêng lẻ một cách độc lập với nhau.

ACO xây dựng một bộ quy tắc không có thứ tự mới ở mỗi giai đoạn và đối chiếu chúng với các quy

tắc từ các lần lặp lại trước đó. Bộ trước được thay thế nếu bộ mới có ít quy tắc hơn hoặc độ

chính xác dự đoán tốt hơn (Otero và Freitas, 2016). AntMinter+, sử dụng hệ thống kiến tối đa-

tối thiểu lặp lại, bắt đầu bằng một tập trống và tạo ra một bộ quy tắc đơn điệu trong khi cho

phép đưa kiến thức miền thông qua biểu diễn đồ thị tuần hoàn vô hướng của không gian giải pháp.

Các cạnh của biểu đồ cho biết các giá trị biến tiếp theo nào có thể đạt được từ một nút và các

nút ở cùng độ sâu trong biểu đồ biểu thị các phân vùng liên quan đến các biến đầu vào. Một quy

tắc mô tả một tuyến đường kết nối các nút bắt đầu và kết thúc. Khi đã đạt được một tỷ lệ phần

trăm điểm đào tạo được xác định trước,

317
Machine Translated by Google

hoặc khi các quy tắc bổ sung không thể nâng cao độ chính xác của bộ phân loại thì

thuật toán sẽ kết thúc. Phương pháp dựa trên học tập tích cực (ALBA), sử dụng

AntMinter+ kết hợp với SVM phi tuyến, có thể tạo ra các mô hình dựa trên quy tắc

dễ hiểu và chính xác (Verbeke et al., 2011).

Để cung cấp các bộ quy tắc có thể hiểu được thể hiện sự phụ thuộc giữa đầu vào

và đầu ra, bốn kỹ thuật dựa trên logic mờ đã được trình bày (Vilone và Longo,

2021a). Thuật toán Học máy dựa trên di truyền mờ tổng quát (GBML), kết hợp các yếu

tố của phương pháp tiếp cận Michigan và Pittsburgh, được sử dụng trong khuôn khổ

tối ưu hóa đa mục tiêu tiến hóa (EMO). Mỗi quy tắc mờ được biểu diễn dưới dạng một

chuỗi số nguyên có độ dài cố định mã hóa các tập mờ tiền đề và bộ phân loại dựa

trên quy tắc mờ được biểu diễn dưới dạng chuỗi số nguyên thống nhất có độ dài thay

đổi mã hóa bộ quy tắc mờ (Ishibuchi và Nojima, 2007). Mô hình MOEAIF (Mờ diễn giải

dựa trên thuật toán tiến hóa đa mục tiêu) dựa trên quy tắc mờ được sử dụng để

phân loại dữ liệu biểu hiện gen. GBML và MOEAIF định lượng độ phức tạp của các bộ

quy tắc theo số lượng quy tắc mờ và/hoặc tổng số điều kiện tiền đề của quy tắc mờ

để tối đa hóa độ chính xác của các bộ quy tắc dựa trên các mẫu huấn luyện được phân

loại chính xác (Wang và Palade, 2011). Cách tiếp cận của Jin (2000) dựa trên thuật

toán 5 bước. Đầu tiên, nó sử dụng dữ liệu để tạo ra các quy tắc mờ phù hợp với các

trường hợp cực đoan. Nó cũng loại bỏ các quy tắc thừa và mâu thuẫn bằng cách so

sánh mức độ giống nhau của các quy tắc. Thứ ba, dựa trên yêu cầu hiệu suất cục bộ,

nó sử dụng thuật toán di truyền để tối ưu hóa cấu trúc quy tắc. Thứ tư, nó loại bỏ

các quy tắc không hiệu quả sau khi thực hiện đào tạo bổ sung các tham số quy tắc

bằng kỹ thuật học dựa trên độ dốc. Cuối cùng, nó sử dụng các kỹ thuật chính quy

hóa để cải thiện khả năng diễn giải (Jin, 2000).

Sử dụng tập hợp các mối quan hệ và tính năng từ tập dữ liệu đầu vào do chuyên

gia lựa chọn, Pierrard et al. kỹ thuật xây dựng các luật mờ. Sau đó, phương pháp

phân cụm tập mục thường xuyên được sử dụng để trích xuất những tập hợp thích hợp

nhất. Các tác giả đề xuất sử dụng các số liệu như số lượng mối quan hệ hoặc tính

năng trong tiền đề của mệnh đề hoặc giá trị hỗ trợ của chúng, mặc dù chúng không

cung cấp số liệu chính xác để đánh giá tầm quan trọng của một liên kết (Pierrard

và cộng sự, 2018).

Các quy tắc phân loại IF-THEN được làm cho dễ hiểu thông qua phương pháp lập

trình tiến hóa ba bước được gọi là Khai thác quy tắc phân loại có thể diễn giải

(ICRM). Số lượng quy tắc và hạn chế nên được giữ ở mức tối thiểu để mọi thứ trở

nên dễ hiểu hơn. Ban đầu, nó tạo ra một nhóm quy tắc chỉ có các so sánh thuộc tính-

giá trị duy nhất. Kỹ thuật Pittsburgh, dựa trên thuật toán di truyền Học quy tắc

lặp (IRL), sử dụng

318
Machine Translated by Google

các quá trình tiến hóa để nâng cao tính chính xác của các quy tắc chỉ sử dụng các

thuộc tính thích hợp. Ngoại trừ lớp được đặt làm mặc định, IRL trả về quy tắc cho

lớp đầu ra. Bằng cách tối đa hóa sản phẩm có độ chính xác và thu hồi, bước thứ ba

sẽ tối đa hóa độ chính xác của bộ phân loại (Cano và cộng sự, 2013).

Kızıloluk và Alatas đã sử dụng Thuật toán tối ưu hóa nghị viện để dự đoán bệnh

dựa trên quy tắc trong dữ liệu sức khỏe (Kiziloluk và Alatas, 2015).

Tương tự, Akyol và Alatas đã sử dụng thuật toán Tối ưu hóa đàn mèo để tự động phát

hiện các quy tắc phân loại trong cơ sở dữ liệu bao gồm dữ liệu số hoặc dữ liệu loại

hỗn hợp. Không có quá trình xử lý trước nào được thực hiện để xác định phạm vi thích

hợp của các thuộc tính liên quan trong quy tắc; thay vào đó, thuật toán tối ưu hóa

đã tự động cung cấp chúng cùng với các quy tắc. Hơn nữa, họ đã sử dụng một hàm mục

tiêu có thể dễ dàng đáp ứng các mục tiêu khác nhau và linh hoạt. Trong nghiên cứu

của mình, họ đã thu được các quy tắc chính xác và dễ hiểu bằng cách sử dụng bốn bộ

dữ liệu sức khỏe lấy từ kho lưu trữ UCI (Akyol và Alatas, 2016).

Một đoạn quy tắc thu được từ nghiên cứu này được hiển thị trong Hình 6. Cột đầu

tiên hiển thị các quy tắc thu được từ các biến quyết định trong tập dữ liệu, trong

khi cột thứ hai cho biết lớp mà quy tắc hoạt động. TP đại diện cho số lượng dữ liệu

được phân loại chính xác và FP đại diện cho số lượng dữ liệu được phân loại không

chính xác.

Hình 6: Ví dụ về XAI dựa trên quy tắc với các thuật toán metaheuristic

5. KẾT LUẬN

Nghiên cứu này nhấn mạnh tầm quan trọng của khả năng giải thích trong lĩnh vực

trí tuệ nhân tạo và tập trung vào các phương pháp trí tuệ nhân tạo có thể giải

thích (XAI). XAI nhằm mục đích cung cấp khả năng giải thích và diễn giải kết quả của

các mô hình trí tuệ nhân tạo một cách dễ hiểu, với mục tiêu xây dựng niềm tin. Một

trong những ưu điểm của XAI là hỗ trợ cải tiến mô hình, mang lại độ tin cậy và giảm

thiểu rủi ro. Khi so sánh giữa XAI và mô hình trí tuệ nhân tạo, mô hình XAI có xu

hướng dễ hiểu hơn nhưng có thể cho kết quả kém chính xác hơn, trong khi trí tuệ

nhân tạo

319
Machine Translated by Google

mô hình đạt được độ chính xác cao hơn nhưng ít có khả năng diễn giải hơn. Các mô hình

hộp màu xám mang lại sự cân bằng giữa khả năng diễn giải và độ chính xác. Ngoài ra, năm

tiêu chí chính đã được xác định để phân loại các phương pháp XAI: phạm vi giải thích,

giai đoạn tạo giải thích, loại dữ liệu đầu vào và đầu ra, loại vấn đề và định dạng dữ

liệu được sử dụng. Các tiêu chí này cho phép sử dụng các hình thức giải thích khác nhau

và phát triển các phương pháp có thể áp dụng cho các vấn đề phân loại và hồi quy khác

nhau.

Cuối cùng, các phương pháp XAI dựa trên quy tắc đã được kiểm tra. Trí tuệ nhân tạo

có thể giải thích dựa trên quy tắc là một cách tiếp cận hiệu quả để hiểu và giải thích

các quyết định của hệ thống trí tuệ nhân tạo. Cách tiếp cận này không chỉ thúc đẩy niềm

tin của người dùng vào hệ thống mà còn đảm bảo rằng các quyết định có thể giải thích và

kiểm chứng được. Các hệ thống trí tuệ nhân tạo có thể giải thích dựa trên quy tắc có

tầm quan trọng đáng kể trong các lĩnh vực như y học, tài chính và an ninh, những lĩnh

vực mà sự hiểu biết và chấp nhận các quyết định là rất quan trọng. Dự kiến các nghiên

cứu sâu hơn sẽ được tiến hành và các phương pháp mới sẽ được phát triển trong lĩnh vực
này trong tương lai.

320
Machine Translated by Google

NGƯỜI GIỚI THIỆU

Abdollahi, B., & Nasraoui, O. (2018). Tính minh bạch trong học máy công bằng: trường hợp

của hệ thống đề xuất có thể giải thích được. Học tập của con người và máy móc:

trực quan, có thể giải thích, đáng tin cậy và minh bạch, 21-35.

Adadi A, Berrada M (2018) Nhìn trộm bên trong hộp đen: khảo sát về trí tuệ nhân tạo có

thể giải thích (XAI). Truy cập IEEE 6:52138?52160

Akyol, S., & Alataş, B. (2016). Tự động khai thác các quy tắc phân loại số chính xác và

dễ hiểu bằng thuật toán tối ưu hóa đàn mèo. Tạp chí Khoa Kỹ thuật và Kiến trúc của

Đại học Gazi, 31(4), 839-857.

Ali, S., Abuhmed, T., El-Sappagh, S., Muhammad, K., Alonso-Moral, JM, Confalonieri, R., ...

& Herrera, F. (2023). Trí tuệ nhân tạo có thể giải thích được (XAI): Những gì

chúng ta biết và những gì còn lại để đạt được Trí tuệ nhân tạo đáng tin cậy. Thông

tin tổng hợp, 101805.

Andrzejak, A., Langner, F., & Zabala, S. (2013, tháng 4). Các mô hình có thể giải thích

được từ dữ liệu phân tán thông qua việc hợp nhất các cây quyết định. Vào năm 2013,

Hội nghị chuyên đề của IEEE về trí tuệ tính toán và khai thác dữ liệu (CIDM) (trang.

1-9). IEEE.

Arrieta, AB, Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A.,

García, S., Gil-López, S., Molina, D., và Benjamin, R.

(Biên tập.). (2020). Trí tuệ nhân tạo có thể giải thích (XAI): Các khái niệm, phân

loại, cơ hội và thách thức đối với AI có trách nhiệm (Tập.

58). Derio (Bizkaia), Tây Ban Nha

Asano, K., & Chun, J. (2021). Giải thích hậu kỳ bằng cách sử dụng quy tắc bắt chước cho

dữ liệu số. Trong Hội nghị quốc tế lần thứ 13 về Đại lý và trí tuệ nhân tạo, ICAART

2021 (trang 768-774). SciTePress.

Augusta, MG, & Kathirvalavakumar, T. (2012). Kỹ thuật đảo ngược mạng lưới thần kinh để

trích xuất quy tắc trong các vấn đề phân loại. Chữ cái xử lý thần kinh, 35, 131-150.

Bastani, O., Kim, C., & Bastani, H. (2017). Khả năng giải thích thông qua trích xuất mô

hình. bản in trước arXiv arXiv:1706.09773.

Bilekyigit, S. (2022) Phân tích nguy cơ suy tim bằng phương pháp học máy, Karamanoğlu

Mehmetbey Üniversitesi / Fen Bilimleri Enstitüsü

/ Mühendislik Bilimleri Ana Bilim Dalı / Bilgisayar Mühendisliği Bilim Dalı

Biswas, SK, Chakraborty, M., Purkayastha, B., Roy, P., & Thounaojam, D.

M. (2017). Trích xuất quy tắc từ dữ liệu huấn luyện bằng mạng nơ-ron.

Tạp chí Quốc tế về Công cụ Trí tuệ Nhân tạo, 26(03), 1750006.

321
Machine Translated by Google

Bologna, G. (2018). Một nghiên cứu trích xuất quy tắc dựa trên mạng lưới thần kinh tích

chập. Trong Học máy và trích xuất kiến thức: IFIP TC 5 lần thứ hai, TC 8/WG 8.4,

8.9, TC 12/WG 12.9 Hội nghị quốc tế đa miền, CD-MAKE 2018, Hamburg, Đức, ngày 27–30

tháng 8 năm 2018, Kỷ yếu 2 ( trang 304-313). Nhà xuất bản quốc tế Springer.

Bologna, G., & Hayashi, Y. (2017). Đặc điểm của các quy tắc tượng trưng được nhúng trong

mạng DIMLP sâu: thách thức đối với tính minh bạch của học sâu. Tạp chí Nghiên cứu

Trí tuệ Nhân tạo và Máy tính Mềm, 7(4), 265-286.

Bologna, G., & Hayashi, Y. (2018). Một nghiên cứu so sánh về trích xuất quy tắc từ các

nhóm mạng lưới thần kinh, cây nông được tăng cường và SVM. Trí tuệ tính toán ứng

dụng và tính toán mềm, 2018, 1-20.

Bondarenko, A., Aleksejeva, L., Jumutc, V., & Borisov, A. (2017).


Trích xuất cây phân loại từ mạng lưới thần kinh nhân tạo được đào tạo.

Khoa học máy tính Procedia, 104, 556-563.

Boz, O. (2002, tháng 7). Trích xuất cây quyết định từ mạng lưới thần kinh được đào tạo.

Trong Kỷ yếu của hội nghị quốc tế ACM SIGKDD lần thứ tám về Khám phá tri thức và

khai thác dữ liệu (trang 456-461).

Cô dâu, H., Dong, J., Dong, JS, & Hóu, Z. (2018). Hướng tới học máy đáng tin cậy và có

thể giải thích bằng cách sử dụng lý luận tự động. Trong Phương pháp chính thức và

Kỹ thuật phần mềm: Hội nghị quốc tế lần thứ 20 về Phương pháp kỹ thuật chính thức,

ICFEM 2018, Gold Coast, QLD, Australia, ngày 12-16 tháng 11 năm 2018, Kỷ yếu 20

(trang 412-416). Nhà xuất bản quốc tế Springer.

Cano, A., Zafra, A., & Ventura, S. (2013). Một thuật toán khai thác quy tắc phân loại có

thể giải thích được. Khoa học thông tin, 240, 1-20.

Carvalho, DV, Pereira, EM, & Cardoso, JS (2019). Khả năng diễn giải của máy học: Khảo sát

về các phương pháp và số liệu. Điện tử, 8(8), 832.

D'Alterio, P., Garibaldi, JM, & John, RI (2020, tháng 7). Hệ thống phân loại mờ khoảng

loại 2 có giới hạn dành cho AI có thể giải thích được (XAI). Năm 2020 Hội nghị

quốc tế của IEEE về hệ thống mờ (FUZZ-IEEE) (trang 1-

số 8). IEEE.

Dam, HK, Tran, T., & Ghose, A. (2018, tháng 5). Phân tích phần mềm có thể giải thích được.

Trong Kỷ yếu của Hội nghị quốc tế lần thứ 40 về Kỹ thuật phần mềm: Những ý tưởng

mới và kết quả mới nổi (trang 53-56).

Das, A., & Rad, P. (2020). Cơ hội và thách thức trong nhân tạo có thể giải thích được

trí tuệ (xai): Một cuộc khảo sát. bản in trước arXiv arXiv:2006.11371.

322
Machine Translated by Google

De Graaf, MM, & Malle, BF (2017, tháng 10). Cách mọi người giải thích hành động (và các

hệ thống thông minh tự động cũng vậy). Trong chuỗi Hội nghị chuyên đề mùa thu

AAAI 2017.

Došilović, FK, Brčić, M., & Hlupić, N. (2018, tháng 5). Trí tuệ nhân tạo có thể giải

thích: Một cuộc khảo sát. Năm 2018, Công ước quốc tế lần thứ 41 về công nghệ

thông tin và truyền thông, điện tử và vi điện tử (MIPRO) (trang 0210-0215). IEEE.

Fox, M., Long, D., & Magazzeni, D. (2017). Quy hoạch có thể giải thích được bản in

trước arXiv arXiv:1709.10256.

Garcez, ADA, Broda, K., & Gabbay, DM (2001). Trích xuất tri thức biểu tượng từ mạng

lưới thần kinh đã được huấn luyện: Một cách tiếp cận đúng đắn. Trí tuệ nhân tạo,

125(1-2), 155-207.

Guidotti, R., Monreale, A., Giannotti, F., Pedreschi, D., Ruggieri, S., & Turini, F.

(2019). Giải thích thực tế và phản thực tế cho việc ra quyết định hộp đen. Hệ

thống thông minh IEEE, 34(6), 14-23.

Bắn súng, D., & Aha, D. (2019). Chương trình trí tuệ nhân tạo có thể giải thích (XAI)

của DARPA. Tạp chí AI, 40(2), 44-58.

Hagras, H. (2018). Hướng tới AI dễ hiểu, có thể giải thích được của con người. Máy

tính, 51(9), 28-36.

Hailesilassie, T. (2016). Thuật toán trích xuất quy tắc cho mạng nơ-ron sâu: A

ôn tập. bản in trước arXiv arXiv:1610.05267.

Ishibuchi, H., & Nojima, Y. (2007). Phân tích sự cân bằng giữa khả năng diễn giải và độ

chính xác của các hệ thống mờ bằng phương pháp học máy dựa trên di truyền mờ đa

mục tiêu. Tạp chí Quốc tế về Lý luận Gần đúng, 44(1), 4-31.

Hồi giáo, MR, Ahmed, MU, Barua, S., & Begum, S. (2022). Đánh giá có hệ thống về trí tuệ

nhân tạo có thể giải thích được về các lĩnh vực và nhiệm vụ ứng dụng khác nhau.

Khoa học ứng dụng, 12(3), 1353.

Jin, Y. (2000). Mô hình hóa mờ của hệ thống nhiều chiều: giảm độ phức tạp và cải thiện

khả năng diễn giải. Giao dịch IEEE trên hệ thống mờ, 8(2), 212-221.

Johansson, U., Niklasson, L., & König, R. (2004, tháng 6). Độ chính xác và tính dễ hiểu

trong các mô hình khai thác dữ liệu. Trong Kỷ yếu của hội nghị quốc tế lần thứ

bảy về tổng hợp thông tin (Tập 1, trang 295-300).

Stockholm, Thụy Điển: Elsevier.

Kiziloluk, S., & Alatas, B. (2015). Tự động khai thác các quy tắc phân loại số bằng

thuật toán tối ưu hóa nghị viện.

Những tiến bộ trong Kỹ thuật Điện và Máy tính, 15(4), 17+.

323
Machine Translated by Google

https://link.gale.com/apps/doc/A585717957/AONE?u=anon~2d19ecd6&

sid=googleScholar&xid=3186dc12

Köse, U. (2022). Açıklanabilir Yapay Zekâ Meodolojileri ve Uygulamaları.

Biên tập viên Ş. Sağıroğlu và MU Demirezen, Yorumlanabilir ve Açıklanabilir Yapay

Zeka ve Güncel Konular, Vol. 4.Nobel.

Krishnan, S., & Wu, E. (2017, tháng 5). Palm: Giải thích về học máy cho việc gỡ lỗi lặp

đi lặp lại. Trong Kỷ yếu của hội thảo lần thứ 2 về phân tích dữ liệu con người

trong vòng lặp (trang 1-6).

Lou, Y., Caruana, R., & Gehrke, J. (2012, tháng 8). Các mô hình dễ hiểu để phân loại và

hồi quy. Trong Kỷ yếu của hội nghị quốc tế ACM SIGKDD lần thứ 18 về Khám phá tri

thức và khai thác dữ liệu (trang 150-158).

Minh, D., Wang, HX, Li, YF, & Nguyen, TN (2022). Trí tuệ nhân tạo có thể giải thích: đánh

giá toàn diện. Đánh giá trí tuệ nhân tạo, 1-66.

Montavon, G., Samek, W., & Müller, KR (2018). Các phương pháp diễn giải và hiểu mạng lưới

thần kinh sâu. Xử lý tín hiệu số, 73, 1-


15.

Neches, R., Swartout, WR, & Moore, JD (1985). Tăng cường bảo trì và giải thích các hệ

thống chuyên gia thông qua các mô hình phát triển rõ ràng của chúng. Giao dịch của

IEEE về Kỹ thuật phần mềm, (11), 1337-


1351.

Otero, FE, & Freitas, AA (2016). Cải thiện khả năng diễn giải của các quy tắc phân loại

được phát hiện bởi thuật toán đàn kiến: kết quả mở rộng. Tính toán tiến hóa,

24(3), 385-409.

Páez, A. (2019). Bước ngoặt thực dụng trong trí tuệ nhân tạo có thể giải thích được (XAI).

Tâm trí và Máy móc, 29(3), 441-459.

Páez, A. (2019). Bước ngoặt thực dụng trong trí tuệ nhân tạo có thể giải thích được (XAI).

Tâm trí và Máy móc, 29(3), 441-459.

Palade, V., Neagu, DC, & Patton, RJ (2001). Giải thích mạng lưới thần kinh được đào tạo

bằng cách trích xuất quy tắc. Trong trí tuệ tính toán. Lý thuyết và ứng dụng: Hội

nghị quốc tế, Ngày mờ lần thứ 7 Dortmund, Đức, ngày 1–3 tháng 10 năm 2001 Kỷ yếu 7

(trang 152-161). Springer Berlin Heidelberg.

Pehlivanlı, A. Ç., và Deliloğlu, RAS (2021). Hibrit Açıklanabilir Yapay Zeka Tasarımı và

LIME Uygulaması. Avrupa Bilim ve Teknoloji Dergisi(27), 228- 236

Pierrard, R., Poli, JP, & Hudelot, C. (2018, tháng 7). Học các mối quan hệ và tính chất

mờ cho trí tuệ nhân tạo có thể giải thích được. Năm 2018 IEEE

324
Machine Translated by Google

Hội nghị quốc tế về hệ mờ (FUZZ-IEEE) (trang 1-8).


IEEE.

Ribeiro, MT, Singh, S., & Guestrin, C. (2018, tháng 4). Neo: Giải thích bất khả tri về mô

hình có độ chính xác cao. Trong Kỷ yếu hội nghị AAAI về trí tuệ nhân tạo (Tập 32, số

1).

Setiono, R., & Liu, H. (1995, tháng 8). Hiểu mạng lưới thần kinh thông qua quy tắc

khai thác. Trong IJCAI (Tập 1, trang 480-485).

Setzu, M., Guidotti, R., Monreale, A., Turini, F., Pedreschi, D., & Giannotti, F.

(2021). Glocalx-Giải thích từ cục bộ đến toàn cầu về mô hình ai hộp đen.

Trí tuệ nhân tạo, 294, 103457.

URL 1: https://boosted.ai/blog/asset-managers-need-explainable-ai-but-what-is-it-and-how-can-i-

incorporate-it-into-my-process

Verbeke, W., Martens, D., Mues, C., & Baesens, B. (2011). Xây dựng các mô hình dự đoán tỷ

lệ rời bỏ khách hàng dễ hiểu bằng các kỹ thuật quy tắc tiên tiến. Hệ chuyên gia có

ứng dụng, 38(3), 2354-


2364.

Vilone, G., & Longo, L. (2021a). Phân loại các phương pháp trí tuệ nhân tạo có thể giải

thích thông qua các định dạng đầu ra của chúng. Học máy và khai thác kiến thức,

3(3), 615-661.

Vilone, G., & Longo, L. (2021b). Các khái niệm về khả năng giải thích và cách tiếp cận đánh

giá đối với trí tuệ nhân tạo có thể giải thích được. Thông tin tổng hợp, 76, 89-106.

Wachter, S., Mittelstadt, B., & Russell, C. (2017). Giải thích phản thực tế mà không cần mở

hộp đen: Quyết định tự động và GDPR.

Thu hoạch. JL & Tech., 31, 841.

Wang, Z., & Palade, V. (2011, tháng 12). Xây dựng các mô hình mờ có thể giải thích được để

phân tích dữ liệu chiều cao trong chẩn đoán ung thư. Trong bộ gen BMC (Tập 12, số 2,

trang 1-11). Trung tâm BioMed.

Xu, F., Uszkoreit, H., Du, Y., Fan, W., Zhao, D., & Zhu, J. (2019). AI có thể giải thích:

Một cuộc khảo sát ngắn gọn về lịch sử, lĩnh vực nghiên cứu, cách tiếp cận và thách thức.

Trong Xử lý ngôn ngữ tự nhiên và tính toán tiếng Trung: Hội nghị quốc tế CCF lần thứ

8, NLPCC 2019, Đôn Hoàng, Trung Quốc, ngày 9 tháng 10–

Ngày 14 tháng 1 năm 2019, Kỷ yếu, Phần II 8 (trang 563-574). Nhà xuất bản quốc tế

Springer.

Chu, ZH, & Jiang, Y. (2003). Chẩn đoán y khoa với C4. 5 quy tắc trước bởi tập hợp mạng lưới
thần kinh nhân tạo. Giao dịch của IEEE về thông tin

Công nghệ y sinh, 7(1), 37-42.

325
Machine Translated by Google

You might also like