You are on page 1of 3

Hãy trình một số yêu cầu chính về đạo đức cho AI theo Liên minh Châu Âu

(EU) và lấy ví dụ minh họa cho mỗi yêu cầu đó.


Human agency and oversight:
Sự tôn trọng đối với quyền tự chủ và quyền cơ bản của con người là trọng tâm của bảy
quy tắc đạo đức của EU. Các hướng dẫn của EU quy định ba biện pháp để đảm bảo rằng yêu cầu
này được phản ánh trong thực tế:
Để đảm bảo rằng hệ thống AI không cản trở các quyền cơ bản của EU, cần tiến hành
đánh giá tác động đến quyền cơ bản trước khi phát triển hệ thống. Các cơ chế cần được đưa ra
sau đó để cho phép phản hồi bên ngoài về bất kỳ vi phạm tiềm năng nào đối với các quyền cơ
bản;
Vai trò của con người cần được đảm bảo, tức là người dùng phải có khả năng hiểu và
tương tác với các hệ thống AI ở một mức độ thỏa đáng. Quyền của người dùng cuối không bị
tuân theo quyết định chỉ dựa trên xử lý tự động (khi điều này tạo ra hiệu lực pháp lý đối với
người dùng hoặc ảnh hưởng đáng kể đến họ) cần được thực thi trong EU;
Máy móc không thể kiểm soát hoàn toàn. Do đó, phải luôn có sự giám sát của con người.
Con người phải luôn có khả năng cuối cùng là lật ngược quyết định của hệ thống. Khi thiết kế
sản phẩm hoặc dịch vụ AI, các nhà phát triển AI cần xem xét loại biện pháp kỹ thuật nào cần
được triển khai để đảm bảo sự giám sát của con người. Chẳng hạn, họ nên cung cấp nút dừng
hoặc quy trình hủy bỏ hoạt động để đảm bảo quyền kiểm soát của con người.
Ví dụ:
Các biện pháp bảo mật: Các biện pháp bảo mật như mã hóa và xác thực có thể giúp bảo vệ quyền
riêng tư và quyền tự chủ của người dùng.
Các biện pháp kiểm soát: Các biện pháp kiểm soát như nút dừng và quy trình hủy bỏ hoạt động
có thể giúp người dùng kiểm soát hệ thống AI.
Các biện pháp giải thích: Các biện pháp giải thích có thể giúp người dùng hiểu cách hệ thống AI
đưa ra quyết định.
Technical robustness and safety
Một yêu cầu thiết yếu khác là phải có các hệ thống và phần mềm an toàn và đáng tin cậy.
AI đáng tin cậy đòi hỏi các thuật toán phải an toàn, đáng tin cậy và đủ mạnh mẽ để xử lý các lỗi
hoặc mâu thuẫn trong tất cả các giai đoạn vòng đời của hệ thống AI. Yêu cầu này là về việc đảm
bảo an ninh mạng. Trong thực tế, tất cả các lỗ hổng nên được tính đến khi xây dựng các thuật
toán. Điều này yêu cầu phải kiểm tra các hệ thống AI để hiểu và giảm thiểu rủi ro tấn công mạng
và hack. Các nhà phát triển AI nên đưa ra các quy trình có khả năng đánh giá rủi ro an toàn liên
quan, trong trường hợp ai đó sử dụng hệ thống AI mà họ đang xây dựng cho mục đích có hại. Ví
dụ, nếu hệ thống bị xâm phạm, quyền kiểm soát của con người phải có thể tiếp quản và hủy bỏ
hệ thống.
Để giải quyết câu hỏi quan trọng này, EU áp dụng một cách tiếp cận hai mặt: thứ nhất,
thúc đẩy hợp tác giữa cộng đồng AI và cộng đồng an ninh, và thứ hai, suy nghĩ về cách sửa đổi
khung pháp lý điều chỉnh trách nhiệm pháp lý ở EU và chuyển từ chế độ trách nhiệm pháp lý dựa
trên hành vi của con người sang chế độ trách nhiệm pháp lý dựa trên máy móc hơn.
Ví dụ:
Trong hệ thống lái xe tự động, cần đảm bảo rằng hệ thống có thể hoạt động chính xác trong mọi
điều kiện thời tiết và đường xá.
Trong hệ thống chẩn đoán y tế, cần đảm bảo rằng hệ thống có thể đưa ra kết luận chính xác và
không gây ra chẩn đoán sai.

Privacy and data protection


Ở EU, có rất nhiều cân nhắc về bảo vệ dữ liệu và quyền riêng tư, và tất cả các bên liên
quan đến AI đều phải tuân thủ Quy định chung về bảo vệ dữ liệu (GDPR) như một nguyên tắc.
Hơn nữa, các hướng dẫn của EU về AI khuyên cộng đồng AI đảm bảo bảo vệ quyền riêng tư và
dữ liệu cá nhân, cả khi xây dựng và khi vận hành hệ thống AI. Công dân phải có quyền kiểm soát
hoàn toàn đối với dữ liệu của riêng họ và dữ liệu của họ không được sử dụng để gây hại hoặc
phân biệt đối xử với họ.
Trên thực tế, điều này có nghĩa là các hệ thống AI phải được thiết kế để đảm bảo quyền
riêng tư và bảo vệ dữ liệu. Để đạt được mục tiêu này, các nhà phát triển AI nên áp dụng các kỹ
thuật thiết kế như mã hóa dữ liệu và ẩn danh dữ liệu. Ngoài ra, họ nên đảm bảo chất lượng của
dữ liệu, tức là tránh thiên vị được xây dựng xã hội, không chính xác, lỗi và sai sót. Để đạt được
mục tiêu đó, việc thu thập dữ liệu không nên thiên vị và các nhà phát triển AI nên đưa ra các cơ
chế giám sát để kiểm soát chất lượng của bộ dữ liệu.
Ví dụ: Một hệ thống AI được sử dụng để theo dõi hành vi của người dùng phải được thiết kế sao
cho người dùng có thể biết được mình đang bị theo dõi và họ có thể từ chối cho phép hệ thống
theo dõi họ.
Transparency
Tính minh bạch là điều tối quan trọng để đảm bảo rằng AI không thiên vị. Các hướng dẫn
về AI đưa ra một số biện pháp để đảm bảo tính minh bạch trong ngành AI. Ví dụ, các tập dữ liệu
và quy trình được sử dụng để xây dựng hệ thống AI cần được ghi lại và truy tìm được. Ngoài ra,
các hệ thống AI phải được nhận dạng là như vậy và con người cần nhận thức được rằng họ đang
tương tác với một hệ thống AI. Hơn nữa, các hệ thống AI và các quyết định của con người liên
quan đều phải tuân theo nguyên tắc có thể giải thích được, theo đó, chúng phải có thể được con
người hiểu và truy tìm được.
Ví dụ: Một hệ thống AI được sử dụng để phát hiện bệnh phải được thiết kế sao cho người dùng
có thể hiểu dữ liệu được sử dụng để tạo ra hệ thống. Điều này sẽ giúp người dùng đảm bảo rằng
hệ thống không đưa ra kết luận sai lệch.
Diversity, non-discrimination and fairness
Các hướng dẫn tập trung mạnh mẽ vào việc tránh thiên vị không công bằng khi thiết kế
các sản phẩm và dịch vụ AI. Trong thực tế, các nhà phát triển AI cần đảm bảo rằng thiết kế thuật
toán của họ không thiên vị (ví dụ: do sử dụng tập dữ liệu không phù hợp). Các bên liên quan có
thể bị ảnh hưởng trực tiếp hoặc gián tiếp bởi các hệ thống AI cần được tham vấn và tham gia vào
quá trình phát triển và triển khai của chúng. Các hệ thống AI phải được thiết kế có tính đến toàn
bộ các khả năng, kỹ năng và yêu cầu của con người, đồng thời đảm bảo khả năng tiếp cận cho
người khuyết tật.
VD: Trong hệ thống chăm sóc sức khỏe, cần đảm bảo rằng hệ thống không phân biệt đối xử dựa
trên bất kỳ đặc điểm cá nhân nào. Ví dụ, một hệ thống AI được sử dụng để chẩn đoán bệnh
không nên đưa ra kết luận chẩn đoán khác nhau cho các bệnh nhân thuộc các chủng tộc, giới tính
hoặc độ tuổi khác nhau.

Societal and environmental wellbeing


Các hệ thống AI nên được sử dụng để tăng cường thay đổi xã hội tích cực và khuyến
khích tính bền vững và trách nhiệm môi trường của các hệ thống AI. Nói cách khác, các biện
pháp đảm bảo tính thân thiện với môi trường của các hệ thống AI cần được khuyến khích (ví dụ:
lựa chọn phương pháp tiêu thụ năng lượng ít gây hại hơn) và tác động xã hội của các hệ thống
này (tức là đối với sức khỏe thể chất và tinh thần của con người) phải được theo dõi và xem xét.
Hơn nữa, tác động của các hệ thống AI đối với xã hội và dân chủ (bao gồm cả về bối cảnh bầu
cử) cần được đánh giá.
VD: Một hệ thống AI được sử dụng để quản lý giao thông có thể giúp giảm tắc nghẽn giao thông
và ô nhiễm không khí.

Accountability
Các cơ chế cần được thiết lập để đảm bảo trách nhiệm và giải trình đối với các hệ thống
AI và kết quả của chúng. Kiểm toán độc lập nội bộ và bên ngoài cần được thực hiện, đặc biệt đối
với các hệ thống AI có việc sử dụng ảnh hưởng đến các quyền cơ bản. Báo cáo về tác động tiêu
cực của các hệ thống AI phải có sẵn (bao gồm cả cho những người tố cáo), và các công cụ đánh
giá tác động cần được sử dụng cho mục đích đó. Trong những trường hợp việc thực hiện các yêu
cầu đạo đức chính tạo ra xung đột giữa chúng, các quyết định về sự đánh đổi (tức là quyết định
chọn đáp ứng yêu cầu đạo đức này thay vì yêu cầu đạo đức khác) cần được đánh giá liên tục. Các
cơ chế bồi thường dễ tiếp cận cần được triển khai.
Ví dụ, các nhà phát triển hệ thống lái xe tự động có thể cung cấp cho người lái xe các thông tin
về cách thức hoạt động của hệ thống và họ có thể cho phép người lái xe can thiệp vào hệ thống
khi cần thiết.

You might also like