You are on page 1of 44

ПРАВА ЛЮДИНИ В ЕПОХУ

ШТУЧНОГО ІНТЕЛЕКТУ
ВИКЛИКИ ТА ПРАВОВЕ РЕГУЛЮВАННЯ
2024
Права людини в епоху штучного інтелекту: виклики та правове регулювання — методичний матеріал, у
якому розглядаються питання впливу новітніх технологій штучного інтелекту на права людини та підходи
до його правового регулювання. А також запропоновані рекомендації щодо управління інтелектуальною
системою відповідно до вимог національного законодавства та міжнародних стандартів.

Дана публікація розроблена в рамках міжнародного проєкту EU4DigitalUA у взаємодії з Офісом Омбудсма-
на та Міністерством цифрової трансформації України.

Участь у підготовці видання:

Уляна Шадська
Андрій Ніколаєв, Юлія Деркаченко, Володимир Бегей, Гордій Румянцев, Олег Дубно, Олександр Марченко

Проєкт EU4DigitalUA є частиною підтримки України Європейським Союзом. Погляди, думки та висновки,
висловлені в тексті, належать виключно авторам і не обов›язково представляють позицію проєкту, Євро-
пейського Союзу або FIIAPP.
ПРАВА ЛЮДИНИ В ЕПОХУ
ШТУЧНОГО ІНТЕЛЕКТУ
ВИКЛИКИ ТА ПРАВОВЕ РЕГУЛЮВАННЯ
2024
ЗМІСТ

ПЕРЕДМОВА . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1. ПОНЯТТЯ ТА РОЛЬ ШТУЧНОГО ІНТЕЛЕКТУ В СУЧАСНОМУ


СУСПІЛЬСТВІ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1. СФЕРИ ЗАСТОСУВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ . . . . . . . . . . . . . . . . . 8
1.2. ВПЛИВ ШТУЧНОГО ІНТЕЛЕКТУ НА ПРАВА ЛЮДИНИ . . . . . . . . . . . . . . . 8

2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ . . . . . . . . . . . . . 11


2.1. ПІДХІД ДО ПРАВОВОГО РЕГУЛЮВАННЯ В КРАЇНАХ ЄС . . . . . . . . . . . . . 13
2.2. ПІДХІД ДО ПРАВОВОГО РЕГУЛЮВАННЯ В США . . . . . . . . . . . . . . . . . . 16

3. МІЖНАРОДНІ ПРИНЦИПИ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4. БЕЗПЕЧНІ ТА НАДІЙНІ ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ . . . . . . . 23


4.1. ПОПЕРЕДНІ КОНСУЛЬТАЦІЇ ТА ТЕСТУВАННЯ . . . . . . . . . . . . . . . . . . . 23
4.2. СИСТЕМНИЙ МОНІТОРИНГ Й АДАПТАЦІЯ . . . . . . . . . . . . . . . . . . . . . 24
4.3. АНАЛІЗ СТАТИСТИЧНОЇ ТОЧНОСТІ Й АКТУАЛЬНОСТІ ДАНИХ . . . . . . . . 24
4.4. ПОШУК І ЗАБЕЗПЕЧЕННЯ ЯКОСТІ ДАНИХ . . . . . . . . . . . . . . . . . . . . . . 26
4.5. СИСТЕМА ВІДПОВІДАЛЬНОСТІ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . . . . . . . 29


5.1. ПРОЄКТУВАННЯ СИСТЕМИ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . . 29
5.2. ОЦІНЮВАННЯ РИЗИКІВ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.3. ВИЗНАЧЕННЯ ПІДСТАВ ДЛЯ ОБРОБКИ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . 34
5.4. ВИЗНАЧЕННЯ ЦІЛЕЙ ДЛЯ ОБРОБКИ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . . . 35
5.5. ВИЗНАЧЕННЯ РОЛІ ПІД ЧАС ОБРОБКИ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . 36
5.6. ЗАБЕЗПЕЧЕННЯ ПРАВ СУБ’ЄКТІВ ПЕРСОНАЛЬНИХ ДАНИХ . . . . . . . . . . 37
ПЕРЕДМОВА

ПЕРЕДМОВА

Сьогодні штучний інтелект використовується майже в усіх сферах життєдіяльності людини. Новіт-
ні технології здатні виконувати різноманітні завдання: управляти автомобілем, виробничими про-
цесами на підприємствах, генерувати текст, музику, розпізнавати обличчя та голоси людей, вико-
нувати функції персонального асистента в смартфоні тощо. Вони вбудовані в різні пристрої, які
щодня використовуються в державній політиці, міській інфраструктурі, бізнесі або просто в побуті.
Попри широкі перспективи для суспільства, які можуть створювати інтелектуальні системи, по-
трібно також звернути увагу на етичні та правові аспекти їх використання, зокрема вплив на пра-
ва та свободи людини.

Один із серйозних ризиків полягає в порушенні права на приватність1. Неправомірне або помил-
кове використання конфіденційної інформації про фізичну особу в системах штучного інтелекту
може призвести до негативних для неї наслідків. Особливо коли це стосується даних, наприклад,
про здоров’я людини, її статевої або етнічної приналежності, біометричних даних тощо. Це стосу-
ється як самої сутності технологій, так і особливостей їх застосування, що може призводити до
складності оскарження автоматизованих рішень, упередженості або дискримінації. Ці аспекти ча-
сто пов’язані між собою.

Зацікавлені сторони, які беруть участь у життєвому циклі системи штучного інтелекту, включаючи
організації чи окремих осіб, які розробляють, розгортають або використовують її, повинні запрова-
дити організаційні та технічні заходити, щоб робота таких технологій була безпечною та відповіда-
ла положенням законодавства й міжнародним стандартам. Потрібна комплексна програма управ-
ління інтелектуальною системою, яка буде передбачати глибокий аналіз її роботи, зокрема впливу
на права і свободи людини. Як показує практика, це може виявитися складним завданням, оскільки
потрібно розуміти не тільки суть таких технологій і параметри їх використання, а ще й соціальний
і юридичний контексти.

У зв’язку з цим, в рамках міжнародної ініціативи EU4DigitalUA у взаємодії з Офісом Омбудсмана та


Міністерством цифрової трансформації України підготовлено методичний матеріал, у якому
роз’яснено загальні аспекти впливу штучного інтелекту та підходи до його правового регулюван-
ня, зокрема під час обробки персональних даних. Пошук балансу між технологічним розвитком і
захистом прав людини надзвичайно важливий, адже від цього буде залежати майбутнє суспіль-
ства.

Цей матеріал ґрунтується на положеннях національного і міжнародного законодавства, докумен-


тах Ради Європи, Організації економічного співробітництва та розвитку (OECD), ООН, зокрема ре-
комендацій про етичні аспекти штучного інтелекту ЮНЕСКО. Враховані практики та роз’яснення

1 Понад 57 % споживачів розглядають використання штучного інтелекту при зборі та обробці персональних даних як значну за-
грозу для їхньої конфіденційності, згідно з дослідженням Міжнародної асоціації професіоналів у галузі захисту даних (IAPP) 2023
року. Режим доступу: https://iapp.org/resources/article/privacy-and-consumer-trust-summary/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 5


ПЕРЕДМОВА

наглядових органів у цій сфері, у тому числі Іспанського агентства з питань захисту даних (AEPD),
Уповноваженого з питань інформації у Великій Британії (ICO), Національної комісії з обчислюваль-
ної техніки та свобод у Франції (CNIL) та інших. Також розглянуті експертні висновки, коментарі та
рекомендації Уповноваженого Верховної Ради України з прав людини, Міністерства цифрової
трансформації України, інших органів державної влади та українських громадських організацій.

6 Права людини в епоху штучного інтелекту: виклики та правове регулювання


1. ПОНЯТТЯ ТА РОЛЬ
ШТУЧНОГО ІНТЕЛЕКТУ В СУЧАСНОМУ
СУСПІЛЬСТВІ

У грудні 2020 року Кабінет Міністрів України та творчість. Це поняття може бути розширено,
затвердив2 Концепцію розвитку штучного інте- оскільки ШІ вже може виходити за межі люд-
лекту в Україні, у якій визначені мета, принципи ських можливостей4.
та завдання розвитку таких технологій— як од-
ного з пріоритетних напрямів у сфері науко- Суб’єкти ШІ — це усі ті, хто бере участь у жит-
во-технологічних досліджень3. тєвому циклі системи, включаючи організації та
окремих осіб, які розгортають або керують ШІ.
У Концепції терміни використовуються в тако-
му значенні: Зацікавлені сторони — установи, організації, а
також приватні особи, які безпосередньо чи
Штучний інтелект (далі — технології ШІ) — ор- опосередковано залучені до системи ШІ5.
ганізована сукупність інформаційних техноло-
гій, із застосуванням якої можливо виконувати
складні комплексні завдання шляхом викори-
стання системи наукових методів досліджень
та алгоритмів обробки інформації, отриманої
або самостійно створеної під час роботи, а та-
кож створювати та використовувати власні
бази знань, моделі прийняття рішень, алгорит-
ми роботи з інформацією та визначати способи
досягнення поставлених завдань.

Галузь штучного інтелекту — напрям діяльності


у сфері інформаційних технологій, який забез-
печує створення, впровадження та викори-
стання технологій ШІ.

У Європейському парламенті визначають ШІ як


будь-який інструмент, що використовується
програмою для відтворення поведінки, пов’яза-
ної з людиною, такої як міркування, планування

4 Intelligence artificielle : définition et utilisation. Режим


2 Розпорядження Кабінету Міністрів України «Про схвален- доступу:
ня Концепції розвитку штучного інтелекту в Україні». Режим https://www.europarl.europa.eu/news/fr/headlines/
доступу: https://zakon.rada.gov.ua/laws/show/1556-2020- society/20200827STO85804/intelligence-artificielle-definition-
р#Text et-utilisation
3 Концепцію розроблено відповідно до плану пріоритетних 5 OECD, Recommendation of the Council on Artificial
дій Уряду на 2020 рік, затвердженого розпорядженням Кабі- Intelligence. Режим доступу: https://legalinstruments.oecd.
нету Міністрів України від 9 вересня 2020 року № 1133. org/en/instruments/OECD-LEGAL-0449

Права людини в епоху штучного інтелекту: виклики та правове регулювання 7


1. ПОНЯТТЯ ТА РОЛЬ ШТУЧНОГО ІНТЕЛЕКТУ В СУЧАСНОМУ СУСПІЛЬСТВІ

1.1. СФЕРИ ЗАСТОСУВАННЯ 1.2. ВПЛИВ ШТУЧНОГО


ШТУЧНОГО ІНТЕЛЕКТУ ІНТЕЛЕКТУ НА ПРАВА ЛЮДИНИ

Технології ШІ стрімко розвиваються в різних Попри широкі перспективи для суспільства, що


сферах. Медичні заклади та дослідницькі цен- створюють сучасні технології ШІ, деякі з них
три використовують ШІ для діагностики хво- можуть мати значний вплив на фундаментальні
роб, вивчення медичних даних, розроблення права і свободи людини. По-перше, ШІ може
індивідуальних підходів до лікування. Органи робити помилки. У світі вже є достатньо пре-
правопорядку впроваджують технології ШІ для цедентів, які доводять цей факт.
забезпечення безпеки населення, прогнозу-
вання, запобігання та розслідування злочинів6. Наприклад, серед показових випадків — скан-
Наприклад, аналізуючи великі обсяги даних з дал у Великій Британії8 у 2000–2014 роках,
камер відеоспостереження, соціальних ме- коли понад 700 співробітників поштової служ-
реж, телефонних розмов, виявляють патерни би отримали покарання, а деякі навіть тюремне
та аномалії, що можуть свідчити про потенцій- ув’язнення, за порушення, яких вони не вчиня-
не правопорушення або загрозу національній ли. Комп’ютерна програма компанії показала
безпеці в цілому. грошові недостачі, через що багатьох праців-
ників притягнули до відповідальності. Знадоби-
Банківські та інші фінансові установи вико- лися роки, щоб юристи довели, що система
ристовують програми зі ШІ для надання своїх припустилася помилки. Існують й інші можливі
послуг, дослідження економічних показників, ризики в роботі алгоритмів, які продемонстру-
обробки платежів та запобігання шахрайству. вали вчені. Ессекський університет у своєму
Також у сфері бізнесу ШІ допомагає автомати- дослідженні представив висновки, що частота
зувати рутинні завдання, таких як обробка за- помилок системи відеоспостереження бри-
мовлень, управління виробництвом та вивчен- танської поліції й розпізнавання облич стано-
ня попиту. Різні компанії та сервіси, наприклад вить 81 %9. Програма могла ідентифікувати
такі як Netflix, YouTube, Amazon, послугами з-поміж п’ятьох осіб чотирьох невинних як під-
яких користуються багато українців, обробля- озрюваних. Подібні результати також були
ють за допомогою ШІ інформацію про своїх клі- опубліковані у звіті Джорджтаунського юри-
єнтів, зокрема їхні поведінкові дані в мережі дичного центру конфіденційності та техноло-
для створення маркетингових програм. гій10.

У галузі освіти ШІ застосовують для розробки По-друге, робота інтелектуальних систем


індивідуальних підходів до навчання, оцінки може передбачати обробку персональних да-
знань, створення інтерактивних платформ них. Це означає, що існує ризик порушення
тощо. Як зазначено на офіційному вебсайті Мі- права людини на приватність. У січні 2020 року
ністерства цифрової трансформації України: серед громадськості у різних країнах, у тому
«Дані – нова нафта, штучний інтелект — нова
електрика», — такими є реалії сучасності7.

8 Post Office scandal: What the Horizon saga is all about.


Режим доступу: https://www.bbc.com/news/
business-56718036
9 UK police’s facial recognition system has an 81 percent error
rate. Режим доступу: https://www.engadget.com/2019-07-
04-uk-met-facial-recognition-failure-rate.html?guce_referrer=
aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=A
QAAAJC6imMAdnNgJ17SdmSfPn2zYD8McbsmvwIPrmjdfchxn
6 За даними дослідження британської фінансової компанії LKvE1PwtQd9GHbVyMLxc-puxTLEAVeKSCIKf3DFtlU2EF4g7i9
Deloitte, у Китаї, Бразилії та Саудівській Аравії існує понад yQK9aIYiV_3WkX2q-3DcHfJklyw-AwHWNZPupTIouU_
1 000 проєктів розумних міст. Silicon Valley’s scramble for uC3JeTaBHZ3_DtKL45scBzwqD4CqG3w3KM&utm_
China. Режим доступу: https://www.codastory.com/ campaign=AI+Weekly&utm_medium=email&utm_source=Revu
authoritarian-tech/silicon-valleys-scramble-for-china/ e+newsletter&guccounter=1
7 Мінцифра сформувала експертний комітет з питань роз- 10 Garbage in, garbage out. Face recognition on flawed data.
витку сфери штучного інтелекту. Режим доступу: https:// Режим доступу: https://www.flawedfacedata.com/?utm_
thedigital.gov.ua/news/mintsifra-sformuvala-ekspertniy- campaign=AI%20Weekly&utm_medium=email&utm_
komitet-z-pitan-rozvitku-sferi-shtuchnogo-intelektu source=Revue%20newsletter

8 Права людини в епоху штучного інтелекту: виклики та правове регулювання


1. ПОНЯТТЯ ТА РОЛЬ ШТУЧНОГО ІНТЕЛЕКТУ В СУЧАСНОМУ СУСПІЛЬСТВІ

числі в Україні, велися дискусії11 щодо компа- через технологію ідентифікації швидко знайти
нії Clearview AI, яка розробляє технології роз- небезпечного злочинця тощо.
пізнавання облич. Її система працює за допо-
могою ШІ й машинного навчання для збору та Питання можуть стосуватися як самої сутності
аналізу величезної кількості зображень люди- технологій ШІ, так і особливостей їх застосу-
ни, які вона отримує в мережі. Clearview AI вання. Це може бути пов’язано з відсутністю
заявила, що її продукт може ідентифікувати прозорості в розробленні та діяльності систем;
осіб за фотографіями, зробленими в реально- ризиками упередженості та дискримінації;
му часі, порівнюючи їх із зображеннями у сво- складністю оскарження автоматизованих рі-
їй базі даних, зібраними з відкритих джерел в шень. Ці аспекти часто пов’язані між собою13.
інтернеті, таких як соціальні мережі, вебсай-
ти новин та інші публічно доступні ресурси. Через недостатню прозорість алгоритмів ШІ мо-
Проблема в тому, що ця компанія збирає пер- жуть виникати ситуації, коли люди, права яких
сональні дані осіб без їхньої згоди, що викли- порушують дії або рішення системи, не знають
кало занепокоєння щодо правомірності такої причини того, чому так відбулося, зокрема, чому
діяльності. У США проти Clearview AI було їм було відмовлено в певній послузі або до них
подано груповий позов, у якому компанію об- застосовано певне рішення. Наприклад, компа-
винуватили в продажі біометричних даних нія Amazon розглядала резюме на вакантні по-
органам правопорядку12. Також діяльність сади за допомогою ШІ, але через деякий час
цієї компанії заборонили в деяких європей- виявилося, що програма відхиляла всі заявки за
ських країнах. Попри це вона й надалі надає гендерними ознаками14. Ще один з резонансних
свої послуги по всьому світу. Неоднозначний скандалів був пов’язаний з доступом громадян
характер цього питання породжує численні до соціальної допомоги в Нідерландах15. У 2014
дискусії, які змушують у правовому полі зна- році під егідою Міністерства соціальних справ та
ходити баланс між перевагами технологій і праці Нідерландів кілька міст розпочали вико-
ризиками. З одного боку, застосування ШІ ристовувати систему Systeem Risico Indicatie
може порушувати права людини, а з іншого — (далі—SyRI), спроєктовану для виявлення фактів
розв’язувати суспільні проблеми, наприклад шахрайства у сфері соціального забезпечення

11 Україна отримала доступ до бази системи розпізнавання 13 Rodriguez, 2020.


облич Clearview AI. Режим доступу: https://zaxid.net/ 14 Amazon built an AI tool to hire people but had to shut it
ukrayina_otrimala_dostup_do_bazi_sistemi_rozpiznavannya_ down because it was discriminating against women. Режим до-
oblich_clearview_ai_n1538330 ступу: https://www.businessinsider.com/amazon-built-ai-to-
12 In Big Win, Settlement Ensures Clearview AI Complies with hire-people-discriminated-against-women-2018-10
Groundbreaking Illinois. Режим доступу: https://www.aclu. 15 How Dutch activists got an invasive fraud detection
org/press-releases/big-win-settlement-ensures-clearview-ai- algorithm banned. Режим доступу: https://algorithmwatch.
complies-with-groundbreaking-illinois org/en/syri-netherlands-algorithm/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 9


1. ПОНЯТТЯ ТА РОЛЬ ШТУЧНОГО ІНТЕЛЕКТУ В СУЧАСНОМУ СУСПІЛЬСТВІ

населення. У процесі аналізу ризиків шахрайства NeurIPS, ICML, ICLR — для машинного нав-
SyRI обробляла дані отримувачів соціальної до- чання тощо) та провідних рецензованих
помоги. Пізніше виявилося, що оцінювання ризи- виданнях;
ків у секторі, до якого належали люди з нижчими • недосконалість механізмів ухвалення
доходами, відбувалося нерівномірно, що викли- управлінських рішень у публічній сфері, за-
кало обурення в суспільстві та обвинувачення бюрократизованість системи надання ад-
влади в дискримінації, оскільки потенційні бене- міністративних послуг, обмеженість до-
фіціари не мали змоги зрозуміти механізми ухва- ступу до інформації та її низька якість,
лення рішень у роботі цієї системи. У 2020 році недостатній рівень впровадження елек-
нідерландський суд визнав незаконним викори- тронного документообігу між державними
стання поточної версії SyRI, мотивуючи своє рі- органами, а також низький ступінь оциф-
шення порушенням права людини на приватне рованості даних, що перебувають у влас-
та сімейне життя відповідно до статті 8 Європей- ності державних органів;
ської конвенції з прав людини і основоположних • складність перевірки відповідності роботи
свобод. Суд відзначив непрозорість системи, яка систем ШІ законодавству та етичним прин-
збирає надмірну кількість персональних даних ципам;
без конкретних цілей. • відсутність єдиних підходів, що застосову-
ються при визначенні критеріїв етичності
Сьогодні в Україні мало досліджень подібних під час розроблення та використання тех-
випадків, але це не означає, що їх нема. Можна нологій ШІ для різних галузей, видів діяль-
сказати, що роботу в цьому напрямі тільки роз- ності та сфер національної економіки;
почато, зокрема це видання також має на меті • наявність ризиків зростання рівня безро-
привернути увагу суспільства до потреби вжи- біття у зв’язку з використанням технологій
вати заходи для вивчення потенційних про- ШІ;
блем використання ШІ як у приватному, так і • низький рівень цифрової грамотності, поін-
державному секторі. формованості населення щодо загальних
аспектів, можливостей, ризиків і безпеки
Як указано16 в Концепції розвитку штучного інте- використання ШІ;
лекту в Україні, впровадження інформаційних • недостатній рівень інформаційної безпеки
технологій є важливою складовою соціально-е- та захисту даних в інформаційно-телеко-
кономічної, науково-технічної, оборонної та мунікаційних системах державних органів
будь-якої іншої діяльності. Зокрема, зайняття внаслідок застарілості автоматичних сис-
Україною значного сегмента світового ринку тем виявлення та оцінювання інформацій-
технологій ШІ та провідних позицій у міжнарод- них загроз, невикористання потенціалу
них рейтингах17. Проте відсутність концептуаль- прогнозування та передбачення загроз з
них засад державної політики в цій галузі не метою своєчасної підготовки системи до
дозволяє створювати та розвивати конкуренто- можливої атаки;
спроможне середовище. Це свідчить про по- • зростання кількості спроб несанкціонова-
требу розв’язання таких проблем як: ного втручання в роботу автоматизованих
системи, комп’ютерних мереж;
• низький рівень інвестицій у проведення • відсутність або недосконалість правового
досліджень зі ШІ у закладах вищої освіти; регулювання ШІ (у тому числі у сферах
• незначна кількість публікацій у виданнях освіти, економіки, публічного управління,
провідних галузевих конференцій (CVPR\ кібербезпеки, оборони), а також недоско-
ICCV\ECCV — для комп’ютерного зору, налість законодавства про захист персо-
нальних даних.

Очевидно, що технології ШІ надалі будуть роз-


16 Розпорядження Кабінету Міністрів України «Про схва-
лення Концепції розвитку штучного інтелекту в Україні». Ре- виватися, розширюючи свої можливості у різ-
жим доступу: https://zakon.rada.gov.ua/laws/show/1556- них сферах, тому важливо аналізувати його
2020-р#Text
17 AI Readiness Index by Oxford Insights, AI Index by Stanford
вплив на права і свободи людини та створюва-
University тощо. ти етичні й правові рамки.

10 Права людини в епоху штучного інтелекту: виклики та правове регулювання


2. ПРАВОВЕ
РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

Україна є членом комітету зі штучного інтелек- невтручання в особисте і сімейне життя у


ту при Раді Європи, а також бере участь у робо- зв’язку з обробкою персональних даних;
чій групі з питань управління штучним інтелектом y забезпечення прозорості та відповідально-
в Організації економічного співробітництва і роз- го розкриття інформації про системи ШІ;
витку18. У листопаді 2023 року під час міжнарод- y надійне та безпечне функціонування сис-
ного саміту щодо безпеки ШІ — AI Safety Summit, тем ШІ протягом усього його життєвого
що проходив у Великій Британії, Україна підпи- циклу та здійснення на постійній основі їх
сала «Декларацію Бретчлі»19 й таким чином до- оцінювання та управління потенційними
єдналася до міжнародної співпраці у дослі- ризиками;
дженні сфери безпеки ШІ. Відповідно до цього y покладення на організації та осіб, які роз-
документа держави-учасниці мають взаємоді- робляють, впроваджують або використо-
яти для подолання ризиків ШІ та сприяти тому, вують системи ШІ, відповідальності за їх
щоб його проєктування, розробка та викори- належне функціонування відповідно до за-
стання здійснювалось у безпечний спосіб. Це значених принципів.
стосується, як державних послуг у різних сфе-
рах, так і бізнесу. У Концепції розвитку штучно- З урахуванням того, що робота технологій ШІ у
го інтелекту в Україні визначено принципи, зо- багатьох випадках може передбачати обробку
крема: персональних даних20, відповідно така діяль-
ність підпадає під дію відповідного законодав-
y розроблення та використання систем ШІ ства. У чинному Законі Україні «Про захист
лише за умови дотримання верховенства персональних даних» не враховані особливос-
права, основоположних прав і свобод лю- ті роботи ШІ. Водночас Україна є стороною
дини і громадянина, демократичних цін- міжнародних угод та інших нормативно-пра-
ностей, а також забезпечення відповідних вових документів, ратифікованих Верховною
гарантій під час використання таких тех- Радою України. Зокрема, у вересні 2017 року
нологій; розпочала діяти Угода про асоціацію ЄС і Укра-
y відповідність діяльності та алгоритму рішень їни, де поряд з іншими вимогами, у статті 15 цієї
систем ШІ вимогам законодавства про за- Угоди визначені зобов’язання забезпечити за-
хист персональних даних, а також додер- хист персональних даних відповідно до євро-
жання конституційного права кожного на пейських та міжнародних стандартів.

18 Organisation for Economic Co-operation and Development,


Recommendation of the Council on Artificial Intelligence,
OECD/LEGAL/0449. 20 Обробка персональних даних — будь-яка дія або сукуп-
19 The Bletchley Declaration by Countries Attending the AI ність дій, таких як збирання, реєстрація, накопичення, збері-
Safety Summit, 1-2 November 2023. Режим доступу: https:// гання, адаптування, зміна, поновлення, використання і поши-
www.gov.uk/government/publications/ai-safety-summit- рення (розповсюдження, реалізація, передача), знеособлення,
2023-the-bletchley-declaration/the-bletchley-declaration-by- знищення персональних даних, у тому числі з використанням
countries-attending-the-ai-safety-summit-1-2-november-2023 інформаційних (автоматизованих) систем.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 11


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

Це означає, що міжнародні вимоги повинні бути 1. Персональні дані є юридичною категорією


враховані під час розроблення та застосування інформації з особливими правилами, яких
таких технологій. До того ж функціонує багато слід дотримуватися при розробці проєктів
українських програм ШІ, які обробляють персо- зі ШІ.
нальні дані осіб, які перебувають у країнах ЄС,
тому вони підпадають під регулювання Загально- 2. Не кожна система ШІ передбачає обробку
го регламенту про захист даних (далі — GDPR)21. персональних даних.
Це також стосується міжнародного стандарту
ISO/IEC 27701:201922, який розширює вимоги 3. Персональні дані — це не єдина інформація,
стандартів ISO/IEC 27001 і 27002 щодо інформа- яка збирається, зберігається, аналізується
ційної безпеки та захисту інформації, зокрема під чи використовується в розробках ШІ.
час ідентифікації особи (PII); стандарту IEEE
P7003™, що розробив Інститут інженерів елек- В Україні фактично тільки розпочався процес
тротехніки та електроніки (IEEE) для розв’язання розробки правового регулювання ШІ. Мініс-
конкретних викликів, пов’язаних зі ШІ. Цей стан- терство цифрової трансформації України опу-
дарт звертає увагу на виявлення та усунення блікувало Дорожню карту з регулювання штуч-
упереджень в алгоритмах ШІ, особливо під час ного інтелекту в Україні, основою якої став
обробки особливої категорії даних; та інших по- bottom-up підхід25, покликаний надати бізнесу
ложень Ради Європи, ООН, Європейського суду практичних інструментів, таких як: регулятор-
з прав людини, які охороняються міжнародною на пісочниця, методології оцінки впливу ШІ на
системою в галузі прав людини. 18 грудня 2023 права людини, інструменти з маркування сис-
року Міжнародна організація зі стандартизації тем ШІ тощо.26
(ISO) опублікувала новий стандарт ISO/IEC
42001:2023, який містить вимоги щодо створення, У більшості країн також ще немає спеціальних
впровадження, підтримки та постійного вдоско- законів про ШІ27. Китай — виняток з його тимча-
налення систем ШІ. Положення цього стандарту совими заходами з управління генеративними
застосовуються до будь-яких установ чи органі- службами ШІ28, що набрали чинності в серпні
зацій, незалежно від напрямку їх діяльності.23 2023 року. Цей документ спрямований на те,
щоб генеративний ШІ відповідав «соціально-
Водночас потрібно звернути увагу, що в Де- му порядку та моралі», був точним, уникав
кларації етики та захисту даних у штучному дискримінації та дотримувався права на інте-
інтелекті24 визначений зв’язок між збором, ви- лектуальну власність. Національна стратегія
користанням особистої інформації про людину штучного інтелекту Сінгапуру29 складається з
та розвитком ШІ. Звідси виникає потреба в на- Модельної рамкової програми управління ШІ,
ведених нижче уточненнях: посібника, у якому висвітлені практичні ас-
пекти управління ШІ на організаційному рівні.
Канадський закон про штучний інтелект та

21 GDPR (General Data Protection Regulation) — Загальний


регламент про захист даних 2016/679, спрямований на за-
хист фізичних осіб стосовно обробки персональних даних та
вільний рух таких даних. Режим доступу: https://eur-lex.
europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R06 25 Дорожня карта регулювання штучного інтелекту в Укра-
79&from=EN їні. Режим доступу: https://thedigital.gov.ua/news/
22 ISO/IEC 27701:2019. Security techniques — Extension to regulyuvannya-shtuchnogo-intelektu-v-ukraini-prezentuemo-
ISO/IEC 27001 and ISO/IEC 27002 for privacy information dorozhnyu-kartu
management — Requirements and guidelines. Режим доступу: 26 Дана ініціатива, на ряду з іншими, зазначена в проєкті
https://www.iso.org/standard/71670.html Стратегії інновацій. Режим доступу:
23 ISO/IEC 42001 is an international standard that specifies https://winwin.gov.ua/assets/files/Проєкт_інноваційно-
requirements for establishing, implementing, maintaining, and ї_стратегії.pdf?upd=1
continually improving an Artificial Intelligence Management 27 На момент підготовки цього документа.
System (AIMS) within organizations. Режим доступу: https:// 28 Temporary measures to manage artificial intelligence
www.iso.org/standard/81230.html generative services. Режим доступу: https://www.
24 Cfr. «Declaration on ethics and data protection in artificial chinalawtranslate.com/generative-ai-interim/
intelligence». 40th International Conference of Data Protection 29 National Artificial Intelligence Strategy. Режим доступ:
and Privacy Commissioners. Tuesday, 23rd October 2018, https://www.smartnation.gov.sg/initiatives/artificial-
Brussels. intelligence/

12 Права людини в епоху штучного інтелекту: виклики та правове регулювання


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

дані30 як частина законопроєкту C-27, також 2.1. ПІДХІД ДО ПРАВОВОГО


ще доопрацьовується. В США сформовано фе- РЕГУЛЮВАННЯ В КРАЇНАХ ЄС
деральну політику щодо управління ШІ.31 У Єв-
ропейському Союзі розробляється новий за- У Європейському Союзі розробляють поло-
гальний Регламент про штучний інтелект, який ження, покликані врегулювати використання
вже у 2024 році планують офіційно ухвалити з інформаційних технологій. Зокрема, вони
урахуванням перехідного періоду для його стосуються конфіденційності у сфері елек-
імплементації в діяльність суб’єктів ШІ. тронних комунікацій32, визначаючи, які поло-
ження GDPR будуть застосовуватися для за-
Розуміння глобального правового контексту хисту даних в інтернеті. Цей документ може
важливе, оскільки в більшості випадків техно- мати серйозні наслідки для суб’єктів ШІ, які
логії ШІ мають транснаціональний вплив і вима- пропонуватимуть послуги електронного
гають балансу між прагненням до інновацій та зв’язку. Далі — Закон про цифрові ринки
етикою, технологією та правами людини. Гли- (DMA), Закон про цифрові послуги (DSA) і За-
боке розуміння цих взаємозв'язків дозволить кон про управління даними (DGA). У 2023 році
створити ефективний законодавчий фрейм- Європейський парламент ухвалив33 проєкт
ворк для України. Регламенту про регулювання ШІ (далі в тексті
— AI Act)34, концепцію якого запропонувала
Європейська комісія ще у квітні 2021 року. Це
положення є спробою створити загальну
правову базу для всіх, хто розробляє або ви-
користовує інтелектуальні системи в країнах
ЄС і не тільки. Він має стати прикладом уніфі-
кації юридичних правил у галузі ШІ.

32 Директива Європейського парламенту і ради


2009/136/ЄС від 25 листопада 2009 року про внесення
змін до Директиви 2002/22/ЄС про універсальну послугу
та права користувачів щодо електронних комунікаційних
мереж та послуг, Директиви 2002/58/ЄС про опрацюван-
ня персональних даних і захист приватності у сфері елек-
тронних комунікацій, Регламенту (ЄС) № 2006/2004 про
співпрацю між національними органами, відповідальними
за забезпечення виконання законів про захист прав спожи-
вачів.
33 Artificial Intelligence Act. Режим доступу: https://www.
europarl.europa.eu/doceo/document/TA-9-2023-0236_
30 The Artificial Intelligence and Data Act (AIDA) — Companion EN.html
document. Режим доступу: https://ised-isde.canada.ca/site/ 34 Artificial Intelligence Act. Законопроєкт Європейського
innovation-better-canada/en/artificial-intelligence-and-data- Союзу, мета якого створити безпечне середовище для ви-
act-aida-companion-document користання та розвитку ШІ. AI Act постав у відповідь на по-
31 Дані на момент написання цього документа — вересень требу в регулюванні технологій ШІ та їхнього впливу на
2023 року. суспільство.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 13


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

Коротка хронологія і майбутні зміни законо-


давства у ЄС35:

Європейська комісія представила свою пропозицію Регламенту про штучний


Квітень 2021 року
інтелект.

Європейська рада ухвалила спільну позицію (загальний підхід) щодо Регламенту


Грудень 2022 року
про штучний інтелект36.

Депутати Європарламенту ухвалили свою позицію щодо Регламенту про


Червень 2023 року
штучний інтелект.

Кінець 2023 року Досягнуто політичної згоди щодо положень Регламенту про штучний інтелект.

Початок 2024 року Очікується ухвалення остаточної версії Регламенту про штучний інтелект.

Кінець 2025 — початок Очікується, що після ймовірного 18–24-місячного перехідного періоду набере
2026 року чинності Регламенту про штучний інтелект у ЄС.

Навколо AI Act точиться багато дискусій. З од- характеристики. Ця умова призначена для
ного боку, лунають думки, що такий закон по- зниження потенційної упередженості сис-
винен обмежувати застосування деяких тех- тем і кількості дискримінаційних рішень;
нологій ШІ, які можуть становити небезпеку y передбачає обмеження для систем, що по-
для прав і свобод людини. З іншого — ствер- тенційно можуть становити ризик для прав
джують, що такий акт може зашкодити розвит- людини або державних інтересів. Напри-
ку інновацій і соціальному прогресу загалом. клад, це стосується проблем дискриміна-
Попри ці дискусії, усі сторони єдині в позиції, ції, дезінформації та інших маніпуляцій в ін-
що технології ШІ потребують правового регу- формаційному просторі тощо;
лювання. Експерти ГО «Центр демократії та y встановлює вимоги для певних систем ШІ
верховенства права» проаналізували37 новий щодо необхідності інформування користу-
AI Act, виділивши важливі аспекти, на які варто вачів про те, що вони взаємодіють із систе-
звернути увагу. Зокрема, новий Регламент у мою ШІ, а не людиною;
ЄС: y вимагає сприяти складанню Кодексів по-
ведінки для суб’єктів ШІ залежно від цільо-
y вимагатиме створення системи управлін- вого призначення відповідних систем;
ня ризиками протягом усього життєвого y акцентує на потребі прозорості в розро-
циклу ШІ, а не тільки на етапі розробки; бленні та використанні систем ШІ;
y запроваджує обов’язкову сертифікацію для y створює спеціальні регуляторні пісочниці.
певних систем ШІ, зокрема тих, що здій- Концепція регуляторних пісочниць — один
снюють обробку особливих категорій да- з інноваційних заходів, запропонованих AI
них, широкомасштабне профілювання лю- Act, покликаний сприяти впровадженню
дей, освітніх або професійних оцінювальних систем ШІ в практику.
систем або критичної інфраструктури;
y містить положення про набори даних, які Отже, регулювання ШІ в країнах ЄС базується
повинні бути актуальними, повними, без на ризикорієнтованому підході, також запро-
помилок та мати відповідні статистичні понованому в Білій книзі38 штучного інтелекту у
2020 році. Але тоді в ній були описані лише два
рівні ризику, потім це питання детальніше ви-
35 Contentious areas in the EU AI Act trilogues. Режим досту- вчили і сформували чотири рівні:
пу: https://iapp.org/news/a/contentious-areas-in-the-eu-ai-
act-trilogues/
36 Artificial Intelligence Act: Council calls for promoting safe y системи ШІ з мінімальним ризиком або не-
AI that respects fundamental rights. Режим доступу: https:// ризикові;
www.consilium.europa.eu/en/press/press-
releases/2022/12/06/artificial-intelligence-act-council-calls-
for-promoting-safe-ai-that-respects-fundamental-rights/
37 Ольга Петрів. Штучний інтелект та Artificial intelligence\ 38 Commission White Paper on Artificial Intelligence: A European
act: час для юридичних рамок. Режим доступу: https://cedem. approach to excellence and trust, COM (2020) 65 final (February 19,
org.ua/analytics/artificial-intelligence-act/ 2020).

14 Права людини в епоху штучного інтелекту: виклики та правове регулювання


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

y системи ШІ з обмеженим ризиком; До заборонених технологій ШІ належать тех-


y системи ШІ з високим ступенем ризику; нології, які можуть становити загрозу для лю-
y заборонені системи ШІ. дини або суспільства загалом. Наприклад, ви-
користання таких програм для переслідування,
Мінімальний ризик зумовлений низьким рівнем маніпулювання, введення пропаганди, або за-
впливу на права та свободи фізичних осіб. Це стосування їх проти вразливих соціальних груп
може передбачати використання ШІ для авто- тощо.
матизації рутинних завдань, які не мають сер-
йозних правових наслідків. Наприклад, оброб- Кожна із цих категорій ризиків має підкатегорії.
ка документів, генерація стандартних листів Початковий список, запропонований Європей-
або повідомлень. На рівні обмеженого ризику ською комісією, зазнав перегляду як Європей-
ШІ може впливати на права та свободи осіб, ською радою, так і парламентом. У своїх по-
однак це можна контролювати та регулювати. правках Європейський парламент додав до
Користувачі таких ШІ мають усвідомлювати, що класифікації високого ризику системи ШІ, які
вони взаємодіють з машиною, та ухвалювати рі- використовують певні платформи соціальних
шення — продовжувати чи припинити взаємо- мереж (тобто ті, що позначені як «дуже великі
дію. Високий рівень ризику вказує на можли- онлайн-платформи» відповідно до Закону про
вість серйозного впливу на права, свободи та цифрові послуги) створення рекомендацій для
інтереси фізичних осіб. Застосування ШІ на користувачів, особливо ті системи ШІ, за допо-
цьому рівні, як правило, передбачає ухвалення могою яких можна вплинути на результати ви-
автоматизованих рішень, що може мати юри- борів або інших демократичних процесів у
дичні наслідки. Такі системи ШІ повинні відпо- державах41.
відати обов’язковим вимогам й пройти проце-
дури оцінювання відповідності, перш ніж Класифікація ризиків дає змогу розробникам чи
потрапити на ринок ЄС39. На постачальників і користувачам ШІ визначити, у яких випадках
користувачів цих систем покладаються чіткі зо- така технологія може завдати шкоди. Загалом
бов’язання, зокрема: архітектура правозастосування AI Act нагадує
GDPR, і ця паралель стає ще більш актуальна,
y чітке та адекватне інформування про ро- враховуючи те, що деякі національні інституції з
боту технології; питань захисту персональних даних, напри-
y застосування заходів людського втручання клад Національна комісія Франції з інформати-
для мінімізації ризиків порушення прав; ки та свободи (CNIL), уже позиціонують себе
y реєстрація діяльності для забезпечення — як наглядовий орган у сфері ШІ.
відстежуваності результатів;
y висока якість наборів даних, що живлять Отже, якщо ЄС найближчим часом досягне сво-
систему, для мінімізації ризиків і дискримі- єї мети — ухвалить остаточний варіант AI Act, то
наційних результатів; очікується, що він набуде чинності не раніше
y детальна документація, що надає всю не- 2026 року та буде діяти певний час, протягом
обхідну інформацію про систему та її при- якого зацікавлені сторони зможуть адаптувати
значення; свою діяльність для дотримання його норм. Ух-
y забезпечення адекватних систем оціню- валення AI Act безпосередньо вплине й на ре-
вання та пом’якшення ризиків; гулювання ШІ в Україні, а це означає, що варто
y забезпечення високого рівня надійності, розпочинати працювати над механізмами реалі-
безпеки та точності40. зації та імплементації міжнародних стандартів в
українські технологічні проєкти.

39 У статті 6 AI Act встановлено зобов’язання для систем ШІ


з високим ризиком. У Додатку III перелічено вісім конкретних
типів систем ШІ, які підпадають під визначення високого ризи-
ку.
40 Штучний інтелект та artificial intelligence act: час для 41 Contentious areas in the EU AI Act trilogues. Режим досту-
юридичних рамок. Режим доступу: https://cedem.org.ua/ пу: https://iapp.org/news/a/contentious-areas-in-the-eu-ai-
analytics/artificial-intelligence-act/ act-trilogues/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 15


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

2.2. ПІДХІД ДО ПРАВОВОГО 1. Захист від небезпечних або неефективних


РЕГУЛЮВАННЯ В США систем.
2. Захист від цифрової дискримінації.
У США також активно формується федеральна 3. Захист персональних даних і від надмірного
політика в галузі ШІ. Зокрема, на різних рівнях втручання в приватне життя людини.
висунуто низку ініціатив, законів і політик, які 4. Прозорість використання технологій ШІ, зо-
покликані забезпечити оцінювання ризиків і крема їхній потенційний вплив на права лю-
врегулювання роботи ШІ. Основа стратегії вже дини та навколишнє середовище.
створена і дає загальне уявлення про юридичні 5. Захист від автоматизованого ухвалення рі-
й політичні підходи до регулювання нових тех- шення.
нологій. Офіс політики науки та технології Біло-
го Дому (OSTP) опублікував42 Концепцію Зако- Під час розроблення Концепції було розгляну-
ну про штучний інтелект (далі — Концепція). У то багато питань, зокрема:
ній наголошено на важливості технологічного
розвитку в країні, але також висловлено зане- y Що потрібно зробити, щоб розробники ШІ
покоєння щодо його впливу на права і свободи дбали про права людини ще на початку
людини. Зокрема, випадками цифрового сте- проєктування технології?
ження, профілювання тощо. Тому у США запро- y Як зробити так, щоб технології ШІ та будь-які
поновано п’ять рівнів захисту, а саме: інші інновації використовувалися етично?

42 Blueprint for an AI Bill of Rights: A Vision for Protecting Our


Civil Rights in the Algorithmic Age. Режим доступу: https://
www.whitehouse.gov/ostp/news-updates/2022/10/04/
blueprint-for-an-ai-bill-of-rightsa-vision-for-protecting-our-
civil-rights-in-the-algorithmic-age/

16 Права людини в епоху штучного інтелекту: виклики та правове регулювання


2. ПРАВОВЕ РЕГУЛЮВАННЯ ШТУЧНОГО ІНТЕЛЕКТУ

У Концепції запропонована візія для суспіль- свободи. Робота ШІ повинна бути макси-
ства, де захист прав людини стоїть на рівні з мально прозорою, тому в Концепції перед-
технологічним прогресом. Протягом розро- бачена система звітування з боку розроб-
блення цього документа досліджувався реаль- ників чи користувачів, особливо, якщо
ний вплив таких систем. Були враховані думки відбувається збір та обробка персональних
різних соціальних груп, які висловили своє ба- даних. Такі звіти мають бути сформовані в
чення потреби чіткого правового регулювання зрозумілій формі та містити не тільки пові-
ШІ й державних гарантій захисту в разі настан- домлення про використання таких систем,
ня ризиків. Ця Концепція включає технічний до- а ще й мати оцінку впливу на права людини.
даток, у якому сформовані конкретні кроки, які 5. Право на захист від автоматизованого ух-
можуть зробити громади, держані органи та валення рішень. Якщо люди стикаються з
інші сторони, щоб запровадити ключові прин- негативними наслідками внаслідок рішень,
ципи захисту від негативного впливу ШІ. ухвалених системами ШІ, вони мають право
на оскарження й виправлення. Тобто якщо
Відповідно до Концепції можна виділити де- рішення, яке стосується людини, ухвалила
кілька ключових аспектів, яким приділено машина, тоді такий результат має бути пе-
увагу: ревірений і контрольований.

1. Прозорість та зрозумілість. Людина має Також у Концепції наголошено на тому, що тех-


право знати, як і коли ШІ використовується, нічні можливості ШІ дуже швидко змінюються, а
і мати доступ до зрозумілої інформації про це означає, що потенційна шкода може виника-
його принципи роботи. ти від використання навіть, на перший погляд,
2. Запобігання дискримінації. Системи ШІ по- мало розвинених програм. Запропоновано
винні бути розроблені та використовувати- двоетапний тест для визначення, які системи
ся таким чином, щоб запобігти будь-яким підпадають під дію документа: (1) автоматизо-
формам дискримінації: на основі раси, статі, ваних систем, які (2) можуть мати істотний
віросповідання, сексуальної орієнтації та вплив на права, можливості чи доступ грома-
інших характеристик. дян до ключових ресурсів або послуг43. Таким
3. Захист приватності. Люди мають право кон- чином, можна розбити висновок, що підхід
тролювати свої дані, які збираються й вико- США до врегулювання систем ШІ збігається з
ристовуються для технологій ШІ. У законах, міжнародними стандартами та принципами,
які регулюють кожну галузь, мають бути пе- які визнані та застосовуються в інших країнах
редбачені вимоги до контролю за розвит- світу, зокрема ЄС.
ком та використанням ШІ. Тобто ще на ста-
дії розроблення будь-якого проєкту має Отже, вивчення досвіду інших країн щодо регу-
бути вбудовано за замовчуванням принци- лювання технологій ШІ є важливим завданням,
пи та стандарти, що захищають приватність оскільки Україна разом з іншими правовими,
людини. Пропонується посилити захист демократичними державами повинна прагну-
персональних даних, що стосуються чутли- ти до єдиних стандартів захисту прав і свобод
вих сфер, включаючи здоров’я, роботу, осві- людини в умовах розвитку технологій та кібер-
ту, кримінальне правосуддя та фінанси, а просторі загалом. Знання про міжнародні
також молоді. принципи та правила регулювання ШІ може
4. Відповідальність і підзвітність. Суб’єкти, які сприяти створенню середовища для наукових
створюють або використовують системи досліджень та інтеграції українських розробок
ШІ, повинні бути відповідальними за свої дії на світовий ринок.
й можливі наслідки. Технології повинні роз-
виватися, але під посиленим контролем з
ефективним оцінюванням ризиків і дотри-
манням етичних рамок. Людина повинна
бути захищена від автоматизованого ухва- 43 Data privacy. You should be protected from abusive data
practices via built-in protections, and you should have agency
лення рішення в освіті, на роботі чи в інших over how data about you is used. Режим доступу: https://www.
сферах, що може обмежувати її права та whitehouse.gov/ostp/ai-bill-of-rights/data-privacy-2/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 17


3. МІЖНАРОДНІ
ПРИНЦИПИ

У різних міжнародних положеннях запропоно- без прямого контролю людини, тому на всіх
вано низку принципів, які утворюють загально- рівнях повинна просуватися концепція етич-
прийняті стандарти розвитку та правового ре- ного та відповідального ШІ, зокрема, яка має
гулювання технологій ШІ44. Наприклад, включати:
міжнародна група експертів Європейської ко-
місії опублікувала посібник з етики для надій- a. Прозорість та підзвітність — необхідність
ного штучного інтелекту45, де сформовано кон- пояснювати та обґрунтувати рішення про
цептуальні правила роботи ШІ залежно від розроблення та використання ШІ, які мають
контексту його використання. Зокрема, мова вплив на права і свободи людини.
йде про: b. Відповідальність і ролі людей виявляти по-
милки або неправомірні результати.
a. Законність. Необхідно дотримуватися всіх
законів і правил, визначених у міжнародних Розглянемо декілька принципів, які згадуються
і національних положеннях. в міжнародних документах та практиках.
b. Етика та відповідальність. Робота ШІ повин-
на відповідати етичним принципам і цінно-
стям як місцевих, так і глобальних спільнот.
c. Надійність. Системи ШІ мають бути надійни-
ми та безпечними для людини.

За словами доцента інженерних систем і по-


слуг Університету Умео Вірджинії Дігнум46,
оскільки розвиток машинного навчання дозво-
ляє ШІ самостійно ухвалювати рішення та діяти

44 Доповідь Спеціального доповідача Генеральної Асамблеї


ООН щодо права на недоторканність приватного життя Джо-
зефа А. Каннатачі: «Штучний інтелект та недоторканність при-
ватного життя, а також недоторканність приватного життя
дітей».
45 The Ethics Guidelines for Trustworthy Artificial Intelligence
(AI) is a document prepared by the High-Level Expert Group on
Artificial Intelligence (AI HLEG). This independent expert group
was set up by the European Commission in June 2018, as part of
the AI strategy announced earlier that year. Режим доступу:
https://ec.europa.eu/futurium/en/ai-alliance-
consultation.1.html
46 The ART of AI Design — Accountability, Responsibility,
Transparency. Режим доступу:
https://www.delftdesignforvalues.nl/2018/the-art-of-ai-
accountability-responsibility-transparency/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 19


3. МІЖНАРОДНІ ПРИНЦИПИ

ПРОЗОРІСТЬ кількісних метрик, які дозволяють оцінювати


прозорість систем ШІ. Також важливо розгля-
Прозорість — необхідність опису та перевірки дати концепцію права на пояснення, яка поля-
механізмів, за допомогою яких системи ШІ ух- гає у тому, що людина має право знати, яким
валюють рішення. Прозорість має важливе зна- чином система ШІ дійшла певного рішення, що
чення у контексті ШІ, бо вона сприяє форму- може вплинути на її права та інтереси.
ванню довіри до таких технологій. Зрозуміти, як
і чому система дійшла певного рішення, важли- Звичайно, що абсолютна прозорість може бути
во для забезпечення надійності й передбачува- недосяжною, оскільки вона залежить від функ-
ності. Особливо у сферах, де застосовуються ціональності конкретної системи. Також деякі
системи автоматизованого ухвалення рішень. деталі роботи алгоритмів можуть бути обме-
Забезпечення прозорості має позитивний женими в доступі з міркувань інтелектуальної
вплив на проведення валідації47 та сертифікації власності або державної таємниці. Але це не
систем ШІ. Наприклад, якщо система приймає означає, що не потрібно пояснювати, як пра-
рішення щодо надання субсидії або кредиту, цює ШІ, тоді в такому випадку лише певному
тоді важливо зрозуміти, які критерії оцінювання колу суб’єктів, наприклад, контролюючим ор-
потенційних отримувачів були використані та ганам у цій сфері. Узагалі термін «прозорість»
чи відповідають вони юридичним вимогам. має багато визначень. У контексті цього прин-
ципу основна увага приділяється розкриттю
Законодавчі рамки можуть вимагати від органі- інформації про те, як використовується ШІ.
зацій прийняття прозорих і зрозумілих моделей Прозорість не означає розкриття комерційної
ШІ. Якщо проти організації порушується судо- або іншої таємниці, що охороняється законом.
вий позов, прозорість їхніх систем ШІ сприяє Мова йде про те, що суспільство має знати за-
чіткому поясненню того, як працює їхня техно- гальну інформацію, як система ШІ використо-
логія та чому вона прийняла певне рішення. Це вується у відповідній галузі, щоб можна було
може допомогти забезпечити можливість зробити усвідомлений вибір і вберегти себе
вжиття превентивних заходів у разі необхідно- від можливих ризиків. Додатковий аспект про-
сті. зорості стосується громадських консультацій
та підвищення обізнаності населення щодо ро-
Тому важливо своєчасно надавати зрозумілі боти ШІ. Такий підхід має підтримуватися в
повідомлення про використання систем ШІ. правовому суспільстві, де на першому місці
Користувачі повинні отримувати повідомлення стоїть людина, її права та свободи.50
про використання автоматизованих систем за-
здалегідь. Пояснення повинно бути доступне Якщо за допомогою систем ШІ обробляються
разом із самим рішенням або невдовзі після персональні дані, тоді пояснювати процес ро-
нього. Повідомлення та пояснення можуть бути боти з даними є юридичною вимогою. Обробка
в різних форматах48. персональних даних має здійснюватися від-
крито й прозоро із застосуванням засобів та у
Один з документів, який вимагає забезпечувати спосіб, що відповідають визначеним цілям. Тоб-
цей принцип у роботі інтелектуальних систем, то прозорість гарантує кожному отримання ін-
— це «Етичні настанови для надійного ШІ», формації про обробку своїх персональних да-
розроблені Європейською комісією49. У ньому них і безпосередній доступ до них, адже
сформовані рекомендації щодо якісних і людина має усвідомлювати не тільки потен-
ційні вигоди від впровадження систем ШІ, а й
власні ризики від його застосування. Володі-
47 Валідація — процес підтвердження відповідності (об-
лець персональних даних зобов’язаний
ґрунтованості) або надання законної сили.
48 Information Commissioner’s Office «Guidance on AI and
data protection». Режим доступу: https://ico.org.uk/for-
organisations/uk-gdpr-guidance-and-resources/artificial- 50 Blueprint for an AI Bill of Rights: A Vision for Protecting Our
intelligence/guidance-on-ai-and-data-protection/ Civil Rights in the Algorithmic Age. Режим доступу: https://
49 Ethics guidelines for trustworthy AI. Режим доступу: www.whitehouse.gov/ostp/news-updates/2022/10/04/
https://digital-strategy.ec.europa.eu/en/library/ethics- blueprint-for-an-ai-bill-of-rightsa-vision-for-protecting-our-
guidelines-trustworthy-ai civil-rights-in-the-algorithmic-age/

20 Права людини в епоху штучного інтелекту: виклики та правове регулювання


3. МІЖНАРОДНІ ПРИНЦИПИ

пояснювати широкому загалу в доступній фор- що упередженість може бути як випадковою,


мі, для чого і яким чином ці дані отримує, як так і навмисно внесеною в конкретну систему.
планує використовувати та кому вони можуть Наприклад, випадки, коли відмовляють у кре-
бути передані51. дитуванні, працевлаштуванні тощо людям по-
хилого віку або самотнім вагітним жінкам.
Якщо подивитися на рекомендації державних Наприклад, відома історія про міжнародну
регуляторів у країнах ЄС, то вимога до прозо- компанію Amazon, яка припинила використан-
рості обробки персональних даних системами ня ШІ для відбору персоналу через виявлену
ШІ займає центральне місце. Зокрема у своїх упередженість та помилки в алгоритмі, який
перевірках ставлять питання до зацікавлених базувався на шаблонах слів у резюме, непра-
сторін ШІ: як забезпечується прозорість діяль- вильно обробляв інформацію.
ності у використанні технологій? Наприклад, в
Офісі інформаційного комісара Великої Брита- Тому у системах ШІ має бути забезпечена
нії (ICO) зосереджено увагу на тому: можливість людського втручання. Для дотри-
мання принципу недискримінації потрібно від-
y Де можна дізнатися інформацію про діяль- повісти на такі питання: де та в якій формі не-
ність суб’єкта ШІ з питань обробки персо- обхідна присутність людської оцінки та аналізу?
нальних даних? У яких випадках повністю автоматизоване ух-
y Яким чином інформація про обробку даних валення рішень є припустимим?55 Якщо ШІ ви-
надається фізичним особам? користовується для аналізу персональних да-
y Чи поінформовані суб’єкти персональних них, важливо гарантувати критичний підхід до
даних про свої права?52 вибору джерел, аналіз потенційних зміщень та
оцінювання їх впливу на права людини. Це пря-
Італійський орган захисту даних53 зобов’язав ін- мо відображено в законодавстві про захист
формувати людей про використання їхніх пер- персональних даних56. Тому для реалізації не-
сональних даних у технологіях ШІ всіма мож- упередженого використання ШІ слід підходити
ливими способами, зокрема за допомогою комплексно, аналізуючи усі стадії життєвого
радіо, телебачення, газети та інтернету. Таке циклу системи, починаючи ще з етапу проєкту-
рішення стосувалося нової технології ChatGPT вання.57
і змусило компанію-розробника OpenAI вжити
перелік заходів щодо надійності, безпечності
та захисту конфіденційної інформації в систе-
мі54.

НЕУПЕРЕДЖЕНІСТЬ ТА МІНІМІЗАЦІЯ ДАНИХ


НЕДИСКРИМІНАЦІЯ
Принцип мінімізації даних полягає в тому, що
Питання про створення неупереджених сис- обсяг інформації, особливо, яка містить персо-
тем ШІ стало об’єктом численних дискусій і до- нальні дані, потрібно зменшити до мінімального
сліджень останніми роками. Важливо зазначити, рівня. Можна збирати лише ті дані, які забезпе-
чують досягнення цілей їх обробки58. З’ясувати,

51 Стаття 6 Закону України «Про захист персональних да-


них». 55 Blueprint for an AI Bill of Rights: A Vision for Protecting Our
52 Generative AI: eight questions that developers and users Civil Rights in the Algorithmic Age. Режим доступу: https://
need to ask. Режим доступу: https://ico.org.uk/about-the-ico/ www.whitehouse.gov/ostp/news-updates/2022/10/04/
media-centre/blog-generative-ai-eight-questions-that- blueprint-for-an-ai-bill-of-rightsa-vision-for-protecting-our-
developers-and-users-need-to-ask/ civil-rights-in-the-algorithmic-age/
53 Garante per la protezione dei dati personali. 56 Стаття 5 GDPR.
54 Chat GPT : Garante privacy, limitazione provvisoria sospesa 57 Information Commissioner’s Office «Guidance on AI and
se OpenAI adotterà le misure richieste. L’Autorità ha dato tempo data protection». Режим доступу: https://ico.org.uk/for-
alla società fino al 30 aprile per mettersi in regola. Режим до- organisations/uk-gdpr-guidance-and-resources/artificial-
ступу: https://www.garanteprivacy.it/home/docweb/-/ intelligence/guidance-on-ai-and-data-protection/
docweb-display/docweb/9874751#english 58 Стаття 9 GDPR.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 21


3. МІЖНАРОДНІ ПРИНЦИПИ

чи дотримано цей принцип, можна за допомо- лише на випадок, що вони можуть стати в при-
гою таких питань: годі в майбутньому.

y Чи дані збираються тільки для досягнення У контексті систем ШІ виникають певні викли-
конкретних цілей (немає надлишкових да- ки, пов’язані з принципом мінімізації даних,
них)? оскільки часто технології вимагають значного
y Чи здійснюється аналіз обсягу даних? обсягу інформації. Серед можливих підходів
y Чи існує процедура видалення надлишко- для забезпечення відповідності цьому принци-
вих даних? пу в системах ШІ особливу увагу слід приділи-
ти плануванню обробки даних. Експерти з
Наприклад, якщо формується база персональ- юридичної та технічної сфер повинні спільно
них даних (номери телефонів, електронні визначати належні обсяги даних, враховуючи
адреси тощо) для організації навчального кур- конкретний контекст подальшого їх викори-
су, автоматичної розсилки матеріалів та оцінки стання. Системи ШІ здатні досягати більшої
результатів, то не потрібно додатково збирати статистичної точності при використанні різних
адреси місця реєстрації проживання людей. У інформаційних джерел. Проте такий підхід од-
разі, якщо така інформація збирається, це по- ночасно може збільшувати ризик порушення
трібно обґрунтувати. Іншими словами, прин- приватності осіб. Тому важливо знаходити ба-
цип полягає в тому, що не варто збирати дані ланс між цими аспектами.

22 Права людини в епоху штучного інтелекту: виклики та правове регулювання


4. БЕЗПЕЧНІ ТА НАДІЙНІ
ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ

У попередніх розділах було розглянуто питан- 4.1. ПОПЕРЕДНІ КОНСУЛЬТАЦІЇ


ня щодо впливу новітніх технологій ШІ на права ТА ТЕСТУВАННЯ
людини та міжнародні принципи, підходи та
методи їх правового регулювання. Далі —буде Якщо мова йде про технології ШІ, які мають зна-
зосереджено увагу на важливих заходах щодо чний вплив на права людини, тоді на етапі роз-
управління інтелектуальною системою. Іншими роблення, впровадження, розгортання або
словами, буде надано роз’яснення, які необхід- придбання системи варто проводити попе-
но прийняти рішення, щоб технології ШІ були редні консультації, які передбачають залучення
безпечними та відповідали вимогам законодав- експертів у різних сферах прав людини, зокре-
ства.59 ма з питань конфіденційності.

Звичайно, може постати питання про комер-


ційну таємницю в приватному секторі або дер-
жавну таємницю, що обмежує доступ до ін-
формації широкому загалу. Але це не має
означати, що технологію розробляють, впрова-
джують, а потім суспільство повинно вивчати
наслідки. Розробники або ті, хто впроваджує
ШІ, спочатку повинні переконатися, що іннова-
ції безпечні для суспільства. У разі виникнення
негативних інцидентів довести, що отримали
достатньо висновків зовнішніх експертів, що
можна запускати такий проєкт. Тестування
систем ШІ перш за все допомагає ідентифіку-
вати ризики щодо порушення прав людини. На-
приклад, дискримінацією або порушенням
приватності. Під час аналізу системи впродовж
тестування можна виявити проблеми та вжити
заходи для їх виправлення ще перед впровад-
женням.

59 Комітети по всьому світу, наприклад Спеціальний комі-


тет Ради Європи зі штучного інтелекту, нині працюють над
створенням нормативної бази та кодексів етики для рішень на
базі ШІ. Слід використовувати їхні висновки, а також інші від-
повідні керівні принципи щодо прав людини.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 23


4. БЕЗПЕЧНІ ТА НАДІЙНІ ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ

4.2. СИСТЕМНИЙ МОНІТОРИНГ Й 4.3. АНАЛІЗ СТАТИСТИЧНОЇ


АДАПТАЦІЯ ТОЧНОСТІ Й АКТУАЛЬНОСТІ
ДАНИХ
Після впровадження ШІ необхідно здійснювати
системний моніторинг для виявлення проблем, Статистична точність належить до питань, які
що можуть виникнути в реальних умовах екс- дані система ШІ вважає правильними або не-
плуатації. Зокрема, виявити ті ризики, які не правильними. Важливо зауважити, що слово
були ідентифіковані під час тестування. Моні- «точність» має різне значення в контексті захи-
торинг повинен включати безперервне оціню- сту персональних даних. Точність у законодав-
вання шкоди, оновлення систем або перенав- стві про захист даних визначається як один з
чання моделей машинного навчання за фундаментальних принципів, який зобов’язує
потреби. Варто враховувати продуктивність як гарантувати, що персональні дані є точними та
технічних компонентів системи (алгоритм, а за потреби актуалізованими. Він вимагає вжи-
також будь-які апаратні компоненти, вхідні вання всіх розумних заходів, щоб переконати-
дані тощо), так і діяльність людини, яка, напри- ся, що персональні дані, які обробляються, не є
клад, виконує роль оператора системи. «невірними або оманливими щодо будь-якого
факту» і за потреби їх виправлено або видале-
Наприклад, компанія-розробник представила но. У широкому сенсі точність у контексті ШІ (і
проєкт ідентифікації осіб за допомогою ШІ в си- загалом у статистичному моделюванні) стосу-
стемах відеоспостереження. Під час тестуван- ється того, як часто система ШІ вгадує пра-
ня система показала хороші результати, пра- вильну відповідь, вимірювану на основі пра-
вильно розпізнавши обличчя в 99 % випадків. вильно позначених тестових даних. Тестові
Проте після впровадження такої технології в дані зазвичай відокремлюють від навчальних
реальному середовищі виявилося, що існують даних перед тренуванням або беруть з іншого
помилки за певними параметрами: погано джерела (або обох). Важливо, що в багатьох
освітлені обличчя або незвичайні кути огляду випадках відповіді, які дає система ШІ, будуть
тощо. Попри високу точність у тестових даних, персональними даними. Отже, у цьому доку-
система може виявитися менш ефективною в менті термін «точність» розуміється в контек-
реальних умовах через відмінності, які не були сті закону про захист даних; «статистична точ-
враховані під час навчання моделі. ність» — точності самої системи ШІ.

24 Права людини в епоху штучного інтелекту: виклики та правове регулювання


4. БЕЗПЕЧНІ ТА НАДІЙНІ ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ

Покращення статистичної точності висновків Загалом статистична точність як міра залежить


системи ШІ є однією з важливих вимог для за- від можливості порівняти результати висновків
безпечення дотримання принципу справедли- системи з деякою «реальною істиною». Скажі-
вості. Однак це не означає, що система ШІ по- мо, медичний діагностичний інструмент для
винна бути повністю статистично точною, щоб виявлення певних видів захворювання може
відповідати принципу точності. У багатьох ви- проводити оцінювання за допомогою якісних
падках висновки системи ШІ не призначені для тестових даних, що містять відомі результати
того, щоб їх розглядали як фактичну інформацію пацієнтів. У деяких інших галузях може бути не-
про особу. Натомість представляють статис- досяжна реальна істина, тому що немає якіс-
тично обґрунтовані припущення про те, що них тестових даних або тому, що те, що було
може бути правдою про особу зараз чи в май- класифіковано, засновано на суб’єктивних су-
бутньому. Щоб уникнути неправильного тлу- дженнях (наприклад, який саме пост у соціаль-
мачення таких персональних даних як фактич- них медіа образливий тощо).
них, потрібно забезпечити, щоб у записах (або
внутрішніх документах) було вказано, що вони Неправильне розуміння статистичної точності
є статистично обґрунтованими припущеннями, може призвести до того, що ШІ будуть сприй-
а недостовірними фактами. Записи повинні матися як надзвичайно точні, хоча насправді
містити інформацію про походження даних, а вони просто відображають середні оцінки з
також систему ШІ, що використовувалася для набору людських міток, а не об’єктивну прав-
генерації результату. Якщо висновок був за- ду. Щоб уникнути цього, важливо відзначати,
снований на неточних даних або система ШІ, що висновки ШІ не повинні вважатися безапе-
використана для його створення, має статис- ляційною істиною. Навіть якщо система має
тичний дефект, це може вплинути на якість ре- високу статистичну точність щодо наявних да-
зультату.60 них, це не означає, що вона буде так само
ефективно працювати, наприклад, якщо змі-
Законодавство у сфері захисту даних, зокрема ниться певні характеристики групи осіб або їх
GDPR61, визначає статистичну точність у контек- застосують до іншої групи в майбутньому. Ро-
сті профілювання та автоматизованого ухвален- бота ШІ може змінитися через різні чинники, і
ня рішень. Тобто організації повинні застосовува- вона може стати менш статистично точною із
ти «відповідні математичні та статистичні часом.
процедури» для профілювання осіб як частину
своїх технічних заходів і забезпечити виправлен- Тому необхідно регулярно оцінювати такі
ня будь-яких факторів, які можуть призвести до «зміщення» та перенавчати модель на нових
неточностей у персональних даних, щоб мінімі- даних, якщо в цьому виникне потреба. Треба
зувати ризик помилок. Якщо системи ШІ вико- уникати «забруднення» системи застарілими,
ристовуються для підготовки висновків про лю- неточними або помилковими даними, які мо-
дей, тоді необхідно подбати, щоб система мала жуть викривлювати або погіршувати результа-
достатню статистичну точність для таких цілей. ти її роботи62.

60 Under specification Presents Challenges for Credibility in


Modern Machine Learning. Режим доступу: https://arxiv.org/
pdf/2011.03395.pdf
61 Regulation (EU) 2016/679 of the European Parliament and
of the Council of 27 April 2016 on the protection of natural
persons with regard to the processing of personal data and on
the free movement of such data and repealing Directive 95/46/ 62 Information Commissioner’s Office «Guidance on AI and
EC (General Data Protection Regulation) (Text with EEA data protection». Режим доступу: https://ico.org.uk/for-
relevance). Режим доступу: https://eur-lex.europa.eu/eli/ organisations/uk-gdpr-guidance-and-resources/artificial-
reg/2016/679/oj intelligence/guidance-on-ai-and-data-protection/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 25


4. БЕЗПЕЧНІ ТА НАДІЙНІ ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ

4.4. ПОШУК І ЗАБЕЗПЕЧЕННЯ y робити оцінювання якості наборів даних,


ЯКОСТІ ДАНИХ які використовуються для навчання систе-
ми;
Важливо звернули увагу на джерела даних, які y регулярно оновлювати дані, які використо-
використовуються для навчання моделей ШІ, а вуються для навчання системи;
також враховувати низку факторів, включаючи y мати окремі набори даних для навчання,
точність, репрезентативний характер і закон- тестування та перевірки процесу ухвален-
ність. У цьому контексті потрібно розглянути ня рішень.
такі питання:
Водночас за можливості застосовувати інстру-
y Які джерела даних використовуються для менти анонімізації. Тобто визначати, чи необ-
навчання моделі ШІ? хідно, щоб дані, які використовуються, були
y Як і від кого було отримано дані? пов’язані з конкретною особою. Якщо в цьому
y Яку частку даних отримано із загальнодо- немає потреби, тоді краще використовувати
ступних джерел для навчання ШІ? анонімізовану інформацію, де особу не можна
y На якій правовій підставі здійснюється збір ідентифікувати. Таким чином, це дозволить
і подальша обробка даних? зменшити ризики, пов’язані з обробкою та захи-
y Яким чином оцінюється зміст вихідних да- стом персональних даних у проєктах і проце-
них — вручну або автоматично? сах ШІ64.
y Чи вихідні дані є репрезентативними, не-
упередженими та забезпечено захист від
несанкціонованого використання?

Наприклад, Комісія із захисту персональних


даних Сінгапуру додатково рекомендує роз-
глянути питання для кращого розуміння якості
набору навчальних даних для підвищення точ-
ності та продуктивності моделі ШІ, а саме:

y Чи вихідні дані містять інформацію, захище-


ну авторським правом?
y Чи вихідні дані містять особисту інформа-
цію?63

Одним з ризиків при розробленні та викорис-


танні ШІ є ризик упередженості, який може
бути викликаний попередньою конфігурацією
алгоритму та якістю зібраних даних. Для того,
щоб мінімізувати його, дані, які використову-
ються, повинні бути перевіреними та точними.
Тому рекомендується:

y вести запис про походження даних;


y проводити аудит наборів даних, які вико-
ристовуються при створенні алгоритмів;

63 Proposed advisory guidelines on use of personal data in ai


recommendation and decision systems, 2023. Режим доступу: 64 General Recommendations for the Processing of Personal
https://www.pdpc.gov.sg/-/media/files/pdpc/pdf-files/ Data in Artificial Intelligence. Document approved by the
legislation-and-guidelines/public-consult-on-proposed-ag- Entities member of the Ibero-American Data Protection
on-use-of-pd-in-ai-recommendation-and-systems-2023-07- Network in the 21 June 2019 session in Naucalpan de Juárez,
18-draft-advisory-guidelines.pdf Mexico.

26 Права людини в епоху штучного інтелекту: виклики та правове регулювання


4. БЕЗПЕЧНІ ТА НАДІЙНІ ТЕХНОЛОГІЇ ШТУЧНОГО ІНТЕЛЕКТУ

4.5. СИСТЕМА інших характеристик машини65. Те саме стосу-


ВІДПОВІДАЛЬНОСТІ ється систем, які працюють на основі персо-
нальних даних й ухвалюють рішення, які мають
Якщо в автоматизованій системі стануться по- вплив на права людини.
милки, тоді це може призвести до компромета-
ції, втрати або некоректної обробки інформації. У зв’язку із цим, важливо розглянути питання
Тому важливо мати чітку систему відповідаль- щодо юрисдикції, тобто визначення повнова-
ності для осіб, які розробляють, впроваджують жень і компетенції судових або наглядових ор-
або використовують системи ШІ. Наразі в ганів у розгляді справ, пов’язаних зі ШІ. Зокрема
Україні немає прямих положень у законодав- визначення суб’єктів юрисдикції, наприклад
стві, які б вимагали звітувати суб’єктів, відпові- розробники, постачальники, користувачі сис-
дальних за розроблення або використання ШІ, тем тощо. Сфери застосування — види діяльно-
як і механізму контролю за такими системами. сті або ситуації. З огляду на транснаціональний
Водночас варто розглянути міжнародну прак- характер сучасних технологій також важливо
тику, оскільки законодавча регуляція може визначити, які законодавчі положення мають
слугувати захистом інтересів громадян, бізне- застосовуватися при розгляді справ, що мають
су та держави, гарантуючи, що технології сис- міжнародний аспект або вплив.
теми ШІ використовуються етично, прозоро та
відповідально. Отже, коли мова йде про безпеку й надійність
систем ШІ, то необхідно мати відповіді на такі
Серед поширених прикладів у контексті етич- питання: що буде у разі непередбаченого сце-
ного та відповідального використання ШІ по- нарію? Надійність і безпека — це комплекс пи-
стає питання: хто буде нести відповідальність, тань «а що, якщо…?». Сценарії надійності, реак-
якщо автономний автомобіль потрапить у ДТП і ції механізму мають бути повністю опрацьовані
буде завдано шкоду пішоходу? Розробник авто- й передбачені. Також важливо розуміти, яким
мобіля або програмного забезпечення, яке дало чином людина зможе в разі потреби втрутити-
можливість ухвалювати рішення? Конструктор ся в систему. Надійність системи ШІ повинна
датчиків, які використовуються для сприйняття бути доведена протягом усього її життєвого
навколишнього середовища? Державна влада, циклу за допомогою аудитів.66
яка дозволила пересування на дорогах такого
транспортного засобу? Питання про відпові-
дальність, якщо ШІ працює автономно, — най-
більш дискусійне серед правників. Хтось вва-
жає, якщо подія викликана дефектами
конструкції, тоді питання до виробника. Якщо 65 Several initiatives are aiming at proposing guidelines and
principles for the ethical and responsible development and use
стався програмний збій — до розробника. Якщо of AI (see e. g. IEEE Ethically Aligned Design, the Asilomar
так було запрограмовано від початку, тоді до principles, the UNI Global Union reflection on the future of work,
the Barcelona declaration, or the EESC opinion, just to cite a
тих, хто його навчив або запустив і так далі. Де- few).
хто вважає, що всі перелічені суб’єкти одночас- 66 Blueprint for an AI Bill of Rights: A Vision for Protecting Our
но. У кожному разі має бути правова основа для Civil Rights in the Algorithmic Age. Режим доступу: https://
www.whitehouse.gov/ostp/news-updates/2022/10/04/
розв’язання цього питання та вироблені відпо- blueprint-for-an-ai-bill-of-rightsa-vision-for-protecting-our-
відні підходи залежно від ступеня небезпеки й civil-rights-in-the-algorithmic-age/

Права людини в епоху штучного інтелекту: виклики та правове регулювання 27


5. ЗАБЕЗПЕЧЕННЯ
ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

Як вже було зазначено раніше, більшість сучас- 5.1. ПРОЄКТУВАННЯ СИСТЕМИ


них технологій ШІ передбачають обробку пер- ЗАХИСТУ ПЕРСОНАЛЬНИХ
сональних даних. Це означає, що один із сер- ДАНИХ
йозних ризиків полягає в порушенні права
людини на приватність. Неправомірна або по- Усі суб’єкти, що обробляють персональні дані,
милкова обробка конфіденційної інформації повинні спроєктувати належну систему їх за-
про фізичну особу в системах ШІ може призве- хисту — privacy by design і privacy by default.
сти до негативних для неї наслідків. Терміни privacy by design68 і privacy by default 69
розробила екскомісарка з питань інформації та
Тому зацікавлені сторони, включаючи організа-
ції чи окремих осіб, які розробляють, розгорта-
ють або використовують ШІ, повинні забезпе-
чити захист персональних даних протягом 68 Privacy by design (дизайн приватності) — означає, що
особа, яка збирає дані, зобов’язана вбудувати систему їх за-
усього його життєвого циклу системи67. Зо- хисту в усі процеси своєї діяльності ще на ранньому етапі їх
крема, зберігати справедливий баланс між ін- проєктування і повинна підтримувати таку систему безпе-
тересами, через які була створена інтелекту- рервно й надалі. По суті, у законі робиться акцент на превен-
ції всіх можливих ризиків, наприклад витоку даних.
альна система, і правами та свободами осіб, на 69 Privacy by default (конфіденційність за замовчуванням) —
чиї дані ця система впливає. означає, що особам, чиї дані обробляються, не потрібно вжи-
вати жодних дій для захисту своєї конфіденційності, бо це має
бути забезпечено за замовчуванням. Тобто в діяльність орга-
нізацій повинні бути імплементовані відповідні технічні та ор-
67 Забезпечити право людини на повагу до приватного та ганізаційні заходи безпеки інформації. Тут доречно згадати
сімейного життя відповідно до статті 8 Європейської конвен- принцип мінімізації даних: що менше даних організація збирає
ції з прав людини і основоположних свобод. й обробляє, то менший ризик порушення закону.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 29


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

конфіденційності провінції Онтаріо70 Енн Ка- моделі (LLM) — це ChatGPT, Luminous або
вукян71. У 2009 році вона опублікувала доку- Bard. У багатьох установах такі інструменти
мент, де пояснила, що «вбудована конфіденці- тепер стали частиною повсякденного робочо-
йність» означає, що компанії повинні активно го процесу, але часто їх використання не вре-
розглядати питання захисту даних протягом гульовано. Той факт, що мовні моделі зазвичай
усього циклу їх обробки (full lifecycle працюють у хмарі, несе різні ризики порушення
protection): від збору інформації до її видален- захисту персональних даних. Тому Комісар з
ня. Починати роботу потрібно ще на етапі про- питань захисту даних і свободи інформації у
єктування, гарантувавши, що всі дані надійно Гамбурзі опублікував72 у листопаді 2023 року
зберігаються, а потім своєчасно знищуються. контрольний список питань щодо використан-
Принципи privacy by design і privacy by default ня чат-ботів на основі великих мовних моделей
ухвалені більшістю країн як стандарт у сфері (LLM) відповідно до вимог законодавства про
захисту даних. Так, у статті 25 GDPR визначено: захист персональних даних. У цьому документі
виділено ключові аспекти, які необхідно врахо-
«Зважаючи на сучасний рівень розвитку, ви- вувати при використанні чат-ботів на базі LLM,
трати на реалізацію, специфіку, обсяг, кон- у тому числі:
текст і цілі обробки, а також ризики різної
ймовірності та тяжкості для прав і свобод y формулювання чітких внутрішніх інструк-
фізичних осіб, які може спричинити обробка, цій про те, коли та за яких умов слід вико-
контролер повинен, у момент визначення за- ристовувати генеративні інструменти ШІ;
собів обробки та в момент власне обробки, y залучення спеціаліста із захисту даних
вжити необхідних технічних і організаційних (DPO) для розробки внутрішніх інструкцій,
заходів, таких як використання псевдонімів, організації відповідних процесів з оцінки
призначених для результативної реалізації впливу на захист даних (DPIA);
принципів захисту даних, зокрема, мінімізації y забезпечення конфіденційності даних у ре-
даних, і включення необхідних гарантій до зультатах роботи ШІ;
обробки для досягнення відповідності вимо- y усунення ризиків щодо витоків даних, упе-
гам цього Регламенту та забезпечення захи- редженості та дискримінації у результатах
сту прав суб’єктів даних. Контролер повинен роботи ШІ тощо.
вжити відповідних технічних і організаційних
заходів для гарантування того, що за замов- Отже, законодавство, зокрема GDPR, зобов’я-
чуванням буде здійснювати обробку лише зує забезпечити право людини на захист пер-
тих персональних даних, які є необхідними сональних даних на кожному етапі їх обробки,
для кожної спеціальної цілі обробки. Такий починаючи з проєктування продукту або по-
обов’язок застосовують до кількості зібраних слуги ШІ. Підхід «конфіденційність за допомо-
персональних даних, ступеня їхньої обробки, гою дизайну» використовується скоріше для
періоду їхнього зберігання та їхньої доступ- запобігання ризикам, а не усунення наслідків.
ності». Іншими словами, люди не повинні доводити
своє право на недоторканість приватного
Наприклад, генеративний ШІ у вигляді чат-бо- життя, воно повинно захищатися за замовчу-
тів пропонує можливість швидко та легко ство- ванням.73
рювати різний контент. Відомі великі мовні

72 Checklist for the use of LLM-based chatbots. Режим до-


ступу: https://datenschutz-hamburg.de/fileadmin/user_
upload/HmbBfDI/Datenschutz/Informationen/20231113_
Checklist_LLM_Chatbots_EN.pdf
73 Посібник «Аналіз ризиків під час обробки персональних
70 Онтаріо — провінція на центральному сході Канади. даних: що важливо знати?». Детальніше з методологією оці-
71 Ann Cavoukian, Ph.D. Privacy by Design. The 7 Foundational нювання ризиків можна ознайомитися за посиланням: https://
Principles. Режим доступу: https://www.ipc.on.ca/wp- decentralization.gov.ua/uploads/library/file/774/Posibnyk_
content/uploads/resources/7foundationalprinciples.pdf ocinka-ryzykiv-ZPD.pdf

30 Права людини в епоху штучного інтелекту: виклики та правове регулювання


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

5.2. ОЦІНЮВАННЯ РИЗИКІВ опрацювання персональних даних відповідає


цьому Регламенту»77.
Оцінювання ризиків — важлива складова про-
єктування системи захисту персональних да- Іншими словами, законодавець наголошує, що
них та процесу обробки інформації за допомо- DPIA — це систематичний процес, який має
гою ШІ. Мова йде як про технічний захист бути інтегрований на постійній основі. Тобто
систем, суті роботи (уточ. для чого використо- кожна установа чи організація повинна розро-
вується ШІ), так і дотримання положень законо- бити свою методологію, яка буде враховувати
давства про захист персональних даних. Від- специфіку її діяльності та потреби в оцінюванні
повідно до міжнародних положень74 фізичні ризиків. Загалом головна мета цього процесу
або юридичні особи, які здійснюють обробку — відповісти на питання:
персональних даних, повинні проводити оці-
нювання ризиків75, щоб передбачити ситуації, y Які існують загрози?
які можуть нести загрози для прав і свобод лю- y Які джерела їх виникнення?
дини ще до початку їх настання. y Які наслідки можуть настати?
y Що потрібно зробити, щоб їх усунути?
Цей процес може відбуватися різними спосо-
бами й стосуватися як технічної частини робо- Оцінювання потрібно робити, якщо запускаєть-
ти системи (див. Розділ 4), так і організаційних ся новий проєкт, з’являються нові цілі та збира-
процесів. Наприклад, у європейському законо- ється інший вид даних, зокрема, яка належить
давстві оцінювання впливу на захист персо- до спеціальної категорії; змінюється програмне
нальних даних, або Data Protection Impact забезпечення за допомогою якого здійснюва-
Assessment (далі — DPIA), — це процедура, пе- лася обробка інформації тощо. Окрім цього,
редбачена статтею 35 GDPR, а також іншими провести оцінювання варто в таких ситуаціях:
документами, які визначають міжнародні стан-
дарти безпеки даних76. DPIA — це процес, по- y Об’єднання декількох баз даних в одну (що
кликаний допомогти аналізувати, виявляти й не рекомендовано робити, оскільки агре-
мінімізувати ризики для персональних даних гація баз даних може нести багато загроз).
під час їх обробки. Невиконання DPIA, коли це y Створення нових баз даних або впрова-
обов’язково, може призвести до притягнення дження нових процесів обробки інформа-
до відповідальності. Наприклад, пунктом 84 ції.
GDPR визначено, що «…контролер повинен не- y Залучення нових сторін. Наприклад, реалі-
сти відповідальність за проведення оцінювання зація проєктів з використанням сторонніх
впливу на захист даних з метою визначення, зо- постачальників.
крема, походження, специфіки, особливості та y Додавання нових функцій у наявний про-
ступеня тяжкості такого ризику. Необхідно дукт або послугу.
враховувати результати оцінювання під час ви-
значення належних заходів, яких необхідно У чинному українському законодавстві немає
вжити для підтвердження того, що зобов’язань щодо типів обробки, які підлягають
оцінюванню, але європейські стандарти, на які
має орієнтуватися Україна, такий перелік міс-
тять. Так, наприклад, у статті 35 (3) GDPR визна-
чено три типи обробки, для яких завжди по-
74 Standards ISO-29134 «Guidelines for privacy impact
assessment», ISO-31000 «Risk management. Principles and трібно DPIA:
guidelines», ISO-31010 «Risk management. Risk assessment
techniques».
Систематичне й масштабне профілювання фізич-
75 Під поняттям «ризик» мається на увазі сценарій, що опи-
сує подію, її причини та наслідки, а також оцінюється з погляду них осіб: (А) «систематичного та масштабного
складності та ймовірності.
76 «The Practical Guide for Data Protection Impact
Assessments subject to the GDPR» published by the AEPD.
Standards ISO-29134 «Guidelines for privacy impact 77 Офіційний переклад Регламенту Європейського парла-
assessment», ISO-31000 «Risk management. Principles and менту і Ради (ЄС) 2016/679 про захист фізичних осіб у зв’язку з
guidelines» and ISO-31010 «Risk management. Risk assessment опрацюванням персональних даних і про вільний рух таких
techniques». даних, та про скасування Директиви 95/46/ЄС.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 31


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

оцінювання персональних аспектів, що стосу- y Якщо обробка даних має такий характер,
ються фізичних осіб, яке ґрунтується на автома- що витік цієї інформації може нести загрозу
тизованому опрацюванні, в тому числі профай- для здоров’я або фізичної безпеки людей80.
лінгу, та на якому ґрунтуються рішення, що мають y Застосовується масштабне профілювання
юридичні наслідки щодо фізичної особи чи подіб- людей81.
ним чином істотно впливають на фізичну особу».
Згідно із Законом про цифрові послуги (Digital
y Широкомасштабного опрацювання спеці- Services Act, DSA), який у 2022 році набув чин-
альних категорій даних: (B) «широкомасш- ності в ЄС, передбачені спеціальні положення
табного опрацювання спеціальних катего- для великих онлайн-платформ або пошукових
рій даних, вказаних у статті 9 (1), та систем — Very Large Online Platforms (VLOP) та
персональних даних про судимості і кримі- Very Large Search Engines (VLSE), що налічують
нальні злочини, вказані в статті 10». понад 45 мільйонів користувачів. Такі суб’єкти
y Громадський моніторинг: (C) «систематич- зобов’язані щороку проводити широкомасш-
ного та широкомасштабного моніторингу табне оцінювання ризиків можливого негатив-
зони, що знаходиться у відкритому досту- ного впливу їхніх сервісів, наприклад, щодо до-
пі»78. ступу до нелегальних товарів, контенту чи
поширення дезінформації. Окрім того, VLOP і
Відповідно до статті 29 GDPR особа, що збирає VLSE повинні проводити всеосяжний аналіз
дані, встановлює відповідні інструкції для їх об- загроз для основоположних прав людини і гро-
робки та захисту. Робоча група органів ЄС у мадянина. Наприклад, у зв’язку із цим у компанії
сфері захисту персональних даних опублікува- Google заявили, що внесли низку змін до своєї
ла79 керівні принципи, які можуть виступати ін- політики. Зокрема, розширено доступ [регуля-
дикаторами обробки з високим ступенем ри- торів] до даних, що стосуються ведення адрес-
зику, наприклад, коли: них рекламних кампаній, а також розкрито
більше інформації про модерування сервісів і
y Обробка персональних даних здійснюєть- пошукових систем. У компанії Meta повідомили
ся за допомогою інноваційних технологій, про те, що Facebook та Instagram припинили
зокрема ШІ. вести рекламні кампанії, націлені на підлітків.
y Застосовується автоматизоване ухвален-
ня рішень. Разом з тим, якщо проаналізувати рекомендації
y Обробка медичних, біометричних або ге- державних регуляторів у сфері захисту персо-
нетичних даних (окрім випадків, коли це нальних даних у європейських країнах, то біль-
здійснюється медичними працівниками для шість з них наголошує, що навіть якщо обробка
надання допомоги людині). даних за допомогою систем ШІ не належить до
y Обробка, яка включає відстеження геоло- категорій високого ризику, де закон зобов’язує
кації або поведінки людини, включаючи, ок- здійснювати DPIA, з урахування розвитку тех-
рім іншого, онлайн-середовище. нологій й того, що ще немає остаточного розу-
y Обробка персональних даних дитини, зо- міння реального впливу на права і свободи
крема в маркетингових цілях.

80 Приклади операцій, що вимагають DPIA, та які критерії є


високим ризиком в поєднанні з іншими, що «можуть призве-
сти до високого ризику». Режим доступу: https://ico.org.uk/
for-organisations/uk-gdpr-guidance-and-resources/
accountability-and-governance/data-protection-impact-
assessments-dpias/examples-of-processing-likely-to-result-
78 Офіційний переклад Регламенту Європейського парла- in-high-risk/
менту і Ради (ЄС) 2016/679 про захист фізичних осіб у зв’язку з 81 Профілювання означає будь-яку форму автоматизованої
опрацюванням персональних даних і про вільний рух таких обробки персональних даних, що складається з використання
даних, та про скасування Директиви 95/46/ЄС. особистої інформації людини для оцінювання певних аспектів,
79 Guidelines on Data Protection Impact Assessment (DPIA) наприклад, що стосуються її роботи, соціального статусу,
(wp248rev.01). Режим доступу: https://ec.europa.eu/ здоров’я, особистих уподобань, місцезнаходження, перемі-
newsroom/article29/items/611236 щення тощо.

32 Права людини в епоху штучного інтелекту: виклики та правове регулювання


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

людини, усе одно варто робити оцінювання ризиків83. Оскільки проєкти використання ШІ
ризиків82. дуже різні, у тому числі різні цілі та процеси об-
робки персональних даних, має бути складена
Процес оцінювання ризиків можна здійснювати індивідуальна адаптована методологія оціню-
в декілька етапів. Наприклад, спочатку — проа- вання ризиків, з розбивкою на етапи застосу-
налізувати напрями роботи у сфері обробки вання технології. Для виконання цього процесу
персональних даних загалом. Далі — визначи- можна залучати сторонніх експертів, які мають
ти, для чого потрібно проводити цю процеду- відповідну кваліфікацію в цій сфері. З огляду на
ру, адже від мети аналізу буде залежати сце- складний і динамічний характер ШІ, це не тіль-
нарій і зміст його методології, а також те, ки допоможе ефективно долати виклики у сфе-
скільки треба часу, ресурсів і який очікуваний рі захисту даних, а ще й може слугувати конку-
результат. Для початку треба скласти методо- рентною перевагою.
логію оцінювання, сконцентровану саме цій ді-
яльності. Коли є детальний профіль суб’єкта
(тобто конкретної організації), визначена ціль і
методологія аналізу, настає етап оцінювання

83 Посібник «Аналіз ризиків під час обробки персональних


82 Information Commissioner’s Office «Guidance on AI and даних: що важливо знати?». Детальніше з методологією оці-
data protection». Режим доступу: https://ico.org.uk/for- нювання ризиків можна ознайомитися за посиланням: https://
organisations/uk-gdpr-guidance-and-resources/artificial- decentralization.gov.ua/uploads/library/file/774/Posibnyk_
intelligence/guidance-on-ai-and-data-protection/ ocinka-ryzykiv-ZPD.pdf

Права людини в епоху штучного інтелекту: виклики та правове регулювання 33


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

5.3. ВИЗНАЧЕННЯ ПІДСТАВ ДЛЯ дані, крім випадків, коли потреби захисту
ОБРОБКИ ПЕРСОНАЛЬНИХ основоположних прав і свобод суб’єкта
ДАНИХ персональних даних у зв’язку з обробкою
його даних переважають такі інтереси.
Якщо система ШІ передбачає обробку персо-
нальних даних, то така діяльність повинна бути Хоча використання ШІ принципово не відрізня-
обґрунтованою згідно із законом. Тобто має ється від іншої обробки даних, але все-таки іс-
бути правова основа. У статті 11 Закону Украї- нують деякі особливості. Наприклад, системи,
ни «Про захист персональних даних» визначе- засновані на машинному навчанні, потребують
ні підстави для обробки персональних даних: використання даних для навчання, перш ніж
вони будуть застосовуватися на етапі роботи.
1. згода суб’єкта персональних даних на об- За умови, що цей етап навчання дуже відрізня-
робку його персональних даних; ється від етапу оперативного впровадження
2. дозвіл на обробку персональних даних, на- системи ШІ. Його виняткова мета — підвищен-
даний володільцю персональних даних від- ня продуктивності системи ШІ. Водночас важ-
повідно до закону виключно для здійснен- ливо зазначити, що правова підстава як «нау-
ня його повноважень; кові дослідження» сама собою не може бути
3. укладення та виконання правочину, сторо- правовою основою для обробки. Тільки ті пра-
ною якого є суб’єкт персональних даних вові основи, що прямо перелічені в законі.84
або який укладено на користь суб’єкта
персональних даних чи для здійснення за- Важливо звернути увагу, якщо системи ШІ
ходів, що передують укладенню правочину впроваджує суб’єкт владних повноважень, то
на вимогу суб’єкта персональних даних; відповідно до статті 19 Конституції України
4. захист життєво важливих інтересів суб’єк- його посадові особи зобов’язані діяти лише на
та персональних даних; підставі, у межах повноважень і в спосіб, що
5. необхідність виконання обов’язку воло- передбачені Конституцією та законами Украї-
дільця персональних даних, який передба- ни. З огляду на це положення, наприклад, орга-
чений законом; ни державної влади або місцева влада, може
6. необхідність захисту законних інтересів здійснювати обробку персональних даних
володільця персональних даних або тре- (будь-яка дія або сукупність дій) лише за наяв-
тьої особи, якій передаються персональні ності повноважень, законної підстави й об-
ґрунтованої мети та в спосіб, передбачений
законом. Тобто не потрібно отримувати згоду
суб’єкта персональних даних у тих випадках,
коли дозвіл на збір інформації прямо передба-
чений законом. Водночас недостатньо мати
повноваження, має бути обґрунтована мета та
чітка процедура.

У європейському законодавстві правові під-


стави для обробки персональних даних викла-
дені в статті 6 GDPR:

1. суб’єкт даних надав згоду на обробку своїх


персональних даних для однієї чи декіль-
кох спеціальних цілей;

84 Національна комісія з інформаційних технологій та гро-


мадянських свобод Франції (CNIL). Режим доступу: https://
www.cnil.fr/fr/intelligence-artificielle/ia-comment-etre-en-
conformite-avec-le-rgpd

34 Права людини в епоху штучного інтелекту: виклики та правове регулювання


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

2. для виконання контракту, стороною якого 5.4. ВИЗНАЧЕННЯ ЦІЛЕЙ ДЛЯ


є суб’єкт даних, або для вжиття дій на за- ОБРОБКИ ПЕРСОНАЛЬНИХ
пит суб’єкта даних до укладення договору; ДАНИХ
3. для дотримання встановленого законом
зобов’язання, яке поширюється на контро- Система ШІ, заснована на використанні персо-
лера85; нальних даних, завжди має розроблятися, на-
4. для того, щоб захистити життєво важливі вчатися та розгортатися із чітко визначеною
інтереси суб’єкта даних або іншої фізичної метою (цілями). Її потрібно встановити ще до
особи; розроблення проєкту (продукту чи послуги).
5. для виконання завдання в суспільних ін- Чітке усвідомлення того, навіщо здійснюється
тересах або здійснення офіційних повно- обробка конкретної інформації, необхідна для
важень, покладених на контролера; реалізації принципу «обмеження мети» та за-
6. для цілей законних інтересів контролера безпечення справедливості, законності й про-
або третьої сторони, окрім випадків, коли зорості обробки персональних даних, зокрема
над такими інтересами переважають інте- визначення необхідного рівня їх захисту.
реси фундаментальних прав і свобод
суб’єкта даних, що вимагають охорони Згідно з принципом «обмеження мети» потріб-
персональних даних, особливо, якщо но заздалегідь визначити, обґрунтувати та до-
суб’єктом даних є дитина86. кументально закріпити реальні підстави й мету
збору даних, адже надалі це стане запобіжни-
Як вирішити, коли застосовується законна під- ком проти їх використання в незаконних цілях.
става? Це залежить від конкретних цілей і кон- Наприклад, перш ніж встановити системи ві-
тексту обробки. Водночас досить часто засто- деоспостереження з технологіями ШІ, необхід-
совуються декілька підстав, усе залежить від но визначити мету й переконатися, що вона є
конкретного випадку обробки даних. Жодна з законною. А також те, що досягнення цієї мети
перелічених основ не може вважатися кращою неможливе іншим способом, якій передбачає
або важливішою, ніж інші. Перед тим, як впро- меншу ступінь втручання у приватність. Неод-
ваджувати технології на основі персональних нозначні або загальні описи на кшталт «для
даних, варто подумати про так званий трие- кращого виконання покладених завдань» не-
тапний тест, де потрібно: достатні. Окрім того, слід переконатися, що
персональні дані згодом не будуть використані
y визначити правову підставу; для непередбачених цілей або неправомірно
y переконатися, що обробка необхідна для передані третім особам, що не мають санкціо-
досягнення конкретної мети; нованого доступу.
y збалансувати з інтересами, правами та
свободами особи87. Персональні дані можуть оброблятися для до-
сягнення визначених реальних цілей, при цьо-
му такі цілі мають бути максимально конкрети-
85 Контролер означає фізичну чи юридичну особу, орган
зованими, досяжними та викладеними у
публічної влади, агентство чи інший орган, який самостійно чи внутрішніх документах (політиках), що регулю-
спільно з іншими визначає цілі та засоби опрацювання персо- ють роботу в цій сфері. Використання даних
нальних даних; якщо цілі та засоби такого опрацювання визна-
чаються законодавством Союзу чи держави-члена, контролер для реалізації додаткових чи нових завдань
або спеціальні критерії його призначення можуть бути перед- можливе, якщо:
бачені законодавством Союзу чи держави-члена (стаття 4
GDPR).
86 Офіційний переклад Регламенту європейського Парла- 1. Нова мета обробки персональних даних
менту і Ради (ЄС) 2016/679 від 27 квітня 2016 року про захист сумісна з метою первинною.
фізичних осіб у зв’язку з опрацюванням персональних даних і
про вільний рух таких даних, та про скасування Директиви
95/46/ЄС (Загальний регламент про захист даних (GDPR). Ре- У такому випадку нова правова підстава для
жим доступу: https://zakon.rada.gov.ua/laws/show/984_008-
16#Text роботи з даними не потрібна, проте оцінюван-
87 Information Commissioner’s Office «Guidance on AI and ня того, чи справді оновлена мета сумісна з по-
data protection». Режим доступу: https://ico.org.uk/for-
organisations/uk-gdpr-guidance-and-resources/artificial-
чатковою, має бути об’єктивним. Для цього не-
intelligence/guidance-on-ai-and-data-protection/ обхідно взяти до уваги такі фактори:

Права людини в епоху штучного інтелекту: виклики та правове регулювання 35


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

y наскільки первинна мета пов’язана з но- 5.5. ВИЗНАЧЕННЯ РОЛІ ПІД ЧАС
вою; ОБРОБКИ ПЕРСОНАЛЬНИХ
y контекст, у якому початково оброблялися ДАНИХ
персональні дані;
y специфіку та характер даних (наприклад, Розуміння ролі зацікавлених сторін ШІ у проце-
чи відносяться вони до особливої категорії сі обробки персональних даних необхідне для
тощо); визначення обсягу їх прав та обов’язків. Напри-
y вірогідність настання негативних наслідків клад, з огляду на міжнародну практику, велика
для осіб, чиї дані обробляються; увага зосереджена на рішеннях, які має ухва-
y можливість гарантування належного рівня лити саме володілець даних89. Зокрема про:
захисту обробки нової інформації.
y джерело та характер даних, що вико-
Наприклад, впровадження системи ШІ на ос- ристовуються для навчання моделі ШІ;
нові машинного навчання здійснюється пое- y цільовий результат моделі (що передбача-
тапно. Спочатку відбувається навчання, що пе- ється або класифікується);
редбачає проєктування, розроблення системи y загальні види алгоритмів машинного нав-
ШІ. Далі — оперативне розгортання системи чання, які будуть використовуватися для
ШІ, отриманої на першому етапі. З погляду за- створення моделей з даних (наприклад,
хисту персональних даних ці два кроки не від- нейронні мережі);
повідають одній й тій самій цілі й тому мають y вибір ознак, які можуть використовуватися
бути розділені. У двох випадках цілі обробки в кожній моделі;
персональних даних мають бути окремо визна- y ключові параметри моделі (наприклад, на-
чені, бути чіткими та мати законні підстави88. скільки складним може бути дерево рі-
Скажімо, системи розпізнавання обличчя мож- шень або скільки моделей буде включено в
на використовувати для багатьох цілей, таких життєвий цикл);
як запобігання злочинності, або ж аутентифіка- y те, яким чином моделі будуть тестуватися
ція та позначення осіб у соціальних мережах. та оновлюватися: як часто, з використан-
Кожне із цих застосувань може вимагати іншої ням яких видів даних, як буде оцінюватися
законної підстави. постійна продуктивність тощо90.

2. З’явилася правова норма, яка вимагає чи Коли системи ШІ залучають кілька організацій
дозволяє обробку даних з новою метою. до обробки даних, визначити ролі може бути
складно. Можуть виникнути питання про типи
Наприклад, через відповідні зміни в законодав- сценаріїв, коли організація чи установа стане
стві повноваження органу збільшені, і він отри- володільцем даних. Наприклад, організація на-
мав право виконувати додаткові функції, пов’я- дає хмарний сервіс для зберігання даних, а та-
зані з обробкою персональних даних. кож набір загальних інструментів для машин-
ного навчання. Особи, які використовують цей
сервіс, за логікою закону будуть вважатися во-
лодільцями (контролером) даних, оскільки вони
вирішують, які дані й моделі використовувати,
параметри моделей і процеси їх оцінювання,

89 Володілець персональних даних (або згідно з GDPR —


контролер даних) — фізична або юридична особа, яка збирає
дані, визначає мету, встановлює спосіб та порядок їх обробки
та має у власності відповідне технічне обладнання. Це можуть
бути підприємства, установи й організації всіх форм власно-
сті, органи державної влади чи органи місцевого самовряду-
88 Таку ж позицію офіційно опублікувала Національна комі- вання, а також фізичні особи-підприємці.
сія з інформаційних технологій та громадянських свобод 90 Information Commissioner’s Office «Guidance on AI and
Франції (CNIL). Режим доступу: https://www.cnil.fr/fr/ data protection». Режим доступу: https://ico.org.uk/for-
intelligence-artificielle/ia-comment-etre-en-conformite-avec- organisations/uk-gdpr-guidance-and-resources/artificial-
le-rgpd intelligence/guidance-on-ai-and-data-protection/

36 Права людини в епоху штучного інтелекту: виклики та правове регулювання


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

тестування, оновлення тощо. Проте організа- 5.6. ЗАБЕЗПЕЧЕННЯ ПРАВ


ція, що надає сервіс, імовірно, є розпорядни- СУБ’ЄКТІВ ПЕРСОНАЛЬНИХ
ком (процесором), оскільки вона лише визна- ДАНИХ
чає технічні аспекти, конфігурацію зберігання
та архітектуру хмари тощо. Інший приклад, Проєктування системи захисту персональних
коли постачальник (розпорядник даних) запро- даних в технологіях ШІ вимагає чіткого розу-
понував інструмент для скринінгу резюме для міння та дотримання інформаційних прав лю-
оцінювання та відбору кандидатів на роботу й дини. Згідно закону кожна фізична особа має
для цього почав вимагати від володільця даних особисті немайнові права на свої персональні
багато інформації про кожного кандидата. дані. Зокрема91:
Якщо володілець закуповує таку систему, тоді
потрібно розглянути, чи можна виправдати 1. знати про джерела збирання, місцезнахо-
збір такого обсягу персональних даних від кан- дження своїх персональних даних, мету їх
дидатів, і якщо ні, запросити постачальника змі- обробки, місцезнаходження або місце про-
нити свою систему або знайти іншого. Ці при- живання (перебування) володільця чи роз-
клади вказують на складність визначення порядника персональних даних або дати
ролей, особливо коли залучено декілька відповідне доручення про отримання цієї
суб’єктів ШІ. Це підкреслює потребу чіткого інформації уповноваженим ним особам, ок-
розуміння відповідальності кожної сторони в рім випадків, встановлених законом;
межах законодавства про захист персональ- 2. отримувати інформацію про умови надання
них даних, а також додаткового дослідження доступу до персональних даних, зокрема
цього питання на конкретних практичних при- інформацію про третіх осіб, яким переда-
кладах. ються її персональні дані;

91 Стаття 8 Закону України «Про захист персональних да-


них».

Права людини в епоху штучного інтелекту: виклики та правове регулювання 37


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

3. на доступ до своїх персональних даних; y на яких правових підставах та з якою ме-


4. отримувати не пізніше як за тридцять кален- тою здійснюється обробка92.
дарних днів з дня надходження запиту, ок-
рім випадків, передбачених законом, відпо- Також питання можуть стосуватися інших тех-
відь про те, чи обробляються її персональні нічних та організаційних процесів обробки да-
дані, а також отримувати зміст таких персо- них: внутрішні політики, система безпеки, тер-
нальних даних; мін зберігання та видання, передача третім
5. пред’являти вмотивовану вимогу володіль- особам тощо). Якщо дані такої людини не об-
цю персональних даних із запереченням робляються, необхідно повідомити про це (за-
проти обробки своїх персональних даних; лишати запит без відповіді не можна). Якщо
6. пред’являти вмотивовану вимогу щодо змі- обробляються дані суб’єкта, тоді потрібно це
ни або знищення своїх персональних даних підтвердити.
будь-яким володільцем і розпорядником
персональних даних, якщо ці дані обробля- Якщо особа виявила бажання отримати доступ
ються незаконно чи є недостовірними; до своїх даних, то такий запит треба задоволь-
7. на захист своїх персональних даних від не- нити, окрім випадків визначених законом. Закон
законної обробки та випадкової втрати, України «Про захист персональних даних» не
знищення, пошкодження у зв’язку з умисним тільки гарантує право на доступ до своїх персо-
приховуванням, ненаданням чи несвоєчас- нальних даних, а й визначає такі засади отри-
ним їх наданням, а також на захист від на- мання доступу, як безоплатність (стаття 19 Зако-
дання відомостей, що є недостовірними чи ну) та невідкладність (стаття 17 Закону). Отже,
ганьблять честь, гідність та ділову репута- кожна особа за своїм бажанням повинна отри-
цію фізичної особи; мати можливість безперешкодно переглянути
8. звертатися зі скаргами на обробку своїх інформацію про себе, при цьому плата за це не
персональних даних до Уповноваженого береться. У такому випадку може виникнути пи-
або до суду; тання про обсяг даних. Це завжди варто уточ-
9. застосовувати засоби правового захисту в нювати. Важливо звернути увагу, що такий за-
разі порушення законодавства про захист пит може сприйматися як опис даних, тобто
персональних даних; того, яка інформація збирається. Згідно із зако-
10. вносити застереження стосовно обмежен- ном потрібно надати саме персональні дані як
ня права на обробку своїх персональних такі. Якщо це були заповнені анкети, наприклад
даних під час надання згоди; для отримання дисконтної карти магазину, тоді
11. відкликати згоду на обробку персональних саме їх. Якщо виконати запит надто складно,
даних; треба про це повідомити особу, вказавши при-
12. знати механізм автоматичної обробки пер- чини неможливості виконання запиту та про
сональних даних; будь-які альтернативні можливості. Тому важ-
13. на захист від автоматизованого рішення, ливо дотримуватися концепції проєктування
яке має для нього правові наслідки. дизайну приватності ще на стадії розроблення
моделі. Тоді спеціалісти з питань конфіденцій-
Розглянемо детальніше декілька із них. ності інформації можуть передбачити такий за-
конодавчий аспект, як дотримання права люди-
ни на інформацію та доступ до своїх даних,
ПРАВО НА ІНФОРМАЦІЮ ТА ДОСТУП ДО окрім випадків, визначених законом. Зокрема,
ДАНИХ розробити політики та інші внутрішні інструкції,
які забезпечать доступ особи до інформації про:
Це право передбачає можливість особи звер-
нутися із запитом, щоб уточнити, y цілі обробки;
y види та категорії персональних даних;
y чи обробляє володілець або розпорядник
(контролер чи процесор) її персональні дані;
y які саме дані обробляє (категорія та види); 92 Право доступу суб’єкта персональних даних закріплено
в статті 15 GDPR.

38 Права людини в епоху штучного інтелекту: виклики та правове регулювання


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

y про одержувачів чи категорії одержувачів, особливості роботи системи ШІ та можливість


яким були або будуть розкриті дані; видалення або анонімізації даних з різних дже-
y термін зберігання даних або критерії для рел і баз даних.95
визначення зазначеного періоду;
y права особи, зокрема на виправлення чи
видалення своїх даних, обмеження або за- ПРАВО НА ЗАХИСТ ВІД
перечення проти їх обробки; АВТОМАТИЗОВАНОГО УХВАЛЕННЯ
y право подання скарги до наглядового ор- РІШЕННЯ
гану;
y джерело персональних даних, якщо вони Будь-яка сучасна технологія може зазнавати
були отримані не від суб’єкта даних; збою, помилки, кібератаки тощо, що в результаті
y наявність процесу автоматизованого ухва- може мати непередбачені наслідки як для окре-
лення рішення93, у тому числі на якому ета- мих осіб, так і суспільства загалом. Відповідно
пі обробки даних воно застосовується; до національного96 та міжнародного законодав-
y умови та засоби захисту передачі даних, ства особа має право не підлягати рішенню, що
якщо персональні дані передаються до ґрунтується винятково на автоматизованій об-
третьої країни або міжнародної організа- робці, у тому числі профайлінгу, що породжує
ції94. правові наслідки, окрім випадків, визначених
законом97.

ПРАВО НА ВИДАЛЕННЯ Законодавство не перешкоджає використову-


вати ШІ для автоматизованого ухвалення рі-
Право на видалення, відоме також як «право шень, якщо ці рішення мають правові підстави
бути забутим». Згідно зі статтею 8 Закону Укра- та реалізуються в законний спосіб. Тобто ма-
їни «Про захист персональних даних» особа ють бути встановлені певні гарантії такої об-
має право пред’являти вмотивовану вимогу із робки інформації98. Зокрема, воно зобов’язує
запереченням проти обробки своїх персональ- враховувати «специфічні обставини та кон-
них даних, а також щодо їх знищення, якщо ці текст» і впроваджувати технічні та організацій-
дані обробляються незаконно чи є недостовір- ні заходи, щоб забезпечити її «справедливість
ними. Згідно зі статтею 17 GDPR особа має пра- та прозорість». Ці заходи повинні:
во вимагати видалення своїх персональних да-
них, якщо, зокрема, дані більше не потрібні для y забезпечити обробку персональних даних
цілей, для яких вони були зібрані, суб’єкт від- таким чином, щоб враховувати ризики для
кликає свою згоду на обробку даних або дані прав та інтересів осіб (див. п. 5.2. Оціню-
обробляються незаконно, окрім випадків, ви- вання ризиків);
значених законом. y запобігти дискримінаційним впливам на
основі спеціальної категорії даних.
У системах ШІ, які використовують персональні
дані для навчання та функціонування, забезпе- Також слід передбачити можливість відмовитися
чення права на видалення вимагає впрова- від автоматизованих систем, де це доречно. Згід-
дження технічних та організаційних заходів. но зі статтею 8 Закону України «Про захист пер-
Вони повинні гарантувати можливість видален- сональних даних» і статтею 13 (2)(f) та 14 (2)(g)
ня даних на запит особи та виконання цього за- GDPR необхідно повідомити особам, чиї дані об-
питу в розумний строк. При цьому важливо за- робляються, про використання автоматизованих
безпечити, щоб видалення не порушувало цілі систем, зокрема надати «змістовну інформацію
та функції ШІ, які можуть включати, наприклад,
виявлення патернів, навчання моделей чи інші
95 Guidelines on Personal Data Processing Using Artificial
завдання. Такі процедури повинні враховувати
Intelligence Technologies, FIIAPP.
96 Стаття 8 Закону України «Про захист персональних да-
них».
97 Стаття 22 GDPR.
93 Згідно зі статтями 22(1) і (4) GDPR. 98 Преамбула 71 GDPR надає більше ясності стосовно стат-
94 Згідно зі статтею 46 GDPR. ті 22.

Права людини в епоху штучного інтелекту: виклики та правове регулювання 39


5. ЗАБЕЗПЕЧЕННЯ ЗАХИСТУ ПЕРСОНАЛЬНИХ ДАНИХ

про логіку ухвалення автоматизованих рішень, а На практиці може виникнути питання: яка об-
також про можливі наслідки» такої обробки для робка розглядається як автоматизована99?
них. Потрібно забезпечити своєчасний людський Системи ШІ виконують різні ролі, тобто це оз-
контроль і втручання, якщо автоматизована си- начає, що можуть брати участь у різних етапах
стема дає збій, помилку або на вимогу суб’єкта процесу ухвалення рішень. Коли ШІ ухвалює
даних тощо. рішення, яке має юридичні наслідки для осіб,
варто поставити такі питання:
Існує багато причин, чому люди не хочуть ко-
ристуватися автоматизованою системою: вона y Який це вид рішення (чи воно лише автома-
може призвести до непередбачуваних резуль- тизоване)?
татів; вона може посилювати упередження чи y Коли ухвалюється це рішення?
бути недоступною; може просто бути незруч- y У якому контексті система ухвалює рішен-
ною; а може замінити паперовий або ручний ня?
процес, до якого вже звикли. Однак люди часто y Які кроки призводять до цього рішення?
стикаються з відсутністю альтернативи. Це не-
правильний підхід з погляду забезпечення юри- Як зазначено вище, законодавство вимагає за-
дичних гарантій захисту. Людина повинна мати безпечити заходи безпеки під час обробки
право вибору або ж заперечити проти викори- персональних даних для здійснення автомати-
стання автоматизованої обробки, окрім випад- зованих рішень, які мають юридичний або по-
ків, коли така система встановлена відповідно дібний за значущістю вплив на осіб. Ці заходи
до вимог закону, в інтересах національної без- охоплюють право осіб:
пеки, економічного добробуту. Але в кожному
разі потрібно зробити так, щоб не допустити y запросити втручання людини;
негативних наслідків для людини. y висловити свою точку зору;

99 Зокрема, підпадає під статтю 22 GDPR.

40 Права людини в епоху штучного інтелекту: виклики та правове регулювання


y оскаржити рішення, ухвалене стосовно або «упередження, спричинене автомати-
них; зацією», позначає стан, коли користувачі
y отримати пояснення логіки рішення100. системи підтримки ухвалення рішень дові-
ряють результатам, згенерованим систе-
Втручання людини повинно передбачати ана- мою, і перестають застосовувати свої
ліз рішення незалежно від того, обробка повні- власні судження або не запитують про
стю автоматизована або частково101. Тому та- можливі помилки в її висновках. Уявімо си-
кож слід: туацію, наприклад, коли особі було відмов-
лено в отриманні засобів для зменшення
y розглянути вимоги системи, необхідні для болю через те, що медичне програмне за-
забезпечення змістовного перегляду лю- безпечення змішало її анамнез з даними ін-
дини ще з фази проєктування; шого пацієнта. Або установа впровадила
y розробити й забезпечити відповідну про- автоматизовану систему оцінювання ро-
фесійну підготовку для людей, які перегля- боти, у результаті чого деяких працівників
дають рішення. звільнили на основі рішень, ухвалених про-
грамою, не надаючи їм можливості для
Варто інформувати про специфіку автоматизо- оскарження103. Тому важливе вручання лю-
ваного рішення, зокрема стосовно джерел да- дини для перевірки усіх даних.
них, що використовуються для його ухвалення. y Відсутність можливості інтерпретації. Дея-
Наприклад, якщо надаються результати рішен- кі види ШІ можуть забезпечити результати,
ня через вебсайт, на сторінці має бути поси- які складно інтерпретувати для людини,
лання або чітка інформація, що дозволить особі наприклад ті, що базуються на складних
зв’язатися зі співробітником, який може здійс- моделях глибокого навчання. Якщо резуль-
нити втручання, без зайвих затримок або тати ШІ не можуть бути легко інтерпрето-
ускладнень. Усі записи про ухвалені системою вані й інші засоби пояснення виявляються
ШІ рішення, а також інформацію про те, чи фі- недостатньо доступними або ненадійни-
зична особа зверталася з проханням про втру- ми, існує ризик того, що людина не зможе
чання людини, висловлювала свої погляди, належним чином оцінити результати та
оскаржувала рішення, чи змінювалося рішення врахувати їх при ухваленні власних рішень.
в результаті цього, рекомендується зберігати
протягом певного періоду часу102. Також по- Отже, потрібно розуміти ризикові аспекти,
трібно врахувати й додаткові аспекти в кон- пов’язані з кожною опцією та забезпечити чіткі
тексті складних систем ШІ: сфери відповідальності й ефективні політики з
управління ризиками.104
y Автоматичне упередження (automation
bias). Термін «автоматичне упередження»,

100 The Alan Turing guidance on ‘Explaining decisions made


with Artificial Intelligence.
101 Додаткова інформація: Європейська рада із захисту да-
них Європейська рада із захисту даних (EDPB), яка замінила
Робочу групу зі статті 29 (WP29), включає представників орга-
нів із захисту даних кожної країни-члена ЄС. WP29 опубліку-
вав рекомендації щодо автоматизованого індивідуального
ухвалення рішень та профілювання, які можуть надати корисні
вказівки з певних питань. Режим доступу: https://ec.europa.
eu/newsroom/article29/items/612053 103 Умовні приклади, які поширені у світі.
102 Інструкція з документації «Європейські рекомендації 104 Information Commissioner’s Office «Guidance on AI and
щодо автоматизованого ухвалення рішень та профілювання». data protection». Режим доступу: https://ico.org.uk/for-
Режим доступу: https://ec.europa.eu/newsroom/article29/ organisations/uk-gdpr-guidance-and-resources/artificial-
items/612053 intelligence/guidance-on-ai-and-data-protection/

You might also like