Professional Documents
Culture Documents
ШІ Для ЗАБЕЗПЕЧЕННЯ НАЦІОНАЛЬНОЇ БЕЗПЕКИ
ШІ Для ЗАБЕЗПЕЧЕННЯ НАЦІОНАЛЬНОЇ БЕЗПЕКИ
ВПРОВАДЖЕННЯ
ТЕХНОЛОГІЙ
ШТУЧНОГО ІНТЕЛЕКТУ
У ЗАБЕЗПЕЧЕННЯ
НАЦІОНАЛЬНОЇ
БЕЗПЕКИ ТА
ОБОРОНОЗДАТНОСТІ
УКРАЇНИ У
ПОВОЄННИЙ ПЕРІОД
У цілому стратегії розвитку ШІ різних країн світу науковці поділяють на три основні групи:
а) група, яка визначається реалістичним ставленням до формування стратегій ШІ, глибоким
аналізом не тільки стану сфери застосування ШІ в країні, а й дійсних потреб її розвитку.
Стратегії країн цієї групи мають фундаментальний характер і відображають як загальні світові
проблеми впровадження ШІ, так і конкретні плани реінжинірингу різноманітних секторів
ринку та бізнесу, цифровізації багатьох галузей національних економік та різних сфер
суспільних відносин (Королівство Саудівська Аравія, США тощо);
б) група країн, для яких характерним є ґрунтовний і прагматичний підхід до цілей та етапів їх
досягнення з урахуванням дійсних потреб держави і формування окремих унікальних завдань та
цілей розвитку ШІ (Велике Герцогство Люксембург, Республіка Мальта, Малайзія, Республіка
Литва);
в) група країн, стратегії яких виконані у формалізованому вигляді, налічують базові цілі
розвитку країни в напрямі впровадження технологій зі ШІ в певних сферах суспільної
життєдіяльності (Австралія, Республіка Австрія, Королівство Іспанія, Держава Катар,
Португальська Республіка, Республіка Кіпр, Нова Зеландія, Держава Ізраїль, Швейцарська
Конфедерація тощо) [3, 59−60].
Прагматичне питання, що виникає у зв’язку з викладеним вище:
Так, на початку 2020 року Міністерство оборони США, розуміючи можливі негативні
наслідки дії «розумної» зброї, сформулювало п'ять ‘етичних принципів’ використання
систем ШІ у військових цілях:
1) відповідальність: військовий персонал повинен з належною увагою оцінювати дії ШІ,
залишаючись повністю відповідальним за розроблення, розгортання і використання
систем ШІ; 2) неупередженість: Міністерство оборони США має робити кроки для
мінімізації небажаних відхилень у можливостях систем ШІ; 3) відстеження: військові
системи ШІ та їх можливості повинні розроблятися і розвиватися таким чином, щоб
персонал мав належний рівень розуміння технології, процесів розроблення та методів
застосування. Для військового персоналу повинні бути доступні методології, дані й
документація, що належать до використовуваних систем ШІ; 4) надійність: можливості
військових систем ШІ повинні бути однозначними, чітко сформульованими. Безпека та
ефективність таких можливостей повинні перевірятися випробуваннями та
підтверджуватися протягом усього терміну служби; 5) підпорядкування: військові
системи ШІ повинні повністю виконувати призначені для них завдання, проте військові
повинні мати можливість виявляти та запобігати небажаним наслідкам використання ШІ.
Військові також повинні мати можливість виводити з бою або вимикати системи ШІ, у
яких були помічені відхилення в роботі [14, 59].
• На переконання керівництва Обʼєднаного центру штучного інтелекту США, американські військові не
будуть оснащувати системами ШІ центри управління стратегічним озброєнням, адже за запуски
балістичних ракет повинні завжди відповідати ‘тільки люди’, тобто рішення про застосування зброї
масового ураження має бути прерогативою виключно людини [14, 60].
Чому?!
• Штучний інтелект матиме трансформаційний вплив на ядерні, аерокосмічні, кібернетичні технології,
технології розробки нових матеріалів та біотехнології. Практики зазначають, що ці наслідки матимуть
такий самий стратегічний вплив на зміну у військових технологіях, що й упровадження ядерної зброї [1, 22].
• Важливість використання ШІ підкреслюється у звіті «Science & Technology Trends 2020–2040» Організації
НАТО з науки та технологій під час формування стратегічних пріоритетів у сфері розвитку озброєння та
прийняття політичних рішень для країн НАТО і для країн-партнерів. У звіті вказано, що до 2040 року
очікується, що основними характеристиками, які будуть визначати більшість ключових передових
військових технологій, будуть такі: інтелектуальність — використання інтегрованого ШІ, орієнтованого
на знання аналітичних можливостей і симбіотичного ШІ людського інтелекту для забезпечення
застосувань проривних технологій; взаємопов’язаність — експлуатація мережі віртуальних і фізичних
доменів, включно з мережами датчиків, організацій, окремих осіб та автономних агентів, пов’язаних за
допомогою нових методів шифрування та технологій розподіленого обліку; поширеність —
використання децентралізованого та широкомасштабного зондування, зберігання й обчислення для
досягнення нових руйнівних військових ефектів; цифровізація — цифрове поєднання людських,
матеріальних та інформаційних сфер для підтримки нових ефектів [1, 19].
• Отже, разом з перевагами, ШІ може становити загрозу національній безпеці та
обороноздатності. Наприклад, країна-агресор може використовувати ШІ для здійснення кібератак та
інших злочинів, що можуть негативно впливати на національну безпеку. Також існує ризик, що інші
держави можуть використовувати ШІ для проведення кібершпигунства та кібератак на інфраструктуру
країни.
• У лютому 2023 року в Гаазі відбулася перша міжнародна конференція з відповідального використання
ШІ у військовій сфері REAIM 23, скликана за ініціативою Нідерландів і Південної Кореї, за участю понад
60 країн.
• За підсумками саміту його учасники (за винятком Ізраїлю) підписали петицію про те, що країни, які
вони представляють, висловлюють прихильність використанню ШІ відповідно до міжнародного
права, не підриваючи принципів «міжнародної безпеки, стабільності та підконтрольності».
• Серед питань, які також обговорили учасники REAIM 23, надійність військового ШІ, ненавмисні
наслідки його використання, ризики ескалації та ступінь залученості людей до процесу ухвалення
рішень.
• На думку критично налаштованих експертів, ця петиція, будучи необов’язковою до виконання, не
розв’язує багатьох проблем, включно з використанням ШІ у воєнних конфліктах, а також БПЛА під
управлінням ШІ тощо.
• І такі побоювання далеко не безпідставні. Так, один із найбільших військових підрядників США Lockheed
Martin повідомив про те, що його новий навчальний винищувач, перебуваючи в повітрі приблизно 20 годин, увесь
цей час керувався ШІ. А гендиректор Google Ерік Шмідт поділився своїми побоюваннями з приводу того, що ШІ
може сам спровокувати воєнні конфлікти, зокрема із застосуванням ядерної зброї [15].
• Крім того, на сайті ЮНЕСКО опубліковано інформаційний матеріал «Штучний інтелект:
ЮНЕСКО закликає всі уряди негайно запровадити Глобальні етичні рамки».
• У ньому йдеться, що у відповідь на заклики понад 1000 технічних працівників призупинити
дослідження найпотужніших систем штучного інтелекту, ЮНЕСКО закликає країни негайно
повністю впровадити положення Рекомендацій з етики штучного інтелекту.
• Цей нормативний документ (Глобальний стандарт), розроблений ЮНЕСКО та одноголосно
прийнятий 193 державами-членами Організації, забезпечує всі необхідні гарантії для етичного
використання ШІ. Він містить цілі та принципи, а також детальні політичні рекомендації в
усіх відповідних сферах та орієнтує країни на те, як максимізувати переваги штучного
інтелекту та зменшити пов'язані з ним ризики.
• Для уникнення етичних проблем документ надає інструменти для забезпечення дотримання
принципу верховенства права при розробці ШІ та оцінки виконання керівних принципів
державами-членами.
• На сьогоднішній день понад 40 країн у всіх регіонах світу вже співпрацюють з ЮНЕСКО над
розробкою системи стримувань і противаг у сфері штучного інтелекту на національному
рівні, спираючись на Рекомендації.
• ЮНЕСКО закликає всі країни приєднатися до очолюваного руху за створення етичного ШІ.
Звіт про прогрес буде представлений на Глобальному форумі ЮНЕСКО з етики штучного інтелекту
в Словенії в грудні 2023 року.
• Щоб сформувати технологічний розвиток ШІ, потрібні ефективні рамки управління, що базуються на етичних і моральних
цінностях.
• Рекомендації встановлюють принципи про захист прав і гідності людини та переводить їх у конкретні сфери політики та
рекомендації для урядів, ґрунтуючись на переконанні, що саморегулювання, яке досі залишалося нормою, є недостатнім.
Отже, потрібні спроможні уряди, які захищатимуть верховенство права в Інтернеті. ЮНЕСКО вказує, що потрібні державні та
приватні розробники ШІ, які відповідають за те, щоб ставити на перше місце людей, а не прибутки чи геополітичні стратегії.
• Політичний підхід ЮНЕСКО визнає, що країни знаходяться на різних етапах розвитку ШІ, тому має надаватися цільова
політична підтримка для різних країн.
• Держави-члени звернулися до ЮНЕСКО з проханням розробити методологію оцінки готовності, щоб допомогти їм
визначити свій статус готовності до врегулювання ШІ за рядом параметрів (вимірів).
• Методологію оцінки готовності (RAM) і додатковий інструментарій оцінки етичного впливу було офіційно розпочато 13
грудня 2022 року під час першого Глобального форуму з етики штучного інтелекту в Празі під головуванням Чехії в
Європейському Союзі.
• RAM охоплює п’ять вимірів: правовий / нормативний; соціальний та культурний; економічний; науковий та освітній,
технологічний та інфраструктурний. Кожен вимір розбивається на підкатегорії, що містять якісні та кількісні індикатори та
підіндикатори для комплексної оцінки.
• ЩОДО ЮРИДИЧНОГО/ НОРМАТИВНОГО ВИМІРУ
• Юридичний/нормативний вимір є ключовим параметром звернення до інституційної спроможності держав-членів для
впровадження Рекомендації. Регулятивні рамки повинні включати аспекти ефективного захисту, забезпечення виконання,
відшкодування та моніторингу потенційної шкоди, пов’язаної з розгортання та використання систем ШІ. Це включає оцінку
того, чи країни-члени прийняли відповідні нормативні акти для забезпечення етичної розробки та розгортання ШІ, а також
механізми моніторингу та оцінки його впровадження та виконання
• У листопаді 2021 року 193 країни-члени ЮНЕСКО підписали Рекомендацію щодо етики штучного інтелекту - перший
глобальний нормативний інструмент у своїй сфері.
Глобальний стандарт носить рекомендаційний характер і спрямований на:
• забезпечення реалізації переваг технологій штучного інтелекту для суспільства;
• та одночасного зменшення ризиків, пов’язаних із ними.
Зокрема, у документі містяться рекомендації щодо:
• захисту персональних даних;
• заборони систем соціальної оцінки та масового спостереження;
• підтримки різноманіття (проявів людської особистості) та інклюзивності;
• прозорості алгоритмів штучного інтелекту та їхня «підзвітність» експертам- людям;
• захисту довкілля.
В свою чергу, в ЄС представили суворі правила використання штучного інтелекту:
Єврокомісія запропонувала нові правила і дії, спрямовані на регулювання використання штучного інтелекту.
• "Що стосується штучного інтелекту, довіра є обов'язковою. З урахуванням цих знакових правил ЄС очолює розробку нових глобальних
норм, щоб переконатися, що штучному інтелекту можна довіряти. Встановивши стандарти, ми можемо прокласти шлях до етичних
технологій у всьому світі та забезпечити збереження конкурентоспроможності ЄС на цьому шляху. Наші правила будуть застосовуватися
там, де це суворо потрібно: коли йдеться про безпеку та основні права громадян ЄС" – сказала віце-президента Єврокомісії Маргарет
Вестагер.
• Проєкт правил встановлює обмеження щодо використання штучного інтелекту в цілому ряді видів діяльності, від самостійного
керування автомобілями до прийняття рішень про найм, відбір щодо зарахування до школи та перевірка іспитів. Він також
стосуватиметься використання штучного інтелекту правоохоронними та судовими системами - сферами, що вважаються
"високоризиковими", оскільки можуть загрожувати безпеці людей або основним правам.
• Деякі види використання штучного інтелекту будуть взагалі заборонені, включаючи розпізнавання обличчя в реальному часі в
громадських місцях, хоча існують деякі винятки щодо національної безпеки та інших цілей.
• Правила мають далекосяжні наслідки для великих технологічних компаній, включаючи Amazon, Google, Facebook та Microsoft, які
вклали ресурси у розробку штучного інтелекту, а також для багатьох інших компаній, які використовують цю технологію в галузі охорони
здоров'я, страхування та фінансів.
• Компаніям, які порушуватимуть нові правила, для обговорення та впровадження яких, як очікується, знадобиться кілька років, можуть
Отже, вказане дозволяє нам виокремити позитивні та негативні риси застосування ШІ у
сфері забезпечення національної безпеки та обороноздатності України у повоєнний період