You are on page 1of 14

Діпфейк

Муляр та Володічева
Що таке діпфейк?

DEEPFAKE - ТЕХНОЛОГІЯ, ЗАСНОВАНА НА ШТУЧНОМУ


ІНТЕЛЕКТІ, ЯКА ВИКОРИСТОВУЄТЬСЯ ДЛЯ
ВИРОБНИЦТВА АБО ЗМІНИ ВІДЕОКОНТЕНТУ, ЦІЛКОМ
ПРАВДОПОДІБНО ЗОБРАЖУЄ ТЕ, ЧОГО НАСПРАВДІ НЕ
БУЛО. В УКРАЇНІ ПРИДУМАЛИ ВЛАСНИЙ ПЕРЕКЛАД
ЦЬОГО ТЕРМІНУ - "ЛИЦЕДУРСТВО", ТОБТО ЩОСЬ
СЕРЕДНЄ МІЖ ЛИЦЕДІЄМ-ПРИТВОРЩИКОМ І ДУРОСТЬЮ-
ЛЕГКОВАЖНІСТЮ.
Щоб переконатися, наскільки
правдоподібними здаються діпфейки,
пропонуємо подивитися відео з "брифінгу
Барака Обами", зроблене виданням De
Telegraaf.
Як зазначає The Economist, інструменти
для редагування мультимедіа існують
протягом десятиліть - не треба навіть
далеко ходити, подумайте про
Photoshop. Небезпека діпфейків ж
полягає в тому, що підробляти
зображення, аудіо та відео ще ніколи не
було так дешево. До появи цієї технології
людині, яка захотіла створити
реалістичне фальшиве відео з чиєюсь
участю, був потрібен потужний комп'ютер
і серйозні навички. Тепер же для цього
достатньо мати кілька фотографій та
доступ до інтернету.
Створення діпфейку, скажімо, про Барака
Обаму, починається зі збору фотографій
колишнього президента (це, до речі, означає, що
знаменитостей легше підробити, ніж звичайних
людей, оскільки в інтернеті міститься більше
їхніх даних). Ці знімки потрібно завантажити у
програму, яка встановить статистичний зв'язок
між візуальним образом Обами і будь-яким
аспектом, який ви хочете підробити. Якщо ви
хочете змусити Обаму сказати те, що він ніколи
не говорив, тоді вам потрібно направити своє
ПО на вивчення зв'язків між конкретними
словами і формою рота Обами, коли він їх
вимовляє. Щоб прикріпити його обличчя до
рухомого тіла іншої людини, необхідно
поставити ПО завдання на вивчення зв'язків між
особою і тілом.
Щоб зробити мультимедіа
більш реалістичними, ви
можете змусити програмне
забезпечення конкурувати з
власною копією: одна версія
генерує діпфейки, а інша
намагається їх розпізнати.
Цей метод, відомий як
генеративно-змагальні мережі
(GAN), є найчистішою формою
діпфейку, що створює
абсолютно унікальні
мультимедіа, а не просто
поєднує існуючі файли.
Наслідки дешевих, широко поширених діпфейків, ймовірно,
будуть глибокими, хоча і побачимо ми їх досить нескоро,
вважає The Economist.
Багато експертів турбуються про можливий вплив, який
правдоподібні, фальшиві кадри політиків можуть спричинити
на громадянське суспільство - від подальшої втрати довіри
до ЗМІ до можливого перекручування результатів виборів.
Технологію можуть також використовувати у менш шкідливих
цілях: наприклад, для залякування однокласників, створюючи
їхні образи в незручних ситуаціях.
І неважко уявити, як маркетологи і
рекламодавці зможуть застосувати
інструменти створення фейків для
автоматичного налаштування
зображення в рекламних матеріалах,
оптимізуючи їх для максимального
залучення - моделі можуть
перетворюватися на ідеали краси, які
підлаштовуватися під індивідуальні
вподобання кожного, підштовхуючи
споживачів до покупки. Грань між
реальністю та віртуальним світом
стирається швидко, і все частіше ми вже
не можемо довіряти очам і вухам.
У чому загроза діпфейків?
Технологія діпфейків має дві сторони.
Якщо говорити про кіноіндустрію, то
завдяки алгоритмам штучного інтелекту,
світове кіно досягло небувалих висот.
Помилки героїв легко замінити на
«правду» за новим сценарієм. Тепер не
потрібно витрачати зайві ресурси,
достатньо лише налаштувати програму
та встановити параметри. Усе
«виправляє» технологія глибинного
навчання.
Але синонім діпфейку — це
дезінформація. З іншого боку діпфейки
активно використовуються з метою
обману та шахрайства. Відео не є
реальним, а створеним комп’ютером. За
допомогою такого реалістичного відео
можна переконати необізнаних людей,
які ніколи не чули й не стикалися з
сучасною технологією. У цьому полягає
велика загроза, адже виникає
можливість маніпулювати цілим
народом. Основна мета діпфейку — це
дезорієнтація та дезінформація народу.
Таким чином шахраї намагаються
вселити «уявну» правду.
Як відрізнити діпфейк від справжнього відео?

На щастя, є можливість відрізнити справжнє від фейкового.

Для цього слід бути уважним та звернути увагу на такі деталі:


колір шкіри — може бути не схожим на справжній;
краї маски навколо обличчя. Іноді відео недосконалі, тому можна помітити
очевидні недоліки відтворення реальної людини;
оклюзія обличчя спотворює предмети або закриває їх;
розмите обличчя. Якщо добре придивитися, то обличчя персонажа може бути
розмитим, і це не пов'язано з якістю відео;
легке мерехтіння. Інколи алгоритми не можуть до кінця «зчитати» та відтворити
зображення людини. Це секундні мерехтіння мають бути помітними на екрані;
різна фокусна відстань;
невідповідність зображення.
Для України наразі загрозою є підготовка
діпфейку про капітуляцію нашої країни у війні з
російським агресором. Тож ми хочемо
попередити українське населення про створення
діпфейків та їх поширення. Особливо це
стосується людей, які не обізнані з
можливостями сучасних технологій. Будьте
обережні! Не вірте фейковим роликам та
перевіряйте джерела надходження інформації.
Thank
you!!

You might also like