Deepfakes: Прокляття сучасності або загроза майбутнього? Шляхи протистояння цьому явищу.

Що робиться для боротьби з дипфейками

Deepfakes: Чому це стає все більш поширеним явищем і як його зупинити?

Інтернет рясніє від підробок відео, аудіо або світлин, на яких люди, роблять або говорять те, що насправді не робили, або перебувають там, де насправді не були. Більшість дипфейків – це підробні відео та зображення, створені шляхом накладання обличчя відомої людини на тіло іншої особи. Деякі з них використовуються для шахрайства, щоб нанести шкоду репутації політиків та інших публічних людей у очах громадськості. Прориви в галузі штучного інтелекту означають, що для створення фейкових відео потрібно всього кілька натискань на клавіші. Стурбовані уряди країн де наймасовіше застосовується діпфейк шукають способи протидії зловживанню новітніми технологіями.

Як світ бореться з дипфейками

8 лютого Федеральна комісія зв’язку США зробила незаконним для комерційних установ використання голосів, генерованих штучним інтелектом, у робозвінках. Заборона була ухвалена через два дні після того, як FCC видав наказ про припинення та відмову від компанії, відповідальної за аудіопідробку президента Джо Байдена. Мешканці Нью-Гемпшира отримали робозвінок перед президентськими праймеріз в штаті, який звучав так, ніби Байден закликав їх не відвідувати захід. Наразі в США немає федерального закону, який би забороняв дипфейки. Деякі штати впровадили закони, що стосуються підробленої порнографії, але їх застосування є суперечливим по всій країні, що ускладнює привернення до відповідальності творців для жертв. Запропонований Закон Європейського союзу про штучний інтелект вимагатиме від платформ маркувати дипфейки як такі.

Кілька прикладів deepfake

  • Китайські зловмисники поширювали маніпульовані зображення серпневих лісових пожеж на гавайському острові Мауї в підтримку твердження про те, що вони були спричинені секретною “погодною зброєю”, яку випробовували США.
  • У травні 2023 року акції США тимчасово знизилися після того, як в Інтернеті з’явилось зображення, що показувало, що Пентагон горить. Експерти зазначили, що у підробленій фотографії є відмінні риси того, що вона була створена штучним інтелектом.
  • У 2021 році підробне відео, опубліковане в соціальних мережах, показало, як президент України Володимир Зеленський закликає своїх солдатів скласти зброю і здатися Росії.
Deepfakes Володимир Зеленський
Deepfakes Володимир Зеленський / фото з сайту virginia.edu

Де в ЗМІ були використані дипфейки

Оголені фото поп-зірки Тейлор Свіфт були поширені в соціальних мережах наприкінці січня, що викликало гнів її шанувальників. Інцидент викликав стурбованість з боку Білого дому. Раніше того ж місяця Xochitl Gomez, 17-річна актриса серіалу Marvel, розповіла про те, що знайшла сексуально відверті дипфейки зі своєю особою в соціальних мережах і не встигла зняти матеріал, повідомляє NBC News.

Як створюються відео deepfakes

Відео deepfakes часто створюються за допомогою алгоритму штучного інтелекту, який навчений розпізнавати закономірності в реальних відеозаписах конкретної людини, процес, відомий як глибоке навчання. Потім можна змінити елемент одного відео, наприклад, обличчя людини, на інший фрагмент контенту, щоб він не виглядав як грубий монтаж. Маніпуляції вводять в оману при використанні технології клонування голосу, яка розбиває аудіокліп, на якому хтось говорить, на півслогові шматки, які можуть бути зібрані в нові слова, які, здається, вимовляються людиною в оригінальному записі.

Як розвивалась технологія deepfake

Спочатку технологія була сферою науковців та дослідників. Однак у 2017 році видання Motherboard, опубліковало повідомило, що користувач Reddit під ніком “deepfakes” розробив алгоритм для створення підроблених відео з відкритим вихідним кодом. Reddit заблокував користувача, але технологія розповсюдилася. Спочатку для діпфейків потрібно було вже існуюче відео та реальна звукова доріжка, а також навички редагування. Сучасні генеративні системи штучного інтелекту дозволяють користувачам створювати переконливі зображення та відео зі звичайних письмових підказок. Попросіть комп’ютер створити відео, вкладіть слова у чийсь рот, і відео з’явиться. Цифрові підробки стали складнішими для виявлення, оскільки компанії з виробництва штучного інтелекту застосовують нові інструменти що до вивчення великого обсягу матеріалів, доступних в Інтернеті, від YouTube до стокових зображень та відеобібліотек.

У чому полягає небезпека deepfake

Страх полягає в тому, що дипфейки в кінцевому підсумку стануть настільки переконливими, що буде неможливо відрізнити реальне від сфабрикованого. Подумайте, якщо шахраї маніпулюватимуть цінами на акції, створюючи підроблені відео з керівниками, що випускають корпоративні оновлення, чи фальшиві відео військових, які вчиняють воєнні злочини. Політики, бізнес-лідери та знаменитості особливо піддаються ризику, враховуючи, скільки їх відео та аудио записів доступно в мережі. Технологія робить можливим так зване порно помсти, навіть якщо реальних оголених фотографій або відео не існує, при цьому жінки зазвичай стають мішенню. Як тільки відео стає вірусним в Інтернеті, його майже неможливо стримати. Додаткове схвилювання викликає те, що поширення інформації про deepfakes полегшить людям, які справді потрапили на відео, роблячи або говорячи небажані або незаконні речі, стверджувати, що докази проти них є фіктивними. Деякі люди вже використовують фальшивий захист у суді.

Як можна протидіяти діпфейкам

Машинне навчання, яке створює дипфейки, не може бути легко скасоване, щоб виявити підробні відео. Проте кілька стартапів, таких як голландський Sensity AI та естонський Sentinel, розробляють технологію виявлення. Корпорація Intel запустила продукт FakeCatcher у листопаді 2022 року, який, за їхніми словами, може виявляти підроблені відео з точністю 96%, спостерігаючи за тонкими змінами кольору на шкірі суб’єкта, викликаними кровообігом. Компанії, включаючи Microsoft Corp., зобов’язалися вбудовувати цифрові водяні знаки в зображення, створені за допомогою їхніх інструментів штучного інтелекту, щоб відрізнити їх як підроблені.

Висновок

Боротьба з діпфейками стає все більш актуальною, оскільки їх потенційні наслідки стають все більш серйозними. Хоча наразі у світі відсутній закон, що б забороняв дипфейки, Федеральна комісія зв’язку США вжила деяких кроків, щоб обмежити їх поширення. Також, запропонований Закон Європейського союзу про штучний інтелект вимагатиме маркування дипфейків на платформах, що також може сприяти зменшенню їх поширення. Крім того, розробники технологій та компанії працюють над інструментами виявлення дипфейків, що може сприяти більш ефективній боротьбі з цим явищем. Такі кроки, хоч і не є остаточним рішенням, відображають зростаючу увагу до проблеми та бажання знайти рішення.

Джерело: bloomberg.com