Рубрики НовиниКіно

Жертви дипфейк-порно завдають удару у відповідь — трейлер документального фільму «‎Інше тіло»

Опубликовал
Катерина Даньшина

«‎Усі ми — потенційні жертви» (с).

З розвитком штучного інтелекту кількість дипфейків в інтернеті зростає у геометричній прогресії, а жертвами стають як знаменитості, так і звичайні люди, які просто опублікували своє фото в соцмережах. У новому документальному фільмі «‎Інше тіло» жінки, які постраждали від дипфейк-порно розповідають, як намагаються дати відсіч потужній, але дуже небезпечній технології.

Робота, зрежисована Софі Комптон і Рубеном Гемліном, розповідає про досвід студентки інженерного коледжу Тейлор (ім’я вигадане). 22-річна дівчина виявила своє обличчя у порносценах на популярному сайті PornHub після повідомлення друга. Щобільше — відео було розміщене з профіля із її справжнім ім’ям, містом проживання та коледжем.

Курс Розмовної англійської від Englishdom.
Після цього курсу ви зможете спілкуватись з іноземцями і цікаво розкажете про себе.
Приєднатися

Заручившись підтримкою іншої постраждалої дівчини, Тейлор почала вивчати 4Chan та інші сайти, де є спеціалізовані форуми, у пошуках свого кривдника, і натомість натрапила на ще одну жертву — популярну ASMR-артистку Джибі, яка має майже 5 млн підписників на YouTube та 280 тисяч на Twitch.

Стримерка розповіла, що наразі отримує настільки велику кількість повідомлень про власні порнодипфейки, що й не згадає, коли усе почалось. Однак зазначає, що якість підробок значно зросла останнім часом. За словами Джибі, рекламодавці часто не розбираються у тому, чи було відео справжнім і просто розривають контракти з творцями.

Блогерка стверджує, що історія Тейлор надихнула її випустити на YouTube відео, де вона розповіла про свій досвід роботи з фейками, створеними штучним інтелектом. Ролик, опублікований торік, з того часу зібрав майже півмільйона переглядів.

За словами адвоката Адама Доджа, який також дає коментарі у фільмі, жертвам більше не потрібно мати свої інтимні зображення в інтернеті, щоб стати мішенню переслідування — для цього згодяться загальнодоступні фотографії з Instagram чи вебсайту коледжу, а далі все зробить зловмисник і штучний інтелект.

«Ми всі тепер потенційні жертви. Все, що потрібно — це просто зображення нашого обличчя», — сказав Додж.

У 2024 році в США відбудуться перші дипфейк-вибори — такі тези останніми місяцями все частіше звучать у статтях та на телебаченні, оскільки технології генеративного ШІ вже використовувались під час передвиборчих кампаній Дональда Трампа та Рональда Десантіса, які намагалися дискредитувати одне одного; проти нинішнього президента США Джо Байдена дипфейки також поширюються регулярно.

Законодавці — ймовірно, стурбовані тим, що їхні обличчя також можуть незабаром опинитися у роботах, згенерованих штучним інтелектом, — поспішили запропонувати більше десятка законопроєктів, які могли б запобігти пануванню дипфейків на державному та федеральному рівнях. Додж тим часом каже, що до порнодипфейків і близько немає такої великої уваги.

«Насильство щодо жінок — це проблема, якій ніколи не приділяють належної уваги, її постійно підривають на користь інших наративів, а законодавці та політики зосереджені на глибокій фейковій дезінформації, яка була б спрямована на політичну сферу, оскільки це проблема, яка впливає на них особисто. Дійсно, ми говоримо про питання привілеїв», — сказав адвокат у коментарі Gizmodo.

Порнодипфейки тим часом поширюються із вражаючою кількістю. Wired, з посиланням на незалежне дослідження, стверджує, що за останні 7 років на 35 найпопулярніших сайтів з порнодипфейками було завантажено близько 244 625 відео. Майже половина з них — завантажені протягом перших дев’яти місяців 2023 року.

«Інструменти штучного інтелекту стали доступнішими, а попит на порнодипфейки виріс. Нові генеративні моделі лише збільшуватимуть цю кількість», — сказав доцент Ашер Флінн в інтерв’ю Wired.

Десяток штатів США тим часом вже прийняли закони, які передбачають кримінальну відповідальність за поширення порнодипфейків без згоди. У Нью-Йорку в грудні набуває чинності закон, який забороняє розповсюдження відверто сексуальних зображень осіб, створених за допомогою штучного інтелекту, і передбачає до 1 року позбавлення волі.

На федеральному рівні законодавці тиснуть на ШІ-компанії щодо створення цифрових водяних знаків, які чітко повідомлятимуть людей, що контент створений генеративною технологією. Водночас і такі запобіжні заходи не завжди можуть бути ефективними.

Раніше ми повідомляли, що кількість дипфейків в інтернеті зросла в геометричній прогресії з 2019 року (і якість також) — якщо тоді було виявлено менш як 15 000, то нині кількість глибоких фейків обчислюється мільйонами.  За даними Всесвітнього економічного форуму кількість дипфейків продовжує зростати щорічно на 900%.

Disqus Comments Loading...