Чи легко обійти алгоритми виявлення штучного інтелекту? Експеримент The New York Times

Опубликовал
Андрей Русанов

Реалістичні зображення, створені ШІ, вже успішно використовувалися для створення фейків, у які багато хто повірив. На цьому тлі росте кількість стартапів, які пропонують послуги з виявлення таких підробок. The New York Times протестували п’ять таких сервісів, використовуючи понад 100 синтетичних зображень та реальних фотографій. Як виявилося, їх надто легко ввести в оману.

«Фото» Ілона Маска з жінками-роботами вже наробили галасу у мережі, але створені вони за допомогою Midjourney. Навіть такий явний фейк зміг обдурити деякі детектори.

Ден Літл, художник, який працює з ШІ та веде TikTok під ім’ям The_AI_Experiment, попросив Midjourney створити старовинне зображення гігантського неандертальця, який стоїть серед звичайних людей. Абсолютно всі детектори визнали його реальним.

Курс Python розробки від Mate academy.
Python — найпопулярніша мова 2024 року. Наш курс допоможе вам стати професіоналом, готовим до викликів сучасного IT ринку. Ви навчитеся створювати вебсайти, аналізувати дані, розробляти алгоритми, та навіть створювати штучний інтелект. .
Отримати деталі про курс

 

Фальшивий вибух біля Пентагону обдурив безліч людей в інтернеті – як і більшість детекторів.

Проблема підробок особливо актуальна у мистецтві. Зі складним випадком картини Поллока та зображення, згенерованого за мотивами його творчості детектори впоралися досить добре.

Детектори шукають незвичайне розташування пікселів, нехарактерні переходи яскравості та контрасту. Стиснуте або оброблене зображення легко може обдурити їх. При цьому вони ігнорують контекстні підказки – людина, яка танцює з фантастичним роботом або казковий кудлатий велетень їх не бентежить. До речі, вищезгадане фото з «неандертальцем» було успішно розпізнане сервісами у високій якості.

Щобільше, як видно за прикладами, сервіси виявлення згенерованих зображень створюють ще одну проблему: хибне детектування реальних фотографій як фейків. Створені, щоб боротися зі спотвореннями реальності, вони можуть самі спотворювати інформацію. Нижче – справжнє фото Джо Байдена:

Прогрес не стоїть на місці – послуги визначення підробок удосконалюються, але зростають і можливості самих генеративних моделей.

Джерело: The New York Times

Disqus Comments Loading...