Легко ли обмануть алгоритмы обнаружения искусственного интеллекта? Эксперимент The New York Times

Опубликовал
Андрей Русанов

Реалистичные изображения, созданные ИИ, уже успешно использовались для создания фейков, в которые многие поверили. На этом фоне растущее количество сатрапов предлагают услуги по обнаружению таких подделок. The New York Times протестировали пять таких сервисов, используя более 100 синтетических изображений и реальных фотографий. Как оказалось, их довольно легко обмануть.

«Фото» Илона Маска с женщинами-роботами уже наделали шума в сети, но созданы они с помощью Midjourney. Даже такой явный фейк смог обмануть некоторые детекторы.

Дэн Литл, художник, который работает с ИИ и ведет TikTok под именем The_AI_Experiment, попросил Midjourney создать старинное изображение гигантского неандертальца, стоящего среди обычных людей. Абсолютно все детекторы сочли его реальным.

 

Нашумевший фейковый взрыв возле Пентагона обманул множество людей в интернете – как и большинство детекторов.

Проблема подделок особенно актуальна в искусстве. Со сложным случаем картины Поллок аи изображения, сгенерированного по мотивам его творчества детекторы справились достаточно хорошо.

Детекторы ищут необычное расположение пикселей, нехарактерные переходы яркости и контраста. Сжатые или обработанные изображение легко могут обмануть их. При этом они игнорируют контекстные подсказки – человек, танцующий с фантастически роботом или сказочный лохматый великан их не смущает. Кстати, вышеупомянутое фото с «неандертальцем» было успешно распознано сервисами в высоком разрешении.

Более того, как видно по примерам, сервисы обнаружения сгенерированных изображений создают еще одну проблему: ошибочное детектирование реальных фотографий как фейков. Будучи созданными, чтобы бороться с искажениями реальности, они сами могут искажать информацию. Ниже — настоящее фото Джо Байдена:

Прогресс не стоит на месте и сервисы определения подделок совершенствуются, но растут и возможности самих генеративных моделей.

Источник: The New York Times

Disqus Comments Loading...