
Лаборатория Microsoft AI for Good провела эксперимент с участием более 12 500 участников со всего мира, которые осуществили 287 000 оценок изображений.
Исследование показалочто общий уровень успешности распознавания изображений, созданных искусственным интеллектом, от реальных составляет лишь 62%. Это говорит о том, что люди имеют лишь умеренную способность различать «творчество» ИИ, а точность «лишь немного выше, чем подбрасывание монеты», то есть чем простая случайность.
Участники легче всего распознавали поддельные изображения людей, но столкнулись со значительными трудностями, когда речь шла о природных или городских пейзажах, где уровень успеха снизился до 59-61%. В рамках исследования участники должны были сыграть в викторину «Реально или нет», где им показывали изображения, созданные ИИ, на которые они, вероятно, могли бы реально наткнуться в интернете. Во время нее люди избегали выбора непонятных изображений или выбирали только те, которые вводят в заблуждение. Исследователи отмечают, что искусственный интеллект постоянно совершенствуется, поэтому будущие модели смогут создавать еще более убедительные изображения.
Исследователи также воспользовались собственным инструментом выявления ИИ — он смог достичь более 95% успеха во всех категориях. Это свидетельствует, что автоматизированное распознавание гораздо надежнее, чем человеческое, но и оно не безупречно.
Авторы исследования отмечают, что людям, возможно, было легче обнаруживать изображения лиц, созданные искусственным интеллектом, благодаря человеческой врожденной способности хорошо распознавать лица. Исследование показало, что генеративно-соревновательные сети (GAN) и метод инпайнтинга довольно хорошо обманывали пользователей, поскольку они создавали изображения в эстетике любительской фотографии, в отличие от «студийности» Midjourney и DALL-E 3.
Инпайнинг — техника, которая заменяет небольшой элемент реального изображения сгенерированным. Microsoft отметила, что это чрезвычайно затрудняет выявление подделок и создает значительный риск преднамеренной дезинформации.
Основываясь на результатах исследования, компания призывает к внедрению инструментов прозрачности, таких как водяные знаки и надежные средства обнаружения ИИ, чтобы устранить риски распространения дезинформации. Чтобы помочь людям узнать об этих опасностях, Microsoft ранее начала кампанию, направленную на борьбу с дезинформацией, созданной ИИ.
Источники: Windows Central, Neowin
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: