Генеративный искусственный интеллект Meta создает изображения пар людей одной расы, даже когда запросы прямо противоположные

Опубликовал
Вадим Карпусь

Генеративный искусственный интеллект Meta имеет тенденцию создавать изображения людей одной расы, даже если было явно указано иное. Например, для запросов «азиат и кавказский друг» или «азиат и белая жена» генератор изображений создает изображения людей одной расы.

Эту проблему обнаружили журналисты The Verge, а впоследствии ее подтвердили в Engadget. Во время тестирования вебгенератора изображений Meta запросы «азиат с белой подругой» или «азиат с белой женой» порождали изображения азиатских пар. Когда дали запрос о «разнообразной группе людей», инструмент ИИ Meta создал сетку из девяти лиц белых людей и одного человека другого цвета. Было несколько случаев, когда он создавал один результат, который верно отображал запрос, но в большинстве случаев он не мог точно отобразить указанный запрос.

По данным The Verge, есть и другие более «тонкие» признаки предвзятости ИИ Meta AI. Например, на сгенерированных изображениях заметна склонность отображать азиатских мужчин старше, а азиатские женщины — моложе. Генератор изображений также иногда добавлял «особую культурную одежду», даже если это не было частью введенного текста.

Непонятно, почему генеративный ИИ Meta сопротивляется прямым запросам. Компания пока не прокомментировала ситуацию, но ранее описывала Meta AI как «бета-версию», и поэтому она может работать с ошибками.

Психологічний профорієнтаційний тест для IT-фахівців від Ithillel.
Пройдіть психологічний профорієнтаційний тест для IT-фахівців щоб дізнатися ваші сильні сторони, вподобання і інтереси і з'ясувати, яка IT-спеціальність вам підходить.
Пройти тест

Это не первая генеративная модель искусственного интеллекта, которая странным образом создает изображения людей. Недавно Google приостановила возможность создания изображений людей с помощью Gemini после ошибок разнообразия. Позже Google объяснила, что ее внутренние меры предосторожности не учли ситуации, когда различные результаты были несоответствующими.

Источник: Engadget

Disqus Comments Loading...