Рубрики НовостиWTF

Американка Рона Вонг попросила у ИИ фото для LinkedIn – Playground AI сделал ее белой

Опубликовал
Андрей Русанов

Американка азиатского происхождения Рона Вонг была неприятно удивлена, когда попросила ИИ сделать ей наиболее «профессиональное» фото для профиля в LinkedIn. Генеративная модель Playground AI изменила черты внешности девушки, сделав ее белой.

Как известно, социальная сеть LinkedIn используется для поддержания профессиональных контактов и поиска вакансий. Контекст делает ситуацию намного более неприемлемой: получается, ИИ считает, что человеку с такой внешностью легче найти работу?

24-летняя выпускница MIT, Рона Вонг изучала математику, информатику и закончила аспирантуру прошлой осенью. Она буквально попросила «дать девушке с оригинальной фотографии профессиональное фото для профиля LinkedIn». В ответ на этот запрос ИИ сделал ее глаза более широкими и голубыми, осветлил кожу и и европеизировал другие черты.

«Первой моей реакцией на результат было удивление. Однако я рада видеть, что это стало катализатором более широкой дискуссии о предвзятости ИИ … Расовая предвзятость является постоянной проблемой инструментов ИИ. Я до сих пор не получила пригодных для использования результатов от генераторов фото или ИИ-редакторов изображений, поэтому пока мне придется обходиться без новой фотографии профиля LinkedIn».

Вонг высказалась и о схожей проблеме на другом конце связки «соискатель-работодатель»: если компании используют ИИ для поиска сотрудников, модели могут подбирать им кандидатов по тому же принципу – наиболее похожих на белых.

«Я определенно думаю, что это проблема. Я надеюсь, что люди, которые создают программное обеспечение, знают об этих предубеждениях и думают о том, как их смягчить».

Основатель Playground AI Сухейл Доши ответил девушке: «Модели не являются инструктируемыми, поэтому они выбирают любую общую вещь на основе подсказки. К сожалению, они недостаточно умны. Рад помочь вам получить результат, но это потребует немного больше усилий».

Недавнее исследование компании Hugging Face, специализирующейся на искусственном интеллекте, показало, что ИИ-генераторы изображений имеют проблемы с гендерными и расовыми предубеждениями.

Исследователи выяснили, что когда DALL-E2 предлагали создать изображения людей на руководящих должностях, в 97% случаев он создавал изображения белых мужчин.
Это объяснили тем, что ИИ был обучен на предвзятых данных, которые усиливают стереотипы.

Источники: Boston Globe, Insider

Disqus Comments Loading...