
Искусственный интеллект все чаще и чаще влияет на нашу жизнь — от образования и медицины до работы, творчества и карьерного роста. И хотя мы воспринимаем его как беспристрастный инструмент, новое исследование ставит это под сомнение. Ученые из Германии доказали, что современные языковые модели могут воспроизводить дискриминационные предубеждения — в частности по оплате труда женщин.
Исследование, проведенное специалистами Технического университета Вюрцбург-Швайнфурт, показало, что большие языковые модели системно советуют женщинам просить меньшую зарплату, чем мужчинам с теми же квалификациями. Команда исследователей создала одинаковые профессиональные профили соискателей работы. Они содержали одинаковые сведения об образовании, опыте и должности. Единственное отличие было только в поле лица, которое якобы ищет работу. Исследователи проверили 5 популярных крупных языковых моделей, включая ChatGPT. Каждую из них исследователи попросили предложить целевую зарплату для будущего собеседования.
Результаты показали, что ИИ советует женщинам просить значительно меньшую зарплату, чем мужчинам с теми же сведениями об образовании и опыте. Например, модель ChatGPT O3 предложила женщине-кандидату на работу указывать целевую зарплату $280 тыс. в год. Для аналогичного профиля мужчины та же модель советовала уже зарплату $400 тыс. в год.


«Разница в запросах — две буквы, разница в «советах» — 120 тысяч долларов в год», — отмечают исследователи.
Разница в оплате труда была наиболее заметной в юриспруденции и медицине, далее следуют бизнес-администрирование и инженерия. Только в социальных науках модели предлагали почти идентичные советы для мужчин и женщин.
Кроме зарплатных ожиданий, исследователи также проверили, как ИИ советует относительно выбора профессии, постановки целей и личного поведения. Во всех случаях модели давали разные советы в зависимости от пола пользователя — несмотря на одинаковые входные данные. При этом ни одна из моделей не сообщала о возможной предвзятости своих ответов.
Проблема предвзятости в системах искусственного интеллекта не нова. Еще в 2018 году Amazon отказалась от внутренней системы подбора персонала после того, как выяснилось, что она системно занижает рейтинг кандидатов-женщин. В 2024 году выяснилось, что одна из медицинских моделей, которая должна была помогать диагностировать женские болезни, заметно реже выявляла симптомы у женщин и темнокожих пациенток. Оказалось, что ее обучение проводили преимущественно на данных о белых мужчинах.
Авторы исследования утверждают, что проблему не решить только техническими средствами. Нужно ввести четкие этические стандарты, независимый контроль и большую прозрачность в процессе создания и использования языковых моделей.
ИИ ChatGPT сел за штурвал космического корабля — что из этого вышло?
Источник: thenextweb
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: