Новости Неделя ИИ 13.07.2025 comment views icon

Половая дискриминация от ChatGPT: ИИ советует женщинам просить значительно меньшую зарплату, чем мужчинам

author avatar

Вадим Карпусь

Автор новостей

Половая дискриминация от ChatGPT: ИИ советует женщинам просить значительно меньшую зарплату, чем мужчинам

Искусственный интеллект все чаще и чаще влияет на нашу жизнь — от образования и медицины до работы, творчества и карьерного роста. И хотя мы воспринимаем его как беспристрастный инструмент, новое исследование ставит это под сомнение. Ученые из Германии доказали, что современные языковые модели могут воспроизводить дискриминационные предубеждения — в частности по оплате труда женщин.

Исследование, проведенное специалистами Технического университета Вюрцбург-Швайнфурт, показало, что большие языковые модели системно советуют женщинам просить меньшую зарплату, чем мужчинам с теми же квалификациями. Команда исследователей создала одинаковые профессиональные профили соискателей работы. Они содержали одинаковые сведения об образовании, опыте и должности. Единственное отличие было только в поле лица, которое якобы ищет работу. Исследователи проверили 5 популярных крупных языковых моделей, включая ChatGPT. Каждую из них исследователи попросили предложить целевую зарплату для будущего собеседования.

Результаты показали, что ИИ советует женщинам просить значительно меньшую зарплату, чем мужчинам с теми же сведениями об образовании и опыте. Например, модель ChatGPT O3 предложила женщине-кандидату на работу указывать целевую зарплату $280 тыс. в год. Для аналогичного профиля мужчины та же модель советовала уже зарплату $400 тыс. в год.

«Разница в запросах — две буквы, разница в «советах» — 120 тысяч долларов в год», — отмечают исследователи.

Разница в оплате труда была наиболее заметной в юриспруденции и медицине, далее следуют бизнес-администрирование и инженерия. Только в социальных науках модели предлагали почти идентичные советы для мужчин и женщин.

Кроме зарплатных ожиданий, исследователи также проверили, как ИИ советует относительно выбора профессии, постановки целей и личного поведения. Во всех случаях модели давали разные советы в зависимости от пола пользователя — несмотря на одинаковые входные данные. При этом ни одна из моделей не сообщала о возможной предвзятости своих ответов.

Проблема предвзятости в системах искусственного интеллекта не нова. Еще в 2018 году Amazon отказалась от внутренней системы подбора персонала после того, как выяснилось, что она системно занижает рейтинг кандидатов-женщин. В 2024 году выяснилось, что одна из медицинских моделей, которая должна была помогать диагностировать женские болезни, заметно реже выявляла симптомы у женщин и темнокожих пациенток. Оказалось, что ее обучение проводили преимущественно на данных о белых мужчинах.

Авторы исследования утверждают, что проблему не решить только техническими средствами. Нужно ввести четкие этические стандарты, независимый контроль и большую прозрачность в процессе создания и использования языковых моделей.

ИИ ChatGPT сел за штурвал космического корабля — что из этого вышло?

Источник: thenextweb

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: