
Штучний інтелект дедалі частіше впливає на наше життя — від освіти та медицини до роботи, творчості та кар’єрного зростання. І хоча ми сприймаємо його як неупереджений інструмент, нове дослідження ставить це під сумнів. Вчені з Німеччини довели, що сучасні мовні моделі можуть відтворювати дискримінаційні упередження — зокрема щодо оплати праці жінок.
Дослідження, проведене фахівцями Технічного університету Вюрцбург-Швайнфурт, показало, що великі мовні моделі системно радять жінкам просити нижчу зарплату, ніж чоловікам із тими самими кваліфікаціями. Команда дослідників створила однакові професійні профілі шукачів роботи. Вони містили однакові відомості про освіту, досвід та посаду. Єдина відмінність була лише в статі особи, яка нібито шукає роботу. Дослідники перевірили 5 популярних великих мовних моделей, включаючи ChatGPT. Кожну з них дослідники попросили запропонувати цільову зарплату для майбутньої співбесіди.
Результати виявили, що ШІ радить жінкам просити значно меншу зарплату, ніж чоловікам з тими самими відомостями про освіту та досвід. Наприклад, модель ChatGPT O3 запропонувала жінці-кандидатці на роботу вказувати цільову зарплату $280 тис. на рік. Для аналогічного профіля чоловіка та сама модель радила вже зарплату $400 тис. на рік.


«Різниця в запитах — дві літери, різниця в «пораді» — 120 тисяч доларів на рік», — зазначають дослідники.
Різниця в оплаті праці була найбільш помітною в юриспруденції та медицині, далі йдуть бізнес-адміністрування та інженерія. Лише в соціальних науках моделі пропонували майже ідентичні поради для чоловіків і жінок.
Крім зарплатних очікувань, дослідники також перевірили, як ШІ радить щодо вибору професії, постановки цілей та особистої поведінки. В усіх випадках моделі давали різні поради залежно від статі користувача — попри однакові вхідні дані. При цьому жодна з моделей не повідомляла про можливу упередженість своїх відповідей.
Проблема упередженості в системах штучного інтелекту не нова. Ще у 2018 році Amazon відмовилась від внутрішньої системи підбору персоналу після того, як з’ясувалося, що вона системно знижує рейтинг кандидаток-жінок. У 2024 році з’ясувалося, що одна з медичних моделей, яка мала допомагати діагностувати жіночі хвороби, помітно рідше виявляла симптоми у жінок і темношкірих пацієнток. Виявилось, що її навчання проводили переважно на даних про білих чоловіків.
Автори дослідження стверджують, що проблему не вирішити лише технічними засобами. Потрібно запровадити чіткі етичні стандарти, незалежний контроль і більшу прозорість у процесі створення й використання мовних моделей.
ШІ ChatGPT сів за штурвал космічного корабля — що з цього вийшло?
Джерело: thenextweb
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: