Microsoft розпустила ключову команду, яка відповідала за «етичність» штучного інтелекту

Опубликовал
Катерина Даньшина

Під час останнього масштабного скорочення в Microsoft разом із 10 000 інших співробітників звільнили спеціалістів, які відповідали за «зменшення соціальної шкоди», якої можуть завдати ШІ-продукти корпорації. 

Ексспівробітники, з якими поспілкувався Platformer, сказали, що відповідали за зменшення ризиків, пов’язаних з використанням технології OpenAI у продуктах Microsoft. Команда розробила «набір інструментів відповідальних інновацій», щоб допомогти інженерам компанії передбачити, яку шкоду може завдати ШІ та применшити її.

Повідомлення про звільнення у ЗМІ з’явилась одразу після оголошення про запуск нового покоління мовної моделі ШІ GPT-4 — яка, як виявилось, вже давно працювала в пошуковику Bing.

Microsoft заявляла, що залишається «відданою безпечній і відповідальній розробці продуктів і засобів ШІ», а роботу команди з питань етики ШІ називала «новаторською». Протягом останніх 6 років компанія активно інвестувала у власний Офіс відповідальності ШІ та розширювала його.

Курс-професія "Junior Data Analyst" від robot_dreams.
Комплексний курc для всіх, хто хоче опанувати нову професію з нуля.На прикладі реальних датасетів ви розберете кожен етап аналізу даних.
Програма курсу і реєстрація

Емілі Бендер, експертка Вашингтонського університету з комп’ютерної лінгвістики та етичних питань обробки природної мови, приєдналася до інших критиків, які засудили рішення Microsoft розпустити команду з етики ШІ. Бендер назвала рішення Microsoft «недалекоглядним»:

«Враховуючи, наскільки важкою є ця робота, будь-які значні скорочення людей тут небезпечні».

  • Microsoft зосередила увагу на спеціалістах, які досліджували відповідальний ШІ ще у 2017 році. До 2020 року у команді працювала 30 спеціалістів. Але з жовтня 2022-го, коли стартували ШІ-перегони з Google, Microsoft почала переводити більшість спеціалістів в команди, що відповідають за конкретні продукти — тож у групі етики та суспільства залишилось лише 7 людей.

Деякі звільнені співробітники розповіли, що Microsoft не завжди виконувала їхні рекомендації —  наприклад ті, що стосувалися Bing Image Creator і могли перешкодити йому копіювати художників. 

Восени корпоративний віцепрезидент Microsoft зі штучного інтелекту Джон Монтгомері сказав, що існує певний тиск, який змушує «передати найновіші моделі  OpenAI у руки клієнтів якомога швидше». Співробітники також попереджали Монтгомері  щодо потенційних негативних наслідків цієї стратегії.

Попри те, що кількість учасників команди з питань етики зменшилася, керівники Microsoft казали, що її не буде повністю ліквідовано. Але вже 6 березня під час зустрічі в Zoom заявили решті співробітників, що повний розпуск команди — «критично важливий для бізнесу».

Експертка Емілі Бендер сказала, що це рішення особливо розчаровує, оскільки Microsoft «вдалось зібрати справді чудових людей, які працюють над штучним інтелектом, етикою та впливом технологій на суспільство». Але дії компанії демонструють, що Microsoft сприймає рекомендації команди «як такі, що суперечать заробітку грошей».

«Найгірше те, що ми піддали ризику бізнес і людей», — сказав Platformer один колишній співробітник.

Коли Microsoft оновила Bing, користувачі виявили, що ШІ-чатбот (який має зараз понад 100 млн активних користувачів щомісяця) часто дезінформує чи навіть ображає людей. Бендер наполягає на залученні регуляторів до контролю над ШІ.

«Я думаю, що кожен користувач, який стикається з ШІ, повинен мати чітке уявлення про те, з чим він працює. І я не бачу жодної компанії, яка добре справляється з цим», — каже Бендер. 

Доки не буде встановлено належних правил та надано прозорої інформації щодо потенційної шкоди, Бендер рекомендує користувачам «не брати до уваги медичні, юридичні чи психологічні поради ШІ».

Відтепер за наслідки роботи ШІ в Microsoft відповідатиме Управління відповідального штучного інтелекту, сказали представники компанії. 

Джерело: Arstechnica

Disqus Comments Loading...