Новини Технології 15.03.2023 о 13:47 comment views icon

Microsoft розпустила ключову команду, яка відповідала за «етичність» штучного інтелекту

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Авторка новин

Розділ Технології виходить за підтримки Favbet Tech

Під час останнього масштабного скорочення в Microsoft разом із 10 000 інших співробітників звільнили спеціалістів, які відповідали за «зменшення соціальної шкоди», якої можуть завдати ШІ-продукти корпорації. 

Ексспівробітники, з якими поспілкувався Platformer, сказали, що відповідали за зменшення ризиків, пов’язаних з використанням технології OpenAI у продуктах Microsoft. Команда розробила «набір інструментів відповідальних інновацій», щоб допомогти інженерам компанії передбачити, яку шкоду може завдати ШІ та применшити її.

Повідомлення про звільнення у ЗМІ з’явилась одразу після оголошення про запуск нового покоління мовної моделі ШІ GPT-4 — яка, як виявилось, вже давно працювала в пошуковику Bing.

Microsoft заявляла, що залишається «відданою безпечній і відповідальній розробці продуктів і засобів ШІ», а роботу команди з питань етики ШІ називала «новаторською». Протягом останніх 6 років компанія активно інвестувала у власний Офіс відповідальності ШІ та розширювала його.

Емілі Бендер, експертка Вашингтонського університету з комп’ютерної лінгвістики та етичних питань обробки природної мови, приєдналася до інших критиків, які засудили рішення Microsoft розпустити команду з етики ШІ. Бендер назвала рішення Microsoft «недалекоглядним»:

«Враховуючи, наскільки важкою є ця робота, будь-які значні скорочення людей тут небезпечні».

Онлайн-курс "QA Automation" від robot_dreams.
Це 70% практики, 30% теорії та проєкт у портфоліо.Навчіться запускати перевірку сотень опцій одночасно, натиснувши лише одну кнопку.
Детальніше про курс
  • Microsoft зосередила увагу на спеціалістах, які досліджували відповідальний ШІ ще у 2017 році. До 2020 року у команді працювала 30 спеціалістів. Але з жовтня 2022-го, коли стартували ШІ-перегони з Google, Microsoft почала переводити більшість спеціалістів в команди, що відповідають за конкретні продукти — тож у групі етики та суспільства залишилось лише 7 людей. 

Деякі звільнені співробітники розповіли, що Microsoft не завжди виконувала їхні рекомендації —  наприклад ті, що стосувалися Bing Image Creator і могли перешкодити йому копіювати художників. 

Восени корпоративний віцепрезидент Microsoft зі штучного інтелекту Джон Монтгомері сказав, що існує певний тиск, який змушує «передати найновіші моделі  OpenAI у руки клієнтів якомога швидше». Співробітники також попереджали Монтгомері  щодо потенційних негативних наслідків цієї стратегії.

Попри те, що кількість учасників команди з питань етики зменшилася, керівники Microsoft казали, що її не буде повністю ліквідовано. Але вже 6 березня під час зустрічі в Zoom заявили решті співробітників, що повний розпуск команди — «критично важливий для бізнесу».

Експертка Емілі Бендер сказала, що це рішення особливо розчаровує, оскільки Microsoft «вдалось зібрати справді чудових людей, які працюють над штучним інтелектом, етикою та впливом технологій на суспільство». Але дії компанії демонструють, що Microsoft сприймає рекомендації команди «як такі, що суперечать заробітку грошей».

«Найгірше те, що ми піддали ризику бізнес і людей», — сказав Platformer один колишній співробітник.

Онлайн-курс "QA Automation" від robot_dreams.
Це 70% практики, 30% теорії та проєкт у портфоліо.Навчіться запускати перевірку сотень опцій одночасно, натиснувши лише одну кнопку.
Детальніше про курс

Коли Microsoft оновила Bing, користувачі виявили, що ШІ-чатбот (який має зараз понад 100 млн активних користувачів щомісяця) часто дезінформує чи навіть ображає людей. Бендер наполягає на залученні регуляторів до контролю над ШІ.

«Я думаю, що кожен користувач, який стикається з ШІ, повинен мати чітке уявлення про те, з чим він працює. І я не бачу жодної компанії, яка добре справляється з цим», — каже Бендер. 

Доки не буде встановлено належних правил та надано прозорої інформації щодо потенційної шкоди, Бендер рекомендує користувачам «не брати до уваги медичні, юридичні чи психологічні поради ШІ».

Відтепер за наслідки роботи ШІ в Microsoft відповідатиме Управління відповідального штучного інтелекту, сказали представники компанії. 

Джерело: Arstechnica

Розділ Технології виходить за підтримки Favbet Tech

Favbet Tech – це ІТ-компанія зі 100% українською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологій та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців. IT-компанія входить у групу компаній FAVBET.


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: