Новини IT-бізнес 20.11.2023 о 14:36 comment views icon

Meta розформувала Responsible AI — підрозділ, що відповідає за «‎безпеку» штучного інтелекту

author avatar

Катерина Даньшина

Авторка новин

Більшість працівників переведуть до команд, які займаються генеративним штучним інтелектом та ШІ-інфраструктурою.

За словами представника Meta, компанія розформувала свій підрозділ Responsible AI — команду, яка займалася регулюванням безпеки продуктів штучного інтелекту під час їх розробки та розгортання.

Більшість членів команди переведуть до підрозділу продуктів Generative AI, а деякі працюватимуть у команді інфраструктури ШІ. Команда Generative AI, створена в лютому, зосереджена на розробці продуктів, які генерують текст та зображення, подібні до створеного людиною.

Meta нині перебуває у статусі компанії, що наздоганяє лідерів у перегонах ШІ. Раніше Марк Цукерберг оголосив 2023-й «‎роком ефективності» — і поки це відобразились лише потоком звільнень, злиттів та переформатування команд.

Безпека ШІ нині стала пріоритетною, оскільки все більше урядів звертають увагу на потенційну шкоду від новонароджених технологій. У липні Anthropic, Google, Microsoft і OpenAI створили галузеву групу, яка зосереджена на встановленні стандартів безпеки в міру розвитку ШІ.

Хоча співробітники Responsible AI зараз розосереджені по всій організації, речник Meta зазначив, що компанія продовжить підтримувати «відповідальну розробку та використання ШІ», але не уточнив яким чином. Раніше Meta опублікувала на своїй сторінці п’ять основних правил, яким послуговуватиметься під час розробки продуктів штучного інтелекту (включаючи підзвітність, прозорість, безпеку, конфіденційність тощо).

На початку року команда Responsible AI вже пережила реструктуризацію, яка зробила підрозділ лише «‎оболонкою». Команда мала незначну автономію, а її ініціативи повинні були проходити через тривалі переговори із зацікавленими сторонами, перш ніж їх можна було реалізувати.

Одне із завдань Responsible AI — виявлення проблем з автоматизованими системами ШІ на платформах компанії, зокрема й в тому, що стосується модерації. І, згадуючи лише кілька з них (як-от арешт через проблеми перекладу; «‎упереджені» стікери; алгоритми, що рекомендують матеріали з сексуальним насиллям над дітьми, та зрештою бан дописів українців про війну), здається, що команда не надто добре справлялася з роботою.

Джерело: CNBC, The Verge


Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: