Meta розформувала Responsible AI — підрозділ, що відповідає за «‎безпеку» штучного інтелекту

Опубликовал
Катерина Даньшина

Більшість працівників переведуть до команд, які займаються генеративним штучним інтелектом та ШІ-інфраструктурою.

За словами представника Meta, компанія розформувала свій підрозділ Responsible AI — команду, яка займалася регулюванням безпеки продуктів штучного інтелекту під час їх розробки та розгортання.

Більшість членів команди переведуть до підрозділу продуктів Generative AI, а деякі працюватимуть у команді інфраструктури ШІ. Команда Generative AI, створена в лютому, зосереджена на розробці продуктів, які генерують текст та зображення, подібні до створеного людиною.

Meta нині перебуває у статусі компанії, що наздоганяє лідерів у перегонах ШІ. Раніше Марк Цукерберг оголосив 2023-й «‎роком ефективності» — і поки це відобразились лише потоком звільнень, злиттів та переформатування команд.

Онлайн курс з промт інжинірингу та ефективної роботи з ШІ від Powercode academy.
Курс-інтенсив для отримання навичок роботи з ChatGPT та іншими інструментами ШІ для професійних та особистих задач, котрі допоможуть як новачку, так і професіоналу.
Записатися на курс

Безпека ШІ нині стала пріоритетною, оскільки все більше урядів звертають увагу на потенційну шкоду від новонароджених технологій. У липні Anthropic, Google, Microsoft і OpenAI створили галузеву групу, яка зосереджена на встановленні стандартів безпеки в міру розвитку ШІ.

Хоча співробітники Responsible AI зараз розосереджені по всій організації, речник Meta зазначив, що компанія продовжить підтримувати «відповідальну розробку та використання ШІ», але не уточнив яким чином. Раніше Meta опублікувала на своїй сторінці п’ять основних правил, яким послуговуватиметься під час розробки продуктів штучного інтелекту (включаючи підзвітність, прозорість, безпеку, конфіденційність тощо).

На початку року команда Responsible AI вже пережила реструктуризацію, яка зробила підрозділ лише «‎оболонкою». Команда мала незначну автономію, а її ініціативи повинні були проходити через тривалі переговори із зацікавленими сторонами, перш ніж їх можна було реалізувати.

Одне із завдань Responsible AI — виявлення проблем з автоматизованими системами ШІ на платформах компанії, зокрема й в тому, що стосується модерації. І, згадуючи лише кілька з них (як-от арешт через проблеми перекладу; «‎упереджені» стікери; алгоритми, що рекомендують матеріали з сексуальним насиллям над дітьми, та зрештою бан дописів українців про війну), здається, що команда не надто добре справлялася з роботою.

Джерело: CNBC, The Verge

Disqus Comments Loading...