Новини IT-бізнес 20.11.2023 о 14:36 comment views icon

Meta розформувала Responsible AI — підрозділ, що відповідає за «‎безпеку» штучного інтелекту

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Авторка новин

Більшість працівників переведуть до команд, які займаються генеративним штучним інтелектом та ШІ-інфраструктурою.

За словами представника Meta, компанія розформувала свій підрозділ Responsible AI — команду, яка займалася регулюванням безпеки продуктів штучного інтелекту під час їх розробки та розгортання.

Більшість членів команди переведуть до підрозділу продуктів Generative AI, а деякі працюватимуть у команді інфраструктури ШІ. Команда Generative AI, створена в лютому, зосереджена на розробці продуктів, які генерують текст та зображення, подібні до створеного людиною.

Meta нині перебуває у статусі компанії, що наздоганяє лідерів у перегонах ШІ. Раніше Марк Цукерберг оголосив 2023-й «‎роком ефективності» — і поки це відобразились лише потоком звільнень, злиттів та переформатування команд.

Безпека ШІ нині стала пріоритетною, оскільки все більше урядів звертають увагу на потенційну шкоду від новонароджених технологій. У липні Anthropic, Google, Microsoft і OpenAI створили галузеву групу, яка зосереджена на встановленні стандартів безпеки в міру розвитку ШІ.

Хоча співробітники Responsible AI зараз розосереджені по всій організації, речник Meta зазначив, що компанія продовжить підтримувати «відповідальну розробку та використання ШІ», але не уточнив яким чином. Раніше Meta опублікувала на своїй сторінці п’ять основних правил, яким послуговуватиметься під час розробки продуктів штучного інтелекту (включаючи підзвітність, прозорість, безпеку, конфіденційність тощо).

Курс Power Skills For Tech від Enlgish4IT.
Зменшіть кількість непорозумінь на робочому місці та станьте більш ефективним у спілкуванні в мультикультурній команді. Отримайте знижку 10% за промокодом ITCENG.
Реєстрація на курс

На початку року команда Responsible AI вже пережила реструктуризацію, яка зробила підрозділ лише «‎оболонкою». Команда мала незначну автономію, а її ініціативи повинні були проходити через тривалі переговори із зацікавленими сторонами, перш ніж їх можна було реалізувати.

Одне із завдань Responsible AI — виявлення проблем з автоматизованими системами ШІ на платформах компанії, зокрема й в тому, що стосується модерації. І, згадуючи лише кілька з них (як-от арешт через проблеми перекладу; «‎упереджені» стікери; алгоритми, що рекомендують матеріали з сексуальним насиллям над дітьми, та зрештою бан дописів українців про війну), здається, що команда не надто добре справлялася з роботою.

Джерело: CNBC, The Verge


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: