Microsoft распустила ключевую команду, отвечавшую за «этичность» искусственного интеллекта

Опубликовал
Катерина Даньшина

Во время последнего масштабного сокращения в Microsoft вместе с 10 000 других сотрудников уволили специалистов, отвечающих за «уменьшение социального ущерба», который могут нанести ИИ-продукты корпорации.

Экс-сотрудники, с которыми пообщался Platformer, сказали, что отвечали за уменьшение рисков, связанных с использованием технологии OpenAI в продуктах Microsoft. Команда разработала «набор инструментов ответственных инноваций», чтобы помочь инженерам компании предсказать, какой вред может нанести ИИ и уменьшить его.

Сообщение об увольнении в СМИ появились сразу после объявления о запуске нового поколения языковой модели ИИ GPT-4, которая, как оказалось, уже давно работала в поисковике Bing.

Microsoft заявляла, что остается «преданной безопасной и ответственной разработке продуктов и средств ИИ», а работу команды по этике ИИ называла «новаторской». На протяжении последних 6 лет компания активно инвестировала в собственный Офис ответственности ИИ и расширяла его.

Онлайн-курс "Комунікаційний менеджер" від Skvot.
Ви отримаєте скіли комунікації, сформуєте CV та розробите власну one page strategy. Для своєї карʼєри та успішного масштабування бренду.
Програма курсу і реєстрація

Эмили Бендер, эксперт Вашингтонского университета по компьютерной лингвистике и этическим вопросам обработки естественного языка, присоединилась к другим критикам, осудившим решение Microsoft распустить команду по этике ИИ. Бендер назвала решение Microsoft «недальновидным»:

«Учитывая, насколько тяжелая эта работа, любые значительные сокращения людей здесь опасны».

  • Microsoft сосредоточила внимание на специалистах, исследовавших ответственный ИИ еще в 2017 году. До 2020 года в команде работало 30 специалистов. Но с октября 2022-го, когда стартовала ИИ-гонка с Google, Microsoft начала переводить большинство специалистов в команды, отвечающие за конкретные продукты — поэтому в группе этики осталось всего 7 человек.

Некоторые уволенные сотрудники рассказали, что Microsoft не всегда выполняла их рекомендации — например, те, которые касались Bing Image Creator и могли помешать ему копировать художников.

Осенью корпоративный вице-президент Microsoft по искусственному интеллекту Джон Монтгомери сказал, что существует определенное давление, которое заставляет «передать новейшие модели OpenAI в руки клиентов как можно скорее». Сотрудники также предупреждали Монтгомери о потенциальных негативных последствиях этой стратегии.

Несмотря на то, что количество участников команды по этике уменьшилось, руководители Microsoft говорили, что она не будет полностью ликвидирована. Но уже 6 марта во время встречи в Zoom заявили остальным сотрудникам, что полный роспуск команды — «критически важный для бизнеса».

Эмили Бендер сказала, что это решение особенно разочаровывает, поскольку Microsoft «удалось собрать действительно замечательных людей, работающих над искусственным интеллектом, этикой и влиянием технологий на общество». Но действия компании демонстрируют, что Microsoft воспринимает рекомендации команды «как противоречащие заработку денег».

«Хуже всего, что мы подвергли риску бизнес и людей», — сказал Platformer один бывший сотрудник.

Когда Microsoft обновила Bing, пользователи обнаружили, что чат-бот (который сейчас имеет более 100 млн активных пользователей ежемесячно) часто дезинформирует или даже оскорбляет людей. Бендер настаивает на привлечении регуляторов к контролю над ИИ.

«Я думаю, что каждый пользователь, сталкивающийся с ИИ, должен иметь четкое представление о том, с чем он работает. И я не вижу ни одной компании, которая хорошо справляется с этим», – говорит Бендер.

Пока не будут установлены надлежащие правила и предоставлена прозрачная информация о потенциальном вреде, Бендер рекомендует пользователям «не принимать во внимание медицинские, юридические или психологические советы ИИ».

Теперь за последствия работы ИИ в Microsoft будет отвечать Управление ответственного искусственного интеллекта, сказали представители компании.

Источник: Arstechnica

Disqus Comments Loading...