Во время последнего масштабного сокращения в Microsoft вместе с 10 000 других сотрудников уволили специалистов, отвечающих за «уменьшение социального ущерба», который могут нанести ИИ-продукты корпорации.
Экс-сотрудники, с которыми пообщался Platformer, сказали, что отвечали за уменьшение рисков, связанных с использованием технологии OpenAI в продуктах Microsoft. Команда разработала «набор инструментов ответственных инноваций», чтобы помочь инженерам компании предсказать, какой вред может нанести ИИ и уменьшить его.
Сообщение об увольнении в СМИ появились сразу после объявления о запуске нового поколения языковой модели ИИ GPT-4, которая, как оказалось, уже давно работала в поисковике Bing.
Microsoft заявляла, что остается «преданной безопасной и ответственной разработке продуктов и средств ИИ», а работу команды по этике ИИ называла «новаторской». На протяжении последних 6 лет компания активно инвестировала в собственный Офис ответственности ИИ и расширяла его.
Эмили Бендер, эксперт Вашингтонского университета по компьютерной лингвистике и этическим вопросам обработки естественного языка, присоединилась к другим критикам, осудившим решение Microsoft распустить команду по этике ИИ. Бендер назвала решение Microsoft «недальновидным»:
«Учитывая, насколько тяжелая эта работа, любые значительные сокращения людей здесь опасны».
- Microsoft сосредоточила внимание на специалистах, исследовавших ответственный ИИ еще в 2017 году. До 2020 года в команде работало 30 специалистов. Но с октября 2022-го, когда стартовала ИИ-гонка с Google, Microsoft начала переводить большинство специалистов в команды, отвечающие за конкретные продукты — поэтому в группе этики осталось всего 7 человек.
Некоторые уволенные сотрудники рассказали, что Microsoft не всегда выполняла их рекомендации — например, те, которые касались Bing Image Creator и могли помешать ему копировать художников.
Осенью корпоративный вице-президент Microsoft по искусственному интеллекту Джон Монтгомери сказал, что существует определенное давление, которое заставляет «передать новейшие модели OpenAI в руки клиентов как можно скорее». Сотрудники также предупреждали Монтгомери о потенциальных негативных последствиях этой стратегии.
Несмотря на то, что количество участников команды по этике уменьшилось, руководители Microsoft говорили, что она не будет полностью ликвидирована. Но уже 6 марта во время встречи в Zoom заявили остальным сотрудникам, что полный роспуск команды — «критически важный для бизнеса».
Эмили Бендер сказала, что это решение особенно разочаровывает, поскольку Microsoft «удалось собрать действительно замечательных людей, работающих над искусственным интеллектом, этикой и влиянием технологий на общество». Но действия компании демонстрируют, что Microsoft воспринимает рекомендации команды «как противоречащие заработку денег».
«Хуже всего, что мы подвергли риску бизнес и людей», — сказал Platformer один бывший сотрудник.
Когда Microsoft обновила Bing, пользователи обнаружили, что чат-бот (который сейчас имеет более 100 млн активных пользователей ежемесячно) часто дезинформирует или даже оскорбляет людей. Бендер настаивает на привлечении регуляторов к контролю над ИИ.
«Я думаю, что каждый пользователь, сталкивающийся с ИИ, должен иметь четкое представление о том, с чем он работает. И я не вижу ни одной компании, которая хорошо справляется с этим», – говорит Бендер.
Пока не будут установлены надлежащие правила и предоставлена прозрачная информация о потенциальном вреде, Бендер рекомендует пользователям «не принимать во внимание медицинские, юридические или психологические советы ИИ».
Теперь за последствия работы ИИ в Microsoft будет отвечать Управление ответственного искусственного интеллекта, сказали представители компании.
Источник: Arstechnica