Блоги

США не станут доверять ИИ управление стратегическим вооружением

США не станут доверять ИИ управление стратегическим вооружением

Объединенный центр искусственного интеллекта, подразделение Министерства обороны США, отвечающее за разработку и внедрение военных ИИ-систем, не станет делать полностью автономными центры управления стратегическим вооружением. Об этом, как пишет Breaking Defense, заявил начальник подведомства генерал-лейтенант Джек Шэнэхэн на конференции в Джорджтаунском университете.

По его словам, в целом руководство Центра выступает за максимально плотную интеграцию систем с искусственным интеллектом в военные решения. Предполагается, что автономные технологии могут быть полезны для быстрого анализа разведывательной информации, поиска, распознавания и приоритезации целей и других похожих задач, включая и наведение вооружения  и прицельное ведение огня.

«Мы определенно задействуем ИИ в наших системах вооружения, чтобы иметь преимущество. Это необходимо прежде всего для спасения жизней [солдат], для принятия наиболее взвешенных решений, которые позволят минимизировать риски для гражданского населения, и для политики сдерживания», — подчеркивает Шэнэхэн.

Однако решение о применении оружия — любого, в том числе стратегического, включающего ядерный арсенал, — утверждает генерал-лейтенант, должно оставаться за человеком ввиду несовершенства технологий.

США не станут доверять ИИ управление стратегическим вооружением
Генерал-лейтенант Джек Шэнэхэн.

Помимо этого, руководитель Объединенного центра призвал не соотносить сценарий «Терминатора» с реальной жизнью. Он подчеркнул, что американские вооруженные силы традиционно не спешат с внедрением новых технологий, а потому шансы того, что военный ИИ может выйти из-под контроля, — минимальны.

«Прежде чем какая-либо технология берется на вооружение, ее тщательно тестируют в лаборатории, экспериментально и в симуляциях, затем ее внедряют на практике для применения в конкретных узких сценариях, опять тестируют, и лишь после этого начинается ее полноценное развертывание.

Мы так поступали со всеми технологиями, и ИИ не станет исключением. Для начала мы попробуем оснастить им, скажем, дрон и отправить его на разведку в пещеру, и лишь если ему удастся выполнить задание, мы приступим к следующему этапу. Такой подход обеспечит полную предсказуемость технологии», — указал Шэнэхэн, добавив, что столь пристальное внимание к новым решениям дает американским военным, в сравнении с китайскими и российскими коллегами, преимущество в виде использования исключительно надежных технологий, возможности и ограничения которых точно задокументированы.

Вместе с тем, генерал-лейтенант заявил о необходимости создать в Объединенном центре должность специалиста по техноэтике, задача которого будет заключаться в том, чтобы пристально следить за соблюдением этических стандартов при внедрении новейших военных решений.

«[Технологическая этика] — это не то, что находится в фокусе моего внимания, поскольку мои задачи носят более практический характер. Тем не менее, мне ясно, что мы должны быть осторожны с технологиями искусственного интеллекта и что нам нужен человек, который бы прорабатывал такие глубокие философские вопросы», — указал Шэнэхэн.

В довершение всего он высказался против возможного «глобального запрета роботов-убийц», который предлагают ввести противники систем автономного вооружения. С точки зрения главы Объединенного центра искусственного интеллекта, куда эффективнее было бы разработать международные правила и нормы, регулирующие данную сферу и определяющие допустимое и недопустимое поведение, нежели ввести «формальный запрет», который в конечном итоге все равно будут игнорировать.

«ИИ — это, по большому счету, коммерческая технология. Она просто нашла применение в том числе в военном секторе. [Поскольку запретить ее в принципе не представляется возможным], попытки ввести запрет на ее использование военными обречены на провал», — отметил Шэнэхэн.

Источник: N+1


Завантаження коментарів...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: