Блоги
США не станут доверять ИИ управление стратегическим вооружением

США не станут доверять ИИ управление стратегическим вооружением

США не станут доверять ИИ управление стратегическим вооружением


Объединенный центр искусственного интеллекта, подразделение Министерства обороны США, отвечающее за разработку и внедрение военных ИИ-систем, не станет делать полностью автономными центры управления стратегическим вооружением. Об этом, как пишет Breaking Defense, заявил начальник подведомства генерал-лейтенант Джек Шэнэхэн на конференции в Джорджтаунском университете.

По его словам, в целом руководство Центра выступает за максимально плотную интеграцию систем с искусственным интеллектом в военные решения. Предполагается, что автономные технологии могут быть полезны для быстрого анализа разведывательной информации, поиска, распознавания и приоритезации целей и других похожих задач, включая и наведение вооружения  и прицельное ведение огня.

«Мы определенно задействуем ИИ в наших системах вооружения, чтобы иметь преимущество. Это необходимо прежде всего для спасения жизней [солдат], для принятия наиболее взвешенных решений, которые позволят минимизировать риски для гражданского населения, и для политики сдерживания», — подчеркивает Шэнэхэн.

Однако решение о применении оружия — любого, в том числе стратегического, включающего ядерный арсенал, — утверждает генерал-лейтенант, должно оставаться за человеком ввиду несовершенства технологий.

Генерал-лейтенант Джек Шэнэхэн.

Помимо этого, руководитель Объединенного центра призвал не соотносить сценарий «Терминатора» с реальной жизнью. Он подчеркнул, что американские вооруженные силы традиционно не спешат с внедрением новых технологий, а потому шансы того, что военный ИИ может выйти из-под контроля, — минимальны.

«Прежде чем какая-либо технология берется на вооружение, ее тщательно тестируют в лаборатории, экспериментально и в симуляциях, затем ее внедряют на практике для применения в конкретных узких сценариях, опять тестируют, и лишь после этого начинается ее полноценное развертывание.

Мы так поступали со всеми технологиями, и ИИ не станет исключением. Для начала мы попробуем оснастить им, скажем, дрон и отправить его на разведку в пещеру, и лишь если ему удастся выполнить задание, мы приступим к следующему этапу. Такой подход обеспечит полную предсказуемость технологии», — указал Шэнэхэн, добавив, что столь пристальное внимание к новым решениям дает американским военным, в сравнении с китайскими и российскими коллегами, преимущество в виде использования исключительно надежных технологий, возможности и ограничения которых точно задокументированы.

Вместе с тем, генерал-лейтенант заявил о необходимости создать в Объединенном центре должность специалиста по техноэтике, задача которого будет заключаться в том, чтобы пристально следить за соблюдением этических стандартов при внедрении новейших военных решений.

«[Технологическая этика] — это не то, что находится в фокусе моего внимания, поскольку мои задачи носят более практический характер. Тем не менее, мне ясно, что мы должны быть осторожны с технологиями искусственного интеллекта и что нам нужен человек, который бы прорабатывал такие глубокие философские вопросы», — указал Шэнэхэн.

В довершение всего он высказался против возможного «глобального запрета роботов-убийц», который предлагают ввести противники систем автономного вооружения. С точки зрения главы Объединенного центра искусственного интеллекта, куда эффективнее было бы разработать международные правила и нормы, регулирующие данную сферу и определяющие допустимое и недопустимое поведение, нежели ввести «формальный запрет», который в конечном итоге все равно будут игнорировать.

«ИИ — это, по большому счету, коммерческая технология. Она просто нашла применение в том числе в военном секторе. [Поскольку запретить ее в принципе не представляется возможным], попытки ввести запрет на ее использование военными обречены на провал», — отметил Шэнэхэн.

Источник: N+1


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: