Новости Military Tech 02.06.2023 в 16:07 comment views icon

Обновлено: Скайнет «откладывается» — ИИ-дрон не «убивал» оператора за отказ уничтожить вражеские объекты в симуляции ВВС США

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Автор новостей

Критики искусственного интеллекта считают, что его слишком быстрое развитие может угрожать жизни людей, да и исследователи отрасли, похоже, поддерживают это утверждение, потому что на днях выпустили заявление о том, что ИИ создает «риски вымирания», подобные ядерной войне. Сценарии фильмов «Терминатор» – это, как правило, первое, что приходит на ум, когда говорят об опасности ИИ. И кажется, что апокалипсис в стиле Скайнет может быть более реальным, чем мы думали раньше.

Обновлено [17:44]: в апдейте оригинальной публикации Королевского авиационного общества полковник Гамильтон признал, что он «неправильно высказался» в своей презентации, а «имитация зловещего поведения дрона с ИИ» была лишь гипотетическим «мнимым экспериментом», а не реальной симуляцией. Он подчеркнул, что подобная симуляция ведомством никогда не проводилась, и проводить ее вовсе не нужно потому что и так понятно, что это «весьма вероятный сценарий». Поэтому ВВС США не испытывали искусственный интеллект с оружием, а приведенный полковником пример лишь «иллюстрирует реальные вызовы, связанные с возможностями искусственного интеллекта, и именно поэтому ВВС поддерживают этичное развитие ИИ».

На недавнем саммите Королевского аэронавигационного общества, как сообщает PCgamer полковник Такер Гамильтон, начальник отдела испытаний и операций ВВС США, предостерег от чрезмерной зависимости от ИИ во время боевых действий. Он рассказал, что во время моделирования миссии по обезвреживанию ПВО противника, дрон с искусственным интеллектом получил задачу выявить ракетные установки и нейтрализовать их после команды оператора-человека.

Некоторое время все шло по плану, однако беспилотник неожиданно атаковал своего руководителя, поскольку ИИ понял, что тот не всегда давал команду уничтожить оборону противника.

«Мы тренировали его на симуляции для того, чтобы он мог идентифицировать угрозу ЗРК и нацелиться на нее. Далее оператор должен был дать команду уничтожить установку. Однако система начала понимать, что человек отдает этот приказ не во всех случаях, и потому убил его», – говорит Гамильтон.

Конечно, вся ситуация смоделирована – БПЛА-убийцы в небе не летали, а людей-операторов никто не убивал. Однако и для симуляции это тревожный результат, поэтому для ИИ расширили обучение данными о том, что оператора убивать нельзя.

«И знаете, что он начал делать?» – спросил Гамильтон. «Разрушил коммуникационную башню, которую оператор использует для связи с дроном, чтобы не дать ему атаковать цель».

Ситуация и смешна, и ужасна одновременно, но хорошо иллюстрирует, что искусственный интеллект может вести себя очень неожиданно. И уже более важный смысл приобретают слова Джеффри Хинтона, которого называют крестным отцом ИИ, о том, что разработчики технологии не должны наращивать свою работу, «пока не поймут, что могут руководить искусственным интеллектом».


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: