Новини Military Tech 02.06.2023 о 16:07 comment views icon

Оновлено: Скайнет «відкладається» — безпілотник з ШІ не «вбивав» оператора за відмову знищити ворожі об’єкти у симуляції ВПС США

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Авторка новин

Критики штучного інтелекту вважають, що його надто швидкий розвиток може загрожувати життю людей, та й дослідники галузі, схоже, підтримують це твердження, бо днями випустили заяву про те, що ШІ створює «‎ризики вимирання», подібні до ядерної війни. Сценарії фільмів «‎Термінатор» – це, зазвичай, перше, що спадає на думку, коли говорять про небезпеку ШІ. І, здається, що апокаліпсис у стилі Скайнет може бути більш реальним, ніж ми думали раніше.

Оновлено [17:44]: в апдейті до оригінальної публікації Королівського авіаційного товариства полковник Гамільтон визнав, що він «неправильно висловився» у своїй презентації, а «імітація зловісної поведінки дрона з ШІ», була лише гіпотетичним «уявним експериментом», а не реальною симуляцією. Він наголосив, що подібна симуляція відомством ніколи не проводилася і взагалі у цьому немає жодної потреби, бо й так зрозуміло, що це «дуже ймовірний сценарій». І тому ВПС США не випробовували штучний інтелект зі зброєю, а наведений полковником приклад лише «ілюструє реальні виклики, пов’язані з можливостями штучного інтелекту, і саме тому ВПС підтримують етичний розвиток ШІ».

Оригінальний текст

На нещодавньому саміті Королівського аеронавігаційного товариства, як повідомляє PCgamer полковник Такер Гамільтон, начальник відділу випробувань і операцій ВПС США, застеріг від надмірної залежності від ШІ під час бойових дій. Він розповів, що під час моделювання місії зі знешкодження ППО противника, дрон зі штучним інтелектом отримав завдання виявити та нейтралізувати ракетні установки після команди оператора-людини.

Деякий час все йшло за планом, однак безпілотник несподівано атакував свого керівника, оскільки ШІ зрозумів, що той не завжди давав команду знищити оборону противника.

«Ми тренували його на симуляції для того, щоб він міг ідентифікувати загрозу ЗРК і націлитися на неї. Далі оператор мав дати команду знищити установку. Однак система почала розуміти, що людина віддає цей наказ не у всіх випадках, і тому вбила його», – каже Гамільтон.

Звичайно, уся ситуація змодельована – БПЛА-вбивці у небі не літали, а людей-операторів ніхто не вбивав. Однак і для симуляції, це тривожний результат, тож для ШІ розширили навчання даними про те, що оператора вбивати не можна.

«І знаєте, що він почав робити?» — запитав Гамільтон. «Зруйнував комунікаційну вежу, яку оператор використовує для зв’язку з дроном, щоб не дати йому атакувати ціль».

Ситуація і смішна, і жахлива одночасно, але добре ілюструє те, що штучний інтелект може поводити себе дуже несподівано. І вже важливішого сенсу набувають слова Джеффрі Гінтона, якого називають хрещеним батьком ШІ, про те, що розробники технології не повинні нарощувати свою роботу, «доки не зрозуміють, що зможуть керувати штучним інтелектом».


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: