Блоги Блоги 20.11.2017 в 10:24 comment

Эксперт по ИИ: хотя я пацифист, я не вижу смысла запрещать роботов-убийц

author avatar
https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://itc.ua/wp-content/themes/ITC_6.0/images/no-avatar.svg

Сторонники запрета роботов-убийц из Института «Будущее жизни» — некоммерческой организации, одним из инвесторов которой выступает предприниматель Илон Маск — опубликовали агитационный видеролик, в котором показали, как армия вооруженных дронов истребляет студентов университета.

«Если хотите этого избежать, подпишите петицию», — сообщается в посте под видео.

Ссылка под видео ведет на сайт с петицией о запрете использования роботизированных систем, способных без участия человека идентифицировать, отслеживать и атаковать цели, в оборонной сфере.

Однако эксперт по ИИ, профессор компьютерных наук из Университета штата Аризона Суббарао Камбхампати раскритиковал такой подход. Он считает видеоролик манипулятивным. Эксперт признает себя пацифистом и поддерживает ученых, которые выступают за этичное применение технологий искусственного интеллекта. Однако запрет военных роботов, по его мнению, — это жест, имеющий исключительно символическое значение. По его мнению, антиутопичные образы будущего напрасно разжигают ненависть к технологиям.

Камбхампати объясняет, что гипотетический запрет не способен достаточно четко установить границы применения роботизированной военной техники.

«Под запрет попадает автономность или интеллект? И хотелось бы понять, сможет ли запрет как-то повлиять на действия стран и отдельных лиц, которые не признают международные нормы права», — пишет ученый.

Часто ИИ-вооружение сопоставляют с ядерным оружием. Но Камбхампати подчеркивает разницу между двумя явлениями. Чтобы обзавестись ядерной бомбой, стране нужны материалы и оборудование, которые непросто достать и за которыми ведется контроль. ИИ-технологии же давно доступны всем желающим — к примеру, нейросети для распознавания лиц, которые можно задействовать при создании дронов-убийц, можно найти в интернете.

Низкий порог вхождения в область ИИ-разработок делает их широкодоступными. Ограничить их злоупотребление при этом сложно.

«И в будущем эти технологии будут становиться все доступнее и доступнее», — говорит ученый.

При этом даже если ООН и другие организации все-таки введут запрет, всегда найдутся государства-изгои и сообщества, которые не будут ему подчиняться. Как следствие — у одной стороны руки будут связаны, а у другой, напротив, будет весь арсенал ИИ-вооружения, действующий без каких-либо ограничений.

Как специалист по ИИ, Камбхампати также обеспокоен выпуском манипулятивных агитационных видеороликов, которые могут вызвать у общественности страх перед технологиями.

«Это больше похоже на разжигание страха и ненависти, а не на повышение осведомленности», — замечает эксперт.

Онлайн-курс "2D Animation" від Skvot.
Покроково та з фідбеком від лекторки увійдіть у 2D-анімацію через вивчення софтів, інструментів та створення кейсу у портфоліо.
Програма курсу та реєстрація

Он добавляет, что как и в случае с другими технологиями, ИИ способен принести как пользу, так и, конечно же, вред. Однако Камбхампати уверен, что запрет роботов-убийц лишен какого-либо смысла. Вместо этого ученый предлагает разрабатывать «упреждающие технологические решения», которые будут реагировать на различные виды техно-злоупотреблений, включая летальное автономное вооружение.

Например, это могут быть роботы-защитники, работающие под управлением ИИ, который будет отслеживать возможные угрозы со стороны противоборствующего ИИ и при необходимости устранять их.

Даже если этим усилиям не удастся полностью отказаться от негативных последствий, говорит ученый, они могут, по крайней мере, лучше информировать общественность о возможных рисках со стороны технологического прогресса, а также позволят осуществлять более рациональную политику по этим вопросам.

«Опять же, я считаю себя пацифистом и всегда поддерживал усилия по контролю над вооружением и упреждению войн. Если бы я считал, что предлагаемый запрет будет эффективным, а не просто символическим, и что эта кампания будет информировать общественность, а не играть на ее страхах, я бы с радостью поддержал эти устремления», — заключает специалист.

Напоследок ученый отмечает, что некоторые из его основных исследований, посвященных искусственному интеллекту, финансируются в том числе оборонными ведомствами, в частности, непосредственно Министерством обороны США.

«Однако источники моего финансирования не влияют на мои личные убеждения. Также стоит отметить, что Министерство обороны финансирует, помимо всего прочего, широкий спектр фундаментальных исследований, в том числе исследований, в которых принимают участие ученые — сторонники запрета роботов-убийц», — сказал Суббарао.

Источники: The Guardian, hightech.fm


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: