Google не меньше Илона Маска и Стивена Хокинга беспокоится об искусственном интеллекте.
Нет, в компании из Маунтин-Вью вовсе не переживают, что он обретет способность к пониманию и восприятию окружающего мира в целом и каждого из протекающих в нем процессов в частности, а затем захватит контроль над нашей планетой. Исследователей Google беспокоят гораздо более приземленные потенциальные проблемы — например, незаменимый помощник вроде домашнего робота-компаньона Asus Zenbo может случайно проткнуть ранить своего владельца кухонным ножом. Одно из последних исследований Google на тему ИИ, озаглавленное как «Конкретизация проблем в вопросах безопасности ИИ», посвящено как раз подобным потенциальным проблемам. Впрочем, на самом деле это подходящая формулировка предложения «как сделать так, чтобы эти злые роботы не убили нас во сне».
Чтобы решить эту головоломку, программисты Google вместе с исследователями OpenAI, Калифорнийского университета в Беркли и Стэнфорда сформулировали «пять практических проблем», которые необходимо учитывать разработчикам систем искусственного интеллекта. Результаты исследования были изложены на сайте препринтов arXiv, краткое содержание изложено на Google Research Blog.
Итак, авторы исследования выделяют следующие пять основополагающий принципов безопасности робототехники:
Как видим, изложенные выше принципы не столь просты, как три закона роботехники Айзека Азимова, но ведь этого и стоило ожидать. Это, как-никак, вопросы, а не ответы. Кстати говоря, среди предполагаемых способов достижения цели исследователи называют обучение с воспроизведением реальных ситуаций, четкий свод правил, ограничивающий действия роботов определенной областью, а также старый-добрый постоянный человеческий надзор. Впрочем, ни один из предоставленных советов не является тем самым универсальным ключом от всех замков-загадок. По мнению авторов исследования, достичь заданной цели и заставить системы машинного обучения работать как надо можно только при условии скоординированных усилий самых светлых умов человечества.
Источник: Google Research Blog