Новости Технологии 27.06.2016 в 15:36 comment

«Пять законов робототехники»: Google изложила свое видение безопасного ИИ

author avatar
https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg *** https://itc.ua/wp-content/uploads/2022/04/vova-96x96.jpeg

Володимир Скрипін

Заместитель главного редактора, руководитель отдела новостей

Раздел Технологии выходит при поддержке Favbet Tech

Google не меньше Илона Маска и Стивена Хокинга беспокоится об искусственном интеллекте.

Нет, в компании из Маунтин-Вью вовсе не переживают, что он обретет способность к пониманию и восприятию окружающего мира в целом и каждого из протекающих в нем процессов в частности, а затем захватит контроль над нашей планетой. Исследователей Google беспокоят гораздо более приземленные потенциальные проблемы — например, незаменимый помощник вроде домашнего робота-компаньона Asus Zenbo может случайно проткнуть ранить своего владельца кухонным ножом. Одно из последних исследований Google на тему ИИ, озаглавленное как «Конкретизация проблем в вопросах безопасности ИИ», посвящено как раз подобным потенциальным проблемам. Впрочем, на самом деле это подходящая формулировка предложения «как сделать так, чтобы эти злые роботы не убили нас во сне».

Чтобы решить эту головоломку, программисты Google вместе с исследователями OpenAI, Калифорнийского университета в Беркли и Стэнфорда сформулировали «пять практических проблем», которые необходимо учитывать разработчикам систем искусственного интеллекта. Результаты исследования были изложены на сайте препринтов arXiv, краткое содержание изложено на Google Research Blog.

Итак, авторы исследования выделяют следующие пять основополагающий принципов безопасности робототехники:

  • избегание нежелательных побочных эффектов (например, робот может разбить вазу, чтобы ускорить процесс уборки);
  • никаких хитростей (робот может просто спрятать грязные носки под кровать, вместо того, чтобы отнести их в стиральную машину);
  • разумный контроль (скажем, робот может и должен советоваться с человеком по тем или иным вопросам, но он не должен быть надоедливым);
  • безопасное обучение (робот-уборщик должен постоянно экспериментировать, выискивая более эффективные методы войны с пылью, но эти эксперименты не должны включать протирание розеток мокрой тряпкой);
  • готовность к смене деятельности (в данном случае подразумевается, что уборка на фабрике и в офисе – принципиально разные вещи, и робот должен быть готов к тому и другому).

Как видим, изложенные выше принципы не столь просты, как три закона роботехники Айзека Азимова, но ведь этого и стоило ожидать. Это, как-никак, вопросы, а не ответы. Кстати говоря, среди предполагаемых способов достижения цели исследователи называют обучение с воспроизведением реальных ситуаций, четкий свод правил, ограничивающий действия роботов определенной областью, а также старый-добрый постоянный человеческий надзор. Впрочем, ни один из предоставленных советов не является тем самым универсальным ключом от всех замков-загадок. По мнению авторов исследования, достичь заданной цели и заставить системы машинного обучения работать как надо можно только при условии скоординированных усилий самых светлых умов человечества.

Источник: Google Research Blog

Раздел Технологии выходит при поддержке Favbet Tech

Favbet Tech – это IT-компания со 100% украинской ДНК, которая создает совершенные сервисы для iGaming и Betting с использованием передовых технологий и предоставляет доступ к ним. Favbet Tech разрабатывает инновационное программное обеспечение через сложную многокомпонентную платформу, способную выдерживать огромные нагрузки и создавать уникальный опыт для игроков. IT-компания входит в группу компаний FAVBET.

Продолжается конкурс авторов ИТС. Напиши статью о развитии игр, гейминг и игровые девайсы и выигрывай профессиональный игровой руль Logitech G923 Racing Wheel, или одну из низкопрофильных игровых клавиатур Logitech G815 LIGHTSYNC RGB Mechanical Gaming Keyboard!


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: