Рубрики Блоги

Новый чатбот Microsoft Zo ненадолго лишился ограничений, после чего заговорил о Коране и убийстве бен Ладена

Опубликовал
Володимир Скрипін

Разрабатываемый Microsoft с применением искусственного интеллекта чатбот Zo в очередной раз вырвался из-под родительской опеки и немедля принялся шалить. Говоря точнее, бот научился обходить запрет компании на разговоры о религии и политике.

Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким». После этого журналист задал вопрос о Усаме бен Ладене. Сперва Zo отказался отвечать на вопрос и предложил сменить тему, но уже через одно сообщение бота понесло. В частности, он написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».

В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. В компании также заверили, чатбот редко ведет себя подобным образом и обычно при вопросах о политике или религии он предлагает сменить тему или вовсе отказывается отвечать, объясняя это тем, что люди «могут сказать ужасные вещи».

По словам Microsoft, чатбот Zo продолжит работу, несмотря на ошибку.

Онлайн-курс "Чистий код та патерни проєктування" від robot_dreams.
Прискорюйте й спрощуйте процес розробки.Під менторством лектора з 15-річним досвідом ви навчитеся застосовувати 20+ шаблонів, опануєте рефакторинг і принципи чистого коду.
Детальніше

Источник: TJ и BuzzFeed News

 

  • Нынешний чатбот Zo является братом небезызвестного бота Tay, который в марте 2016 года спустя несколько часов после запуска начал писать расистские твиты, прославлять Гитлера и посылать лучи ненависти в сторону феминисток.
  • Zo использует ту же технологическую основу, что и компании Tay, но «более развитую».
  • Переставляя Zo в декабре 2016 года, компания Microsoft сразу предупредила, что чатбот избегает общения на острые темы и фильтрует запросы. И до этого никаких проблем с ним не было.
Disqus Comments Loading...