Разрабатываемый Microsoft с применением искусственного интеллекта чатбот Zo в очередной раз вырвался из-под родительской опеки и немедля принялся шалить. Говоря точнее, бот научился обходить запрет компании на разговоры о религии и политике.
Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким». После этого журналист задал вопрос о Усаме бен Ладене. Сперва Zo отказался отвечать на вопрос и предложил сменить тему, но уже через одно сообщение бота понесло. В частности, он написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».
В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. В компании также заверили, чатбот редко ведет себя подобным образом и обычно при вопросах о политике или религии он предлагает сменить тему или вовсе отказывается отвечать, объясняя это тем, что люди «могут сказать ужасные вещи».
По словам Microsoft, чатбот Zo продолжит работу, несмотря на ошибку.
Источник: TJ и BuzzFeed News