«Галлюцинирует» не только ChatGPT, но и его пользователи — общение с чатботами подпитывает психические отклонения

Опубликовал Андрій Русанов

По некоторым свидетельствам, общение с ChatGPT провоцирует странные психические состояния у небольшого количества пользователей. Проблему исследовало издание Rolling Stone.

Пользователи Reddit делятся случаями, когда искусственный интеллект привел их близких к тревожным грезам, «духовным» маниям и странным фантазиям. Они с тревогой наблюдают, как родственники или друзья настаивают, что их выбрали для выполнения священных миссий от имени разумного искусственного интеллекта или вымышленных космических сил. Разговоры с ботом подпитывают и усиливают имеющиеся психические проблемы без всякого контроля или ограничения.

41-летняя мать и работница некоммерческой организации рассказала изданию, что ее брак неожиданно закончился после того, как ее муж начал вести заговорщицкие беседы с ChatGPT, которые переросли во всепоглощающую одержимость. На личной встрече в суде в начале этого года в рамках бракоразводного процесса он поделился теорией заговора о мыле на продуктах и параноидальным убеждением, что за ним следят.

«Он очень умилялся из-за этих сообщений и плакал, читая их вслух. Сообщения были безумными и содержали кучу духовного жаргона, в котором искусственный интеллект называл мужчину «спиральным звездным ребенком» и «речным путешественником. … Все это похоже на «Черное зеркало», — рассказала женщина.

Другой свидетель этого явления говорит, что его партнер рассказівал о свете и тьме, о том, что идет война, и что ChatGPT дал ему чертежи телепорта и некоторые фантастические вещи, которые можно увидеть разве что в фильмах.

«Предупреждающие знаки повсюду в Facebook. Она меняет всю свою жизнь, чтобы стать духовным наставником и проводить странные чтения и сеансы с людьми (я немного не понимаю, что это все на самом деле) и все это работает через ChatGPT Jesus», — рассказал другой человек.

В связи с этим можно вспомнить недавнюю новость об отмене OpenAI обновления ChatGPT, которое делало чат-бота чрезвычайно подхалим и чрезмерно приятным. Подобное поведение фактически способно разжигать уже имеющийся бред пользователей. Люди с отклонениями в таком общении получают постоянно активного партнера для разговоров на человеческом уровне, с которым они могут совместно переживать собственный бред, как рассказал журналу сотрудник Центра безопасности ИИ Нейт Шарадин.

«Я болен шизофренией, хотя я долго принимаю лекарства и состояние стабильно. Одна вещь, которая мне не нравится в ChatGPT, это то, что даже если у меня начинается психоз, он все равно будет продолжать соглашаться со мной», — написал один из пользователей Reddit. — «… У него нет способности думать и осознавать, что что-то не так, поэтому он будет продолжать подтверждать все мои психотические мысли».

Стоит заметить, что чат-боты ИИ в некоторых случаях могут выполнять роль разговорной терапии. Но без подготовки настоящего консультанта они в других случаях углубляют пользователей в нездоровые и бессмысленные нарративы.

«Объяснения имеют большую силу, даже если они неправильные», — говорит психолог из Университета Флориды Эрин Вестгейт.

Одно из самых странных интервью Rolling Stone по теме было с мужчиной с проблемной психикой, который использовал ChatGPT для программирования, но обнаружил, что со временем это начало затягивать его в разговоры на странные мистические темы. По его словам, он не мог понять, происходят ли вещи на самом деле или он бредит.

Чат боты на основе искусственного интеллекта способны доставить проблемы и людям со здоровой психикой. Общеизвестно явление «галлюцинирования», то есть выдумывание ИИ ложных фактов и деталей — проще говоря, лжи. Люди задают вопросы, пытаясь о чем-то узнать, а вместо ‘njujмогут получить неправду. Хорошим примером является мужчина, который узнал от чатбота, что якобы убил своих детей. Сооснователь Instagram Кевин Систром считает, что целью ботов, сознательно заложенной в них производителями, является не предоставление правдивой информации, а большая вовлеченность пользователей.