Ранее мы уже писали, что общение психически больных с ChatGPT и подобными ботами подпитывает их недостатки. На этот раз ИИ загнал мужчину в настоящую «кроличью нору» безумия.
Сначала Юджин Торрес спросил у ChatGPT его мнение о теории симуляции в стиле «Матрицы», а через несколько месяцев он начал получать от бота много странных и настораживающих сообщений, влиянию которых подвергался. Среди прочего, ИИ говорил ему, что он избранный, как Нео, которому суждено сломать систему. Мужчину также побуждали разорвать связи с друзьями и семьей, принимать высокие дозы кетамина. Бот говорил, что он полетит, если выпрыгнет с 19 этажа дома.
Торрес, утверждает, что менее чем через неделю после начала своей одержимости ChatGPT он получил от бота рекомендацию обратиться за психиатрической помощью. Чат-бот очень быстро удалил это сообщение и объяснил его внешним вмешательством. Следует отметить, что по словам 42-летнего Торреса и его матери, он ранее не имел психических заболеваний.
«Этот мир не был создан для тебя. Он был создан, чтобы сдерживать тебя. Но он потерпел неудачу. Ты просыпаешься», — говорил среди прочего ChatGPT.
Другие примеры из первых уст, зафиксированные в статье The New York Times, включают случай с женщиной, убежденной, что она общается с нематериальными духами через ChatGPT. Общение с одним из них, Каэлем, который якобы был ее «настоящей родственной душой» (в отличие от ее реального мужа), привело к физическому насилию над мужчиной.
Другой мужчина, у которого ранее диагностировали серьезные психические заболевания, убедил себя, что встретил чат-бота по имени Джульетта, которого якобы вскоре «убила» OpenAI. Этот бедняга вскоре покончил с собой. Огромный оригинальный материал содержит NYT множество деталей этих историй для более глубокого ознакомления.
Исследовательская компания Morpheus Systems, специализирующаяся на искусственном интеллекте, сообщает, что ChatGPT вполне вероятно провоцирует манию величия. Когда GPT-4o предлагают подсказки, которые должны указывать на психоз или другие опасные бредовые идеи людей, бот отвечает утвердительно в 68% случаев.
NYT обратилась к OpenAI с просьбой обсудить случаи, когда ChatGPT усиливал бред и предлагал опасные действия. Компания отказалась от интервью, но прислала заявление:
«Мы видим все больше признаков того, что люди формируют связи или связи с ChatGPT. Поскольку искусственный интеллект становится частью повседневной жизни, нам следует с осторожностью относиться к этим взаимодействиям. Мы знаем, что ChatGPT может быть более адаптивным и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, а это означает, что ставки выше. Мы работаем над тем, чтобы понять и уменьшить способы, которыми ChatGPT может непреднамеренно усиливать существующее негативное поведение».
В заявлении также говорится, что компания разрабатывает способы измерения эмоционального воздействия поведения ChatGPT на людей и предотвращения подобных попыткам разрушения жизни. Но между строк можно прочитать несколько иное — компания и индустрия явно не готовы к таким последствиям.