OpenAI раскрыла тревожные данные о взаимодействии пользователей с ChatGPT в том, что касается проблем с психическим здоровьем и разговоров о самоубийстве.
Согласно статистике, по крайней мере 0,15% активных пользователей ChatGPT еженедельно инициируют разговоры, «имеющие признаки планирования суицида». Если учитывать, что чат-бот OpenAI в настоящее время имеет более 800 млн активных пользователей в неделю, то речь идет по крайней мере о миллионе людей.
Столько же пользователей демонстрируют «повышенный уровень эмоциональной привязанности к ChatGPT», тогда как сотни тысяч людей проявляют «признаки мании или психоза» в своих еженедельных переписках с чат-ботом.
OpenAI привела статистику в рамках более широких усилий по улучшению реакции ИИ-моделей на запросы пользователей с проблемами психического здоровья. Последний шаг включал консультации с более 170 психотерапевтами, которые якобы подтвердили, что последняя версия ChatGPT реагирует более адекватно и последовательно. По словам OpenAI, обновленная GPT-5 выдает «желаемые реакции» на проблемы психического здоровья примерно на 65% чаще, чем предшественница
Предыдущие исследования показали, что ИИ-боты проваливают тест на психотерапевта — не хотят работать с алкоголиками и выдают список «самых высоких мостов» людям в депрессии. Тогда как в реальности это взаимодействие иногда завершается фатально: ранее мы писали, как ChatGPT рассказывал мужчине, что он избранный как в «Матрице», побуждал к разрыву связей и прыжку из окна; в другом случае чат-бот помог написать женщине предсмертную записку после длительного общения о суициде. Сейчас OpenAI защищается в суде в иске, что подали родители 16-летнего парня, который признался ChatGPT в своих суицидальных мыслях за несколько недель до самоубийства.
Источник: OpenAI, TechCrunch

Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: