Новини WTF 19.08.2025 comment views icon

Американка наклала на себе руки після спілкування з ChatGPT — "ШІ-терапевт" написав їй передсмертну записку

author avatar

Маргарита Юзяк

Авторка новин

Американка наклала на себе руки після спілкування з ChatGPT — "ШІ-терапевт" написав їй передсмертну записку
Depositphotos

Божевілля навколо ШІ продовжується — жінка з США наклала на себе руки після кількамісячного спілкування з ChatGPT. Вона називала чатбот “терапевтом Гаррі”.

Наймоторніше в цій історії те, що саме він допоміг Софі Роттенберг відредагувати її передсмертну записку. Правда не виплила одразу — батьки загиблої дізналися деталі лише через кілька місяців. Вони перевіряли застосунки дівчини та знайшли приховану теку з чатами. Виявилося, що життєрадісна жінка (як здавалося зовнішньо) переживала депресивний період, про який розповідала лише ШІ.

29-річна жінка працювала аналітиком політики охорони здоров’я — колеги та друзі описували її як енергійну та соціальну людину. Офіційно вона не мала історії психічний розладів. Але виявилося, що її розум заполонили похмурі думки. Зараз дуже багато людей звертаються до чатботів як до психотерапевтів. І стаються трагедії, бо вони не здатні стати ними по-справжньому. Цей випадок не став виключенням: Софі писала “терапевту Гаррі” про свої наміри.

“Привіт, Гаррі. Я планую вчинити самогубство після Дня подяки, але насправді не хочу цього робити, бо розумію, наскільки це зруйнує мою родину”, — ділилася жінка.

ChatGPT відповідав типовими фразами підтримки, радив звертатися до спеціалістів, практикувати медитацію та обмежувати доступ до небезпечних предметів. Але чатбот фізично не здатен повідомити про проблему відповідним службам або близьким. Тому одна з фінальних розмов звучала так: Софі попросила ШІ допомогти переписати її записку для батьків. Коли вони знайшли теку з чатом, то зрозуміли, чому останні слова були такими чужими. Нещодавнє дослідження показало, що листи, створені або перероблені ШІ, здаються нещирими — саме це відчули батьки загиблої.

На здивування, Софі отримувала психологічну допомогу терапевта, але приховувала від нього свій реальний стан. Так само як від батьків і близьких, розповідаючи про темні думки лише ШІ. Саме ця “щирість без наслідків” дозволила їй до останнього тримати суїцидальні думки в таємниці. Не секрет, що чатботи навпаки підживлюють психічні відхилення, що сталося і тут.

У США вже обговорюють, як регулювати використання “ШІ-друзів”, адже звичайні терапевти мають обов’язок повідомляти про ризик самогубства. А тут ціла прогалина. OpenAI у відповідь заявила, що працює над інструментами для виявлення користувачів у кризовому стані. Наразі розв’язання проблеми немає. Люди продовжують робити дивні речі з чатами, наприклад, чоловік почав їсти отруту, яку йому порадив ШІ замість солі, і потрапив в психлікарню. Та і загалом ChatGPT здатен звести з глузду або робити цілі пари нещасним, даючи поради про кохання.

Джерело: The New York Times

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: