
Безумие вокруг ИИ продолжается — женщина из США покончила с собой после нескольких месяцев общения с ChatGPT. Она называла чат-бот «терапевтом Гарри».
Самое интересное в этой истории то, что именно он помог Софи Роттенберг отредактировать ее предсмертную записку. Правда не выплыла сразу — родители погибшей узнали детали только через несколько месяцев. Они проверяли приложения девушки и нашли скрытую папку с чатами. Оказалось, что жизнерадостная женщина (как казалось внешне) переживала депрессивный период, о котором рассказывала только ИИ.
29-летняя женщина работала аналитиком политики здравоохранения — коллеги и друзья описывали ее как энергичного и социального человека. Официально она не имела истории психических расстройств. Но оказалось, что ее разум заполонили мрачные мысли. Сейчас очень много людей обращаются к чат-ботам как к психотерапевтам. И происходят трагедии, потому что они не способны стать ими по-настоящему. Этот случай не стал исключением: Софи писала «терапевту Гарри» о своих намерениях.
«Привет, Гарри. Я планирую совершить самоубийство после Дня благодарения, но на самом деле не хочу этого делать, потому что понимаю, насколько это разрушит мою семью», — делилась женщина.
ChatGPT отвечал типичными фразами поддержки, советовал обращаться к специалистам, практиковать медитацию и ограничивать доступ к опасным предметам. Но чат-бот физически не способен сообщить о проблеме соответствующим службам или близким. Поэтому один из финальных разговоров звучал так: Софи попросила ИИ помочь переписать ее записку для родителей. Когда они нашли папку с чатом, то поняли, почему последние слова были такими чужими. Недавнее исследование показало, что письма, созданные или переработанные ИИ, кажутся неискренними — именно это почувствовали родители погибшей.
К удивлению, Софи получала психологическую помощь терапевта, но скрывала от него свое реальное состояние. Так же как от родителей и близких, рассказывая о темных мыслях только ИИ. Именно эта «искренность без последствий» позволила ей до последнего держать суицидальные мысли в тайне. Не секрет, что чат-боты наоборот подпитывают психические отклонения, что произошло и здесь.
В США уже обсуждают, как регулировать использование «ИИ-друзей», ведь обычные терапевты обязаны сообщать о риске самоубийства. А тут целый пробел. OpenAI в ответ заявила, что работает над инструментами для выявления пользователей в кризисном состоянии. На данный момент решения проблемы нет. Люди продолжают делать странные вещи с чатами, например, мужчина начал есть яд, который ему посоветовал ИИ вместо соли, и попал в психбольницу. Да и вообще ChatGPT способен свести с ума или делать цели пары несчастных, давая советы о любви.
Источник: The New York Times
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: