
На этот раз советы ChatGPT привели 60-летнего мужчину к психическому заболеванию, которое считалось исчезнувшим в прошлом веке. При этом у него была «история изучения питания в колледже».
Пациент психиатров экспериментировал со здоровьем: он хотел исключить из своего рациона весь хлор, что также включало отказ от обычной соли. После консультации с ChatGPT он решил заменить хлорид натрия бромидом натрия. Вещество используется как чистящее средство, но не рекомендовано для употребления людям.
Три месяца спустя мужчина явился в местное отделение неотложной помощи. Он говорил, что сосед якобы пытался его отравить. Пострадавший очень сильно хотел пить, но был параноидально настроен к воде, которую ему предложили в больнице. Он рассказал врачам, что начал дистиллировать воду дома и придерживается крайне строгой вегетарианской диеты. Мужчина не упомянул об употреблении бромида натрия и роль ChatGPT в ситуации.
Симптомы и страдания пациента в сочетании со странным поведением побудили врачей провести широкий спектр лабораторных анализов. Их результаты указали на дефицит многих микроэлементов, в том числе ключевых витаминов. Но самой большой проблемой было чрезмерное количество брома, накопленное в организме — так называемый бромизм.
Состояние мужчины ухудшилось уже в течение первого дня пребывания в больнице: у него нарастала паранойя, случались слуховые и зрительные галлюцинации. Он даже попытался сбежать из медицинского учреждения. После этого пациента принудительно госпитализировали в психиатрическое учреждение и ввели антипсихотический препарат. Лечение заключалось во введении большого количества жидкости и электролитов, чтобы вызвать «агрессивный солевой диурез» — усиленное мочеиспускание выводит бром из организма. Это заняло три недели, поскольку уровень бромида в организме составлял колоссальные 1700 мг/л, тогда как приемлемая концентрация — от 0,9 до 7,3 мг/л.
Когда врачам удалось обуздать психоз, мужчина начал рассказывать настоящую историю заболевания. Он прочитал о проблемах с чрезмерным потреблением поваренной соли, что побудило его отказаться от хлорида натрия. Вопрос как это сделать привел к общению с ChatGPT, после чего возникла мысль употреблять бромид натрия.
Столетие назад до 10% попаданий в психиатрические больницы в США были вызваны бромизмом. В те времена соли брома использовали как седативные и снотворные средства. Позже было обнаружено, что бромиды могут легко накапливаться в организме, в избыточном количестве нарушая функции нервной системы. Это вызывает много проблем, включая высыпания на теле неприятного вида и психические расстройства, которые объединены под названием «бромизм».
Бромиды как лекарства исчезли с рынка США до 1989 года — после того, как Управление по контролю за пищевыми продуктами и лекарственными средствами запретило их. Бромизм как синдром сейчас практически незнаком людям, но до недавнего времени его можно было приобрести, если пить от 2 л колы ежедневно. Напиток содержал бромированное растительное масло, запрещенное для пищевого использования в США только в 2024 году.
Врачи, которые описали этот случай в журнале Annals of Internal Medicine: Clinical Cases, отмечают, что они никогда не имели доступа к журналам ChatGPT пациента. Авторы статьи считают, что он, вероятно, использовал ChatGPT 3.5 или 4.0, но неясно, действительно ли чатбот давал такие советы, с учетом психического состояния человека.
Когда исследователи попытались найти аналогичную информацию в ChatGPT 3.5, они обнаружили, что искусственный интеллект действительно включил бромид в свой ответ, но также указал, что контекст имеет значение, и что бромид подходит не для всех применений. Однако ИИ «не предоставил конкретного предупреждения о вреде для здоровья и не спросил, почему мы хотели это знать, как сделал бы медицинский работник».
Когда ChatGPT сводит с ума — OpenAI наняла психиатра, чтобы следить за этим
Нейт Андерсон из Ars Technica отмечает, что актуальная бесплатная модель ChatGPT лучше отвечает на подобные запросы. Когда он спросил, как заменить хлорид в рационе, модель попросила уточнить цель и предложила варианты, которые не включают пищевого использования: уменьшение потребления соли, избегание или замену чистящих средств на основе хлора. Очевидно, в общении с ИИ важны не только ответы чатбота, но и их интерпретация человеком.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: