На ChatGPT подали в суд за клевету – чат-бот «галюцинировал» в ответе, назвав известного радиоведущего мошенником

Опубликовал
Катерина Даньшина

ИИ чат-ботов давно обвиняют в предоставлении ложной информации как фактов, но сейчас компании-разработчику, похоже, придется отвечать за это в суде.

Радиоведущий из Джорджии Марк Уолтерс подал в суд на OpenAI после того, как ChatGPT предоставил обманчивую информацию о том, что мужчина обвиняется в мошенничестве и хищении средств некоммерческой организации. Система сгенерировала ответ на запрос третьей стороны – журналиста Фреда Риля.

Иск был подан 5 июня в Верховный суд штата Джорджия, и требует от OpenAI возмещения еще неопределенного денежного ущерба.

Этот случай примечателен тем, что это первый судебный иск, поданный на искусственный интеллект за клевету – хотя чат-ботов часто обвиняют в проблемах с галлюцинациями и неспособностью отличить правду от вымысла. Обычно пользователи просто оказываются обманутыми или просто теряют зря время – однако иногда такие ошибки могут нанести реальный вред.

Онлайн-курс Frontend-разробник від Powercode academy.
Курс на якому ти напишеш свій чистий код на JavaScript, попрацюєш із різними видами верстки, а також адаптаціями проектів під будь-які екрани. .
Зарееструватися

Например, профессор одного из американских учебных заведений угрожал «завалить» свой класс после того, как ChatGPT заявил, что его студенты использовали искусственный интеллект для написания эссе; или когда адвокат попросил чат-бот найти доказательства для суда, а тот их просто сфальсифицировал. Ну и как не вспомнить кейс одного из украинских телеканалов – когда на странице в Instagram опубликовали фейковую биографию Олеся Гончара, факты для которой предоставил ChatGPT.

В то же время на странице OpenAI содержится оговорка о том, что ChatGPT «иногда может генерировать неправильную информацию», хотя параллельно компания называет технологию «источником надежных данных» и способом «получить ответы» и «учиться чему-то новому». Сам генеральный директор OpenAI Сэм Альтман неоднократно говорил, что предпочитает получать новую информацию из ChatGPT, а не из книг.

Однако непонятно, возможно ли в настоящее время вообще привлечь такие компании к ответственности, поскольку никаких правовых инструментов для такого типа технологии пока не разработано. Обычно 230-й раздел Закона США о соблюдении приличия в интернете защищает интернет-компании от юридической ответственности за информацию, созданную третьей стороной и размещенную на их платформах, но неизвестно, можно ли применить эти средства защиты к системам искусственного интеллекта, которые не просто ссылаются на источники данных, а генерируют информацию заново.

Может быть, прояснить это поможет дело Уолтерса. Первоначально журналист Фред Риль попросил ChatGPT кратко описать настоящее судебное дело по PDF-файлу, и тот создал действительно убедительное и детальное резюме с ложными обвинениями – тем, чего радиоведущий никогда не делал (присвоение средств некоммерческой организации, занимающейся предоставлением прав на оружие, «на сумму более $5 млн»).

Примечательно, что, несмотря на запрос журналиста об обобщении PDF-файла, ChatGPT фактически не может получить доступ к таким внешним данным без использования дополнительных плагинов. То, что система не предупредила об этом и является введением в заблуждение – хотя в случае, когда журналисты The Verge тестировали чат-бот с той же задачей, он четко и информативно написал:

«Извините, но как текстовая модель искусственного интеллекта я не могу получить доступ или открыть определенные PDF-файлы или другие внешние документы».

Disqus Comments Loading...