На ChatGPT подали до суду за наклеп – чатбот «‎галюцинував» у відповіді, назвавши відомого радіоведучого шахраєм

Опубликовал
Катерина Даньшина

ШІ-чатботів давно звинувачують у наданні неправдивої інформації як фактів, але нині компанії-розробнику, схоже, доведеться відповідати за це у суді.

Радіоведучий із Джорджії Марк Волтерс подав до суду на OpenAI після того, як ChatGPT надав оманливу інформацію про те, що чоловік звинувачується у шахрайстві та розкраданні коштів некомерційної організації. Система згенерувала таку відповідь на запит третьої сторони – журналіста Фреда Ріля.

Позов був поданий 5 червня до Верховного суду штату Джорджія, і вимагає від OpenAI відшкодування ще невизначених грошових збитків.

Цей випадок примітний тим, що це перший судовий позов на штучний інтелект за наклеп – хоча чатботів часто звинувачують у проблемах з «‎галюцинаціями» і неспроможністю розрізнити правду від вигадки. Зазвичай, користувачі просто виявляються обманутими або просто втрачають дарма час – однак іноді такі помилки можуть завдати реальної шкоди.

Курс English For Tech: Speaking&Listening від Enlgish4IT.
Після курсу ви зможете найкраще презентувати свої досягнення, обговорювати проекти та вирішувати повсякденні завдання англійською мовою. Отримайте знижку 10% за промокодом TCENG.
Дізнатись про курс

Наприклад, професор одного з американських навчальних закладів погрожував «завалити‎» свій клас після того, як ChatGPT заявив, що його студенти використовували штучний інтелект для написання есе; або коли адвокат попросив чатбот відшукати докази для суду, а той їх просто сфальсифікував. Ну і як не згадати кейс одного з українських телеканалів – коли на сторінці в Instagram опублікували фейкову біографію Олеся Гончара, «факти» для якої надав ChatGPT.

Водночас на сторінці OpenAI міститься застереження про те, що ChatGPT «іноді може генерувати неправильну інформацію», хоча паралельно компанія називає технологію «‎джерелом надійних даних» і способом «отримати відповіді» та «навчатися чомусь новому». Сам генеральний директор OpenAI Сем Альтман неодноразово говорив, що вважає за краще вивчати нову інформацію з ChatGPT, ніж з книг.

Однак незрозуміло, чи можливо нині взагалі притягнути такі компанії до відповідальності, оскільки жодних правових інструментів для такого типу технології поки не розроблено. Зазвичай 230-й розділ Закону США про дотримання пристойності в інтернеті захищає інтернет-компанії від юридичної відповідальності за інформацію, створену третьою стороною та розміщену на їхніх платформах, але невідомо, чи можна застосувати ці засоби захисту до систем штучного інтелекту, які не просто посилаються на джерела даних, а генерують інформацію заново.

Можливо, прояснити це допоможе справа Волтерса. Початково журналіст Фред Ріль попросив ChatGPT коротко описати справжню судову справу по PDF-файлу, і той створив дійсно переконливе та детальне резюме з неправдивими звинуваченнями – тим, чого радіоведучий ніколи не робив (привласнення коштів некомерційної організації, що займається наданням прав на зброю, «на суму понад $5 млн‎»).

Примітно, що попри виконання запиту журналіста щодо узагальнення PDF-файлу, ChatGPT фактично не може отримати доступ до таких зовнішніх даних без використання додаткових плагінів. Те, що система не попередила про це і є здатністю вводити користувачів в оману – хоча у випадку, коли журналісти The Verge тестували чатбота з тим же завданням, він чітко та інформативно написав:

«Вибачте, але як текстова модель штучного інтелекту я не маю можливості отримати доступ або відкрити певні файли PDF або інші зовнішні документи».

Disqus Comments Loading...