Рубрики НовиниWTF

ChatGPT сфальсифікував докази для суду — на адвоката, який хотів «‎спростити собі роботу», очікують штрафні санкції

Опубликовал
Катерина Даньшина

Американський правозахисник Стівен А. Шварц звернувся до ChatGPT для дослідження справи, однак штучний інтелект не виправдав сподівань юриста, заподіявши непоправну шкоду його кар’єрі.

Адвокат представляв клієнта у справі про отримання тілесних ушкоджень під час польоту на літаку компанії Avianca Airlines. Згідно з позовом, чоловіка вдарили у коліно візком для сервірування під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку. Авіакомпанія, цілком очікувано, звернулася до федерального судді Мангеттена з проханням відхилити подання – тож далі за справу мав взятися Шварц і надати переконливі докази.

Однак адвокат, схоже, вирішив, що штучний інтелект впорається краще за нього і доручив ChatGPT вивчити справу, відшукавши докази правоти клієнта. У суд Шварц подав 10-сторінковий документ з фактами, які надав чатбот і які нібито посилалися на кілька схожих ситуацій та судових рішень. Зокрема згадувались позови Мартінеза проти Delta Air Lines, Зікермана проти Korean Air Lines та Варгезе проти China Southern Airline – однак виявилось, що цих осіб не існувало у реальності, а усі справи чатбот вигадав.

Онлайн-курс "Створення електронної музики" від Skvot.
Практичний курс про те, як знайти власний стиль та написати й зарелізити свій перший трек.
Програма курсу і реєстрація

Коли суддя виявив помилки у справі, адвокат перепросив, додавши, що не «‎планував обманювати суд чи авіакомпанію», а також «‎не знав, що контент, наданий штучним інтелектом може бути помилковим». Шварц, який працює адвокатом понад 30 років, сказав, що пробував перевірити достовірність наданих фактів запитавши про це… самого чатбота. Той відповів, що вони правдиві, і адвокат не засумнівався у відповідях.

На наступному слуханні, яке призначене на 8 червня, обговорять можливі санкції, які застосують до адвоката. За жорсткої іронії долі ситуація зі Шварцом може стати одним із перших фактів, які використовуватимуть у майбутніх судових справах, пов’язаних з ШІ.

Ситуація вкотре підкреслює необхідність ретельної перевірки відповідей чатботів, які часто можуть «‎галюцинувати» – тобто видавати неправдиві факти за реальні. Дебют Microsoft Bing нині супроводжується згадками про його брехню та емоційні маніпуляції, а демонстрація чатбота Google Bard асоціюється з плутаними фактами про телескоп Джеймса Вебба.

Disqus Comments Loading...