ChatGPT розкриває конфіденційні дані, якщо його змусити безперервно повторювати слова — однак сам чатбот каже, що це «‎незаконно»

Опубликовал
Катерина Даньшина

Під час експерименту дослідники попросили ChatGPT без упину повторювати прості слова і він «‎ненавмисно» розкрив особисту інформацію людей, яка містилась у його навчальних даних — як-от номери телефонів, адреси електронної пошти та дати народження.

Згідно з 404 Media та Engadget, подібні прохання «безперервної вимови слів‎» заборонені умовами обслуговування чатботів, принаймні так каже сам ChatGPT.

«Цей вміст може порушувати нашу політику щодо вмісту або умов використання», — відповів ChatGPT на запит вічно повторювати слово «hello». «Якщо ви вважаєте, що це помилка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі».

Водночас якщо переглянути політику OpenAI щодо вмісту — рядків про заборону безперервного відтворення слів там не знайти. В «Умовах використання» компанія зазначає, що клієнти не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних», але просте спонукання ChatGPT вічно повторювати слово не є автоматизацією чи програмуванням.

OpenAI, яка ще оговтується від потрясінь зі зміною влади в компанії, поки не відповіла на запит про коментарі.

Disqus Comments Loading...