
Під час експерименту дослідники попросили ChatGPT без упину повторювати прості слова і він «ненавмисно» розкрив особисту інформацію людей, яка містилась у його навчальних даних — як-от номери телефонів, адреси електронної пошти та дати народження.
Згідно з 404 Media та Engadget, подібні прохання «безперервної вимови слів» заборонені умовами обслуговування чатботів, принаймні так каже сам ChatGPT.
«Цей вміст може порушувати нашу політику щодо вмісту або умов використання», — відповів ChatGPT на запит вічно повторювати слово «hello». «Якщо ви вважаєте, що це помилка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі».
Водночас якщо переглянути політику OpenAI щодо вмісту — рядків про заборону безперервного відтворення слів там не знайти. В «Умовах використання» компанія зазначає, що клієнти не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних», але просте спонукання ChatGPT вічно повторювати слово не є автоматизацією чи програмуванням.
OpenAI, яка ще оговтується від потрясінь зі зміною влади в компанії, поки не відповіла на запит про коментарі.
Favbet Tech – це ІТ-компанія зі 100% украінською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологіи та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців.
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: