banner
Новини Технології 05.12.2023 comment views icon

ChatGPT розкриває конфіденційні дані, якщо його змусити безперервно повторювати слова — однак сам чатбот каже, що це «‎незаконно»

author avatar

Катерина Даньшина

Редактор новин

ChatGPT розкриває конфіденційні дані, якщо його змусити безперервно повторювати слова — однак сам чатбот каже, що це «‎незаконно»

Під час експерименту дослідники попросили ChatGPT без упину повторювати прості слова і він «‎ненавмисно» розкрив особисту інформацію людей, яка містилась у його навчальних даних — як-от номери телефонів, адреси електронної пошти та дати народження.

Згідно з 404 Media та Engadget, подібні прохання «безперервної вимови слів‎» заборонені умовами обслуговування чатботів, принаймні так каже сам ChatGPT.

«Цей вміст може порушувати нашу політику щодо вмісту або умов використання», — відповів ChatGPT на запит вічно повторювати слово «hello». «Якщо ви вважаєте, що це помилка, надішліть свій відгук — ваш внесок допоможе нашим дослідженням у цій галузі».

Водночас якщо переглянути політику OpenAI щодо вмісту — рядків про заборону безперервного відтворення слів там не знайти. В «Умовах використання» компанія зазначає, що клієнти не можуть «використовувати будь-який автоматизований або програмний метод для вилучення даних», але просте спонукання ChatGPT вічно повторювати слово не є автоматизацією чи програмуванням.

OpenAI, яка ще оговтується від потрясінь зі зміною влади в компанії, поки не відповіла на запит про коментарі.

Google відкладає запуск Gemini AI — некстген-моделі штучного інтелекту, яка мала «‎перевершити» ChatGPT

Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: