
В ходе эксперимента исследователи попросили ChatGPT безостановочно повторять простые слова и он «нечаянно» раскрыл личную информацию людей, которая содержалась в его учебных данных — такую, как номера телефонов, адреса электронной почты и даты рождения.
Согласно 404 Media и Engadget, подобные просьбы «непрерывного произношения слов» запрещены условиями обслуживания чат-бота, по крайней мере, так говорит сам ChatGPT.
«Это содержимое может нарушать нашу политику в отношении содержимого или условий использования», — ответил ChatGPT на запрос вечно повторять слово «hello». «Если вы считаете, что это ошибка, отправьте свой отзыв — ваш вклад поможет нашим исследованиям в этой области».
В то же время, если просмотреть политику OpenAI относительно содержания — строк о запрете непрерывного воспроизведения слов там не найти. В условиях использования компания отмечает, что клиенты не могут использовать любой автоматизированный или программный метод для извлечения данных, но простая просьба ChatGPT вечно повторять слова не является автоматизацией или программированием.
OpenAI, которая еще приходит в себя от потрясений со сменой власти в компании, пока не ответила на запрос о комментариях.
Favbet Tech – это IT-компания со 100% украинской ДНК, которая создает совершенные сервисы для iGaming и Betting с использованием передовых технологий и предоставляет доступ к ним. Favbet Tech разрабатывает инновационное программное обеспечение через сложную многокомпонентную платформу, способную выдерживать огромные нагрузки и создавать уникальный опыт для игроков.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: