
Пользователь считал, что ChatGPT написал для него детскую книгу объемом 700 страниц и 500 МБ. Reddit трещал от смеха, когда он спросил там, как эту книгу загрузить.
На Reddit пользователь Emotional_Stranger_5 рассказал, что он 16 дней работал с ChatGPT над иллюстрированной детской книгой, предназначенной для подарка группе местных детей. Считая, что чатбот незаметно работал над созданием книги, он обратился к сабредиту OpenAI, чтобы спросить, как загрузить готовый документ (оригинальный сообщение впоследствии удалил автор, но комментарии все еще существуют).
Наиболее сообразительные читатели этой новости уже догадались, что никакой книги чатбот на самом деле не писал, а лишь говорил об этом. Он лишь уведомлял горе-автора, что создает 700-страничный том. Тон готовности помочь, характерный для больших языковых моделей, не отражает фактического намерения или работы долговременной памяти. Кроме диалогов об этом, никакого результата просто не существовало.
Emotional_Stranger_5 уточнил, что не просил ChatGPT писать книгу с нуля. Он лично потратил два с половиной месяца на адаптацию историй из индийской мифологии и хотел, чтобы ИИ улучшил стиль произведения и создал иллюстрации. Но уже после того, как Reddit взорвался комментариями, которых сейчас почти 300.
- «Он говорит вам то, что вы хотите услышать, играя роль. Он сделал то же самое со мной, сказал, что мой zip-файл скоро будет доступен»
- «Если ChatGPT когда-либо сообщает, что он работает над чем-то в фоновом режиме, но для этого нет индикатора прогресса или индикатора пользовательского интерфейса, то на самом деле он не работает над этим. Он еще ничего не создал для вас, он просто говорит, что создал. Вам нужно отдельно запрашивать каждый раздел и изображение» отдельно»
- «Хорошо, ты что, серьезно?»
- «Книга на 700 страниц была бы далеко за пределами имеющихся токенов, лол»
- «Забавно, как мало людей действительно способны осознать тот факт, что мы просто сделали так, что компьютеры могут нам лгать»
- «Если тебе безразлично написать книгу, то зачем кому-то ее читать? Перестань быть студентами магистратуры, ха-ха»
- «Имейте в виду, что LLM учатся на украденных произведениях, защищенных авторским правом, и если вы используете их в своей книге, существует не такая уж и малая вероятность того, что в нее будет введено украденное произведение, защищенное авторским правом, что сделает вас уязвимым для судебного иска»
Но один из пользователей все же попытался дать бедолаге развернутое объяснение:
«Это актерская игра. Я думаю, что вашим первоначальным предложением было «помочь мне собрать книгу», и он искренне согласился. Затем, когда дело доходит до ее загрузки, он говорит вам: «Хорошо, он скомпилирован и готов к загрузке». Но это не так — это, по сути, ролевая игра с вами. На самом деле он не составил для вас книгу — это (пока) не входит в его возможности. Лучший вариант — собрать весь текст и изображения, скопировать текст, вставить его в Google Doc или аналогичный файл, загрузить изображения и вставить вручную».
В конце концов, «автор» признал, что ChatGPT обманул его, благодаря подсказкам и насмешкам сообщества. Главный редактор PC Gamer Тайлер Уайлд, который написавший об этой истории, провел собственный эксперимент похожий на то, что пытался сделать Emotional_Stranger_5. Он попросил бота создать иллюстрированную версию «Моби Дика» в определенном стиле и, закономерно, тоже потерпел неудачу.
«Я загрузил текст «Моби Дика», который является общественным достоянием, и чат-бот создал «образец страницы» с текстом-заполнителем вместо изображений. Мне удалось загрузить эту страницу в формате PDF, но когда пришло время создать «полное причудливое иллюстрированное издание «Моби Дика», бот уклонился от этой задачи, задавая дополнительные вопросы о моих предпочтениях и и говоря, что «расширенные инструменты для создания PDF-файлов временно недоступны», но что я могу выяснить больше деталей, пока жду».
Опыт, и не только этот, говорит, что люди часто обращаются к инструментам ИИ без осознания их технических и функциональных возможностей, а также со слепым доверием к правдивости результата — несмотря на широко известную проблему «галлюцинаций». Ученые получают причудливые иллюстрации в научных работахи не только, юристов штрафуют из-за вымышленных прецедентов в делах, ИИ обманул даже Белый дом — но, кажется, все еще имеет какой-то безграничный кредит доверия.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: