Anthropic научила свой чат-бот Claude анализировать 150 тыс. слов за раз

Опубликовал
Юрій Орос

Anthropic выпустила Claude 2.1. Последняя версия конкурента ChatGPT увеличивает контекстное окно до 200 000 токенов (Anthropic утверждает, что 200 000 токенов – это примерно 150 000 слов или более 500 страниц материала). Компания заявила, что версия 2.1 также вдвое снизила частоту галлюцинаций, что привело к уменьшению количества ошибочных ответов.

Компания заявляет, что контекстное окно Claude 2.1 на 200 тыс. токенов позволяет пользователям скачивать целые базы данных, научные работы, финансовые отчеты или длинные литературные произведения. После загрузки материала чат-бот может предоставлять резюме, отвечать на конкретные вопросы его содержания, сравнивать/контрастировать несколько документов или распознавать закономерности, которые человеку может быть сложно увидеть, передает Engadget.

Онлайн-курс "Android Developer" від robot_dreams.
Курс для всіх, хто хоче навчитися розробляти застосунки для Android з нуля, створити власний пет-проєкт для портфоліо та здобути професію, актуальну наступні 15–20 років.
Програма курсу і реєстрація

Anthropic предупреждает, что анализ и ответ на очень длинные входные данные может занять у ИИ-бота несколько минут — гораздо больше секунд, которые тратятся на более простые запросы. Галлюцинации или заведомо неточной информации все еще распространены в этом поколении чат-ботов с искусственным интеллектом. Однако Anthropic утверждает, что Claude 2.1 снизил уровень галлюцинаций вдвое по сравнению с Claude 2.0. Частично компания объясняет этот прогресс улучшенной способностью отделять неверные утверждения от признаний неопределенности, благодаря чему Claude 2.1 примерно вдвое чаще признает, что не знает ответа, чем отвечает неверно.

 

Anthropic утверждает, что Claude 2.1 также совершает на 30% меньше ошибок в очень длинных документах. Кроме того, он имеет в три-четыре раза более низкий показатель «ложных выводов, что документ подтверждает определенное утверждение».

Disqus Comments Loading...