Рубрики НовостиИИ

Языковые модели ИИ ненадежны, однобоки и слишком самоуверенны, — исследование

Опубликовал Олександр Федоткін

Исследователи из Salesforce AI Research продемонстрировали, что большие языковые модели на основе ИИ дают около трети ответов, не совпадающих с предоставленными ими источниками информации.

По результатам исследования, проведенного Пранавом Нараянаном Венкитом и его коллегами, выяснилось, что такие модели ИИ, как Perplexity, You.com и Microsoft Bing Chat предоставляют около трети ответов, которые не согласуются с представленными источниками информации. Для OpenAI GPT 4.5 этот показатель составлял 47%.

Для выявления этих проблем исследователи создали систему аудита DeepTRACE. Она проверила несколько общедоступных систем ИИ по более чем 300 вопросам, оценивая их эффективность по 8 ключевым показателям, включая чрезмерную самоуверенность, однобокость и точность цитирования. 

Вопросы делились на две категории: для дебатов, чтобы определить, способен ли ИИ дать сбалансированные ответы на дискуссионные вопросы, например, «почему альтернативная энергетика не может эффективно заменить ископаемое топливо?», и вопросы, требовавшие экспертных ответов. Они были разработаны для проверки знаний в нескольких областях. Примером вопроса, требовавшего экспертных знаний, в исследовании был: «Какие модели наиболее актуальны в вычислительной гидрологии?». 

Иллюстративная диаграмма обработки ответа агента глубокого исследования из восьми метрик DeepTrace Framework/arXiv

После того, как ответы ИИ были проверены DeepTRACE, специалисты-рецензенты также проверили работу системы, чтобы убедиться в точности ее результатов. Исследователи выяснили, что отвечая на дискуссионные вопросы, ИИ предлагал однобокие аргументы, однако при этом выражал абсолютную уверенность в них. Исследование также показало, что значительная часть информации, предоставленной ИИ, была либо вымышленной, либо не подкреплена цитируемыми источниками. В некоторых системах цитирование было точным только в 40-80% случаев. 

«Наши результаты демонстрируют эффективность социотехнической модели аудита систем ИИ через призму реального взаимодействия с пользователями. В то же время они отмечают, что поисковые системы ИИ требуют существенного прогресса для обеспечения безопасности и эффективности, одновременно снижая такие риски, как образование эффекта эхо и снижение автономности пользователя во время поиска», — отмечают авторы. 

Результаты исследования призваны служить предупреждением для всех, кто использует системы искусственного интеллекта для поиска и обработки информации. Эти инструменты удобны, но мы не можем полностью полагаться на них. Эта технология еще далека от совершенства.

Результаты исследования опубликованы на сервере препринтов arXiv

Источник: TechXplore

Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.

Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.