Мовні моделі ШІ навчилися розпізнавати емоції та прихований сенс краще за деяких людей

Опублікував Олександр Федоткін

Великі мовні моделі ШІ вже здатні розпізнавати прихований підтекст, емоції та інші тонкощі у текстах на рівні з людьми.

Результати нещодавніх досліджень продемонстрували, що такі LLM як GPT-4, Gemini, Llama-3.1-70B і Mixtral 8×7B здатні певною мірою виявляти політичні погляди, сарказм, позитивні або негативні відтінки у словах. Автори дослідження з’ясували, що LLM майже так само добре аналізують настрої, політичні погляди, емоції та сарказм як і люди.

У дослідженні також взяли участь 33 добровольці. Загалом було проаналізовано близько 100 відібраних фрагментів тексту. Зокрема, у виявленні політичних поглядів GPT-4 виявився навіть більш послідовним ніж люди.

GPT-4 також виявився здатним вловлювати емоційне забарвлення та негативні і позитивні відтінки у тексті. ШІ розпізнавав, чи то текст писала роздратована людина, або ж глибоко обурена. Найбільш складним для розпізнавання LLM виявився сарказм. Однак і люди, що брали участь у дослідженні, не продемонстрували значних успіхів у розпізнаванні сарказму.

Розуміння того, наскільки сильні емоції відчуває людина чи наскільки вона саркастична, може мати вирішальне значення для підтримки психічного здоров’я, покращення у сфері обслуговування клієнтів і навіть забезпечення безпеки. Використання таких LLM як GPT-4 може значно скоротити час та вартість аналізу великих обсягів текстової інформації. 

Соціологи часто витрачають місяці на аналіз текстів користувачів для виявлення тих чи інших тенденцій. З іншого боку, GPT-4 відкриває двері для більш швидких та оперативних досліджень, що особливо важливо під час криз, виборів чи надзвичайних ситуацій.

Використання подібних мовних моделей може спростити роботу журналістам-дослідникам та людям, що займаються перевіркою фактів. Інструменти на базі GPT-4 можуть допомогти відзначати емоційно забарвлені чи політично упереджені пости. 

Однак прозорість, справедливість, неупередженість та політичні погляди все ще залишаються проблемою для ШІ. Між тим у розумінні та аналізі текстів Великі мовні моделі швидко наздоганяють людей. Подальші дослідження повинні включати систематичний та ретельний аналіз того, наскільки стабільні вихідні дані моделей ШІ. 

Результати дослідження були опубліковані у журналі Scientific Reports

Джерело: The Conversation