Внутрішній монолог: штучний інтелект навчили думати (а що, так можна було?)

Опубликовал
Андрій Русанов

Нове дослідження демонструє, що надання системам штучного інтелекту «внутрішнього монологу» робить їх результати значно кращими. По суті, штучний інтелект навчили думати, перш ніж відповідати на запити, подібно до того, як люди думають про те, що мають сказати далі, перш ніж говорити. Це відрізняється від того, як поводяться популярні мовні моделі ШІ, такі як ChatGPT. Останні не «думають» про те, що вони пишуть і не передбачають різних можливостей для наступних кроків у розмові.

Новий метод під назвою Quiet-STaR дає команду системі ШІ паралельно генерувати багато внутрішніх аргументів, перш ніж відповісти на запит. Коли ШІ відповідає на підказки, він генерує багато варіантів та виводить найкращу відповідь. Зрештою, штучний інтелект навчається, відкидаючи варіанти, які виявилися невірними. По суті, метод навчання дає моделям ШІ здатність передбачати майбутні розмови та вчитися на поточних.

Дослідники зі Стенфордського університету та компанії Notbad AI застосували алгоритм Quiet-STaR до Mistral 7B, великої мовної моделі з відкритим вихідним кодом, і опублікували результати на arXiv. Версія Mistral 7B, навчена Quiet-STaR, набрала 47,2% результатів у тесті на аргументацію проти 36,3% до будь-якого навчання. Модель все одно провалила шкільний тест з математики, отримавши 10,9%. Але це майже вдвічі більше, ніж результат у 5,9% у початковій версії.

Такі моделі, як ChatGPT та Gemini, не співвідносять дані зі здоровим глуздом або контекстом, тому, фактично, не розуміють власних відповідей, просто генеруючи слова. Попередні спроби покращити здатність “думати” мовних моделей були дуже спеціалізованими не могли бути застосовані до різних моделей ШІ.

Курс-професія "Motion Designer" від Skvot.
Навчіться створювати 2D- та 3D-анімації у софтах After Effects, Cinema 4D та Octane Render. Протягом курсу ви створите 14 моушн-роликів, 2 з яких — для реального клієнта.
Детальніше про курс

Алгоритм самонавчання STaR, який дослідники використовували як основу для своєї роботи, є одним із прикладів такого навчання, але і його стримують ці обмеження. Вчені, які розробили Quiet-STaR, назвали метод так, оскільки робота STaR відбувалася у фоновому режимі. Це може спрацювати з різними моделями, незалежно від вихідних даних навчання. Тепер вони хочуть дослідити, як подібні методи можуть зменшити розрив між системами штучного інтелекту на основі нейронних мереж та людськими можливостями міркування.

Джерело: Live Sciense

Disqus Comments Loading...