Amazon почала навчання штучного інтелекту Olympus — у нього вдвічі більше параметрів за GPT-4

Опублікував Юрій Орос

Amazon інвестує мільйони в навчання амбітної великої мовної моделі (LLM), з надією, що вона зможе конкурувати з OpenAI та Alphabet (Google).

За словами знайомих із цим питанням співрозмовників Reuters, модель під кодовою назвою Olympus має 2 трильйони параметрів, що може зробити її однією з найбільших моделей, які піддаються навчанню. У моделі GPT-4 від OpenAI, як повідомляється, один трильйон параметрів.

Команду очолює Рохіт Прасад, колишній керівник Alexa, який зараз підпорядковується безпосередньо генеральному директору Енді Джасі. Як головний науковець зі штучного загального інтелекту (ШІ) в Amazon, Прасад залучив дослідників, які працювали над ШІ Alexa, і наукову команду Amazon до роботи над навчальними моделями, об’єднавши зусилля по всій компанії.

Amazon вже вивчила менші моделі, як-от Titan. Компанія також співпрацює зі стартапами, що займаються розробкою моделей штучного інтелекту, такими як Anthropic та AI21 Labs, пропонуючи їх користувачам Amazon Web Services (AWS).

Amazon вважає, що наявність власних моделей може зробити більш привабливими пропозиції AWS, бо корпоративні клієнти хочуть отримати доступ до найкращих моделей. Втім, конкретних термінів випуску нової моделі поки що немає.

LLM (великі мовні моделі) — це технологія, що лежить в основі інструментів штучного інтелекту, які навчаються на основі величезних масивів даних, щоб генерувати відповіді, подібні до людських. Чим більша модель ШІ, тим дорожче коштує її навчання, враховуючи обсяг необхідних обчислювальних потужностей. Під час квітневого телефонного дзвінка керівники Amazon заявили, що компанія збільшить інвестиції в LLM і генеративний ШІ, скоротивши при цьому витрати у своєму роздрібному бізнесі.