Amazon начала обучение искусственного интеллекта Olympus — у него вдвое больше параметров, чем GPT-4

Опубликовал
Юрій Орос

Amazon инвестирует миллионы в обучение амбициозной большой языковой модели (LLM), с надеждой, что она сможет конкурировать с OpenAI и Alphabet (Google).

По словам знакомых с этим вопросом собеседников Reuters, модель под кодовым названием Olympus имеет 2 триллиона параметров, что может сделать ее одной из крупнейших моделей, поддающихся обучению. У модели GPT-4 от OpenAI, как сообщается, один триллион параметров.

Команду возглавляет Рохит Прасад, бывший руководитель Alexa, который сейчас подчиняется непосредственно генеральному директору Энди Джассе. Как главный ученый по искусственному общему интеллекту (ИИ) в Amazon, Прасад привлек исследователей, работавших над ИИ Alexa, и научную команду Amazon к работе над обучающими моделями, объединив усилия всей компании.

Amazon уже изучила меньшие модели, такие как Titan. Компания также сотрудничает со стартапами, занимающимися разработкой моделей искусственного интеллекта, например Anthropic и AI21 Labs, предлагая их пользователям Amazon Web Services (AWS).

Amazon считает, что наличие собственных моделей может сделать более привлекательными предложения AWS, потому что корпоративные клиенты хотят получить доступ к лучшим моделям. Впрочем, конкретных сроков выпуска новой модели пока нет.

LLM (большие языковые модели) – это технология, лежащая в основе инструментов искусственного интеллекта, обучающихся на основе огромных массивов данных, чтобы генерировать ответы, подобные человеческим. Чем больше модель ИИ, тем дороже стоит ее обучение, учитывая объем необходимых вычислительных мощностей. В ходе апрельского телефонного звонка руководители Amazon заявили, что компания увеличит инвестиции в LLM и генеративный ИИ, сократив при этом расходы в своем розничном бизнесе.

Disqus Comments Loading...