Новини Технології 30.01.2024 о 10:20 comment views icon

Оновлення безплатного інструменту для програмування Code Llama від Meta зробило його ближчим до GPT-4

author avatar

Юрій Орос

Автор новин

Оновлення безплатного інструменту для програмування Code Llama від Meta зробило його ближчим до GPT-4
Розділ Технології виходить за підтримки

Останнє оновлення ШІ-моделі генерації коду Code Llama 70B зробило її «найбільшою та найефективнішою моделлю» Meta. Безплатні інструменти Code Llama запустили в серпні як для дослідницького, так і для комерційного використання. Code Llama 70B може обробляти більше запитів, ніж попередні версії, а це означає, що розробники можуть отримувати більше підказок під час програмування, і вона може бути точнішою.

Точність Code Llama 70B у тесті HumanEval склала 53%, що краще, ніж у GPT-3.5 (48,1%), і ближче до позначки 67%, про яку повідомляло OpenAI щодо GPT-4.

Побудований на основі Llama 2, Code Llama допомагає розробникам створювати рядки коду з підказок і налагоджувати код, написаний людиною. Минулої осені Мета одночасно запустила два інших інструменти Code Llama: Code Llama — Python та Code Llama — Instruct, які зосереджені на конкретних мовах програмування, передає The Verge.

Code Llama 70B доступний у трьох версіях генератора коду і досі є безплатним для дослідницького та комерційного використання. Велика модель була навчена на 1 ТБ коду та пов’язаних з ним даних.

Розділ Технології виходить за підтримки

Favbet Tech – це ІТ-компанія зі 100% украі‌нською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологіи‌ та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців.


Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: