Stability AI випустила StableLM — власний набір великих мовних моделей із відкритим вихідним кодом, які вчились на даних з Wikipedia

Опубликовал
Катерина Даньшина

Stability AI, та сама компанія, що стоїть за ШІ-генератором зображень Stable Diffusion, тепер відкриває вихідний код своєї мовної моделі StableLM.

Компанія випустила набір великих мовних моделей (LLM) із відкритим кодом під загальною назвою StableLM та оголосила, що вони доступні для розробників для використання та адаптації на GitHub.

Як і ChatGPT, StableLM розроблена для ефективного генерування тексту та коду. Вона навчена на наборі даних з відкритим вихідним кодом Pile, який містить інформацію з низки джерел, включаючи Wikipedia, мережу вебсайтів для питань і відповідей з різних тем Stack Exchange і систему для пошуку біомедичної інформації PubMed.

Stability AI каже, що моделі StableLM наразі доступні від 3 до 7 мільярдів параметрів, і ще від 15 до 65 мільярдів з’являться пізніше.

Онлайн курс UI/UX Design Pro від Ithillel.
Навчіться проєктувати інтерфейси з урахуванням поведінки користувачів, розв'язувати їх проблеми через Customer Journey Mapping, створювати дизайн-системи і проводити дослідження юзабіліті, включаючи проєктування мобільних додатків для Android та iOS і розробку UX/UI на основі даних!
Дізнатися більше

Компанія спирається на свою місію зробити ШІ-інструменти більш доступними, як це було зроблено зі Stable Diffusion – інструмент для синтезу зображень був доступний у публічній демонстрації та бета-версії, а також є можливість повного завантаження моделі для експериментів розробників.

Чатбот Stability AI можна випробувати в демонстрації  на Hugging Face. Stability AI попереджає, що хоча набори даних, які він використовує, спрямовують чатбот на «безпечніше» розповсюдження тексту, «не всі упереджені чи токсичні відповіді можна пом’якшити шляхом тонкого налаштування».

Джерело: The Verge

Disqus Comments Loading...