Розвиток ШІ викликав зростання ринку DRAM: NVIDIA і Intel замовили високошвидкісну пам’ять HBM (у 5 разів дорожчу за звичайну) у Samsung та SK hynix

Опубликовал
Андрей Русанов

Поява ChatGPT та аналогічних технологій відкриває перед виробниками пам’яті нові можливості для розширення бізнесу. Подібні системи обробляють велику кількість даних та потребують швидкісних складників для серверів. Більш потрібною стає пам’ять з високою пропускною здатністю (HBM), сплеск замовлень на яку з початку року вже отримали Samsung Electronics та SK hynix.

HBM значно збільшує швидкість обробки даних у порівнянні з іншими типами DRAM шляхом вертикального з’єднання кількох чіпів пам’яті. До цього часу, попри відмінні характеристики, HBM застосовувалася менше, ніж у звичайних DRAM. Це пов’язано з тим, що середня ціна HBM втричі вища, ніж у звичайної DRAM. Виробництво HBM складніше та технологічне. Проте розвиток технологій штучного інтелекту здатний переламати ситуацію.

NVIDIA, найбільший у світі виробник графічних процесорів, що використовуються в обчисленнях, звернулася до SK hynix з проханням про постачання нового продукту – чипів HBM3. Intel, найбільший виробник процесорів для серверів, також активно працює над використанням продуктів, оснащених HBM3. Інсайдери стверджують, що ціна HBM3 збільшилася у п’ять разів у порівнянні з найбільш продуктивною DRAM.

Курс Python від CyberBionic Systematics.
Курси, де пропонують опанувати Python чи покращити свої навички. Є можливість стажування та допомога з працевлаштуванням.
Записатися на пробний урок

Очікується, що ринок високопродуктивних модулів пам’яті швидко зростатиме, і між Samsung та hynix загостриться конкуренція. Ринок HBM все ще перебуває в зародковому стані, оскільки HBM почали впроваджуватися у сервери для ШІ лише починаючи з 2022 року.

SK Hynix залишається лідером на ринку HBM. Компанія розробила HBM у співпраці з AMD у 2013 році. Корейський виробник мікросхем випустив модулі першого покоління (HBM), другого покоління (HBM2), третього покоління (HBM2E) та четвертого покоління – HBM3, Забезпечивши собі частку ринку в 60-70%.

У лютому 2021 року Samsung в співпраці з AMD розробила HBM-PIM, який поєднує чипи пам’яті та процесори штучного інтелекту в одне ціле. Коли чіп HBM-PIM працює з CPU та GPU, це значно прискорює обчислення. У лютому 2022 року SK Hynix також представила рішення на основі технології PIM.

Експерти прогнозують, що в середньостроковій та довгостроковій перспективі розробка пам’яті для штучного інтелекту, такої як HBM, призведе до великих змін у напівпровідниковій промисловості. Негативною тенденцією може бути зростання вартості устаткування.

Джерело: BusinessKorea

Disqus Comments Loading...