Новини Технології 15.02.2023 о 16:20 comment views icon

Розвиток ШІ викликав зростання ринку DRAM: NVIDIA і Intel замовили високошвидкісну пам’ять HBM (у 5 разів дорожчу за звичайну) у Samsung та SK hynix

author avatar
https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg

Андрій Русанов

Автор сайту

Розділ Технології виходить за підтримки Favbet Tech

Поява ChatGPT та аналогічних технологій відкриває перед виробниками пам’яті нові можливості для розширення бізнесу. Подібні системи обробляють велику кількість даних та потребують швидкісних складників для серверів. Більш потрібною стає пам’ять з високою пропускною здатністю (HBM), сплеск замовлень на яку з початку року вже отримали Samsung Electronics та SK hynix.

GPU с памятью HBM

HBM значно збільшує швидкість обробки даних у порівнянні з іншими типами DRAM шляхом вертикального з’єднання кількох чіпів пам’яті. До цього часу, попри відмінні характеристики, HBM застосовувалася менше, ніж у звичайних DRAM. Це пов’язано з тим, що середня ціна HBM втричі вища, ніж у звичайної DRAM. Виробництво HBM складніше та технологічне. Проте розвиток технологій штучного інтелекту здатний переламати ситуацію.

HBM

NVIDIA, найбільший у світі виробник графічних процесорів, що використовуються в обчисленнях, звернулася до SK hynix з проханням про постачання нового продукту – чипів HBM3. Intel, найбільший виробник процесорів для серверів, також активно працює над використанням продуктів, оснащених HBM3. Інсайдери стверджують, що ціна HBM3 збільшилася у п’ять разів у порівнянні з найбільш продуктивною DRAM.

Очікується, що ринок високопродуктивних модулів пам’яті швидко зростатиме, і між Samsung та hynix загостриться конкуренція. Ринок HBM все ще перебуває в зародковому стані, оскільки HBM почали впроваджуватися у сервери для ШІ лише починаючи з 2022 року.

HBM

SK Hynix залишається лідером на ринку HBM. Компанія розробила HBM у співпраці з AMD у 2013 році. Корейський виробник мікросхем випустив модулі першого покоління (HBM), другого покоління (HBM2), третього покоління (HBM2E) та четвертого покоління – HBM3, Забезпечивши собі частку ринку в 60-70%.

Онлайн-курс "2D Animation" від Skvot.
Покроково та з фідбеком від лекторки увійдіть у 2D-анімацію через вивчення софтів, інструментів та створення кейсу у портфоліо.
Програма курсу та реєстрація

У лютому 2021 року Samsung в співпраці з AMD розробила HBM-PIM, який поєднує чипи пам’яті та процесори штучного інтелекту в одне ціле. Коли чіп HBM-PIM працює з CPU та GPU, це значно прискорює обчислення. У лютому 2022 року SK Hynix також представила рішення на основі технології PIM.

Розвиток ШІ викликав зростання ринку DRAM: NVIDIA і Intel замовили високошвидкісну пам'ять HBM (у 5 разів дорожчу за звичайну) у Samsung та SK hynix

Експерти прогнозують, що в середньостроковій та довгостроковій перспективі розробка пам’яті для штучного інтелекту, такої як HBM, призведе до великих змін у напівпровідниковій промисловості. Негативною тенденцією може бути зростання вартості устаткування.

Micron анонсировала HBMnext — следующее поколение высокоскоростной памяти HBM

Джерело: BusinessKorea

Розділ Технології виходить за підтримки Favbet Tech

Favbet Tech – це ІТ-компанія зі 100% українською ДНК, що створює досконалі сервіси для iGaming і Betting з використанням передових технологій та надає доступ до них. Favbet Tech розробляє інноваційне програмне забезпечення через складну багатокомпонентну платформу, яка здатна витримувати величезні навантаження та створювати унікальний досвід для гравців. IT-компанія входить у групу компаній FAVBET.


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: