"Всплеск спроса на процессоры искусственного интеллекта NVIDIA ставит перед гигантами памяти задачу разработки высокопроизводительной памяти HBM"
Спрос на процессоры искусственного интеллекта NVIDIA привел к тому, что память с высокой пропускной способностью (HBM) стала ключевым продуктом, который стремятся разрабатывать гиганты памяти. Однако, по данным южнокорейских СМИ DealSite, на которые цитирует Wccftech 4 марта, сложная архитектура HBM привела к низкой производительности, что затрудняет соблюдение стандартов тестирования NVIDIA и вызывает опасения по поводу ограниченных производственных мощностей.
Производительность HBM тесно связана со сложностью его архитектуры стекирования, которая включает в себя несколько слоев памяти и технологию Through-Silicon Via (TSV) для взаимодействия. -слойные связи. Эти сложные методы увеличивают вероятность дефектов процесса, что потенциально приводит к снижению производительности по сравнению с более простыми конструкциями памяти. Более того, если какой-либо из чипов HBM неисправен, весь стек выбрасывается, что приводит к низкой производительности производства.
26 февраля компания Micron объявила о начале массового производства памяти с высокой пропускной способностью "HBM3e", которая будет использоваться в новейшем AI-чипе NVIDIA "H200" Tensor Core GPU. Поставка H200 запланирована на второй квартал 2024 года, заменив самый мощный на данный момент H100.
С другой стороны, Ким Ки Тэ, вице-президент SK Hynix, заявил 21 февраля в официальном сообщении в блоге, что, хотя внешняя неопределенность сохраняется, ожидается, что в этом году рынок памяти будет постепенно нагреваться. Причины включают восстановление спроса на продукцию мировых технологических гигантов. Кроме того, ожидается, что применение искусственного интеллекта в таких устройствах, как ПК или смартфоны, увеличит спрос не только на HBM3e, но и на такие продукты, как DDR5 и LPDDR5T. Ким Ки Тэ отметил, что все их запасы HBM были распроданы в этом году.
Согласно предыдущему пресс-релизу TrendForce, три основных производителя оригинальных HBM в 2023 году занимали следующие доли рынка: SK Hynix и Samsung оба около 46–49%, а у Micron — примерно 4–6%.
Статьи по теме:
"Интеграция искусственного интеллекта в смартфоны Xiaomi: обзор и перспективы"
"NVIDIA и SoftBank: лидеры в области искусственного интеллекта в 2023 году"
NVIDIA представляет архитектуру Blackwell и AI-чип GB200 на GTC 2024