数据:
美光推出 HBM4 样品,12-Hi 36 GB 模块,带宽达 2 TB/s。首批工程样品计划在未来几周内向主要合作伙伴发货,预计2026年初全面量产。
线索:
美光的HBM4架构有望显著提升内存性能,特别对生成式AI及高性能计算等应用具有重要影响。由于NVIDIA和AMD将成为早期采用者,这将推动技术应用的普及。然而,散热性能和基准测试的挑战可能影响其在高负载工作下的应用效果,投资者需关注技术进展及市场接受度。
正文:
美光公司在HBM4架构上取得了重大进展,该架构利用了12个堆叠的DRAM芯片(12-Hi),每个封装提供36 GB的容量。据美光代表介绍,首批工程样品将在未来几周内交付给主要合作伙伴,这为2026年初的全面量产奠定了基础。HBM4的设计基于美光成熟的DRAM单元1β工艺节点,自2022年投入生产。此外,美光计划在今年晚些时候推出支持EUV技术的DDR5 1γ工艺。
HBM4芯片通过将堆栈接口宽度从1024位增加到2048位,实现了2 TB/s的持续内存带宽,比现有的HBM3E标准提高了20%。NVIDIA和AMD被视为HBM4的早期采用者,其中NVIDIA计划于2026年下半年将这些内存模块纳入即将推出的Rubin-Vera AI加速器中,而AMD则计划将HBM4集成到其下一代Instinct MI400系列,进一步信息将在AMD的Advancing AI 2025大会上公布。
HBM4的高容量和高带宽将满足生成式AI、高性能计算及其他数据密集型应用的需求。更大的堆栈高度与更宽的接口宽度提升了数据传输效率,这是确保多芯片配置和内存一致性互连的重要因素。然而,随着美光公司开始量产HBM4,散热性能和实际基准测试将成为主要障碍,这将影响这一新内存标准能否支持最苛刻的AI工作负载。
发布时间:
2025-06-11 15:02:00
评论 ( 0 )