ReadCai财经资讯
当前位置:首页 » 13. 科技 » 芯片制造

英伟达拟2028推Feynman架构GPU

2026-01-02

摘要:为应对即时AI推理需求增长,NVIDIA计划在2028年推出的下一代Feynman架构GPU中,采用台积电A16(1.6nm)制程,并利用SoIC混合键合技术,堆叠来自Groq公司的LPU(语言处理单元)以提升推理性能。此举旨在解决先进制程下SRAM集成成本与面积问题,但也面临散热与CUDA兼容性两大挑战。

线索

* 机会:若技术成功实现,NVIDIA将强化其在AI推理市场的竞争力,特别是在需要即时响应的应用场景(如语音对话、实时翻译)中实现性能飞跃。结合台积电背面供电与先进封装技术,可能为高性能芯片设计开辟新路径。

* 风险:堆叠设计带来的散热压力是首要工程难题,可能影响芯片可靠性与性能释放。此外,LPU的“确定性”执行逻辑需与现有庞大的CUDA软件生态深度适配,软件优化难度与成效存在不确定性,可能影响产品最终体验与市场接受度。

正文

NVIDIA目前在AI训练领域占据主导地位,但面对日益增长的即时AI推理需求,公司正在进行新的技术布局。根据相关信息,NVIDIA计划在预定于2028年推出的Feynman架构GPU中,整合来自Groq公司的LPU单元,旨在显著提升人工智能推理任务的性能。

Feynman架构将接替Rubin架构,采用台积电最先进的A16(1.6nm)制程工艺。为了突破半导体物理限制,NVIDIA计划利用台积电的SoIC混合键合技术,将专门为推理加速设计的LPU单元直接堆叠在GPU核心芯片之上。这种设计思路与AMD的3D V-Cache技术有相似之处,但NVIDIA堆叠的不是高速缓存,而是具备特定功能的LPU单元。

该设计的核心逻辑在于应对SRAM在先进制程下微缩的困境。在1.6nm这样的极先进工艺节点上,直接在核心芯片上集成大量SRAM成本极高且会占用大量面积。通过堆叠技术,NVIDIA可以将运算核心保留在主芯片上,而将需要大面积布局的SRAM等相关电路独立出来,制作在另一层芯片上再堆叠上去。

台积电A16制程的一大特色是支持背面供电技术。这项技术可以释放芯片正面的布线空间,专门用于垂直方向的信号连接,从而确保堆叠的LPU单元能够与底层GPU核心以极低功耗进行高速数据交换。

结合LPU单元所强调的“确定性”执行逻辑,未来的NVIDIA GPU在处理需要即时响应的AI任务时,例如语音对话和实时翻译,其速度有望实现显著提升。

然而,这一设计也面临两大潜在挑战。首先是散热问题:在本身运算密度已经极高的GPU之上再增加一层芯片,如何有效散热、避免因过热导致的性能下降或故障,是工程团队需要解决的首要难题。其次是软件兼容性挑战:LPU的“确定性”执行顺序需要精确的内存配置支持,而NVIDIA现有的庞大CUDA软件生态是基于硬件抽象化理念设计的。要让LPU与现有CUDA生态完美协同工作,需要进行大量顶级的软件优化工作。

发布时间:2025-12-31 14:07:00

相关推荐

评论 ( 0 )

3.6 W

文章

71.1 W

点赞

回顶部