近日,黄仁勋让海外科技圈提前享受了圣诞节的喜悦。由于硅、封装以及芯片背板的问题,英伟达的Blackwell GPU曾多次传出延迟发布的消息,但这并未阻碍英伟达前进的步伐。在GB200和B200推出六个月后,英伟达宣布将推出全新的GPU GB300和B300。外界看来似乎是一个循序渐进的过程,但实际上,这是非常高效的迭代。全新GPU为大模型的推理和训练性能带来了巨大的提升,对于大模型公司和存储供应商来说,无疑是一份巨大的圣诞礼物。
B300是台积电4NP工艺(英伟达定制工艺,属于5nm制程节点的一部分)节点上的一个全新流片。定制化工艺做了一个调整设计,专用于计算芯片,使得B300浮点运算比B200高50%,GB300和B300的热设计功耗分别达到1.4KW和1.2KW,而GB200和B200则分别为1.2KW和1KW。
此外,B300内存从8-Hi(8层堆叠)升级到12-Hi HBM3E,每个GPU容量增加至288GB,但引脚速度保持不变,所以每个GPU内存带宽仍然为8TB/s。不过,由于三星没有收到黄仁勋带来的礼物,他们至少在未来九个月内不会获得GB200或GB300订单。
在自然界中,大模型如同一颗种子,其内部结构图藏着秘密。这颗种子蕴含着AI推理加速器——NVL72,它使得72个GPU能够共享内存,并实现极低延迟。此技术使得思维链更长,更经济实用,对经济效益有致命影响。
然而,在这个故事中,还有转机之旅。在SXM Puck模块上,有变化,不再提供整个BIANCA板,而是只提供“SXM Puck”模块上的B300以及Grace CPU。这意味着客户需要自行采购其余组件,并且对于VRM也有所改变,大部分VRM将由超大规模厂商或者OEM直接从VRM供应商处采购。此外,即便如此,大厂们依旧选择了使用GB300,因为它提供更高性能、更大内存,以及800G ConnectX-8 NIC,这使得横向扩展带宽翻倍。而亚马逊虽然不能像Meta、谷歌那样部署NVL72,但是随着更多组件采用水冷,以及K2V6 400G NIC在2025年第三季度支持HVM,可以使用NVL72架构,从而构建自己的定制主板。
总之,这场“下马威”不仅是在供应链上震动,也是在技术创新与市场策略之间交织成一幅精彩纷呈的大师画卷。