2022年手机处理器性能排行榜为AI大模型数据中心服务器泡澡而潮流盛开

当AI写作、创作艺术品,甚至能媲美人类水平时,有人兴奋不已,也有人担忧其可能带来的影响。普通人对于生成式AI的态度各异,但研究人员和企业共同关注的问题是:大模型所需的大算力需求如何解决?以ChatGPT为例,其训练成本高达140万美元,每日电费超过5万美元。

数据中心的能耗问题成为了云计算提供商面前的挑战。微软Azure、阿里云等都采用“泡澡”方式提升IDC能源效率。英特尔市场营销集团副总裁庄秉翰认为,ChatGPT将加速液冷技术发展,使服务器「泡澡」成为主流。

服务器“泡澡”是一种比喻,代表的是浸没式液冷技术,其中包括了冷板、喷淋和浸没式设计。不过,这种技术在国内应用并不高,因为缺乏统一的验证标准,使得系统设计和验证成本较高,对最终用户而言价格昂贵。

除了技术和标准之外,应用也是液冷技术没有大规模部署的原因。然而随着CPU功耗上升至270W或300W,未来可能达到350W,而GPU功耗更是400W或500W,因此必须考虑到液冷技术。此外,大型算力需求也促使客户从风冷转向更节能的液冷。

数据中心从传统到新型节能有一个循环过程:用户需求激增→标准建立→规模效应体现→整体成本自然下降。这也是推动产业转变的关键驱动因素之一。全国数据中心用电量占比不断增长,并预计会持续增加。

政府通过《工业能效提升行动计划》明确了目标,即新建大型超大型数据中心PUE(Power Usage Effectiveness)优于1.3。在利用固定的散热设备中,比如风冷PUE可达1.4-1.5,而使用液冷PUE可以降低至近1.1,从而显著提高能源效率。

要从处理器层级解决问题主要是技术挑战,对于创新强调的英特尔来说,这是一个相对可控的问题。而服务器层面的挑战则涉及到了成本与安全性方面。如果管道泄漏或者电子器件损坏需要大量验证,这就是为什么需要大量试验来证明这些方案在实际操作中安全且不会影响服务正常运行。

虽然技术问题相对容易解决,但成本则是一个巨大的挑战。一旦采用了这种方法,它可能会带来10-20%的额外开支。不过,如果能够推动标准化,那么产业链供应商将实现互联互通,从而极大地降低采购成本以及未来运维费用,让整个行业更加普及这项最新科技。

目前几个头部行业已经跳过POC阶段进入了规模化采用的状态。但并非所有数据中心都一定要使用这种方法。理论上,即使新的至强处理器拥有100个能效核,其电源功率仍然可以保持300W或350W,因此在风冷环境下也可应用。而对于存量市场,则有其他方式提升能源效率,如英特尔智慧节能解决方案基于模块化设计,可以适应不同场景。

猜你喜欢