在AI技术日新月异的今天,当机器人能够创作出媲美甚至超越人类水平的文学作品、策划旅行攻略,甚至绘画和写诗时,不同的人对这一现象持有不同的态度。一些人激动不已,而另一些则感到忧虑。然而,无论是研究人员还是企业,他们都共识于一个问题:如何解决大型模型所需的大规模算力的能耗问题?
以全球瞩目的OpenAI公司为例,其ChatGPT模型训练过程所需的巨量计算能力,已经引起了微软等科技巨头的关注。在2023年1月,该公司推出了一个拥有28.5万个CPU核心、1万个GPU的超级计算机,这一设备具有前所未有的高性能。但这种强大的计算能力也带来了极高的能耗成本。据估算,GPT-3训练一次需要140万美元,而每日电费可能达到5万美元。
面对这些挑战,无论是微软Azure还是阿里云,都开始采用数据中心服务器进行“泡澡”式散热,以提升能源效率。这一趋势被视为一种潮流,其中服务器通过液冷技术实现浸没式散热,一种比喻性的表达方式,代表着液冷技术中的浸没方式,但并非新的技术,只是在行业内使用率并不高。
然而,与之相关的一些关键因素,如缺乏统一标准、应用范围以及成本问题,使得液冷技术在大规模应用上仍然存在挑战。英特尔市场营销集团副总裁兼中国区数据中心销售总经理庄秉翰表示:“我认为ChatGPT会加速液冷发展。”
为了克服这些挑战,并推动产业从传统数据中心向更节能、高效的未来转变,有几个重点方向需要政府指导单位采取行动:规划、能效提升和利用率提高。此外,还有多项政策指导着行业发展,比如《工业能效提升行动计划》规定到2025年新建大型及超大型数据中心PUE(Power Usage Effectiveness)应低于1.3。
要从处理器层级解决液冷挑战,是主要依靠创新与验证;在服务器层面,则涉及到技术与成本双重考量;而软件与工具方面则需要通过优化来降低整体能耗。英特尔至强可扩展处理器已经实现了90%以上可再生能源使用,从而减少了环境影响。而英特尔电源汇流排技术(Power Corridor)则可以进一步降低整个部件级别的能耗。
尽管目前使用液冷可能会带来10-20%增加成本,但标准化是推动成本下降和普及性的关键。一份由英特尔携手生态伙伴共同编纂并于今年三月正式发布的地标性标准,将促进整个产业链降低采购成本,并简化后续维护工作。此外,由于大量生产将导致供应商竞争力增强,这也有助于进一步减少价格。
虽然当前许多领先企业已经开始实施liquid cooling,但这并不意味着所有数据中心都必须采用这一方法,因为对于某些情况来说,风冷也是完全可行且经济实惠的手段。此外,对存量数据中心市场来说,也有一系列其他方法可以提升能源效率,如智能化管理系统等,以此确保其长期稳定运行,同时也满足绿色环保要求。
综上所述,在追求更高算力需求同时保护环境安全之间找到平衡点,是当今科技界最迫切的问题之一。这不仅关系到人们生活习惯,更涉及到全球气候变化和资源消耗的问题,因此探索更加有效节省能源的手段显得尤为重要。在这个不断进步但又充满挑战的大时代背景下,我们期待看到更多令人振奋且务实地解决方案涌现出来,为我们提供更加清洁、高效以及具备前瞻性的数字基础设施服务。