
如果预测准确,人工智能的兴起将显著增加数据中心的电力消耗。据预测,数据中心与人工智能相关的能源使用量将以每年43%的速度增长。由此,人工智能可能导致数据中心内部温度升高,因为IT设备的电力消耗与热量产生是同步的。
这意味着,除了要应对更多电力的需求外,数据中心运营商还需要考虑如何应对可能成为常态的更高热负荷,尤其是在托管人工智能工作负载的数据中心中。
人工智能会提高数据中心的温度吗?
截至目前,还没有人收集到关于人工智能工作负载对数据中心热量输出影响的确凿、全面的数据。但可以合理推测,人工智能工作负载确实会产生较高的热量,因为人工智能加速硬件——如现场可编程门阵列(FPGA)、图形处理单元(GPU)和神经处理单元(NPU)——相对于传统设备,通常消耗大量电力并产生大量热量。
更重要的是,人工智能硬件的设计可能使散热变得更加困难。例如,针对NPU的研究发现,它们“由于功率密度过高,对芯片系统造成严重的热瓶颈。”换句话说,这意味着很难有效冷却人工智能芯片,因为它们在小范围内产生大量热量。
数据中心如何冷却人工智能硬件
这意味着,数据中心运营商可能需要投资新的冷却策略,以确保人工智能硬件在安全的温度下运行。
好消息是,冷却人工智能设备的高效技术已经存在。液冷和浸没冷却在快速散热和最小化能量消耗方面表现优异。
然而,坏消息是,这些冷却系统通常比传统的数据中心冷却解决方案要昂贵得多。因此,数据中心运营商可能会发现自己需要投资昂贵的冷却基础设施。
这一趋势也可能产生市场压力,一些数据中心可能由于冷却系统的不同而比其他数据中心更能承载人工智能工作负载。提供液冷和浸没冷却的数据中心将在争夺人工智能市场的竞争中占据优势。
有效冷却人工智能工作负载的需求,可能还会为数据中心提供额外的动力,投资如热能回收等策略,因为它们可以利用人工智能芯片产生的余热。
人工智能、热量与数据中心:长期展望
总体来看,值得注意的是,人工智能硬件可能并不总是那么消耗电力或产生大量热量。随着时间的推移,人工智能芯片制造商可能会找到更有效的散热方法,就像CPU设计几十年来已经发生变化,以减少热量输出而不牺牲处理能力一样。今天的NPU、FPGA、GPU及其他人工智能设备产生大量热量,并不意味着未来也会如此。
此外,企业可能并不会像目前的预测那样在数据中心部署那么多人工智能设备。例如,企业可能选择使用GPU即服务(GPUaaS)解决方案,而不是建立自己的硬件——尽管提供GPU即服务需要服务提供商在某个数据中心部署GPU,但通过将GPU在多个客户和工作负载之间共享,可能会比每个企业部署自己的GPU更高效地使用GPU。
但短期内,人工智能带来的热潮似乎是不可避免的。现在是数据中心运营商决定是否愿意投资于能够应对增加热量需求的冷却技术的时候了。











