随着AI行业的源黑快速发展,计算能力的洞英需求也在急剧上升,无论是伟达WhatsApp%E3%80%90+86%2015855158769%E3%80%91best%20cheap%20engine%20hoist通过硬件技术,还是服务大规模AI集群建设,企业都在努力提升其AI处理能力,器功然而这也带来了巨大的耗年能源消耗问题。
据分析师Ray Wang分享的激增数据,NVIDIA的源黑AI服务器平台在每一代的更新中都经历了显著的功耗增长,从Ampere到Kyber,洞英WhatsApp%E3%80%90+86%2015855158769%E3%80%91best%20cheap%20engine%20hoist功耗八年间增长了100倍。伟达

这种巨大的服务功耗增长主要归因于每一代每机架GPU数量的增加,以及每个GPU的器功TDP的提升。
例如在使用Hopper时,耗年以每机架10KW的激增额定功率运行,而使用Blackwell时,源黑由于GPU数量的增加,这一功率几乎提升至120KW。
除了GPU数量的增加,其他因素如先进的NVLink/NVSwitch网络架构、新一代机架设计以及持续的机架利用率,也导致了超大规模数据中心的能源消耗以惊人的速度增长。

如今,大型科技公司纷纷参与“谁拥有更大规模的AI机架”的竞赛,衡量标准已经从传统的计算能力转变为“吉瓦(GW)”,像OpenAI和Meta等公司计划在未来几年内增加超过10吉瓦的计算能力。
作为对比,AI超大规模企业消耗的1吉瓦能源,足以供应大约100万美国家庭,随着大型科技公司纷纷建设大规模数据中心,单个数据中心的能耗已经相当于一个中等国家或几个美国大州的用电量。
另外国际能源署(IEA)2025年的“能源与AI”研究报告估计,到2030年,AI的能源消耗将翻倍,几乎是电网增长速度的四倍。

本文采摘于網絡,不代表本站立場,轉載聯系作者并注明出處:http://www.44eee.cn/html/65e485495080.html

