首页 产业新闻 英伟达AI服务器功耗激增:8年内预计增长100倍,成“电老虎”

英伟达AI服务器功耗激增:8年内预计增长100倍,成“电老虎”

产业新闻 5

    行业分析师 Ray Wang 在 X 平台上发布推文,指出英伟达的 AI 服务器功耗正以惊人的速度增长。从 Ampere 架构到即将到来的 Kyber 架构,英伟达的机架级解决方案功耗预计在短短八年内将增长100倍。

    博文介绍,英伟达机架功耗的大幅增长主要受两大因素驱动:一是每个机架集成的 GPU 数量显著增加;二是每一代 GPU 的热设计功耗(TDP)也在不断上升。以 Hopper 架构和最新的 Blackwell 架构为例,服务器机箱功耗从大约10千瓦增长到近120千瓦。

    为了满足行业对算力的不断需求,英伟达在技术上持续突破,但其能耗的增长速度同样令人瞩目。除了硬件本身,NVLink / NVSwitch 互连技术、新一代机架设计以及持续高负载的运行模式也是导致能耗攀升的原因。

    此外,大型科技公司正在展开一场以“吉瓦”(GW)为衡量标准的算力竞赛。例如,OpenAI 和 Meta 等公司计划在未来几年内新增超过10吉瓦的计算能力,这标志着 AI 基础设施的规模已达到新的量级。

    “吉瓦级”的功耗意味着一个超大规模数据中心消耗1吉瓦的电力,足以供应约100万户美国家庭的用电需求。而当这些巨型数据中心在全球各地建成后,单个设施的耗电量可能相当于一个中等规模国家或美国几个大州的总和。

    国际能源署(IEA)在其研究报告中预测,到2030年,仅人工智能一项就可能导致全球电力消耗翻倍,其增长速度几乎是电网扩张速度的四倍。这种大规模数据中心的建设潮可能还会导致周边地区居民用电成本的上升。