Nvidia 的 GPU 正变得越来越耗电,因此这家美国巨头希望通过包含其最高性能芯片的液冷 PCIe 卡,让使用它们的数据中心“更环保”。
在今年在台湾举行的 Computex 活动上,这家计算机图形巨头透露,它将在今年第三季度为其旗舰服务器 GPU A100 销售液冷 PCIe 卡。然后在 2023 年初,该公司计划为 A100 最近宣布的继任者Hopper 供电的 H100发布液冷 PCIe 卡。
Nvidia 的 A100 已经可用于液冷服务器,但迄今为止,这只能在进入公司 HGX 服务器主板的 GPU SXM 外形尺寸中实现。
凭借新的液冷 PCIe 外形尺寸,Nvidia 正在使液冷 GPU 服务器更广泛地可用。预计今年晚些时候将有十多家服务器制造商支持液冷 A100 PCIe 卡,包括华硕、技嘉、浪潮和 Supermicro。
即将推出的 PCIe 卡将使用直接到芯片的液体冷却,因此,它们将只占用服务器中的一个 PCIe 插槽,而风冷版本则需要两个插槽。
Nvidia 数据中心计算总监 Paresh Kharya 在与记者的简报中声称,这些因素将使配备液冷 A100 PCIe 卡的数据中心能够提供与配备风冷 A100 卡的数据中心相同的性能水平,同时消耗高达 30%根据 Nvidia 最近与数据中心巨头 Equinix 进行的测试,功耗更低,机架使用量减少 66%。
他表示,液冷 PCIe 卡还将帮助数据中心提高其电源使用效率(PUE)。PUE 是一个关键的行业指标,它通过测量进入建筑物的能源量并将其除以数据中心(包括冷却系统)消耗的能源量来确定数据中心的效率。
对于液冷 A100 PCIe 卡,Nvidia 估计它将把数据中心的 PUE 比率降低到 1.15,“远低于”风冷版本可能实现的 1.6 比率。Kharya 说,通过结合液体冷却本身(比空气冷却需要更少的能源)和数据中心本身的规模,可以提高能效。
这些液冷卡内的 GPU 将具有与风冷卡相同的规格。这意味着它们不会运行得更快,例如,液冷 A100 PCIe 卡的最大热设计功率仍为 300 瓦。目前,英伟达只推出了 80GB 内存容量的液冷 A100 PCIe 卡,没有计划推出 40GB 版本。
Kharya 表示,Nvidia 决定发布这些产品是因为主流数据中心运营商正在将液体冷却视为减少能源消耗的一种方式。
这并不奇怪,因为过去几年 GPU 和其他组件已经变得非常耗电,这也是英特尔最近宣布计划建立一个 7 亿美元的“大型实验室”以尝试新的液体和浸没式冷却技术的原因。
免费试用尝鲜
贴心会员服务
服务可用性
数据安全保障
全年不间断在线
工作时间:早上9:00-下午6:30
河南快米云网络科技有限公司
公安备案编号:41010302002363
Copyright © 2010-2023 All Rights Reserved. 地址:河南自由贸易区开封片区经济开发区宋城路122号