Supermicro 推出业界首款NVIDIA HGX H100 8和4-GPU H100液冷服务器,降低数据中心电力成本40%
液体冷却大型AI培训基础设施是一套整体机架集成解决方案,可以加快部署速度、提高性能,降低环境总成本
加利福尼亚州圣荷西和德国汉堡2023年5月24日 /美通社/ -- Supermicro, Inc.(纳斯达克代码:SMCI)是云计算、AI/ML、存储和5G /边缘整体IT解决方案提供商,继续使用液冷NVIDIA HGX H100机架式解决方案扩展其数据中心产品。 先进液冷技术完全由 Supermicro开发,可以缩短整个设备的交付周期,提高性能,降低运营费用,同时显著降低数据中心电源利用率。 与空气冷却数据中心相比,使用 Supermicro液冷解决方案的数据中心估计可节省40%的电力。 此外,与现有数据中心相比,直接冷却成本可降低86%。
Supermicro 总裁兼首席执行官 Charles Liang 表示:"Supermicro继续引领行业,支持全球人工智能工作负载和现代数据中心的苛刻需求。 我们的创新 GPU 服务器,采用我们的液冷技术,显著降低了数据中心的电源需求。 根据实现当今快速发展的大规模 AI 模型所需的功率,优化 TCO 和环境总成本(TCE)对数据中心运营商至关重要。 我们在设计和构建整个高性能服务器机架方面拥有经过验证的专业知识。 为机架级从零开始设计这些GPU系统,每张采用液冷方式,具有超高性能和效率,可简化部署过程,因此,我们能够在较短交付时间内满足客户要求。"
Supermicro GPU 服务器相关更多信息,请访问:htt ps://www.supermicro.com/en/products/gpu
AI 优化机架采用Supermicro最新产品系列,包括Intel和AMD服务器产品系列,可以以标准工程模板快速交付,或根据用户独特要求轻松定制。 Supermicro 继续提供业界最广泛的产品线,提供性能最高的服务器和存储系统,以解决复杂的计算密集型项目。 通过机架式集成解决方案,客户有信心和能力将机架插入、连接至网络,与他们自己管理技术相比,效率提高。
这款顶级液冷 GPU 服务器包含双 Intel 或AMD CPU以及8个或4个互连NVIDIA HGX H100 Tensor Core GPU。 使用液冷可将数据中心40%功耗,从而降低运营成本。 此外,这两款系统都大大超过了上一代NVIDIA HGX GPU 设备系统,与当今大型变压器型号相比,由于 GPU-GPU 互连速度更高和采用基于 PCIe 5.0的网络和存储,性能和效率提高30倍。
Supermicro提供8款NVIDIA H100 SXM5 Tensor Core GPU 服务器用于当今最大型 AI 模型,包括:
Supermicro 还设计了一系列可定制的 GPU 服务器,用于快速 AI 培训、大量 AI 推理或AI融合 HPC 工作负载,包括配备四个NVIDIA H100 SXM5 Tensor Core GPU 的系统。
Supermicro 液冷机架式解决方案包括冷却剂分配单元(CDU),为当今最高的TDP CPU 和 GPU 提供高达80kW的直接芯片(D2C)冷却,适用于Supermicro 各种服务器。 电源和液冷泵冗余且可热插拔,确保服务器在电源或液冷泵故障时仍能持续冷却。 防漏电连接器使客户更有信心对所有系统进行不间断液体冷却。 如需了解 Supermicro 液冷系统相关更多信息,请访问:https://www.supermicro.com/en/solutions/liquid-coolin
机架规模设计和集成已成为系统供应商的一项关键服务。 随着 AI 和 HPC 已成为组织内越来越关键的技术,必须优化和配置从服务器级别到整个数据中心的配置,以实现最大性能。 Supermicro 系统和机架级专家与客户密切合作,探索需求,拥有知识和制造能力,为全球客户提供大量机架。
如需阅读Supermicro 大型AI解决方案概要,请访问-h ttps://www.supermicro.com/solutions/Solution-Brief_Rack_Scale_AI.pdf
ISC上的Supermicro
如需探索这些技术并与我们的专家见面,请参观2023年5月21日至25日在德国汉堡举行的ISC高性能2023活动的 Supermicro 展位D405。