omniture

Supermicro推出搭载NVIDIA HGX A100 8-GPU的最高密度4U服务器及最新8U SuperBlade®

弹性的4U系统提供6倍 AI训练效能和7倍推论工作负载容量及最高密度,最新 SuperBlade可在8U规格中支持最多 40张GPU
美超微电脑股份有限公司
2020-10-09 15:16 23974

加州圣何塞2020年10月9日 /美通社/ -- Super Micro Computer, Inc. (纳斯达克代码:SMCI) 是企业级计算、存储、网络解决方案和绿色计算技术等领域的全球领导者,今日宣布推出支持 8 张 NVIDIA® HGX A100™ GPU 且拥有双倍 GPU 功能的全新 4U 服务器。Supermicro 提供业界最多样化的 GPU 系统产品组合,涵盖 1U、2U、4U 和 10U 的 GPU 服务器及 SuperBlade 服务器,并提供各种可自定义组态。

Supermicro 在推出最新的 NVIDIA HGX A100™ 8-GPU 服务器后,目前可供应业界类型最广、规格最多样的 GPU 系统选择,能为边缘到云端等应用提供优异效能。整个产品组合包括 1U、2U、4U 和 10U 机架式 GPU 系统;Ultra、BigTwin™ 和嵌入式解决方案,并可选择搭载 AMD EPYC™ 和支持 Intel® Deep Learning Boost 技术的 Intel ® Xeon 处理器。

Supermicro 首席执行官兼总裁 Charles Liang 表示:“Supermicro 推出采用 NVIDIA HGX™ A100 8-GPU 主板(原代号为 Delta )的全新 4U 系统,与目前的系统相比,新系统可提供 6 倍 AI 训练效能和 7 倍推论工作负载容量。此外,最新发布的 NVIDIA HGX™ A100 4-GPU 主板(原代号为 Redstone)拥有广泛的市场接受度,让我们对未来全球客户的回响有着高度期待。这些最新的 Supermicro 系统可针对加速工作负载来大幅提升整体效能,以满足瞬息万变的市场需求。同时,新系统可应用在包括高性能计算 (HPC)、数据分析、深度学习训练和推论等领域。”


最新高密度的 2U 和 4U 服务器采用 Supermicro 的进阶散热设计(包括客制化散热片和选购的水冷系统),并搭载 NVIDIA HGX A100 4-GPU 8-GPU 主板,另外还推出支持 8 张 NVIDIA A100 PCI-E GPU 的全新 4U 服务器(即日起供货)。Supermicro 的进阶 I/O 模块(AIOM)规格具有高灵活性,可进一步提升网络通讯功能。AIOM 可搭配高速、低延迟的最新 PCI-E 4.0 存储与网络装置使用,支持 NVIDIA GPUDirect® RDMA 和 GPUDirect Storage,并可通过 NVIDIA Mellanox® InfiniBand 的 NVME over Fabrics(NVMe-oF)将连续数据流馈入可扩展的多重 GPU 系统,而不会出现瓶颈。此外,Supermicro 的钛金级电源供应器能提升系统的省电效率,能源效率为业界最高的 96%,不仅省下更多电费,还能为 GPU 提供备援支持。

NVIDIA 产品管理与营销部资深总监 Paresh Kharya 表示:“Supermicro 搭载 NVIDIA A100 的系统可快速扩充至数千张 GPU,或可使用最新的多实例 GPU 技术,将每张 A100 GPU 分割成 7 张独立的 GPU 实例,以执行不同的工作。支持 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的运算容量,无需变更任何程序代码。”

Supermicro 搭载 HGX A100 4-GPU 的进阶 2U 设计

此 2U 系统搭载 NVIDIA HGX A100 4-GPU 主板,并采用 Supermicro 的进阶散热片设计,在满载下仍可维持最佳的系统温度,且外型规格精简轻巧。系统可通过 NVIDIA NVLink® 执行高 GPU 点对点通讯,可安装最高 8TB 的 DDR4 3200Mhz 系统内存,具备 5 个支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,还有 4 个支持 GPUDirect Storage 功能的可热插入 NVMe。

搭载 HGX A100 8-GPU 的高密度、多功能 4U 设计

最新 4U GPU 系统搭载 NVIDIA HGX A100 8-GPU 主板,具备最多 6 个 NVMe U.2 和 2 个 NVMe M.2、10 个 PCI-E 4.0 x16 插槽,并采用 Supermicro 独家的 AIOM,能通过 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技术堆栈,支持系统之间的高效 8-GPU 通讯与数据流。系统使用 NVIDIA NVLink 和 NVSwitch 技术,适合用于大规模的深度学习训练、研究或国家实验室专用的神经网络模型应用、超级运算丛集和高效能计算云端服务。

搭载 20  A100 PCI-E GPU 的超高密度、节能 8U SuperBlade

这款业界最高密度的 GPU 刀锋服务器装载在 Supermicro 的 8U SuperBlade 机壳内,可支持最多 20 个节点和 40 张 GPU,每节点两张单宽 GPU,或每节点一张 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸内装入 20 张 NVIDIA A100 GPU,进一步提升计算效能密度,且尺寸更小巧,能为客户降低总体拥有成本(TCO)。为支持 GPU 优化的配置并维持高需求 AI 应用程序所需的顶尖效能和传输量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 网络基础架构,可加速深度学习并支持实时分析和决策。SuperBlade 同时具备高密度、可靠度和可升级性,为企业应用程序提供 AI 服务的完美建构基础。

业界最多样化的 GPU 加速系统产品组合

Supermicro 持续支持各种规格的 NVIDIA 高阶 GPU,专为客户的独特使用案例场景和需求进行优化。1U GPU 系统可通过 NVLink 容纳最多 4 张 NVIDIA GPU,已通过包括 NEBS 第 3 级认证、5G/边缘就绪的 SYS-1029GQ 等认证。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系统支持最多 6 张 NVIDIA V100 GPU,可在同一系统内容纳双 PCI-E 控制源(Dual PCI-E Root Complex)功能。最后,如 SYS-9029GP-TNVRT 等 10U GPU 服务器支持最多 16 张 V100 SXM3 GPU,并可搭载内建 AI 加速能力的双 Intel Xeon 可扩充处理器。

弹性的解决方案系列采用 NVIDIA GPU 和 NVIDIA NGC™ 生态系统提供的 GPU 软件,能为各种工作提供适合的建构基础,满足不同产业组织的需求,适用于开发模型的 AI 推论、高效能计算到高阶训练等应用。

敬请通过  LinkedIn、 Twitter 和 Facebook关注 Supermicro,获取最新动态与公告。

消息来源:美超微电脑股份有限公司
相关股票:
NASDAQ:SMCI
China-PRNewsire-300-300.png
相关链接:
全球TMT
微信公众号“全球TMT”发布全球互联网、科技、媒体、通讯企业的经营动态、财报信息、企业并购消息。扫描二维码,立即订阅!
collection