上海2019年3月14日 /美通社/ -- 在加拿大举行的第32届 NeurIPS 神经信息处理系统大会上,百度正式发布超级 AI 计算平台 X-MAN3.0。该平台由百度与英业达(Inventec)合作研发打造,专为 AI 深度学习场景优化设计,每秒可完成2000万亿次深度神经网络计算,极大的加快了 AI 深度学习模型的训练速度。
NeurIPS 是机器学习领域的顶级会议,深度学习是 AI 发展的主要动力,也是大会热门的话题之一。目前在深度学习三要素 -- 计算、算法和数据中,除了算法创新外,计算技术的创新成为深度学习发展的主要动力。
灵活支持不同负载的 AI 应用
X-MAN 系列是百度用于超大规模 AI 训练的专用平台,第一代产品发布于2016年,此次发布的是第三代。英业达是百度在数据中心领域重要的战略伙伴之一,一直以来双方紧密合作,联合研发了包括 X-MAN3.0在内的各类 AI 专用计算平台。
X-MAN3.0是双方合作的又一出色成果,该产品高度为8U,由两个高度分别为4U 的独立 AI 模组组成,每个模组可支持8颗最新的 NVIDIA V100,两个 AI 模组间通过高速互联背板连接。GPU 之间通过 NVSwitch 实现点对点通信,全局单向通信总带宽为2400GB / 秒。而且,X-MAN 3.0专门设计了两级 AI 加速芯片互联交换体系,CPU 与 GPU 间的逻辑关系可通过软件定义方式任意指定,更灵活的支持不同负载的 AI 应用,避免了系统瓶颈。此乃 X-MAN3.0与其他产品的显著区别。
专为深度神经网络优化的百度 X-MAN 3.0
为支持 AI 深度学习技术更强的泛化能力,更高的预测精度,算法模型日趋复杂,越来越多的数据需要被及时标注和处理,计算性能成为关键。X-MAN3.0是目前扩展 GPU 数量最多的计算平台之一,其采用了 NVSwitch 技术,可以很好地缓解通信瓶颈问题,可以为百度的超大规模 AI 训练带来超出预期的应用价值。
随着 AI 人工智能技术的快速发展,众多 AI 芯片公司应运而生,AI 芯片格局正呈现多元化发展趋势。此次 NIPS 大会上发布的 X-MAN3.0,采用了硬件系统模块化、互联接口标准化、互联拓扑高灵活性的设计思路,既提升了多元化 AI 加速芯片的兼容性,也促进了 AI 加速芯片生态健康、快速、可持续的发展。
英业达专注于服务器定制化,成为百度的战略合作伙伴
英业达企业计算机业务群(Inventec Enterprise Business Group, EBG)成立于1998年,专注于服务器研发制造20年,是全球品牌客户重要的服务器系统供货商。英业达服务器事业部(即“英业达企业计算机业务群”,Inventec Enterprise Business Group)总经理蔡枝安表示:“20年来,英业达一直是全球品牌的关键服务器提供商,并且通过领先的硬件部署能力赢得了超大型数据中心客户信任,与百度更有8年 ODM 定制化服务器的深度合作,是助力百度 AI 战略落地的重要伙伴。”