欢迎访问电脑商情在线! 请免费注册
分享到





位置:首页 > 网络与安全 > 业界新闻

NVIDIA Mellanox InfiniBand护航百亿亿次AI超级计算

作者: cbinews编辑   责任编辑:张琳 2020-11-17 11:26:20
来源:电脑商情在线关键字:400G InfiniBand

NVIDIA于日前推出下一代NVIDIA® Mellanox® 400G InfiniBand产品,为AI开发者和科研人员提供最快的网络互连性能,以助力其应对全球最具挑战性的问题。

随着药物研发、气候研究和基因科学等领域对计算需求的指数级持续增长,NVIDIA Mellanox 400G InfiniBand在通过提供全球唯一的完全硬件卸载和网络计算平台,实现了大幅的性能飞跃,可加快相关研究工作的进展。

第七代Mellanox InfiniBand NDR 400Gb/s产品提供超低延迟,并在上一代产品的基础上实现了数据吞吐量翻倍,同时增加了新的NVIDIA网络计算引擎,实现了额外的加速。

包括Atos、戴尔科技、富士通、浪潮、联想和SuperMicro等公司在内的全球领先的基础设施制造商,计划将Mellanox 400G InfiniBand解决方案集成到他们的企业级产品中去。此外,包括DDN、IBM Storage以及其它存储厂商在内的领先的存储基础设施合作伙伴也将支持NDR。

NVIDIA网络高级副总裁Gilad Shainer表示:“我们的AI客户的最重要的工作就是处理日益复杂的应用程序,这需要更快速、更智能、更具扩展性的网络。NVIDIA Mellanox 400G InfiniBand的海量吞吐量和智能加速引擎使HPC、AI和超大规模云基础设施能够以更低的成本和复杂性,实现无与伦比的性能。”

今日关于Mellanox InfiniBand的发布,代表了面向AI超级计算的业界最强大的网络解决方案。Mellanox NDR 400G InfiniBand交换机,可提供3倍的端口密度和32倍的AI加速能力。此外,它还将框式交换机系统的聚合双向吞吐量提高了5倍,达到1.64 petabits/s,从而使用户能够以更少的交换机,运行更大的工作负载。

扩展生态系统,面向更多的应用

一些全球最大的科研机构率先表达了对下一代Mellanox InfiniBand技术的关注。

微软公司Azure HPC和AI产品负责人Nidhi Chappell 表示:“Microsoft Azure与NVIDIA 网络的合作关系源于我们共同的热情,即通过可扩展HPC和AI系统,帮助科学家和研究人员进行创新。在HPC领域,Azure HBv2 VM率先将HDR InfiniBand引入云端,并为MPI客户应用在云上实现了超算级规模和性能,展示出可扩展MPI HPC应用到超过80,000核的能力。为满足AI创新的雄心,Azure NDv4 VM充分利用HDR InfiniBand,为每个GPU 分配了 200 Gb/s 的带宽,每台VM可达1.6 Tb/s的总互连带宽,且能够在保证低延迟不变的InfiniBand网络中,扩展到数千个GPU,从而将AI超级计算带到各个领域。微软对NVIDIA InfiniBand产品线的不断创新表示赞赏,我们期待双方持续保持紧密的合作伙伴关系。”

美国Los Alamos国家实验室下一代平台首席架构师Steve Poole表示:“高性能互连技术是百亿亿次乃至更快超级计算机的基础,Los Alamos国家实验室持续引领HPC网络技术的最前沿,我们将持续与NVIDIA合作,对其最新的400Gb/s技术进行评估和分析,以应对Los Alamos国家实验室的各种应用需求。”

Jülich超算中心负责人Thomas Lippert教授表示:“在百亿亿次计算的新时代,研究人员和科学家们力求突破,将数学建模应用于量子化学、分子动力学和民用安全领域。我们致力于利用下一代Mellanox InfiniBand,在构建欧洲领先的下一代超级计算机的进程中再创佳绩。”

Intersect360 Research首席执行官Addison Snell表示:“InfiniBand继续在创新和性能方面保持其领先性,并进一步拉大差距,使其成为了HPC和AI系统中的高性能服务器和存储互连的必选产品。随着应用对网络吞吐量需求的持续提升,对像NVIDIA Mellanox NDR 400Gb/s InfiniBand这样的高性能解决方案的需求也有望不断扩展到新的用例和市场。”

产品规格和供货情况

卸载操作对AI应用至关重要。第三代NVIDIA Mellanox SHARP技术使InfiniBand网络能够卸载并加速深度学习训练操作,使AI加速能力提高32倍。与NVIDIA Magnum IO软件栈相结合,可开箱即用,加速科学计算。

基于Mellanox InfiniBand架构的边缘交换机的双向总吞吐量可达51.2Tb/s,实现了具有里程碑意义的每秒超过665亿数据包的处理能力。基于Mellanox InfiniBand的模块化交换机的双向总吞吐量将达到每秒1.64 petabits,比上一代产品高5倍。

Mellanox InfiniBand架构基于业界标准,以确保前后代产品兼容性,并保护数据中心投资。基于该架构的解决方案预计将于2021年第二季度提供样品。

相关新闻:
网友评论(0) 评论仅代表网友个人观点,不代表CBINews观点。
CBINews网友您好,欢迎发表评论:(注册 后发表评论,可就本文发起辩论,将会获得更多关注)
 CBINews网友  注册邮箱:  

CBI 友情链接:

至顶网 |  腾讯科技 |  凤凰科技 |  商业伙伴 |  移动信息化 |  企业网 |  中国软件网 |  CIO时代网 |  更多>>

整合营销 |  CBINews刊例 |  《电脑商情报》刊例 |  版权声明 |  友情链接

内容版权所有:电脑商情在线 北京三人行广告有限公司

地址:北京海淀区学院南路68号吉安大厦B座308。联系电话:(010)62178877

商务、内容合作QQ:2291221 联系电话:13391790444 詹老师

ICP证:川B2-20070068-5 川预审H8VZ-RBP6-X228-T60Z号 北京市公安局海淀分局备案编号:1101083710

声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除。