HPC需要什么样的网络互联?

日期: 2015-09-22 作者:唐琼瑶 来源:TechTarget中国

在2015年7月公布的世界五百强超级计算机排名中,InfiniBand第一次在总体份额上面超过以太网,成为在高性能计算机里最主流的一种网络。作为InfiniBand主要的供应商,Mellanox相当开心。Mellanox市场部副总裁Gilad Shainer表示:“很多千万亿次超级计算机也在使用我们的InfiniBand网络。同时,使用Mellanox 100G每秒的EDR InfiniBand超级计算机开始出现在排名里面。”

众所周知,高性能计算涵盖了很多高并行度的计算密集型任务,如气候研究与分子建模等。这对CPU或GPU的核心数及其利用率、互连性能、效能与可扩展性提出了更高的要求。高效的高性能计算系统在数千个节点之间需要高带宽、低延迟的连接,还要高速的存储系统作为支撑。

Mellanox(中文名迈络思),成立于1999年,是一家在全球范围内为服务器和存储提供端到端InfiniBand和以太网互联解决方案厂商。发展到现在,产品与技术覆盖网络适配器、交换机、软件与芯片,特点是低延迟、高吞吐量与强大性能,可以极大提升数据中心效率,在应用和系统之间快速传递数据,提升系统可用性,除了HPC,还广泛应用于企业数据中心、WEB2.0、云计算、金融与保险等领域。

Gilad Shainer表示,Mellanox网络的技术优势主要体现在已被世界证明是使用时间最长的、最可靠的、最佳扩展性的、最高性能的端到端网络。同时最灵活,可以支持胖树、Mash、Dragon-Fly等所有网络架构,并且作为开放标准的产品,拥有强大的生态圈。“最重要的是卸载架构,我们希望网卡不仅仅是传输信息,还能做更多智能任务,分担CPU的工作,成为一个协同处理器。”

此外,Mellanox将计算、存储与管理中所有涉及到的通讯,都集中到网络设备上,不是使用传统光纤做存储,而是使用以太网来将存储、计算与管理变成三个分开的网络。

具体到产品,新的ConnectX4是一款100G每秒的网卡,延迟低到0.7微秒,消息传输率达到每秒1.5亿次。2014年六月发布的SwitchIB拥有36EDR(100GB/S)端口,吞吐量达到7.2Tb/s。最新的交换机Spectrum是以太网的,包括万兆、25、45、50到100,还有端到端的网线。此外,在铜线光缆领域,尤其是在网线的技术里面,Mellanox有全世界最先进的硅光技术网线,这是一大亮点。

Gilad Shainer表示,网络在整个IT系统中的投资占比较少。他表示,Mellanox现在倡导联合设计的理念,与软硬件伙伴协同开发,共同提升性能。从FDR升级到EDR,增加的投资不多,但是系统性能却能增加40%左右。“在2014年Mellanox已经有了100G每秒的网络。我们的发展方向已经迈向了200G,而且与英特尔的CPU路线图结合,有很强的前瞻性和很好的发展路线。”

谈及与英特尔针对高性能计算推出的Omni-Pass技术机构的差异,Gilad Shainer告诉TechTarget中国,InfiniBand交换机的延迟是统一的90纳秒,所有产品端口保持一致。同时,功耗方面有实际的成功案例证明非常低,拥有数量众多的大型用户。同时,他表示,Mellanox的网络销售额高于交换机,“随着新的Spectrum交换机产品的发布,我们的市场份额将进一步提升。”

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

相关推荐