外媒传Xilinx计划收购Mellanox

光纤在线编辑部  2018-11-08 10:27:55  文章来源:综合整理  版权所有,未经许可严禁转载.

导读:

11/8/2018,据外媒CNBC报道,传FPGA巨头Xilinx就收购Mellanox事宜,聘请巴克莱银行为其谋划。消息人士透露,该交易近期不会达成,并有可能以流产告终。其中两名消息人士称,如果交易最终能够达成,则预计将在12月对外宣布。

Mellanox是一家总部位于以色列的公司,该公司成立于1999年。公司官网介绍,他们是一家在全球范围内为服务器和存储提供端到端Infiniband和以太网互联解决方案的领军企业。他们提供的互连解决方案通过低延迟、高吞吐量的强大性能,可以极大的提升数据中心效率,在应用和系统之间快速的传递数据,提升系统可用性。Mellanox为业内提供了加快内部设备互联的技术和产品,包括网络适配器、交换机、软件和芯片,这些产品都可以加速应用的执行,并最大化的提升HPC、企业数据中心、Web2.0、云计算、存储以及金融服务的效率。

据媒体报道,收购迈络思可令赛灵思获得更多可在数据中心市场上出售的产品。

我们知道,随着在服务器,存储和嵌入式系统中使用多个多核处理器,I / O带宽不能跟上处理器的进步,造成性能瓶颈。快速数据访问已成为利用微处理器增加的计算能力的关键要求。此外,互连延迟已成为集群整体性能的限制因素。

另外,集群服务器和存储系统作为关键IT工具的不断增长的使用导致了互连配置的复杂性的增加。 EDC中的配置和连接数量也有所增加,使得系统管理变得越来越复杂,操作昂贵。另外,使用不同的互连基础设施管理多个软件应用程序已变得越来越复杂。

再者,随着附加的计算和存储系统或节点被添加到集群中,互连必须能够扩展,以便提供集群性能的预期增加。此外,对数据中心能源效率的更多关注正在导致IT经理们寻求采用更节能的方法。

同时,大大多数互连解决方案不是设计为在大型集群环境中使用时提供可靠的连接,从而导致数据传输中断。由于EDC中的更多应用程序共享相同的互连,因此需要高级流量管理和应用程序分区来保持稳定性并减少系统停机时间。大多数互连解决方案不提供此类功能。

据维基百科,Mellanox正在深耕的InfiniBand是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。总体来看,这个技术有以下优点:

首先,被设计为严重依赖通信处理的其他互连技术相比,InfiniBand被设计用于在IC中实现,以减轻CPU的通信处理功能。 InfiniBand能够相对于其他现有的互连技术提供优越的带宽和延迟,并且每个连续的产品都保持了这一优势。例如,我们目前的InfiniBand适配器和交换机提供高达100Gb / s的带宽,端到端延迟低于微秒。此外,InfiniBand还充分利用了PCI Express的I / O功能,即高速系统总线接口标准。

其次,根据独立的基准测试报告,InfiniBand解决方案的延迟不到测试以太网解决方案的一半。 光纤通道仅用作存储互连,通常不会在延迟性能上进行基准测试。 HPC通常需要低延迟互连解决方案。 此外,云,Web 2.0,存储,机器学习和嵌入式市场中对延迟敏感的应用程序越来越多,因此,使用10Gb / s和更快的行业标准InfiniBand和以太网解决方案有趋势 ,能够提供比1Gb / s以太网更低的延迟。

第三,虽然其他互连需要使用单独的电缆连接服务器,存储和通信基础设施设备,但InfiniBand允许在单个电缆或背板互连上整合多个I / O,这对于刀片服务器和嵌入式系统至关重要。 InfiniBand还通过单个连接整合了集群,通信,存储和管理数据类型的传输。

第四,InfiniBand被开发为提供多个系统的高可扩展性。 InfiniBand在硬件中提供通信处理功能,减轻了该任务的CPU,并使得添加到集群的每个节点的全部资源利用率得以实现。

第五,InfiniBand是唯一在硅硬件中提供可靠的端到端数据连接的行业标准高性能互连解决方案之一。此外,InfiniBand还促进虚拟化解决方案的部署,从而允许多个应用程序在专用应用程序分区的同一互连上运行。因此,多个应用程序在稳定连接上同时运行,从而最大限度减少停机时间。

Mallanox公司拥有的从光模块、网卡、交换机、服务器到有源光缆的全系列200G产品,同时他们还提供RDMA(Remote Direct Memory Access,远程直接内存访问)技术、 GPU Direct RDMA技术、SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)技术、NVMe Over Fabric Target Offload技术、SHIELD(Self-Healing Technology)技术和Socket Direct和Multi-Host技术,相信也是Xilinx 看中他们的一个原因。

但我们应该看到,作为互连技术,IB与以太网、光纤通道和其他专有技术(例如克雷公司的SeaStar)有强烈的竞争关系。缺少服务器核心CPU的Mellanox被Xilinx收购,也许是一个不错的选择。

来源半导体行业观察
光纤在线

光纤在线公众号

更多猛料!欢迎扫描左方二维码关注光纤在线官方微信

相关产品

热门搜索

热门新闻

最新简历

  • 陈** 广东 副总经理/副总裁生产经理/主管营运经理/主管
  • 刘** 恩施 技术支持工程师生产线领班/线长技术/工艺设计工程师
  • 张** 嘉兴 研发/开发工程师技术支持工程师
  • 梁** 东莞 品质/测试工程师
  • 朱** 宜春 技术支持工程师培训专员采购经理/主管

展会速递

微信扫描二维码
使用“扫一扫”即可将网页分享至朋友圈。