英伟达发布L40S GPU或将对中高速光模块市场带来需求

光纤在线编辑部  2023-08-16 13:52:41  文章来源:自我撰写  版权所有,未经书面许可严禁转载.

导读:英伟达发布L40S GPU,将促进AI算力提升,进一步加大云厂商的采购,未来或将会对中高速光模块市场带来需求,国内中高端数通市场的龙头厂商中际旭创以及光模块领域的龙头新易盛等,海信,华工科技,剑桥科技等企业,在未来均能切入增量云计算/AI等领域,提升公司产品发展潜力。

8/16/2023,光纤在线讯,在近日举办的SIGGRAPH 2023上,NVIDIA 宣布推出全新的 NVIDIAL40S GPU 以及搭载L40S的 NVIDIA OVX 服务器。根据资料显示,这款GPU以及OVX服务器,适用于人工智能大模型训练和推理、三维设计和可视化、视频处理、工业数字化等用途,能够帮助机构企业和数据中心增强生成式AI、图形和视频处理能力,满足不断增长的算力需求。

L40S GPU 和OVX 服务器主要针对生成式人工智能模型的训练和推理环节,且有望进一步提升生成式人工智能模型的训练和推理效率。

根据公开资料显示,英伟达全新的L40S GPU加速卡是L40的升级版,这款GPU基于Ada Lovelace架构,包含第四代Tensor Core以及FP8转换引擎,运算速度可达1.45 PFlops。此外,L40S GPU包含18176个CUDA核心,可提供近5倍的单精度浮点运算(FP32)性能(91.6 TFlops),几乎是英伟达A100 GPU的5倍。由于这款加速卡不支持NVLink,且没有选择采用HBM显存,而是采用GDDR6 ECC显存,因此L40S相比A100、H100更加适用于边缘运算。

其区别主要体现在:
(1)L40S采用较为成熟的GDDR6显存,相比A100与H100使用的 HBM 显存,在显存带宽上有所降低,但技术更成熟,市场供应较为充足。
(2)L40S 在 FP16 算力(智能算力)上较 A100 有所提高,在 FP32 算力(通用算力)上较 A100 提高明显,更适应科学计算等场景。
(3)L40S 在功率上较 A100 有所降低,有利于降低数据中心相关能耗。
(4)根据 Super Micro 的数据,L40S 在性价比上较 A100 更有优势。
与 A100 类似,L40S 通过 16 通道的 PCIe Gen 4 接口与 CPU 进行通信,最大双向传输速率为 64 GB/s。相比之下,NVIDIA Grace Hopper 通过 NVLink-C2C 技术将 Hopper 架构的 GPU 与 Grace 架构的 CPU 相连,在 CPU 到 GPU、GPU 到 GPU 间实现 900 GB/s 的总带宽,较 PCIe Gen 5 快 7 倍。

上海证券的分析师刘京昭认为:
(1)由于PCIe Gen4接口的限制,L40S在GPU网络计算上的应用有所限制,因此对目前800G光模块的需求量影响有限。
(2)相较于A100,L40S在部分面向生成式人工智能模型的应用场景下有计算效率上的优势,且更具性价比。
(3)相较于A100,L40S使用GDDR6等相对成熟技术,有助于确保上游供应的稳定。
(4)L40S的前述优势可能促使下游云厂商加大采购,或将为以200G和400G光模块为代表的中高速光模块带来新的增长空间。

英伟达发布L40S GPU,或将促使AI算力提升,进一步加大下游云厂商的采购,未来或将会对中高速光模块市场带来需求,国内中高端数通市场的龙头厂商中际旭创以及光模块领域的龙头新易盛等,海信,华工科技,剑桥科技等企业,在未来均能切入增量云计算/AI等领域,提升公司产品发展潜力。
光纤在线

光纤在线公众号

更多猛料!欢迎扫描左方二维码关注光纤在线官方微信
微信扫描二维码
使用“扫一扫”即可将网页分享至朋友圈。