Rongchai Wang
2025年8月22日 05:13
英伟达的NVLink和NVLink Fusion技术通过增强可扩展性和灵活性重新定义了AI推理性能,以满足AI模型复杂性的指数级增长需求。
人工智能(AI)模型复杂性的快速发展已显著增加了参数数量,从数百万增至数万亿,需要前所未有的计算资源。正如Joe DeLaere在最近的英伟达博客文章中所强调的,这一演变需要GPU集群来管理负载。
NVLink的演变与影响
英伟达于2016年推出NVLink,旨在超越PCIe在高性能计算和AI工作负载方面的限制,促进更快的GPU到GPU通信和统一内存空间。NVLink技术已显著发展,2018年引入的NVLink Switch在8-GPU拓扑中实现了300 GB/s的全对全带宽,为扩展计算架构铺平了道路。
2024年发布的第五代NVLink支持72个GPU,全对全通信速度达1,800 GB/s,提供130 TB/s的总带宽——比第一代高800倍。这种持续进步与AI模型日益增长的复杂性及其计算需求相符。
NVLink Fusion:定制化与灵活性
NVLink Fusion旨在为超大规模服务提供商提供NVLink扩展技术的访问权限,允许自定义硅芯片与英伟达架构集成,用于半定制AI基础设施部署。该技术包括NVLink SERDES、芯片组、交换机和机架规模架构,提供模块化开放计算项目(OCP) MGX机架解决方案,实现集成灵活性。
NVLink Fusion支持使用通用芯片互连快车(UCIe) IP和接口的自定义CPU和XPU配置,为客户提供跨平台XPU集成需求的灵活性。对于自定义CPU设置,建议集成英伟达NVLink-C2C IP以获得最佳GPU连接和性能。
最大化AI工厂收益
NVLink扩展架构通过优化每瓦吞吐量和延迟之间的平衡,显著提高了AI工厂生产力。英伟达的72-GPU机架架构在满足AI计算需求方面发挥着关键作用,实现各种用例的最佳推理性能。即使在NVLink速度恒定的情况下,该技术扩展配置的能力也能最大化收益和性能。
强大的合作伙伴生态系统
NVLink Fusion受益于广泛的硅生态系统,包括自定义硅芯片、CPU和IP技术的合作伙伴,确保广泛支持和快速设计能力。系统合作伙伴网络和数据中心基础设施组件提供商已经在构建英伟达GB200 NVL72和GB300 NVL72系统,加速采用者的市场投放时间。
AI推理的进步
NVLink代表了解决AI推理时代计算需求的重大飞跃。通过利用NVLink技术十年的专业知识和OCP MGX机架架构的开放标准,NVLink Fusion为超大规模服务提供商提供了卓越的性能和定制选项。
图片来源:Shutterstock
来源:https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance