在人工智能算力需求持续攀升的背景下,英伟达最新发布的NVL576与NVL1152系统引发行业震动。这两款基于光互连技术的新架构,标志着GPU集群规模从72颗向千颗量级跃迁,而支撑这一突破的核心,正是对铜缆与光互连技术的精准取舍。
NVL72机柜的物理极限暴露了铜缆的天然短板。这个重达1.36吨的"钢铁巨兽"内,5000余根同轴铜缆编织成3.2公里长的信号网络,却仅能支撑72颗GPU在1.8TB/s带宽下实现全互连。网络高级副总裁Gilad Shainer坦言:"当信号传输距离超过1米,铜缆的衰减就会让高速通信变得不可行。"这种物理限制直接导致跨机柜扩展时,只能依赖带宽与延迟均差一个数量级的InfiniBand网络。
光互连的转机始于共封装光学(CPO)技术的成熟。通过将光引擎直接集成至交换芯片封装,CPO方案省去了传统可插拔模块的外壳与连接器,使单个光模块功耗从10-15瓦降至3瓦以下。2025年英伟达在Spectrum以太网交换机上首次量产CPO,为后续技术迁移积累了关键经验。这种技术突破使得在机柜间部署光网络成为可能——NVL576系统通过光模块连接8个NVL72机柜,构建起576颗GPU的计算域。
新系统的混合架构设计凸显工程智慧。在NVL576中,机柜内部仍沿用成熟的铜背板连接GPU与交换机,仅在机柜间部署光模块;而计划2028年推出的Feynman系统更进一步,可能将CPO直接集成至GPU封装。这种分层策略既保留了铜缆在短距离传输中的成本与可靠性优势,又通过光互连突破了物理空间限制。超大规模计算副总裁Ian Buck指出:"单层交换网络能将延迟降低40%,这是训练万亿参数模型的关键。"
供应链争夺战揭示技术转型的残酷性。为确保CPO关键部件激光器的稳定供应,英伟达在2026年3月向Coherent与Lumentum各注资20亿美元,锁定磷化铟晶圆与高功率激光芯片的优先产能。月底追加的20亿美元投资Marvell,则将Celestial AI的光子互连技术纳入NVLink生态。这三笔合计60亿美元的布局,恰在UALink开放标准硬件量产前完成,形成显著的先发优势。
技术演进背后是算力需求的指数级增长。训练ChatGPT级大模型需要数千颗GPU协同工作,而当前架构中跨机柜通信带宽仅为机柜内部的1/20。黄仁勋在GTC主题演讲中强调:"当576颗GPU能像单颗芯片般通信,训练效率将提升10倍。"这种效率提升不仅来自带宽增加,更源于光互连将通信延迟压缩至纳秒级,接近铜缆内部传输水平。
铜缆并未退出历史舞台,但其角色已发生根本转变。在机柜内部,铜背板仍以零功耗、高可靠的优势连接GPU与交换机;而在机柜间,光模块构建起的高速通道正打破物理边界。这种技术共生状态印证了Shainer的判断:"在可触及的范围内,铜缆仍是最优解。"但随着Feynman系统将GPU密度推向新高度,光的统治领域正在不可逆地扩张。






















