跳至内容


未来数据中心与智算中心的光互联架构将从单一路线走向“OCS、CPO、可插拔光模块”三路 线并存的格局,并形成分层明确、协同发展的技术体系。
-
OCS 依托其超大交换容量与系统级扩展能力,率先在 Spine 层和大型 Scale-up 集群中 规模落地,已成为万卡级 GPU/TPU 互联的核心基础设施。目前,谷歌 Apollo 项目在数 据中心网络架构中引入全光 OCS 方案,逐步替代传统 Clos 架构下的电交换模式,并已 在 Spine 层实现规模化部署。
-
CPO 在功耗与带宽密度方面具备结构性优势,是面向高带宽互联的中长期技术路径。但短期仍受良率、返修难度、测试复杂度、异质集成热管理及生态灵活性不足等因素 制约。现阶段 CPO 率先落地于 Scale-out 交换层面,主要因当前共封装良率仍处爬坡 期,失效对系统影响相对可控,更适合作为产业链工艺与系统协同能力的验证场景; 而可插拔光模块凭借灵活性、互操作性与成熟供应链,仍将长期主导 Leaf 层以下机柜 内、机架间及中长距离互联市场。
-
当前 CPO 在 Scale-out 中的部署更具“验证属性”,成本优势尚未充分释放。以 NVIDIA 的 CPO 交换机方案为例,CPO 在 TCO 层面的改善整体仍较有限。在 1.6T 交换平台中,传统可插拔方案需配置约 72 个 1.6T 光模块,对应光模块成本约 7 万美元量 级;CPO 方案采用约 36 个 3.2T 光引擎,光学物料成本约 3.5–4.0 万美元,物料层面 具备一定优势。但在系统交付过程中,光引擎、FAU、ELS 及配套光纤仍叠加较高系统 级毛利,使终端 CPO 方案的光学相关成本与可插拔方案接近,成本优势并不显著。在 三层网络架构下,尽管 CPO 可显著减少光模块采购数量(降幅约 80%以上),但新增封 装复杂度与系统集成成本抬升交换机整体成本,最终网络侧 TCO 降幅约 30%;考虑到服 务器仍占集群 TCO 主导,整集群层面的总成本改善仅为个位数。即便网络由三层向两 层扁平化演进,CPO 对整体 TCO 的改善幅度也主要体现在中高个位数水平。
-
CPO 的长期主要增量来自于 Scale-up 互联。相较 Scale-out 网络,GPU Scale-up 对带 宽密度与时延要求呈数量级提升。以 NVIDIA Blackwell 为例,第五代 NVLink 单 GPU 单向带宽达 900GB/s(7.2Tbps),约为 800G 以太网 Scale-out 方案的 9 倍,推动 GPU SerDes 速率持续演进,也使传统可插拔光模块在功耗与带宽密度上逐步逼近物理极 限。CPO 将光电转换前移至封装层,可显著降低互连功耗并提升系统带宽密度与时延表 现,更契合 Scale-up 架构的演进方向。随着 Scale-up 域规模与互联速率持续提升, 其互连 TAM 增速有望显著快于 Scale-out 网络,CPO 核心市场空间预计最终由 Scaleup 应用主导。
整体来看,行业正从传统“可插拔”模式迈向“OCS+CPO +可插拔”的立体演进结构,并在不同网络层级基于性能、成本与灵活性需求形成最优技术配置,为新一代高效算力网络奠定基础。根据 LightCounting 预测,未来五年可插拔光模块仍是市场主导形态;在 800G/1.6T 端口需求中, CPO 端口份额预计将在 2026–2028 年提升至 30%以上。
CPO 技术的规模化应用,正面临着灵活性缺失、运维成本高昂与供应链生态锁定三大根本性制约。在架构设计上,光引擎与交换芯片 ASIC 的深度集成削弱了系统灵活性,光学接口难 以独立升级或现场更换,与数据中心长期采用的模块化、可维护设计理念存在一定冲突;在 运维层面,光学与高价值交换芯片的强耦合显著放大单点故障代价,任何光学或芯片层面的 异常均可能导致整板甚至整机更换,抬升维护复杂度与隐性 TCO。
在产业生态方面,CPO 尚未建立起类似可插拔光模块的成熟认证与标准体系。传统光模块已 形成由 IEEE 802.3(PMD 物理层标准)、OIF(电接口与 SerDes 规范)以及多源协议(MSA, 如 QSFP、OSFP 体系) 共同支撑的高度互操作生态,不同厂商产品可实现真正的即插即用, 并通过长期的兼容性与可靠性认证。相比之下,CPO 在机械形态、光纤接口、外置激光方案 及系统级可靠性认证等关键环节仍缺乏统一规范,目前仅有 OIF 针对高密度互连(如 CPX) 等方向的探索性推进,整体仍处于标准化早期阶段。部分厂商选择以系统级专有方案推进, 易将客户锁定于单一设备供应商;在交换芯片市场已高度集中的背景下(CR5>90%),这一趋 势或进一步削弱客户议价能力,并加剧光模块厂商、OSAT 与晶圆代工厂之间的边界模糊与协作不确定性。
CPO 技术在热管理方面面临严峻挑战,其核心矛盾在于将两个热行为截然不同的核心部件— —高功耗的交换机芯片与对温度极度敏感的光子集成电路(PIC)——紧密集成在同一封装内。一方面,交换机芯片运行时产生大量热量,会通过热串扰直接传导至相邻的光引擎,导 致 PIC 中微环谐振器等关键光学元件发生波长漂移与性能劣化。根据 T. Baehr-Jones et al (2005),温度仅从 20°C 升至 28°C,就可能导致微环传输谱发生 0.4nm 偏移,插入损耗变 化高达 9dB,严重影响传输稳定性。另一方面,这种异质集成对散热设计提出了极高要求: 高集成导致热密度高达 500W/cm2,系统不仅需要高效导出交换机芯片的集中热量,还需为光 引擎——尤其是当激光器也集成在 PIC 近旁时——维持一个局部的、稳定的低温环境。这往 往要求为不同元件设计独立且热隔离的散热路径,在材料、结构与工艺上极大增加了封装复 杂性与整体成本。
CPO 技术的测试与良率困境,根植于其系统级集成的架构。与传统可插拔光模块可独立测试 筛选的模式不同,CPO 在封装前无法有效模拟其真实工作环境。如 Tian M. et al(2023)在《Co-packaged optics (CPO): status, challenges, and solutions》所述,其光引擎在 与交换芯片进行系统级封装前,无法通过仿真有效模拟真实工作环境——由于光、电、热信 号频率的巨大差异(THz、GHz、kHz),进行高精度协同仿真极其低效,导致热耦合、信号完 整性等关键性能在封装前实同“黑盒”。系统集成更会指数级放大良率损失。以一个集成 1 颗交换芯片和 10 个光引擎的 CPO 模组为例,假设交换芯片良率为 98%,光引擎为 99.5%,其 系统总良率将骤降至约 93%(0.98*0.995^10=0.93)。而基础元件良率本就承压,例如行业领 先的台积电,其硅光晶圆的生产良率据业界评估也仅在 65%左右。任一元件的失效都将导致 整个昂贵模组的报废。这直接转化为高昂的成本,目前 1.6T CPO 端口成本高达 2800 美元,远高于可插拔方案的 1200 美元,组件简化带来的成本优势被低良率完全吞噬。
CPO 技术面临因光、电技术迭代周期错配而引发的升级灵活性困境。其将光引擎与交换芯片 深度集成的架构,在提升性能的同时,也永久锁定了光接口的速率与功能。相比之下,可插 拔方案允许用户在光技术演进后,仅更换光模块即可实现低成本升级。而 CPO 方案一旦部署, 若新一代光引擎技术问世,用户将无法单独升级光学部分,只能继续使用落后技术或更换整 个交换机系统,显著推高了技术迭代成本与系统生命周期内的 TCO。值得注意的是,光模块 的迭代速度正在不断加快:在云计算时代,其速率升级周期约为 3-4 年,而进入 AI 时代后, 由于 AI 训练算力需求年增长 4.5 倍,芯片能效每 2 年需要实现翻倍,驱动光模块迭代周期 进一步缩短至约 2 年。
来源:国投证券,作者:马良、常思远,侵删