在构建大规模人工智能算力平台时,光学互连与高密度电路板往往被视为两条平行却又不可分割的技术路径。若把服务器比作城市的神经网络,CPO 就是高速的光纤干线,而 PCB 则是连接各个节点的细密道路;两者共同决定了算力的传输效率与能耗底线。
CPO:光子相干互连的核心部件
CPO(Coherent Photonic Optics)是一类基于相干光技术的模块,能够在 100 Gbps 以上的速率下实现单模光纤的无损传输。与传统电信号相比,光子信号的传播延迟仅为几纳秒,且功耗仅为等效电气互连的 10% 左右。典型的 CPO 方案包括硅光子波导、集成激光器以及相干探测器,常见封装尺寸为 1U 或 2U,便于直接插入服务器机箱的光模块槽。
PCB:高密度互连的承载平台
PCB(Printed Circuit Board)在 AI 服务器中不再是单纯的支撑板,而是演进为多层 HDI(High‑Density Interconnect)板,层数可达 24 层以上,走线宽度低至 5 µm。高密度的走线和微孔技术使得每块板能够容纳数百个 GPU、CPU、FPGA 以及 CPO 模块的电源和信号分配,单板功耗常突破 5 kW。为了满足散热需求,PCB 常配合内嵌液冷通道或热管结构。
CPO 与 PCB 在 AI 服务器中的协同作用
- 信号转接:CPO 模块通过专用光电转换芯片焊接在 PCB 的光学走线层,完成电‑光‑电的无缝切换。
- 延迟压缩:光纤链路的单程时延约为 5 ns,而同等距离的铜线往往超过 30 ns,整体系统响应时间因此缩短约 80%。
- 功耗削减:每 Tbps 传输的功耗从传统 8 W 降至约 0.7 W,整机功耗在 10 MW 级别的数据中心可节约数百兆瓦。
- 空间利用:CPO 的 1U 规格占用的机箱体积仅为等效 10 Gbps 电气互连的 1/4,使得同等机架高度下可部署更多计算节点。
案例:某云服务商的 AI 超算集群
该供应商在 2024 年底部署了 128 节点的 DGX‑H100 系统,每节点均搭载两块 CPO 100 Gbps 光模块和一块 24 层 HDI PCB。实际运行数据显示,节点间的全互连延迟从原来的 0.35 µs 降至 0.07 µs,功耗峰值下降约 32%。更重要的是,系统在训练 175 B 参数模型时的整体吞吐提升了 18%,验证了光子互连与高密度 PCB 的叠加效应。
从技术实现到商业落地,CPO 与 PCB 已经不再是独立的配件,而是共同塑造 AI 服务器性能天花板的关键因素。正因为如此,业内对光子互连材料的研发投入与 PCB 高密度制造工艺的升级正呈指数级增长。
