AI算力的爆发不再是实验室的口号,而是数据中心每秒数十万亿次运算的真实写照。2023 年底,全球 AI 训练算力突破 1.2 EFLOPS,华为、阿里等国内巨头的算力装机规模已逼近 400 PFLOPS,单台 GPU 服务器的功耗从 2 kW 跃升至 6 kW,传统电信光传输的带宽已成为制约算力集群扩容的瓶颈。
算力需求的结构性增长
从模型规模来看,GPT‑4 训练所需算力约为 GPT‑3 的 10 倍;从推理场景看,边缘 AI 设备的实时响应要求把光模块的时延压到 10 µs 以内。中国工信部去年公布的《算力基建专项规划》预估,2025 年国内算力需求将以 30% 年复合增长率攀升,光互连的带宽需求随之翻三番。若不在光模块层面实现“算力‑光路”一体化,数据中心的能耗将超过 5 GW,运营成本将逼近 1 万亿元。
CPO光模块的技术路径
Co‑Packaged Optics(CPO)把光收发器直接封装在 ASIC 或 FPGA 上,省去传统模块的 PCB 走线,光信号在芯片内部完成转换。相较于传统 QSFP‑DD,CPO 的模组密度提升 2‑3 倍,功耗下降约 40%。华为海思的 400 Gbps CPO 方案已在 2024 年的 5 G 基站中试点,华三的 800 Gbps CPO 则计划用于 2026 年的国产 AI 超算平台。光纤单根波长从 850 nm 向 1310 nm 迁移,带宽利用率提升 1.5 倍。
产业链关键节点与瓶颈
- 硅光芯片:长江存储与中芯国际的 200 nm 硅光平台已实现 25 Gbps/通道的批量投产,但光源功率仍受限于硅基激光器的效率。
- 封装技术:CPO 需要亚毫米级对准精度,国内封装厂的良率目前在 85% 左右,距离国际 95%+ 仍有差距。
- 测试与验证:高速光信号的 BER 测试设备成本高达 300 万元,导致小批量试产的门槛提升。
下游算力平台对 CPO 的需求呈现“抢购”态势:2024 年第二季度,国内四大云服务商合计下单 CPO 模块 1.2 万片,环比增长 68%。与此同时,光模块原材料——高纯度氟化氢的供给紧张,使得部分供应链出现 3‑6 个月的交付窗口。
政策与资本的协同效应
2023 年国家集成电路基金专项支持 CPO 项目 5 亿元,地方政府又配套 2 亿元的税收返还。资本市场的反应同样迅速,光模块概念股在今年累计融资额突破 120 亿元,市值增长超过 80%。在此背景下,企业的研发投入从 2022 年的 1.5 亿元跃升至 2024 年的 3.9 亿元,研发人员占比已逼近 30%。
如果说算力是 AI 的心脏,那么 CPO 光模块就是血管的主动脉——只有两者同步升级,才能避免“血栓”阻塞整个生态。
