AI服务器 Compute Tray —— 立体结构剖析

从PCB主板到光纤接出口的全景式结构图(以Nvidia GB200级别为参考)

① 立体爆炸图 —— 各层级组件的物理位置

下面这张图把一块AI计算卡(Compute Tray)从下往上"拆开"展示。从最底下的PCB主板开始,依次往上是BGA焊球、IC载板(或玻璃基板)、C4微凸点、硅中介层、GPU+HBM、CPO光引擎、光纤、液冷盖板。每一层的标签都在左侧整齐排列,用引线指向对应组件。

爆炸图:从下到上 9 个核心层级 封装尺寸约 110×110mm(GPU封装)+ 更大的PCB主板 ⑨ 液冷散热盖板 液冷板紧贴芯片 · 1200W+功耗 ⑧ 光纤束(高速数据进出) 通往交换机/其他GPU节点 ⑦ CPO 光引擎 围绕GPU布置 · 电↔光转换 ⑥ GPU 计算芯片 + HBM 内存 中央 GPU + 两侧 4-8颗 HBM3E ⑤ 硅中介层 (CoWoS) 实现 Die-to-Die 高速互联 ④ C4 微凸点 连接中介层和载板 · ~50μm ③ IC 载板(ABF) 芯片与PCB之间的"信号扇出层" 线宽线距10μm级 · 110×110mm ② BGA 焊球阵列 连接载板和PCB · 数千个 ① PCB 主板 机械支撑 · 电源 · 低速信号 32-40层堆叠 · M6/M7级CCL GPU → 接交换机 → 接其他节点 载板下一代方案 玻璃基板 替代ABF · 平整度更高 CTE匹配硅 · TGV密度更大 装配方向
关键观察: GPU这块"明星组件"其实只占整个堆叠的极小一块(中间黑色那块),它周围有大量"配套结构"——下面是层层的载板和PCB提供电源和信号扇出,旁边是HBM内存供数据,外围是CPO进行光电转换,上面是液冷板带走热量。每一层都是必不可少的,缺哪一层AI芯片都跑不起来

② 侧面剖视图 —— 各层厚度比例与组装关系

把封装从侧面切开看,能更清楚地看到层与层之间是怎么"堆"起来的。 注意厚度比例:PCB最厚(约2-3mm)、载板次之(约1mm)、芯片最薄(<1mm)。 BGA焊球和C4微凸点的尺寸差异也很明显——前者约500μm,后者只有几十μm。

侧面剖视图(厚度近似按比例) 主结构在左半部分 · 标签和说明在右半部分 HBM GPU Die HBM 硅中介层 (Silicon Interposer / CoWoS) IC 载板 (ABF Substrate) PCB 主板(32-40层堆叠) 电源VRM 电源VRM CPO CPO ⑨ 液冷盖板 ~3mm厚 · 紧贴芯片 TIM 导热界面材料 ⑥ GPU + HBM 芯片厚度 0.5-1mm ④ C4 微凸点 ~50μm 头发丝直径量级 ⑤ 硅中介层 含TSV穿硅孔 · 0.1mm厚 ③ IC 载板(ABF) 10-20层积层 · 总厚约1mm ② BGA 焊球 ~500μm · 数千个 ① PCB 主板 2-3mm厚 · M6/M7级CCL 最厚的一层 ⑦⑧ CPO + 光纤 侧边伸出 · 不在主堆叠中 ▼ 厚度对比(粗略示意) 液冷盖板 3mm GPU/HBM 0.5-1mm 硅中介层 0.1mm IC载板 1mm PCB主板 2-3mm(最厚) 连接尺度对比: • BGA焊球 ~500μm(肉眼可见) • C4微凸点 ~50μm(头发丝量级) • 载板线宽 ~10μm(半导体后道工艺级) ⚡ 信号路径示例(电信号从外部进入GPU走的路): 高速连接器/光纤 → CPO光电转换 → 载板内层走线 → C4微凸点 → 硅中介层 → 微凸点 → GPU Die

③ 俯视图 —— 载板上的组件平面布局

把封装从正上方往下看,能看到一块约110×110mm的载板上"住"了哪些组件,怎么排布的。 GPU在中央,HBM内存堆栈紧贴GPU两侧(信号路径最短),CPO光引擎围绕GPU四周布置(光信号只能短距离传输到光纤接出口)。

↑ 光纤接出(接交换机) 高速数据通过光纤离开封装,进入数据中心网络 IC 载板(约 110 × 110 mm) GPU Die (多Chiplet设计) Chiplet 1 Chiplet 2 HBM 0 HBM 1 HBM 2 HBM 3 HBM 4 HBM 5 HBM 6 HBM 7 4× HBM 内存 4× HBM 内存 CPO CPO CPO CPO CPO CPO ━━━ 6× CPO 光引擎(顶部排)━━━ CPO CPO CPO CPO CPO CPO ━━━ 6× CPO 光引擎(底部排)━━━ ↓ 光纤接出(接其他GPU节点) 机柜内或机柜间的GPU之间通过光纤直连 高带宽
1GPU 居中

GPU放在载板正中央,到所有HBM和CPO的距离最短,能最大化数据吞吐效率。

2HBM 紧贴 GPU 两侧

HBM和GPU的距离决定内存带宽——距离越近,链路损耗越小、能效越高。这就是HBM要"贴脸"放的原因。

3CPO 沿载板边缘

CPO要让光纤直接从外侧接出,放在边缘最方便。同时光信号短距离传到GPU,减少光电转换的功耗。

④ 组件功能词典 —— 每一层在做什么

把上面图里出现的每个核心组件单独拉出来讲一遍:物理位置、核心功能、行业玩家、技术壁垒。

① PCB 主板

最底层,整个系统的"地基"。提供机械支撑、电源传输、低速控制信号路由。 AI服务器主板做到 32-40 层,用 M6/M7 级覆铜板。
价值量:单板 5000-10000 美元

国内龙头:沪电、深南、胜宏、鹏鼎

② BGA 焊球

载板与PCB之间的电气和机械连接。直径约500μm,肉眼可见,一块封装下方有数千个。 SAC305锡银铜合金最常见。
关键作用:实现载板"插"到主板上的可拆卸性

这是BGA封装的得名来源

③ IC 载板(ABF Substrate)

芯片与PCB之间的"信号扇出层"。把芯片侧10μm级的密集焊点,扇出到500μm级的BGA焊球。 线宽线距10-15μm,10-20层积层。核心材料是日本味之素的ABF膜。
当前痛点:超大尺寸(110mm+)翘曲控制、良率

全球:揖斐电、欣兴、AT&S、深南

③' 玻璃基板(替代方案)

ABF载板的下一代替代品。用电子级玻璃替代ABF树脂作为基材。 平整度极高、CTE匹配硅、Df更低、TGV密度更大、可做到面板级尺寸。
时间表:2025-2026 小批量、2027-2028 规模量产

布局:Intel、Samsung、Corning、沃格光电

④ C4 微凸点

硅中介层与载板之间的连接点。直径约50μm(人头发丝量级),间距100μm。 比BGA小一个数量级。
关键作用:芯片侧的高密度I/O扇出到载板

半导体后道工艺,由封装厂完成

⑤ 硅中介层(CoWoS)

台积电主推的高密度封装方案。一块薄硅片(含TSV穿硅孔)承载GPU+HBM, 实现Die-to-Die的超高带宽互联(5-10 TB/s)。
核心瓶颈:台积电CoWoS产能,2024-2026持续紧缺

设计制造:台积电独家

⑥ HBM 高带宽内存

AI芯片的"短期记忆"。8-12层DRAM裸片3D堆叠,通过TSV互联。 紧贴GPU布置,单堆栈带宽 1.2-1.5 TB/s(HBM3E),单颗GPU配8颗HBM。
当前一代:HBM3E(8层),下一代 HBM4(12层)2025量产

SK海力士、三星、美光寡头垄断

⑥ GPU Die(计算芯片)

系统的"大脑"。Nvidia GB200由两颗 Blackwell GPU Die 拼接, 每颗约 800mm²,TSMC 4nm工艺,单颗功耗 600W+。
设计:Nvidia / AMD / 华为 / Google

制造:TSMC 4nm/3nm 独家

⑦ CPO 光引擎

共封装光学(Co-Packaged Optics)。把光收发器件搬到芯片旁边, 实现电信号↔光信号的高速转换。每个CPO模块输出 800G-1.6T 带宽, 一颗ASIC周围布置 8-16 个。
2026 年开始大规模商用

布局:博通、Marvell、Nvidia、思科

⑧ 光纤

从CPO模块接出,连接到机柜内其他节点或机柜间交换机。 是当前唯一能在长距离(>1m)下传输 Tbps 级数据的介质。 AI集群机柜间几乎100%光纤互联。
下一代:硅光、共封装光波导

康宁、藤仓、长飞光纤

⑨ 液冷散热盖板

紧贴芯片顶部,里面有冷却液通道。GB200单卡功耗 1200W+, 风冷已无法处理,液冷成为标配。冷板材质多为铜或铝合金。
商业意义:液冷是2024-2026最大的服务器硬件升级

英维克、高澜、维谛

电源模块(VRM)

把PCB主板上的48V或12V直流电,转换成GPU所需的0.7-1V低压、上千安培大电流。 围绕GPU布置在PCB上。新一代采用"垂直供电"架构,从芯片背面直接喂电。
趋势:12V→48V→垂直供电

MPS、英飞凌、瑞萨、TI

MLCC 去耦电容群

围绕GPU密布数百颗,吸收电源的高频纹波,确保芯片瞬态供电稳定。 高端AI服务器单板用量上万颗。部分高端设计开始把MLCC埋入PCB或载板内部。
这就是你之前研究过的领域

村田、TDK、太诱、三星电机

高速连接器

PCB主板边缘的电气连接接口。用于PCIe铜缆、NVLink铜缆、电源进线等。 Nvidia NVL72机架内 GPU 之间靠5000多根铜缆+连接器互联。
下一代:部分被CPO+光纤替代

安费诺、TE Connectivity、莫仕
看完这张图你应该意识到: 所谓"AI芯片"或"GPU",其实只是中央那块小小的硅片。它能跑起来,依赖的是周围 PCB主板 + IC载板 + 中介层 + HBM + CPO + 液冷盖板 + 数千个被动元件 + 数千根铜缆/光纤 的整个生态系统。PCB行业、被动元件行业、连接器行业、光器件行业,本质上是支撑AI芯片运行的"配套基础设施"——它们的命运和AI算力增长深度绑定,但每一个细分都有自己的护城河和投资逻辑。

⑤ 颜色图例

PCB主板(FR-4或M级CCL) ABF载板(树脂) 玻璃基板 硅中介层 GPU Die HBM CPO 光引擎 光纤 液冷盖板 BGA / 焊球 电源模块 MLCC