同时,由于英伟达大量急单涌入,晶圆代工企业台积电也从中受益。据悉,英伟达正向台积电紧急追单,这也令台积电5纳米制程产能利用率推高至接近满载。台积电正以超级急件(superhotrun)生产英伟达H100、A100等产品,而且订单排至年底。
业界认为,随着ChatGPT等AIGC(生成式人工智能)快速发展,未来市场对GPU的需求将不断上升,并将带动HBM以及先进封装发展。
资料显示,AIGC模型需要使用AI服务器进行训练与推理,其中,训练侧AI服务器基本需要采用中高端GPU,在这些GPU中,HBM的渗透率接近100%。
全球市场研究机构TrendForce集邦咨询预估2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体服务器出货量近9%。
从高端GPU搭载的HBM来看,英伟达高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI服务器系统运算效能。随着高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。
先进封装产能方面,当前台积电CoWoS封装技术为目前AI服务器芯片主力采用者。
估计在高端AI芯片及HBM强烈需求下,TSMC于2023年底CoWoS月产能有望达12K,其中,英伟达在A100及H100等相关AI Server需求带动下,对CoWoS产能较年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成长下,将使下半年CoWoS产能较为紧迫,而此强劲需求将延续至2024年,预估若在相关设备齐备下,先进封装产能将再成长3-4成。