HBM
国内HBM进展与产能现状
技术布局
国内企业主要聚焦于HBM的上游材料和先进封装技术,例如TSV(硅通孔)、混合键合(Hybrid Bonding)等核心工艺。部分企业如通富微电、长电科技已建成2.5D/3D封装产线,为HBM提供技术支持279。
技术代差:国内HBM研发仍以HBM2为主,尚未量产,而国际巨头(如SK海力士、三星)已推进至HBM3E/HBM4阶段410。
产能规划
全球HBM产能持续紧缺,订单能见度已排至2026年一季度135。
国内企业通过材料和设备供应间接参与国际HBM扩产,例如联瑞新材、雅克科技等向SK海力士、三星供货69。
事件:2023 年 11 月 13 日,英伟达发布了最新一代 AI 芯片 H200,旨在培训 和部署各种 AI 模型。H200 是全球首款搭载 HBM3e 的芯片,HBM 产品迭代 速度加快。
英伟达发布新一代 AI 芯片 H200:H200 芯片是当前用于训练最先进大语 言模型 H100 芯片的升级产品,更加擅长“推理”。用于推理或生成问题答 案时,性能较 H100 提高 60%-90%。借助 HBM3e,英伟达 H200 以每秒 4.8TB 的速度提供 141GB 的内存,与 A100 相比,容量几乎是其两倍,带宽增加了 2.4 倍,预计于 2Q24 出货。H200 与 AMD 的 MI300X GPU 展 开竞争。与 H200 类似,AMD 的芯片比其前身拥有更多的内存。
AI 芯片首度搭载 HBM3e:伴随大模型训练渐进,充沛的存力为推理助 力。相较 A100/H100,H200 HBM 容量增加 76%。同时 HBM3e 为业内最 先进产品内存,将实现高达 8 Gbps/pin 的速度。据韩媒 businesskorea 报 道,2023 年以来,三星电子和 SK 海力士 HBM 订单一直在激增。与其 他 DRAM 相比,HBM 通过垂直连接多个 DRAM 显著提高了数据处理 速度。HBM 与 CPU 和 GPU 协同工作,可以极大地提高服务器的学习和 计算性能。
长期空间广阔短期供应不足,巨头争相布局争夺高性能计算领导权:SK 海力士副会长兼联席 CEO 朴正浩透露,今年海力士 HBM 芯片出货量为 50 万颗,预计到 2030 年将达到每年 1 亿颗。集邦咨询指出,2023 下半 年伴随 NVIDIA H100 与 AMD MI300 的搭载,三大原厂也已规划相对应 规格 HBM3 的量产。其中,在今年将有更多客户导入 HBM3 的预期下, SK 海力士作为目前唯一量产新世代 HBM3 产品的供应商,其整体 HBM 市占率可望藉此提升至 53%,而三星、美光则预计陆续在今年底至明年 初量产,HBM 市占率分别为 38%及 9%。