资讯中心
国科龙晖始终不忘初心,牢记使命,坚持“四个面向”,致力于加快实现高水平科技自立自强。
半导体周报1217-半导体材料之HBM(一)
半导体周报-1217
一、行业新闻及动态:
1、半导体设计:
财联社12月7日电,Advanced Micro Devices Inc.推出了新的所谓加速器芯片,将目标瞄准了这个由英伟达控制的新兴市场领域。据该公司称,其产品能够比竞争对手的产品更快地运行人工智能软件。该公司周三在加利福尼亚州圣何塞举行的活动上推出了备受期待的MI300产品阵容。新的AMD芯片拥有超过1500亿个晶体管,内存是目前市场领导者英伟达产品H100的2.4倍。AMD表示该公司产品还有相当于英伟达产品1.6倍的内存带宽,进一步提升了性能。Su表示,这款新芯片在训练人工智能软件方面的能力与英伟达的H100相当,但在推理方面要好得多。
《科创板日报》4日讯,当地时间周一,IBM展示了一款新的量子运算芯片Heron和量子运算系统Quantum System Two,该公司希望这款芯片和机器能在10年后成为更大系统的基石。据悉,量子运算系统Quantum System Two将搭载3个Heron量子运算芯片。
2、半导体设备:
《科创板日报》7日讯,尼康宣布将于2024年1月起发布ArF浸没式扫描仪NSR-S636E,作为关键层的曝光系统,该系统具有公司历史上最高的生产率,并具有高水平的套印精度和吞吐量。尼康声称,它较以往更高的精度测量晶圆翘曲、扭曲和其他变形,并实现了高重叠精度(MMO ≤ 2.1 nm)。此外,吞吐量已增加至每小时280发,并且通过减少停机时间,与当前型号相比,整体生产率提高了10-15%,已达到该司半导体光刻设备中最高的生产率水平。
3、半导体制造及封测:
财联社12月8日电,日本芯片制造商东芝公司和罗姆半导体正计划联合生产用于电动汽车等产品的功率半导体。项目总成本预计将达到约3800亿日元,其中约1200亿日元将由经济产业省提供补贴。东芝正在日本中部石川县能美市的一家工厂内建造一座新设施,用于生产功率半导体。
《科创板日报》6日讯,西安赛富乐斯半导体科技有限公司的首条硅基 Micro-LED 微显示屏产线正式贯通。当前,芯片制备、转移技术良率、成本等问题是Micro-LED量产路上的障碍,赛富乐斯副总裁宋杰博士表示:“作为全国首条大尺寸硅基Micro-LED微显示屏产线,其贯通意味着作为AR眼镜光机的微显示屏成本将有所下降,从而带动眼镜整体成本的降低。”
4、其他:
《科创板日报》7日讯,CINNO Research统计数据表明,2023年第三季度中国大陆半导体设备厂商市场规模Top10营收合计超109亿元,同比增长36%,环比增长23%。其中北方华创第三季度半导体营业收入约54亿元,稳居排名第一,中微公司排名第二,盛美上海排名第三。
二、本周话题——半导体材料之HBM(一)
HBM 是基于 2.5/3D 封装技术的新型存储器,满足高带宽、高速度等需求。HBM(High BandwidthMemory)指高带宽存储器,是一款新型的 CPU/GPU 内存芯片,基于 2.5D/3D 封装技术将 DRAM Die垂直堆叠,具备高带宽、高速度等特点。DRAM Die 之间通过 TSV(硅通孔)的方式连接,逻辑控制单元对 DRAM 进行控制,GPU 和 DRAM 之间通过 u Bump 和 Interposer(起互联功能的硅片)连通。目前最先进的 HBM 为第五代 HBM3 以及第六代 HBM3E,封装的 DRAM Die 层数达到 12 层。HBM 属于图形 DDR 内存的一种,通过使用先进的封装方法(如 TSV 硅通孔技术)垂直堆叠多个 DRAM,与 GPU 通过中介层互联封装在一起,在较小的物理空间里实现高容量、高带宽、低延时与低功耗,已成为数据中心新一代内存解决方案。
HBM结构图:裸片之间通过TSV技术连接
资料来源:美光官网,半导体行业观察,方正证券研究所
历经多次迭代,性能多维提升。HBM 通过系统级封装(SIP)和硅通孔(TSV)技术,拥有多达 1024 个数据引脚,显著提升数据传输能力。自 2014 年首款硅通孔HBM 产品问世至今,HBM 技术已经发展至第四代,最新的 HBM3 带宽、堆叠高度、容量、I/O 速率等较初代均有多倍提升。
四代 HBM 规格比较(以 SK 海力士产品为主)
资料来源:SK 海力士,方正证券研究所
高性能计算驱动 HBM 加速迭代,HBM3 升级,HBM3E 已在路上。高性能计算驱动数据中心 HBM 需求井喷,HBM 升级速度近年明显加快。SK 海力士于 2021 年 10 月宣布成功开发出容量为 16GB 的 HBM3 DRAM,2022 年 6 月初即宣布量产。仅过去 10个月,SK 海力士官网再次宣布已成功开发出垂直堆叠 12 个颗 DRAM 芯片、容量高达 24GB 的 HBM3 新品,并正在接受客户公司的性能验证。与此同时,海力士第五代 HBM 内存 HBM3E 已在路上。英伟达于 2023 年 8 月 8 日发布的最新 GH200 预计将搭载 HBM3E 内存,并将于 2024 年 Q2 出货。根据公开信息披露,该 HBM3E 芯片单 pin 最大带宽达 8Gb/s,单栈最大带宽达 1Tb/s,较上一代 HBM3 提升 25%。
HBM3相对于HBM2E的改进项:① 低功耗:主接口使用0.4V低摆幅调制,运行电压降低至1.1V ;② 高性能:传输数据率在HBM2基础上再次翻番,每个引脚的传输率为6.4Gbps,配合1024-bit位宽,单颗 最高带宽可达819GB/s; ③如果使用四颗,总带宽就是3.2TB/s,六颗则可达4.8TB/s;④改进的信道和时钟架构:独立通道数 从8个翻番到16个,再加上虚拟通道,单颗支持32通道 ;⑤支持4层、8层和12层TSV堆栈,并为未来扩展至16层TSV堆栈做好准备 ;⑥ 高容量:每个存储层容量8/16/32Gb,单颗容量起步4GB(8Gb 4-high)、最大容量64GB(32Gb 16-high);⑦ 支持平台级RAS可靠性,集成ECC校 验纠错,支持实时错误报告与透明度;⑧ 改善散热。
HBM3E 部分参数对比
资料来源:半导体行业观察,方正证券研究所
GDDR对比HBM
GDDR 和 HBM 均为针对 AI 和图形运算等高吞吐量应用的存储器架构。但图形芯片性能的日益增长,使其对高带宽的需求也不断增加。随着芯片制程及技术工艺达到极限,GDDR 满足高带宽需求的能力开始减弱,且单位时间传输带宽功耗也显著增加,预计将逐步成为阻碍图形芯片性能的重要因素。以 GDDR5 为例,从单片封装性能对比,HBM 在总线位宽、时钟速率、带宽及工作电压各个性能参数较GDDR5均更具优势。从带宽功耗比的角度来看,相同功率下,HBM 带宽是 GDDR5 的 3 倍以上。而从性能面积比的角度量化,1GB HBM 较 1GB GDDR5的面积节省多达 94%。
HBM 单片封装性能较 GDDR5 优势显著
资料来源:AMD,方正证券研究所
HBM相较于其他种类的内存缺点
HBM 相较于其他种类的内存也并非没有缺点,成本偏高、频率偏低使得其基本上目前只应用于中高端数据中心 GPU 及少数 ASIC:1)缺乏灵活性,HBM 与主芯片通常封装在一起,不存在扩容可能。DDR 产品形态稳定、标准化程度高,HBM 封装的低灵活性对 OEM 厂商成本带来困难。虽然消费者市场对拓展性要求不搞(如 IntelLakefield、Apple M1),但目前 HBM 的成本使之望而却步。2)HBM 容量偏小,一些高阶的服务器 DIMM 达到 96 个,采用 128GB RDIMM 最多能达到 12TB,HBM8 层 die 也不过 32GB,再结合成本考虑,更加无法满足数据中心要求。3)访问延迟高,HBM 的频率低于 DDR/GDDR(由 TSV 封装决定,并行线路多时频率过高会有散热问题),CPU 处理的任务具有较大的不可预测性,对延迟的敏感程度较高,而在 GPU 则对此并不敏感。
驱动因素:
高性能计算功耗问题突出。最开始数据中心通过提高 CPU、GPU 的性能进而提高算力,但处理器与存储器的工艺、封装、需求不同,导致二者之间的性能差距逐步加大。英伟达创始人黄仁勋曾表示计算性能扩展的最大弱点就是内存带宽。以谷歌第一代 TPU 为例,其理论算力值为 90TFOPS,但最差真实值仅 1/9,即 10TFOPS算力,因为其相应内存带宽仅 34GB/s。此外,在传统架构下,数据从内存到计算单元的传输功耗是计算本身能耗的约200倍,而用于计算的能耗和时间占比很低,数据在内存与处理器之间的频繁迁移带来严重的功耗问题。
HBM 打破内存带宽及功耗瓶颈。HBM 不同于传统的内存与处理器基于 PCB 互联的形式,而是基于与处理器相同的“Interposer”中介层互联实现近存计算,显著减少数据传输时间,且节省了布线空间。而基于 TSV 工艺的 DRAM 堆叠技术则显著提升了带宽,并降低功耗和封装尺寸。根据 SAMSUNG,3D TSV 工艺较传统 POP封装形式节省了 35%的封装尺寸,降低了 50%的功耗,并且对比带来了 8 倍的带宽提升。
英伟达早在 2019 年便已推出针对数据中心和HPC 场景的专业级 GPU Tesla P100,当时号称“地表最强”的并行计算处理器,DGX-1 服务器就是基于单机 8 卡 Tesla P100 GPU 互连构成。得益于采用搭载 16GB的 HBM2 内存,Tesla P100 带宽达到 720GB/s,而同一时间推出的同样基于 Pascal架构的 GTX 1080 则使用 GDDR5X 内存,带宽为 320GB/s。此后英伟达数据中心加速计算 GPU V100、A100、H100 均搭载 HBM 显存。最新的 H100 GPU 搭载 HBM3 内存,容量 80Gb,带宽超 3Tb/s,为上一代基于 HBM2 内存 A100 GPU 的两倍。而作为加速计算领域追赶者的 AMD 对于 HBM 的使用更为激进,其最新发布的 MI300XGPU 搭载容量高达 192GB 的 HBM3 显存,为 H100 的 2.4 倍,其内存带宽达 5.2TB/s,为 H100 的 1.6 倍,HBM 正成为 HPC 军备竞赛的核心。
此前,推理环节多数搭载 GDDR6 内存,内存瓶颈更甚于训练环节,HBM 升级替代需求迫切,市场规模将持续增长。目前大多数项目的 LLM 推理都是作为实时助手运行,这意味着它必须实现足够高的吞吐量,以便于用户实际使用。人类平均每分钟阅读约 250 个单词,但有些人的阅读速度高达每分钟约 1000 个单词。在 1万亿参数密集模型中,由于内存带宽限制,即使 8 颗 H100 也无法满足每分钟 1000个单词对应标识符的极端吞吐量。
当前主流的 AI 推理产品多数仍采用 GDDR6
资料来源:各公司官网,方正电子整理,方正证券研究所
从成本的角度来看,HBM 虽然价格远高于普通 DRAM,但相对于同样靠近处理器的SRAM 价格更低。特斯拉 Dojo 的 D1 芯片拥有 354 个核心 440MB 的 SRAM,每 MB SRAM 成本约 15-20 美元,仅此单项成本就接近 9000 美元,而最新发布的 AMD 的MI300X HBM 的成本约为 5760-7680 美元。虽然 SRAM 带宽能够达到 800GB/s,但由于容量太低,不适合 ChatGPT 这样的大模型,Dojo 依然需要搭配 HBM 使用。
HBM 的特性决定其更适用于 HPC 领域,但是早在 2015 年,AMD 就已推出搭配 HBM 的消费级显卡 AMD Radeon R9 Fury X,该卡性能对比 GTX1060 互有胜负,但其尺寸仅为 GTX 1060 一半左右。阻碍 HBM进入消费领域的一大因素是价格,HBM 由于其复杂的设计及封装工艺导致产能较低同时成本较高。但随着工艺成熟度提高带来的产能释放,其显著的尺寸及低能耗优势或将成为驱动 HBM 进入高端消费领域尤其是移动领域应用的重要力量。
大模型本地化解决数据安全性等重要问题。终端 AI 的应用十分广泛,科技巨头对用户的数据控制引发广泛的安全和隐私担忧,人工智能领域的领导者包括谷歌、Meta、百度和字节跳动等公司目前的盈利能力均不同程度来源于基于用户数据肖像的广告定位,终端算力安全优势不言而喻。此外,本地模型还具备实现移动设备脱网使用、减少延时等优势,有望成为未来移动终端设备的标配。
终端硬件存力限制本地模型参数规模,HBM 或是答案。不同于云端算力搭配专用GPU 工作,本地模型推理的算力更多依赖于终端硬件 SoC,算力瓶颈可以依靠未来的芯片架构升级(Chiplet)以及制程升级(3nm/2nm 工艺)解决,存力优化才是大模型终端应用的重中之重。即使保守假设正常的非 AI 应用程序以及缓存唤醒等消耗带宽的一半,iPhone14 上最大的可运行模型大小仅为约 10 亿个 FP16 参数。可以说,存力是未来 LLM 终端化应用的最大障碍。但考虑到 AMD 早前便已推出消费端应用的 HBM 产品,英特尔也已推出搭配 CPU 的 HBM 产品,meta 和高通也已于近日宣布大语言模型 Llama 2 将在手机和 PC 上的高通芯片上运行。未来最先进的移动端设备或有望率先搭载 HBM 突破客户端大模型的存力障碍。
AI 芯片需求激增,台积电加大 CoWos 产能。早前基于硅中介层的 CoWos 封装由于价格昂贵订单量稀少,因此台积电也未分配过多产能。随着 2023 年以来生成式 AI 的火热发展,以英伟达 H100 GPU 为代表的 AI 芯片订单需求大幅增长,AWS、Google 等云厂商也宣布投入 AI 芯片的发展,台积电因此面临 AI 芯片的产能不足,宣布扩产计划。2023 年 6 月,台积电宣布在竹南开设先进后端晶圆厂 6,该晶圆厂占地 14.3 公顷足以容纳每年 100 万片晶圆的 3DFabric 产能,包括 CoWoS、SoIC 和 InFO 技术。
Chatgpt 发布后,随后生成式人工智能实现了爆发式发展,国内外大厂争相竞逐 AI 大模型,大模型训练的过程数据吞吐量很大,HBM 通过增加带宽和减少功耗有效解决了“内存墙”和“功耗墙”问题,是目前唯一满足 AI 高性能计算要求的量产存储方案,因而 HBM 成为了 AI 训练芯片的标配。目前主流的大模型训练芯片 A100、H100 均应用了 HBM,与 H100 直接竞争的谷歌 TPU v5 和 AMD MI300 即将量产,后两者同样将采用 HBM,AWS 的 Trainium 和 Inferentia 也应用了 HBM,并且,Google 与AWS 正着手研发新一代 AI 加速芯片,将采用 HBM3 或 HBM3e。
目前,多家厂商竞相训练大模型,催生了大量需求,三星公司表示,今年收到的 HBM 订单同比增长一倍以上。根据金融时报的报道,2023 年英伟达将出货 55 万片 H100,2024 年将出货 150-200 万片H100,Omdia 预测 2023 年和 2024 年的 HBM 需求量将同比增长 100%以上。2025 年以后,在 AI 训练需求和 AI 推理需求的推动下,HBM 的需求将继续快速增长,SK 海力士公司预测,在 2027 年之前,HBM 市场将以 82%的复合增长率保持增长
行业现状:
算力需求井喷,HBM 市场规模高速增长。供需位元有望在 2024 年改善,HBM3 份额将持续大幅提升。2023 年受 AI 需求大幅增长带来的客户端加单导致原厂产能无法满足需求,预计 2024 年随着各原厂积极扩产的效果显现,HBM 供需比有望获改善,预估将从 2023 年的-2.4%,转为0.6%。而从各产品的占比来看,2023 年主流 HBM 需求从 HBM2E 升级为 HBM3 甚至HBM3E,HBM3 需求比重预估约为 39%,较 2022 年提升超 30%,并在 2024 年达到
60%,届时份额比重也将超过 HBM2E。
HBM 各产品份额变动
资料来源:TrendForce,方正证券研究所
算力需求井喷叠加产能受限,HBM 价格高增,市场规模高速增长。从成本端来看,HBM 的平均售价至少是 DRAM 的三倍,此前受 ChatGPT 的拉动同时受限产能不足,HBM 的价格一路上涨,与性能最高的 DRAM 相比 HBM3 的价格上涨了五倍。根据TrendForce,高端 AI 服务器 GPU 搭载 HBM 芯片已成主流。根据 TrendForce,2022年全球 HBM 容量约为 1.8 亿 GB,2023 年增长约 60%达到 2.9 亿 GB,2024 年将再增长 30%。以 HBM 每 GB 售价 20 美元测算,2022 年全球 HBM 市场规模约为36.3 亿美元,预计至 2026 年市场规模将达 127.4 亿美元,对应 CAGR 约 37%。
全球 HBM 需求量(Million,GB) 全球 HBM 市场规模(亿美元)
资料来源:TrendForce,TrendForce,佐思汽研,方正证券研究所
HBM 容量及价格测算
资料来源:TrendForce,佐思汽研,方正电子测算,方正证券研究所
HBM 市场需求量大。目前全球 HBM 产能主要用于满足 Nvidia 和 AMD 的 AI 芯片需求。尽管内存制造商投入大量资金扩产,但由于需求激增,HBM 的短缺状况继续恶化。占据全球 GPU 市场 80%以上份额的 Nvidia 将于2024 年第二季度开始量产 GH200 Grace Hopper Superchip,这是一款采用 HBM3E 的新一代 AI 芯片。Nvidia 的 HBM 需求预计将从 2023 年大约 1200 万颗翻倍增长到 2024 年 2400 万颗。随着大型互联网客户自研 AI 芯片陆续推出,HBM 客户群预计将大幅扩容。除了 Nvidia 之外,HBM的潜在客户数量也在快速增加,其中包括 Google、AWS 和 Meta 等正在积极自研 AI 芯片的科技巨头。
目前推出的搭载HBM和GDDR的GPU产品
资料来源:奎芯科技,浙商证券研究所
HBM 对全球半导体市场的影响力将进一步加大。HBM 作为今后 AI 时代的必备物料,虽然在内存市场中比例还不大,从成本端来看,HBM 的平均售价至少是 DRAM 的三倍,此前受 ChatGPT 的拉动同时受限产能不足,HBM 的价格一路上涨,与性能最高的 DRAM 相比 HBM3 的价格上涨了五倍。在近一年存储芯片景气低迷的环境下也展现出极强的盈利能力,从 SK 海力士在 2023 年 7-9 月当季 DRAM 业务两个季度来首次转为盈余就可见一斑。
竞争格局:
三分天下,海力士领先。从市场格局来看,HBM 的市场份额仍由三大家所主导。根据 TrendForce,2022 年全年 SK 海力士占据了 HBM 全球市场规模的 50%。其次是三星,占 40%,美光占 10%。TrendForce 预测,今年海力士和三星的 HBM 份额占比约为 46-49%,而美光的份额将下降至 4%-6%,并在 2024 年进一步压缩至 3%-5%。
HBM 市场规模变动预估
资料来源:TrendForce,方正证券研究所
SK 海力士技术领先,核心在于 MR-MUF 技术。传统的 HBM 芯片堆叠多数通过 TC-NCF(the thermo-compression bonding with non-conductive film,非导电膜的热压缩键接)工艺完成,但受限于材料流动性以及 bump 数量限制存在导热以及其他工艺缺陷等问题。MR-MUF(Mass reflow bonding with molded underfill, 批量回流模制底部填充)是海力士的高端封装工艺,通过将芯片贴附在电路上,在堆叠时,在芯片和芯片之间使用一种称为液态环氧树脂塑封(Liquid epoxy Molding Compound,LMC)的物质填充并粘贴。对比 NCF,MR-MUF 能有效提高导热率,并改善工艺速度和良率。
MR-MUF 工艺的核心难点在于堆叠芯片过程中产生的热翘曲问题(LMC 与硅片之间 的热收缩差异导致),以及芯片中间部位的空隙难以填充。LMC 是 SK 海力士 HBM 产品的核心材料,本身具备可中低温固化、低翘曲、模塑过程无粉尘、低吸水率 以及高可靠性等优点,通过大量的材料配方调试及热力学验证解决热收缩差异问 题。另一方面,通过改变 EMC 与芯片的初始对齐方式以及图案形状有效解决了填 充存在缝隙的问题。
除了 MR-MUF 技术,SK 海力士还在积极布局各种封装技术,包括混合键合(Hybrid Bonding)以及 Fan-out RDL(扇出型重新分配层)等多项技术。其中,混合键合技术是指采用 Cu-to-Cu(铜-铜)键合替代传统焊接,进一步缩小间距,同时作为一种无间隙键合(Gapless Bonding)技术,在芯片堆叠时不使用焊接凸块(Solder Bump),因此在封装高度上更具优势。扇出型 RDL 技术适用于多个平台,SK海力士计划将该技术用于Chiplet为基础的集成封装。线间距(Line Pitch)和多层(Multi-Layer)是扇出型技术的关键,SK 海力士计划 2025 年将确保 1 微米以下或亚微米(Sub-micron)级水平的 RDL 技术。
三星展示的最新的路线规划中,除了带宽、能耗以及容量及堆叠数的规划,还计划在 HBM4 上使用 FinFET 节点替代平面型 MOSFET 来生产对应逻辑 Die,并且封装方式将从基于 Bump 连接的 CoW(Chip on Wafer)变为基于 Pad 连接 Bumpless形式。
美光也公布了最新的 HBM 产品及规划,在技术层面进行多项变革和创新,以进行追赶并期望于实现领先。首先是将硅通孔(TSV)数量比目前的 HBM3 产品提升两倍,并将互连尺寸缩小了 25%,更密集的金属 TSV 互连有助于改善器件各层之间的热传递,从而降低热阻。美光还缩小了 HBM3 Gen2 堆栈中 DRAM 设备之间的距离,封装的这两项变化显提高了热传递效率。根据存储线路图,除了即将推出的 HBM3 Gen2 产品之外,美光还宣布已经在开发 HBM Next 内存,预计在 2026 年推出,该 HBM 将为每个堆栈提供1.5TB /s–2+TB/s 的带宽,容量范围为 36GB 至 64GB。美光计划在 2026 年至2027 年期间推出 36GB 至 48GB 的 12-Hi 和 16-Hi 堆栈,HBM4E 将在 2028 年量产。HBM4 的增强版本预计将获得时钟,将带宽提升到 2+ TB/s,并将每个堆栈的容量提升到 48GB 至 64GB。
大陆相关公司:
长川科技
2023 年完成长奕科技资产过户,优质资产及业务纳入公司。公司于 2022 年通过了发行股份购买资产收购长奕科技(马来西亚 Exis)的审批,并于 2023H1 完成了资产过户。EXIS 主要从事集成电路分选设备的研发、生产和销售,核心产品主要为转塔式分选机,EXIS 在转塔式分选机细分领域积累了丰富的经验。本次交易完成后,标的公司优质资产及业务将进入上市公司,有助于公司丰富产品类型,实现重力式分选机、平移式分选机、转塔式分选机的产品全覆盖,通过公司与 EXIS在销售渠道、研发技术等方面的协同效应,提升公司的盈利能力与可持续发展能力。公司前三季度研发费用 5.26 亿元,同比增长 16.89%,占营收比重 43.5%。在将现有产品领域做专、做强,保持产品市场领先地位的基础上,重点开拓了探针台、数字测试机等产品,不断拓宽产品线,并积极开拓中高端市场,产品结构持续改善。
新益昌
拓展半导体产品矩阵,国产替代空间打开。受益于封装技术的迭代,对固晶精度的要求越来越高,固晶机市场增速领涨半导体封测设备。公司以固晶机业务为基,拓展焊线机和分选设备,与通富微电、华天科技、扬杰科技等客户合作紧密,看好公司后道设备在客户处的单线价值量仍有数倍增长空间。随着封测厂稼动率回暖,预计资本开支将会于 2024 年恢复,拉动封测设备需求上行。2021 年封测设备中的焊线机和固晶机国产化率仅 3%,国产替代空间广阔。公司掌握高速精准运动控制技术、单邦双臂同步运行技术、MiniLED 缺陷检测算法等核心技术,绑定制造环节三星、京东方、三安等龙头客户,2023 年设备订单预计迎来非线性爆发。
天承科技
电镀液为先进封装材料中第一大单品,较传统产品价值量提升翻倍以上。内资 PCB公司不断扩产,带动电子化学品需求扩张,其中载板国产化需求迫切,增速领先其他细分种类。高端 IC 载板如 ABF 载板的电子化学品成本占比相较于普通 PCB的提升 2 倍以上,达 12%。3D 封装中 TSV 渗透率迅速提升,据 Vantage Market Research 预测,TSV 市场 2022-2026 年 CAGR 为 16%,电镀液对 TSV 性能至关重要。公司载板、TSV 和 Interposer 产品突破在即,有望提升毛利和进一步打开高端市场空间。公司主要产品为 PCB 专用电子化学品,高端产品市占率国内第二。公司产品为应用于高端 PCB 生产中沉铜、电镀、铜面处理等环节的专用电子化学品,主要客户包括深南电路、兴森科技、崇达技术、博敏电子等国内知名 PCB 企业,在中国大陆高端市场中份额位居第二,市占率约为 20%。
华海诚科
华海诚科成立于 2010 年,主要产品为环氧塑封料和电子胶黏剂,是国内少数具备芯片级固体和液体封装材料研发量产经验的专业工厂。公司紧密跟进下游封装技术,近一年成功研发了 low CTE2 技术和对惰性绿油高粘接性技术,并积极开展无铁生产线技术和无硫环氧塑封料产品。立足传统封装领域,积极布局先进封装。传统封装领域,公司在长电科技、华天科技等部分主流厂商逐步实现了对外资厂商产品的替代,市场份额逐步提升。先进封装领域,应用于 QFN 的产品 700 系列已通过长电科技及通富微电等知名客户验证,实现小批量生产与销售,成为公司新的业绩增长点;应用于先进封装的颗粒状环氧塑封料(GMC)以及 FC 底填胶等已通过客户验证,液态塑封材料(LMC)正在客户验证过程中,有望逐步实现产业化并打破外资厂商的垄断地位。
免责声明:本文章不涉及投资建议,仅供分享观点所用。
参考资料:
方正证券:先进封装专题二:HBM 需求井喷,国产供应链新机遇
浙商证券:电子行业专题报告·HBM:HBM 专题(一),算力强基要塞,CoWoS 封装国产
版权所有©上海国科龙晖私募基金管理有限公司 沪ICP备2022000819号-1