半导体周报(国科龙晖整理)-0507
1. 行业新闻及动态
(1)半导体设计
多家IC设计大厂已经在AI领域投入不少资源,并开发出相关产品,现在AI要进一步深入到用户的生活之中,关键就在于是否能够边缘化,尤其是包括ChatGPT这类LLM模型,或是如MidJourney、StableDiffusion等AI绘图功能,若是可以直接在边缘运算中实现/其带来的芯片商机就会非常庞大。
三星电子、SK海力士和美光三家公司正大力推动DDR5内存普及,以此遏制半导体市场下滑的趋势。
2022Q4全球前十大IC设计商营收环比跌幅扩大至近10%。由于整体供应链库存持续修正,加上传统消费性淡季影响,除部分因新品上市带动买气,及供应链库存回补以外,市场需求仍弱,故TrendForce预期2023Q1前十大IC设计营收仍将续跌,但环比跌幅会略为收敛。
预估2023Q2DDR5服务器DRAM价格跌幅将收敛,由原预估15%-20%收敛至13%-18%。在DDR5服务器DRAM短期内满足率较低的预期下,预估4~5月DDR5服务器DRAM32GB价格将处于80~90美元之间,略高于原先第二季均价预估值75美元,需求获AI间接带动,进一步拉高本月SK海力士高容量DDR5模组的价格,128GB高容量模组4月最新报价已止跌,与目前其他DDR5产品的报价仍处下行的情况不同。
(2)半导体制造及封测
台积电美国工厂所生产的半导体芯片在成本上没有价格优势,报价比台积电其它工厂制造的半导体芯片高出30%。
(3)其它
2023Q1全球智能手机出货量同比下降13%至2.7亿部/三星重居首位。
尽管受益于ChatGPT的热潮,微软、Google等巨头开始增加AI服务器订单,但其占整体服务器出货比例仍有限,高利率、高通胀持续对成熟市场带来的影响未退,消费者与企业支出受到的冲击不断扩大,已严重影响美系云端巨头资料中心的建置与规划,并继续削弱服务器品牌商的企业订单,致今年第一季全球服务器出货跌破400万台/季减13.8%。
2023年第一季度全球半导体销售额为1195亿美元/环比下降8.7%,同比下降了21.3%。
本周话题:半导体设计——HBM内存
长期以来,内存行业的价值主张在很大程度上始终以系统级需求为导向,已经突破了系统性能的当前极限。很明显的一点是,内存性能的提升将出现拐点,因为越来越多人开始质疑是否能一直通过内存级的取舍(如功耗、散热、占板空间等)来提高系统性能。相较于传统DRAM,HBM在数据处理速度和性能方面都具有显著优势,有望获得业界广泛关注并被越来越多地采用。随着集成电路工艺技术的发展,3D和2.5D系统级封装(SiP)和硅通孔(TSV)技术日益成熟,为研制高带宽、大容量的存储器产品提供了基础。针对内存高带宽、大容量、低功耗的需求,从2013年开始,国际电子元件工业联合会(JEDEC)先后制定了3代、多个系列版本的高带宽存储器(HBM、HBM2、HBM2E、HBM3)标准。2022年1月28日,JEDEC正式发布了JESD238HBMDRAM(HBM3)标准,技术指标较现有的HBM2和HBM2E标准有巨大的提升,芯片单个引脚速率达到6.4Gbit/s,实现了超过1TB/s的总带宽,支持16-Hi堆栈,堆栈容量达到64GB,为新一代高带宽内存确定了发展方向[9]。HBM通过TSV和微凸块技术将3D垂直堆叠的DRAM芯片相互连接,突破了现有的性能限制,大大提高了存储容量,同时可提供很高的访存带宽。HBMDRAMdie之间以TSV(硅通孔)连接,除了堆叠的DRAM外,HBM还有逻辑控制层和与主芯片相连接的基础层。HBM通过3D堆叠,实现了内存容量与带宽瓶颈的突破;与传统GDDR相比,同等容量下的HBM拥有更小的面积。
HBM——DRAM的3D堆叠

资料来源:AMD官网,长江证券研究所
主要内存技术性能对比

资料来源:Synopsys,长江证券研究所
HBM的优点
高速、高带宽HBM堆栈没有以外部互连线的方式与信号处理器芯片连接,而是通过中间介质层紧凑而快速地连接,同时HBM内部的不同DRAM采用TSV实现信号纵向连接,HBM具备的特性几乎与片内集成的RAM存储器一样。
各代HBM产品的数据传输路径配置

资料来源:方正证券研究所
HBM性能演进

由于采用了TSV和微凸块技术,DRAM裸片与处理器间实现了较短的信号传输路径以及较低的单引脚I/O速度和I/O电压,使HBM具备更好的内存功耗能效特性。以DDR3存储器归一化单引脚I/O带宽功耗比为基准,HBM2的I/O功耗比明显低于DDR3、DDR4和GDDR5存储器,相对于GDDR5存储器,HBM2的单引脚I/O带宽功耗比数值降低42%。
性能功耗比

资料来源:互联网公开资料整理
在系统集成方面,HBM将原本在PCB板上的DDR内存颗粒和CPU芯片一起全部集成到SiP里,因此HBM在节省产品空间方面也更具优势。相对于GDDR5存储器,HBM2节省了94%的芯片面积。
HBM的缺点
系统搭配缺乏灵活性:HBM与主芯片封装在一起,不存在容量扩展的可能,在出厂时就已经确定规格。而且它和现在笔记本设备上,DDR内存焊死在主板上还不一样,HBM是由芯片制造商整合到芯片上的——其灵活性会更弱,对OEM厂商而言尤其如此,虽然现在某些高端系统,存在HBM+DDR的解决方案,即两种内存作为不同层级的存储系统来调配。
内存容量相比DDR受局限:虽说一片HBM封装就可以堆8层DRAMdie,但实际上每层仅8Gbit,那么8层就是8GByte;像A64FX超算芯片留4个HBM接口,也就是4个HBM堆栈封装,则一颗芯片也就总计32GByte容量。消费市场上普通PC需要堆大于32GByte的内存非常常见,不仅是PC、服务器主板上可扩展的内存插槽亦很常见,某些DDR4/5DIMMs内存颗粒也在进行DRAMdie的堆叠,比如,采用比较高端的DRAMdie堆叠,2-rank的RDIMM(registeredDIMMs)能实现128GByte容量——考虑高端服务器96个DIMM插槽,即至多12TByte的容量。
访问延迟高:对于PC而言,HBM一直都没有应用于CPU主内存的一个重要原因在于其延迟很高。当代的DDR内存,在规格上普遍会标CL(CAS延迟,列寻址所需的时钟周期,表示读取延迟的长短)。CAS延迟,是指从读取指令(与ColumnAddressStrobe)发出,到数据准备就绪的过程,中间的等待时间,即在内存控制器告诉内存,需要访问某个特定位置的数据后,需要若干个周期的时间以后才能抵达该位置并执行控制器发出的指令。CL是内存延迟中最重要的参数。就延迟长短来说,这里的“周期”其实还需要乘以每周期的时间(越高的整体工作频率,则表明每周期时间越短)。HBM的频率的确比DDR/GDDR低很多,三星此前的FlareboltHBM2内存每pin的传输带宽是2Gbit/s,差不多是1GHz的频率;后来有加压提频到1.2GHz的产品。三星当时提到这个过程还需要考虑降低超过5000个TSV之间的并行时钟干扰;而且要增加DRAMdie之间的散热bump数量,来缓解发热问题。
发展方向
对于接下来的规划策略和技术进步,业界旨在突破目前HBM在速度、密度、功耗、占板空间等方面的极限。首先,为了打破速度极限,SK海力士正在评估提高引脚数据速率的传统方法的利弊,以及超过1024个数据的I/O总线位宽,以实现更好的数据并行性和向后设计兼容性。简单来讲,即用最少的取舍获得更高的带宽性能。针对更大数据集、训练工作负载所需的更高内存密度要求,存储厂商开始着手研究扩展Die堆叠层数和物理堆叠高度,以及增加核心Die密度以优化堆叠密度。
另一方面也在致力于提高功耗效率,通过评估从最低微结构级别到最高Die堆叠概念的内存结构和操作方案,最大限度地降低每带宽扩展的绝对功耗。由于现有中介层光罩尺寸的物理限制以及支持处理单元和HBMCube的其他相关技术,实现总内存Die尺寸最小化尤为重要。因此,行业厂商需要在不扩大现有物理尺寸的情况下增加存储单元数量和功能,从而实现整体性能的飞跃。但从产业发展历程来看,完成上述任务的前提是:存储厂商要与上下游生态系统合作伙伴携手合作和开放协同,将HBM的使用范围从现有系统扩展到潜在的下一代应用。
此外,新型HBM-PIM(存内计算)芯片将AI引擎引入每个存储库,从而将处理操作转移到HBM。在传统架构下,数据从内存单元传输到计算单元需要的功耗是计算本身的约200倍,数据的搬运耗费的功耗远大于计算,因此真正用于计算的能耗和时间占比很低,数据在存储器与处理器之间的频繁迁移带来严重的传输功耗问题,称为“功耗墙”。新型的内存旨在减轻在内存和处理器之间搬运数据的负担。
市场现状
在带宽方面HBM领先普通DDR、GDDR等DRAM技术一个数量级之多。HBM量级倍增的带宽非常适合显卡、服务器、高性能计算(HPC)、网络以及高端人工智能和机器学习等应用场景。
HBM主要应用领域

资料来源:海力士,wccftech,长江证券研究所
从CPU、GPU厂商的产品来看,可以发现HBM已然成为高性能CPU/GPU的标配,且搭载HBM容量持续上升;其中,英伟达A100、H100分别搭载了80GBHBM2E、80GBHBM3;Intel、AMD系列高性能产品也均实现了对HBM的搭载。
CPU&GPU龙头厂商产品搭载HBM情况


资料来源:各公司官网,长江证券研究所
根据TrendForce统计,2022年全球AI服务器(搭载GPGPU)出货量占整体服务器的比重为1%;其中北美四大CSP(即Google、AWS、Meta和Microsoft)合计占AI服务器年度总需求量的66.2%。在中国CSP中,字节跳动在2022年的AI服务器采购中处于领先地位,占全球年度采购量的份额达到6.2%。紧随字节跳动之后的是腾讯、阿里巴巴和百度,分别占2.3%、1.5%和1.5%左右。
2022年AI服务器采购量占比情况

资料来源:TrendForce,长江证券研究所
以2022年位元为计算基础,HBM约占整个DRAM市场的1.5%,整体市占率水平尚处低位。有别于传统的人工智能,AIGC基于训练数据和生成算法模型,可自主生成创造新的文本、图像、音乐、视频及3D交互等各种形式的内容和数据,推动人工智能迎来下一个时代。科技龙头在大模型训练及推理端的持续布局,AI服务器及GPU的需求量呈现高速增长之势,作为GPU的标配内存,HBM将持续引爆。2023年,全球HBM市场规模预计为12亿美元,预计到2025年,全球市场规模将升至25亿美元。
HBM的主要玩家为三星、海力士和美光。海力士作为HBM的首发者,于2013年首次成功研发HBM内存芯片,并于2017H2量产HBM2。与所有内存一样,HBM在每次迭代中都在性能改进和功耗方面取得进步。2019年至2020年,三星、SK海力士、美光先后推出自己的HBM2E。海力士、三星分别于2021、2022年发布其HBM3代际产品。SK海力士是目前唯一量产新世代HBM3产品的供应商,三星、美光则预计陆续在今年底至明年初量产。由此可见,三家存储原厂持续推出HBM新品,以构筑其核心竞争优势。
HBM竞争格局

资料来源:方正证券研究所
免责声明:本文章不涉及投资建议,仅供分享观点所用。
参考资料:
方正证券:半导体行业专题报告:HBM高带宽内存,新一代DRAM解决方案
长江证券:电子设备、仪器和元件行业专题报告:存力为基,HBM持续引爆