半导体周报0414-AI服务器
半导体周报-0414
一、行业新闻及动态
1、半导体设计:
《科创板日报》28日讯,三星是将向英伟达、AMD等GPU厂商提供下一代GDDR7显存解决方案的三家内存制造商之一,另外两家公司包括SK海力士和美光,他们也宣布了新一代产品,并透露了新产品的性能,能够提供高达40 Gbps的引脚速度和高达64 Gb(8GB)的容量。三星GDDR7显存芯片将采用266 FBGA封装,目前该公司在官网上列出了GDDR7的两种规格,分别是32 Gbps和28 Gbps GDDR7。
2、半导体制造及封测:
《科创板日报》28日讯,日前在全球芯片制造商聚会Memcon2024 上,三星公司执行副总裁兼DRAM产品和技术主管Hwang Sang-joong表示,预计该公司将增加HBM芯片产量,今年产量是去年的2.9倍。三星今年年初在CES 2024上给出的预测为2.5倍。三星预计2026年HBM出货量将是2023年产量的13.8倍;到2028年,HBM年产量将进一步增至2023年水平的23.1倍。
《科创板日报》25日讯,半导体供应链消息称,台积电2nm制程加速安装设备,台积电新竹宝山Fab20 P1厂将于4月进行设备安装工程,为GAA(环绕式闸级)架构量产暖身,预计宝山P1、P2及高雄三座先进制程晶圆厂均于2025年量产,并吸引苹果、英伟达、AMD及高通等客户争抢产能。台积电对此不发表评论。
财联社3月27日电 美光科技今日宣布其位于西安的封装和测试工厂扩建项目正式开工,该厂房将引入包括移动DRAM、NAND及SSD等,同时推进收购力成半导体(西安)有限公司相关资产。美光科技全球运营执行副总裁Manish Bhatia在接受财联社记者采访时表示,“西安工厂靠近智能手机、PC和汽车的中国客户,以便更加精准地满足客户的多元化需求,并加速新产品的推广应用,特别是在人工智能、物联网以及低功耗内存技术等前沿领域。”
《科创板日报》27日讯,国际半导体产业协会(SEMI)表示,芯片巨头台积电和英特尔预计将在今年内完成2nm或以下晶圆厂建设。台积电预计每月将获得67500片8英寸晶圆的产能,而英特尔预计将获得202500片的月产能。
《科创板日报》27日讯,日本公司DNP近日宣布,计划为Rapidus研发并量产用于2nm制程芯片的最尖端光掩模产品,预计2027年实现量产。此外,日本凸版(Toppan)公司也将开发最尖端的光掩模。
3、其他:
《科创板日报》29日讯,行业分析机构Omdia公布了2023年半导体行业整体研报,显示去年该行业规模达5448亿美元,相较2022年下滑8.8%。Omdia表示,由于宏观经济的变化,2023年半导体行业需求疲软但原件供应增加,市场形势发生逆转,凸显了半导体行业的周期性。AI逻辑芯片领域的最大赢家英伟达在2023年实现490亿美元的半导体收入,相较去年提升134%。
二、本周话题——AI服务器
AI 服务器主要用于处理深度学习工作负载的海量数据,包括需要大内存容量、高带宽和整体系统内缓存一致性的训练和推断。相较于普通服务器,AI 服务器新增多张高性能加速器(绝大部分为 GPU),拥有更高的计算能力、更快的处理速度和更大的存储空间,以支持高负载和复杂的计算任务。
AI 服务器在众多服务器中脱颖而出源于其架构优势。AI 服务器是承载智慧计算中 AI 计算的核心基础设施,是一种能够提供人工智能的数据服务器,既可以用于支持本地应用程序和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,通过异构形式适应不同应用范围以及提升服务器的数据处理能力,异构方式包括 CPU+GPU/TPU/ASIC/FPGA。
AI服务器的CPU+结构
资料来源:《人工智能服务器技术研究》王峰,天风证券研究所
AI 服务器的发展脱胎自通用服务器的性能提升需求。复盘主流服务器的发展历程,随着数据量激增、数据场景复杂化,诞生了适用于不同场景的服务器类型:通用服务器、云计算服务器、边缘计算服务器、AI 服务器。随着大数据、云计算、人工智能及物联网等网络技术的普及,充斥在互联网中的数据呈现几何倍数的增长,使得以 CPU 为主要算力来源的传统服务器承受着越来越大的压力,并且对于目前 CPU的制程工艺而言,单个 CPU 的核心数已经接近极限,但数据的增加却还在继续,因此服务器数据处理能力必须得到新的提升,在这种环境下,AI 服务器应运而生。面对 ChatGPT 所引出的大规模预训练模型,AI 服务器以其架构优势带来的大吞吐量特点,有望在一众服务器中脱颖而出。
主流服务器类型
资料来源:互联网公开资料,天风证券研究所
AI 训练模型算力提升速度突破极限,目前英伟达训练型 AI 服务器一般配备 8 个 GPU。随着以chatGPT 为代表的 AI 的发展,训练 GPT-3、Megatron-Turing NLG530B 等超大语言模型所要求的算力提升速度已经突破了后摩尔定律算力提升速度的极限,尽管 CPU 不断升级,但 CPU 制程以及单个 CPU和核心数量接近极限,仅依靠 CPU 无法满足算力需求。CPU 的内核数量大约数十个,但 GPU 具备成千上万个 CUDA 核心,因此 GPU 多个内核决定了其能够在相同的价格和功率范围内,比 CPU 提供更高的指令吞吐量和内存带宽,GPU 能够并行执行成千上万个线程(摊销较慢的单线程性能以实现更大数据吞吐量)。在训练 AI 模型的过程中,需要同时对所有样本数据执行几乎相同的操作,GPU 架构设计能够很好满足 AI 场景需求。AI 服务器相较通用服务器的一个明显差别之一是增加了 GPU,通用服务器一般含有 1-2 个 CPU、不含 GPU,而当前英伟达训练型 AI 服务器一般搭载 8 个 GPU。
AI 服务器 GPU 需要 CPU 来进行指令,模型算力提升带动 CPU 核心、主频等提升。在 AI 服务器的GPU 模式下,模型训练一般分为 4 步,将输入数据从系统内存拷贝到显存;CPU 指示 GPU 处理数据;GPU 并行完成一系列计算;将计算结果从显存拷贝到内存。虽然 GPU 并行能力优异但无法单独工作,必须由 CPU 进行控制调用,CPU 可以独立工作并直接访问内存数据完成计算。因此在 AI 服务器中,GPU 和 CPU 需要协同工作,训练模型所需算力升级也将带动 CPU 技术升级,例如在英伟达 DGX-2 服务器中,采用的英特尔第三代至强处理器 8168,主频大约 2.7GHz,核心数量为 24 个;在英伟达DGXH100 服务器中,搭载英特尔第四代至强处理器 8480C,主频提升至最高 3.8GHz,CPU 核心数量提升至大约 56 个。
AI 服务器存储器容量伴随 CPU/GPU 的升级而提升,相较传统服务器有数倍提升。最先进的 AI 服务器尽管增加了大量 GPU 需求,但存储器的数据存储方式、总线连接方式均和普通服务器相近,CPU 的运行数据写入 DRAM 中,CPU 和 GPU 产生的数据共同写入 NAND 中。AI 服务器将提升内存、显存的工作频率和带宽等,带动存储容量明显上升。
AI 服务器相较于传统服务器算力上大幅跃升。AI 服务器利用 CPU+的架构模式,CPU 仍作为 CPU 的数据处理主要模块,同时植入并行式计算加速部件,如 ASIC、FPGA、GPU 等,负责人工智能计算负载加速。总而言之,在 CPU+架构下,AI 服务器的技术选型和部件配置针对不同的业务场景做相应的调整优化,通过合理的负载分担实现计算能力的提升。
AI服务器对比普通服务器
资料来源:南京锟前官网,天风证券研究所
AI服务器主要分类:
(1)按应用场景可分为训练和推理,训练对算力要求更高:
AI 服务器按应用场景可分为训练和推理两种,2021 年中国 AI 服务器推理负载占比约 55.5%,未来有望持续提高。其中训练对芯片算力要求更高,推理对算力的要求偏低。
(2)按芯片类型可分为 GPU、FPGA、ASIC 等:
AI 服务器采用异构形式,按芯片类型可分为 CPU+GPU、CPU+FPGA、CPU+ASIC 等组合。目前 GPU依然是实现数据中心加速的首选,其他非 GPU 芯片应用逐渐增多,IDC 预计到 2025 年其他非 GPU 芯片占比超过 20%。一般来说,ASIC 的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU 则是更好的选择。
驱动因素:
1、大模型训练和推理需求激增:
AI 模型分为训练和推理两个过程,不断涌现的 AI 大模型推动算力需求激增:AI 模型主要分为训练和推理过程,训练奠定模型的性能根基,推理是将已有模型应用到具体场景对相应需求做出反馈的过程。根据英伟达官网给出的示意图,AI 大模型需要利用构建好的算法,在大量的数据库上进行训练,借助大量的算力生成一个对于特定性能指标具有优异表现的模型结果。模型训练好之后在应用端通常称为推理过程,终端用户通过多种方式(包括文字、语音、图片、视频等多模态形式)针对模型提出需求,模型根据自己的理解给出反馈,在推理过程中实现的结果,还可以反过来针对模型进行进一步辅助训练。
AI模型训练和推理原理
资料来源:英伟达官网,招商证券
AI 大模型发展过程中,通常伴随着模型参数量增大、训练数据增多的趋势,对于芯片的算力需求持续增长。根据《AI 算力集群方案设计与优化》总结的过去 4 年全球主要 NLP(自然语言处理)模型,模型的参数量从 ELMo 的 9400 万增长至 Megatron-Turing NLG 的 5300 亿,增长了近 5600 倍。以GPT-1 到 GPT-3 的发展过程为例,2018 年 6 月 GPT-1 发布,GPT-1 预训练过程是无监督的,采用了BooksCorpus 数据集,微调过程是有监督的,主要针对语言模型,整个模型参数量达到 1.17 亿,其中预训练数据量达到 5GB。GPT-2 于 2019 年 2 月发布,预训练过程同样是无监督的,采用多任务学习的方式,参数量提升至 15 亿,预训练数据量提升至 40GB。GPT-3 于 2020 年 5 月发布,通过更为海量的参数来进行训练和学习,参数量进一步提升至 1750 亿,预训练数据量提升数个数量级至 45TB。AI 模型的发展在目前阶段来看,更好的性能获取通常意味着更多的参数量和更大的数据集,AI 模型的迅猛发展与芯片层面的算力进步密不可分,以 GPU 为代表的加速芯片快速迭代发展,为大模型更替奠定了良好的硬件基础。
语言模型参数量变化
资料来源:《AI算力集群方案设计与优化》,浪潮信息,招商证券
2、美国限制出口,国内厂商崛起:
(1)美国限制向中国出口先进 GPU,可购买削弱带宽的 A800:英伟达推出的三代 GPU 芯片 V100、A100 和 H100 可用于 AI 模型训练和推理,最新一代的 H100 较A100 计算速度快约 3 倍(67/19.5)。2022 年 8 月,美国要求英伟达停止向中国企业出售 A100 和H100 两款 GPU 计算芯片,目前中国企业仅能购买特供的 A800 芯片,该芯片较 A100 在互联带宽方面被削弱 1/3,成为当前可行的替代方案。暂时未被禁售的 V100 工艺为 12nm,难以满足目前计算需求。
(2)国产 GPU 单卡指标接近英伟达,推理应用更具竞争力:国产算力 GPU 的主要厂商包括海光信息、寒武纪、平头哥、华为昇腾、天数智芯、燧原科技、摩尔线程、壁仞科技、沐曦等公司,部分产品的单卡指标和参数已经与英伟达产品接近或持平。目前国产算力GPU 芯片在推理场景应用较多且具备一定竞争力,如含光 800、思元 370、MTT S3000 等等。
国产算力GPU产品参数对比
资料来源:各公司官网,浙商证券研究所
产业链:
AI 服务器产业链上游主要由服务器元器件生产商组成,其中 CPU、GPU 作为核心组件,主要由 Intel、AMD、Nvidia 供应,国产供应商占比较少,其他部件包括内存、SSD、PCB、光模块、电源等存在更多的国产供应商;产业链中游包括主板集成商和服务器厂商,先由主板集成商将众多芯片集成,再交由服务器厂商装配成整机销售。目前国内企业在服务器厂商中占据重要地位;产业链下游主要包括以 BAT为首的互联网厂商,移动、电信、联通三大运营商和众多政企客户(主要集中在政府、金融、医疗三大行业,因其最需要 AI 客服等相关产品)。
AI服务器产业链
资料来源:wind,中信建投
1、上游:
计算芯片和存储是服务器的核心构成。芯片和存储作为 AI 服务器的核心,决定着 AI 服务器的算力和宽带大小。
AI 服务器 AI 芯片价值量占比提升。传统的通用型服务器中,售价 10424 美金的 2x Intel SapphireRapids Server,CPU 的成本占比约 17.7%,内存和硬盘占比超过 50%。而 AI 服务器,售价为 268495美金的 Nvidia DGXH100 中,CPU 占比仅 1.9%,GPU 占比高达 72.6%。内存价值量提升,但占比下降至 4.2%左右。AI 服务器较通用服务器价值量提升明显,AI 芯片在 AI 服务器中占有绝对比重。随着 AI服务器放量,AI 芯片正迎来黄金爆发期。
(1) CPU:X86 为主,ARM 等其他架构争抢份额:
服务器 CPU 架构包括 X86、ARM、MIPS 和 RISC-V 等。目前 X86 架构处理器统治着 PC 和服务器市场,Arm 架构处理器统治着移动市场和 IoT 市场,MIPS 是基于 RISC 的衍生架构之一,从工作站、桌面电脑到嵌入式系统再到人工智能,一直在夹缝中求生。近年来 RISC-V 架构则凭借着开源、指令精简、可扩展等优势,在注重能效比的物联网领域大受追捧,并也开始进入更高性能需求的服务器市场。
英特尔是服务器市场的龙头企业,2022 年仍占据全球服务器市场 70.77%的份额。AMD 主要产品是EPYC(霄龙)系列 CPU,2022 年占据 19.84%的市场份额。
海光信息通过与 AMD 成立合资公司成都海光集成的方式,变相拥有了 X86 架构的授权,不过海光信息仅获得 AMD 第一代 EPYC 的 Zen 架构,没有获得 Zen2、Zen3 系列架构授权。上海兆芯通过引入台湾威盛控股获得了部分 X86 架构授权,不过盛威与英特尔的 X86 合同已于 2018 年 4 月到期,不能使用英特尔新的 X86 专利,只能在旧 X86 架构下继续研发。海思半导体的鲲鹏处理器和天津飞腾处理器兼容 ARM 指令集;龙芯中科处理器采用LoongArch 指令集,主要产品与服务涵盖处理器及配套芯片产品;成都申威处理器采用 SW-64 指令集,主要应用于服务器、桌面计算机等设备。
(2)AI 芯片是 AI 服务器的大脑:
AI 服务器采取 GPU 架构,适合大规模并行计算。AI 服务器由传统服务器演变发展而来。相比于通用服务器,AI 服务器为异构服务器,可以多种组合方式,搭载多个 GPU、CPU 以及大算力 AI 芯片,极大程度解决传统服务器算力不足的缺点。AI 服务器采用 GPU 架构,GPU 具有众多计算单元和长流水线,简单控制逻辑,省去 Cache。面对类型统一、相互无依赖的大规模数据,处于无需中断的计算环境。相较之下,CPU 被 Cache 和复杂控制逻辑占据,通用性导致复杂的内部结构,处理不同数据类型引入分支和中断。
AI 芯片是 AI 服务器算力的核心,也被称为 AI 加速器或计算卡,专门用于处理人工智能应用中的大量计算任务。按技术架构分类,AI 芯片可分为 GPU、FPGA、ASIC 和NPU 等。GPU 是一种通用型芯片,ASIC 是一种专用型芯片,而 FPGA 则处于两者之间,具有半定制化的特点。按照功能分类,可分为训练和推理芯片。按照应用场景分类,可分为云端和边缘端芯片。随着AIPC、AIPIN、AIPHONE 等更多应用场景出现,AI 芯片的空间有望进一步打开。
(3)存储:内存容量大幅提升,HBM 成 AI 服务器标配:
HBM 芯片适用于高性能要求的 AI 训练计算。处理器的性能以每年大约 55%速度快速提升,而内存性能的提升速度则只有每年 10%左右。不均衡的发展速度造成了当前内存的存取速度严重滞后于处理器的计算速度。高性能处理器难以发挥出应有的功效。GDDR5 作为通用内存,容量较小、位宽低且远离
CPU 或 SoC,由于无法跟上 GPU 性能的增长速度及不断上升的功耗,已经无法满足高性能计算场景对带宽的需要。HBM本质还是一种内存产品,可以理解为与 CPU 或SoC 对应的内存层级,将原本在 PCB 板上的 DDR 和 GPU 芯片同时集成到 SiP 封装中,使内存更加靠近 GPU,使用 HBM 可以将 DRAM 和处理器(CPU,GPU 以及其他 ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。目前 HBM 已经成为高端 GPU 的标配,同时也应用于部分针对云端处理的 AI 芯片(例如谷歌的 TPU)中,未来有望拓展至更多应用场景。
HBM 更高速、更高带宽、更高位宽等优异性能将引爆市场需求。凭借独特的 TSV 信号纵向连接技术,HBM 内部将数个 DRAM 芯片在缓冲芯片上进行立体堆叠,其内部堆叠的 DDR 层数可达 4 层、8 层以至 12 层,从而形成大容量、高位宽的 DDR 组合阵列。
TSV 技术具有高密度集成、高电性能、多功能集成和低制造成本等优势。HBM 通过 SIP 和 TSV 技术将数个 DRAM 裸片像楼层一样垂直堆叠。台积电 CoWoS-S 通过硅中介层承载处理器和 HBM。HBM与处理器“组装”在一起需要借助硅中介层。HBM 通过 CoWoS 等 2.5D 封装工艺,和 CPU/GPU 等并排铺设在硅中介基板上,CPU/GPU 等逻辑 die 采用倒片封装(FC)形式和硅中介基板连接,存储器和GPU 等逻辑芯片之间通过中介层实现通信,然后将内插器和有源硅连接到包含要放置在系统 PCB 上的I/O 的封装基板。
HBM 工艺流程包括 TSV 形成、绝缘层全气绝缘、阻挡层、种子层沉积、电镀填充、CMP 抛光等步骤。TSV 为 HBM 核心工艺,中文全称是硅通孔技术。TSV 技术通过铜、钨、多晶硅等导电物质的填充,实现硅通孔的垂直电气互联。HBM 对封装高度、散热性能提出更高要求,3D 封装关键原材料成为核心。在 3D 封装关键原材料方面,颗粒状环氧塑封料(GMC)HBM 由于 3D 堆叠导致芯片厚度较高,因此需要用特殊的颗粒状环氧塑封料(GMC)封装。为了解决 HBM 封装厚度增大和散热需求大的问题,GMC 需要大量添加核心材料 low-α 球硅和 low-α 球铝。
2、中游:
自ChatGPT 带动的大模型浪潮以来,国内外头部互联网厂商纷纷加入 AI 算力的军备竞赛,加大对于 AI 算力侧的资源投入。AI 算力的高景气带动 AI 服务器需求端爆发式增长,并体现在 AI 服务器厂商订单端。
全球 AI 服务器出货金额排名第一位的龙头厂商浪潮信息,提到一季度以来 AI 服务器市场迎来明显增长,客户关注点由价格转向能否及时满足自身需求。此外,据紫光股份于投资者互动平台的回复,其 AI 服务器订单今年一季度有很大提升,产能满足市场需求不存在问题,针对 GPT 场景优化的 GPU 服务器已经完成开发,预计今年二季度全面上市。作为全球 ICT 设备龙头企业的联想集团,根据其最新公布的财报数据,ISG(基础设施解决方案业务集团)在 2023 年 1-3 月实现营收同比增长 56.2%,全财年营收同比增长 36.6%,主要受益于海外 AI 服务器需求爆发以及存储业务的高速增长,公司预期新财年 AI 服务器收入增速将显著快于通用服务器,带动 ISG 部门营收增长超市场平均水平 20%以上。中科曙光深度布局算力领域,包括上游芯片、中游服务器解决方案、液冷技术、以及下游算力调度等业务,公司于投资者互动平台多次回复,会根据用户需求提供通用算力和智能算力产品及服务,随着我国算力需求的增长,各类产品销售均呈现增长态势,伴随我国人工智能技术和产业的发展,预计智能计算产品需求将逐步提升。
3、下游:
根据 IDC 数据,服务器赋能千行百业,实则为数字经济的底层基础设施;其中,互联网行业占比最多,为 43.8%,广泛应用于电子商务、电子邮件、电子游戏等领域;电信行业占比9.9%,应用场景为通讯网络、云平台建设;金融占比约为 9.0%,广泛应用于商业业务系统、银行系统等场景;政府领域占比为 10.6%,主要应用于数字政务、办公系统等领域。
互联网,积极拥抱新兴技术,领先全球算力水平。根据 IDC 数据统计,2021 年互联网企业采购的 IT 基础架构中,超过九成被应用于云计算部署方式。此外,互联网与人工智能、大数据等新兴技术的结合也催生了对海量计算能力的需求。目前,从互联网数据中心的体量来看,中、美仍处在第一梯队,中美两国占全球整体服务器保有量六成以上。近年来互联网行业在亚太区的增长颇为突出,这主要源于疫情之后在线需求的增加,以及亚太地区经济的复苏。此外,中国持续加大数据中心的部署,更多企业采取云服务方式。
电信,利用算力投入优化内部管理,赋能业务创新。内部,随着 5G、云计算等技术的落地,电信运营商对内面临着业务增长压力;外部,智慧交通、智慧零售、车联网、游戏娱乐、AR/VR 应用等增值业务等算力需求逐步增加。海量创新业务增长对数据快速访问价值凸显,要求电信数据厂商承担数据高并发、低延迟传输、保证业务永续的能力。
金融,智能化加速,有力支撑金融业务创新发展。随着移动互联网场景的普及,金融行业(包含银行、保险和证券)的数字化业务迅猛发展,呈现出线上化、智能化、无接触等特征,此外,数字银行、个人财富管理、数字化借贷、全渠道支付等新兴金融场景层出不穷。金融行业对业务的及时性相应要求极高,移动互联业务由于其高并发、高峰值场景需求,稳定、安全、高效、弹性的基础设施成为首选。
制造,实现智能制造,推动数字工厂建设。制造业是实体经济发展的核心支撑力量,也是全球算力水平最高的传统行业之一,2021 年算力支出占全球 12%,其中包括大型 ERP 系统运转、物联网、传感器的应用。此外,在人工智能、大数据、区块链等新兴技术使用上,制造业也领先于大部分传统行业。根据IDC 的预测,到 2025 年,中国制造业 IT 相关支出占全球市场将达到 20%左右。
医疗,算力投入有望推动信息化平台建设。随着医疗信息化等领域的高投入,初步形成以计算平台为核心的综合信息系统,在医院范围内形成数据互联互通、区域协同、分级诊疗的体系。随着 AI 等技术发展,大数据赋能医疗行业智能化升级将是下一个发展目标。
行业现状及竞争格局:
根据 IDC 统计,全球数据产量由 2018 年 33ZB 增加到 2021 年的 70ZB,预计 2025 年将达到 175ZB, 年复合增速 25.7%。未来在云服务、物联网、智能驾驶、元宇宙、超算等应用推动下,数据计算的需求将愈发庞大。
全球数据总量
资料来源:IDC,西南证券
数据时代就是算力时代。目前算力主要承载端在于服务器、PC 和智能手机等终端上,其中 PC 和智能手 机主要应用于个人数据,而服务器则主要处理企业、政府和社会数据,服务器的算力也远高于 PC 和手机。
据 IDC 统计,全球服务器出货量由 2016 年 955 万台上涨至 2021 年 1354 万台,CAGR 为 7%,市场规 模由 588 亿美元提升至 992 亿美元,CAGR 为 11%。据 Digitimes 预测,全球服务器出货量有望从 2022 年的 1400 万台增长至 2027 年的 1900 万台,CAGR 为 6.3%。
全球服务器市场规模
资料来源:IDC,西南证券
随着国内数字基础建设数据负载量的需求量不断上升,我国 AI 服务器市场保持较快增速。根据 IDC 数据,2022 年大陆 AI 服务器出货量达 28.4 万台,预计到 2027 年达到 65 万台,CAGR 为 17.9%,按金额计算,2022 年大陆 AI 服务器销售额为 72.55 亿美元,预计到 2027 年销售额将达到 163.99 亿美元,CAGR 为 17.7%。
2019-2027年大陆AI服务器出货量
2019-2027年大陆AI服务器销售额
资料来源:IDC,中泰证券研究所
竞争格局:
全球服务器行业格局层面,主要是 ODM 厂(如工业富联、广达、英业达等)及品牌商(如戴尔、HPE、联想、浪潮等),在 AI 服务器方面,国内浪潮信息份额较高,其次为戴尔、HPE、联想、华为、IBM等,当然在 AI 服务器领域不得不提行业龙头微软、AWS、阿里、DELL、HPE 等的 ODM/OEM 厂商工业富联,是海外云服务商的服务器主力供应商,在服务器及 AI 服务器的份领先。
国内服务器行业格局层面,根据 IDC 此前公布的数据,2022 年中国服务器市场出货靠前的玩家主要为浪潮信息、新华三、超聚变、宁畅、中兴通讯,其中超聚变份额提升较快,浪潮、戴尔、联想则有所下滑。AI 服务器方面,从 2021 年数据来看,国内 AI 服务器市场份额较高的主要是浪潮信息、宁畅、新华三、华为、安擎、宝德等,其中浪潮占据半壁江山。
从全球维度来看,考虑品牌商及代工厂两种商业模式,当前 AI 服务器市场份额中代工厂(ODM)厂商份额会高于品牌商(OEM),且 ODM 份额有逐步提升趋势。目前全球对于 AI 服务器的爆发式需求更多来自于大型互联网公司,在除中国外的全球市场,尤其以北美为主的市场中,大型互联网公司往往通过 ODM 满足其需求。从合作厂商来看,海外服务器出货排名靠前的戴尔、惠普、联想等厂商,其中戴尔和惠普均不参与 ODM 业务,联想在海外则是承接一部分 ODM 业务。除联想外,ODM 市场主要被英业达、纬创、富士康、广达等台系 ODM 传统厂商占据,上述厂商也在积极扩充墨西哥、东南亚现有产能,以更好满足北美云厂商的 AI 服务器强劲需求。预计 2023 年 ODM 海外产能比重将升至50%,海外 AI 服务器市场 ODM 份额比重有望进一步提升。从品牌商的竞争格局来看,AI 服务器相比通用服务器复杂程度更高,研发周期更长,前期投入规模更大,需要企业具备一定的规模、资金储备、技术能力等,预计 AI 服务器市场中 OEM 份额将更进一步向龙头企业集中。
从国内维度看,OEM 份额占据主导,市场呈现一超多强的竞争格局。作为 OEM 厂商的浪潮、联想、新华三、宁畅等会以类 ODM 模式服务以互联网厂商为主的主要需求方,例如浪潮采用 JDM(JointDesign Manufacture 联合开发模式)模式,联想采用 ODM+模式。相比于海外 AI 服务器市场 ODM 厂商占据主流,国内市场的绝大多数份额由 OEM 厂商所占据,2022 年国内市场份额中,ODM 厂商份额不足两成,而浪潮、新华三、宁畅前三大 OEM 厂商占据 67%市场份额。考虑到 AI 服务器研发和投入上需要更充足的资金及技术支持,OEM 的竞争格局预计将继续向头部集中。展望未来,国内 AI 服务器需求除互联网厂商外,还包括政府端的智算中心等建设,预计 OEM 的份额占比有望进一步提升。
大陆相关企业:
浪潮信息:算力供给龙头企业引领 AI 算力新浪潮。2022 年,公司人工智能服务器市占率连续 3 年全球第一,连续 6 年市占率中国第一;2023 年 Q3 浪潮信息居全球服务器份额第二。公司牵头参与服务器全部国标,是唯一一家同时加入全球三大开放计算组织的服务器供应商。公司是百度、阿里、腾讯等大型企业最主要的 AI 服务器供应商,与科大讯飞保持在系统与应用的深入合作,帮助 AI 客户在语音、图像、视频、搜索、网络等方面取得数量级的应用性能提升。公司打造最广泛、多元的算力平台,推出全新一代 G7 服务器,是目前业界算力支持最广泛的平台。公司在 AI 服务器领域具有先发优势,全栈布局液冷。多年来围绕智慧计算、数据中心液冷技术持续加大研发投入,目前全系列服务器均支持冷板式液冷,实现全算力业务场景覆盖。
中科曙光:持续发力高端服务器市场。中科曙光是国内领先的高端服务器生产商。公司高端服务器产品全栈自研,拥有大规模部署实践;不断开拓算力服务业务,通过全国一体化算力服务平台加速海量复杂行业应用创新与落地,为国内多个大模型提供算力支持。公司持续提升技术创新能力和研发水平,在部件性能管理、产品稳定性、高速互联等方面持续提高产品性能,全面升级服务器的可扩展能力、可管理能力,增强产品的核心竞争优势,经营业绩稳步提升。公司高端计算机产品包括机架式服务器、高密度服务器、刀片服务器、超融合一体机产品等,能面向多种应用场景,兼顾性能、能效、应用生态,具有领先的计算密度和节能性。公司的高端服务器产品也涵盖浸没液冷、冷板液冷等产品形态,具有节能高效、安全稳定、高度集成等特点。智能计算天阔服务器 X785-G30:采用 Intel 最新一代的 Xeon Scalable 系列处理器,可支持更多 CPU核心,最高支持 DDR42933 内存,极大地提高了系统性能,处理器集成 6 通道内存控制器,支持最高2933MHz 的 DDR4 内存。单颗 CPU 最高可提供 28 核心计算能力,采用全新的 UPICPU 总线互联技术,总线频率高达 10.4GT/s,计算能力大幅提升。
拓维信息:算力+算法+数据三位一体全面布局。拓维信息是中国领先的国产软硬一体产品及服务提供商。公司多年来锚定软件服务、智能计算、开源鸿蒙操作系统等领域精准发力,积累了海量的算法模型和行业数据,不断筑牢算力、算法、数据三位一体的 AI 差异化竞争力,同时打造国产计算产品品牌“兆瀚”,依托“鲲鹏+昇腾”协同优势,灵活向通用算力及 Al 算力场景扩展,满足各行业、各新技术发展下对多样性算力的需求。拓维信息同时布局鸿蒙生态和智能计算。公司在发展通用计算产品业务的同时,抢抓人工智能发展机遇,不断加大 AI 计算硬件产品研发布局与市场开拓。公司基于“鲲鹏处理器+昇腾 AI”国产技术底座,已形成较为完善的自主品牌“兆瀚”智能计算产品体系。
免责声明:本文章不涉及投资建议,仅供分享观点所用。
参考资料:
天风证券:AI 算力需求持续释放,重点看好 AI 服务器产业链;
浙商证券:大模型算力需求驱动 AI 服务器行业高景气;
招商证券:大模型时代 AI 服务器需求提升,算力市场打开长线空间;
西南证券:联想集团-0992.HK-AI 服务器高速成长,IDG 业务柳暗花明;
中信建投:TMT 行业深度报告:算力大时代,AI 算力产业链全景梳理;
中泰证券:电子行业 AIGC 发展给电子带来的投资机遇:AI 服务器拆解,产业链核心受益梳理;