半导体周报0421-AIGC
半导体周报-0421
一、行业新闻及动态
1、半导体设计:
《科创板日报》1日讯,三星电子DS部门负责人庆桂显近日表示,三星内部正采取双轨AI半导体策略,同步提高在AI用存储芯片和AI算力芯片领域的竞争力。三星组建了由DRAM产品与技术负责人Hwang Sang-joon领导HBM内存产能与质量提升团队。此外,庆桂显称客户对于AI推理芯片Mach-1的兴趣正在增长,并有部分客户表达了将Mach系列芯片应用于超1000B参数大模型推理的期望,因此三星电子将加速下代Mach-2芯片的开发。
2、半导体制造及封测:
财联社4月5日电,据《华尔街日报》援引知情人士的话报道,三星电子计划将其在得克萨斯州的投资提高到约440亿美元。该公司将把大部分新支出集中在泰勒市,三星已经在那里建造了一家半导体工厂,靠近现有的运营设施。其计划再建一家芯片制造厂和一个先进封装中心。
财联社4月4日电,TrendForce集邦咨询针对中国台湾花莲震后各半导体厂动态更新,由于本次地震大多晶圆代工厂都位属在震度四级的区域,加上台湾地区的半导体工厂多以高规格兴建,内部的减震措施都是世界顶尖水平,多半可以减震1至2级。以本次的震度来看,几乎都是停机检查后,迅速复工进行,纵使有因为紧急停机或地震损坏炉管,导致在线晶圆破片或是毁损报废,但由于目前成熟制程厂区产能利用率平均皆在50~80%,故损失大多可以在复工后迅速将产能补齐,产能损耗算是影响轻微。
《科创板日报》2日讯,SK海力士宣布,已与韩半导体行业特种气体制造商TEMC成功合作开发了业界首个氖气回收技术,每年可节省400亿韩元。目前这套氖气回收装置的整体回收率为72.7%,SK海力士计划未来将这一比例提升至77%。
《科创板日报》1日讯,3月30日,位于上海临港新片区的上海市重点工程——积塔半导体特色工艺生产线建设项目迎来重要施工节点。300毫米车规半导体集成电路制造基地设备正式入场,经过调试后预计于今年7月正式投产。积塔半导体特色工艺生产线建设项目位于重装备产业区,总建筑面积22万平方米,建成后将成为国家重要的高端装备厂房和战略新兴产业发展基地。
《科创板日报》7日讯,据业内人士透露,三星电子最近获得了一批英伟达AI芯片的2.5D封装订单,并正在批量生产。韩媒预计,日前台湾地区地震或将进一步影响台积电CoWoS产能,三星对英伟达2.5D封装订单或有望进一步增加。
二、本周话题——AIGC
AIGC(AI-Generated Content)本质上是一种内容生产方式,即人工智能自动生产内容,是基于深度学习技术,输入数据后由人工智能通过寻找规律并适当泛化从而生成内容的一种方式。过往的内容创作生态主要经历了 PGC、UGC 到 AIUGC 的几个阶段,但始终难以平衡创作效率、创作成本及内容质量三者之间的关系,而 AIGC 可以实现专业创作者和个体自由地发挥创意,降低内容生产的门槛,带来大量内容供给。
资料来源:公开资料整理
按模态划分,大模型可分为自然语言处理(NLP)大模型,视觉(CV)大模型、多模态大模型等。按应用场景划分,大模型可分为通用大模型和行业大模型。通用大模型是指可在不进行微调或少量微调的情况下完成多场景任务的大模型,具有强大的泛化能力,ChatGPT、华为盘古大模型以及最新发布的Gemini 都是通用大模型。行业大模型则利用行业知识对大模型进行微调,以满足在金融、汽车、传媒等不同领域的需求,如金融领域的 BloombergGPT、汽车领域的毫末 DriveGPT、法律领域的LawGPT_zh 等。
AI大模型模态分类
资料来源:CSDN,平安证券研究所
预训练大模型按照模态可以分为文本、图像、视频、代码、音乐生成等多种,但从底层架构上都分属两类。Transformer 是一种编解码模型框架,适用于处理文本、代码这类强连续性生成任务;Diffusion、GAN、NeRF 等框架善于处理图像生成类任务。叠加文-图转换技术可以形成文生图模型。由单模态模型在实际训练时融合其他模态技术,可形成多模态、跨模态大模型,如 GPT-4、文心一言、Midjourney等,由于多模态模型可接受文本、图像等不同输入输出形式,对应用场景能够更广泛适配,着力发展多模态模型成为产研两界共同趋势。
在目前的市场下,AI 已经具备生成文本、音频、图像、视频的能力。基础的生成式 AI 以文本模态为主要特征,音频、图像、视频等模态市场热度较高。文生图像以 CLIP 为主要训练的神经网络模型,其中文本和图像通过编码器进行分解,分解后进行映射,完成训练,文生音频具备相似的训练模式。随着大模型多模态能力升级,文生视频快速发展。继文生图能力融入各个大模型之后,文生视频成为大模型多模态应用的新趋势。近期多家厂商发布相关产品或更新,大幅提升文生视频效果。
AI多模态生成机制
资料来源:艾瑞咨询研究院
AIGC 商业模式中,呈现多样化发展,目前处于持续探索阶段。目前传统的按量收费模式和灵活的SaaS 订阅模式为主流方向,对于按量收费模式,AIGC 可以根据用户使用量进行收费,比如按照 API 调用的次数、使用的数据量等来计费。这种模式适合于对 AI 需求较为稳定的企业或个人,他们可以通过预付费或后付费的方式来使用 AIGC 服务。对于 SaaS 订阅模式,AIGC 可以提供灵活的订阅服务,用户可以根据自己的需求选择不同的服务级别和定价。这种模式适应于需求不确定的用户,可以灵活随时调整订阅级别或取消订阅。AIGC 的商业模式多样化为企业提供了更多的选择和可能性,有助于推动行业的创新和发展。
随着 ChatGPT 引爆大模型市场,MaaS(Model as a Service,模型即服务),成为继 SaaS、IaaS、PaaS 之后的新型云服务方式。MaaS 将人工智能大模型变成可服务化的产品,用户无需自建底层基础设施,只需通过 API 接口调用即可使用大模型服务,MaaS 通常有推理、微调、深入开发三种服务方式,降低使用门槛的同时也可以大幅提高大模型的使用效率。科技厂商 MaaS 商业模式主要分为三种:1)订阅制模式:将模型产品化并通过提供增值服务获取收入,例如 ChatGPT Plus;2)嵌入其他产品获得引流式收入:例如微软Microsoft 365 服务全面接入 AI 驱动工具 Copilot,其由 OpenAI 的 GPT-4 技术驱动,出现在 Microsoft365 的侧边栏,可作为聊天机器人随时召唤,带来更智能、更高效的办公体验的同时,获得引流式收入;3)API 服务调用或定制开发:如文心千帆大模型平台,是面向企业开发者的一站式大模型开发及服务运行平台,提供基于文心一言底层模型(ErnieBot)的数据管理、自动化模型定制微调以及预测服务云端部署一站式大模型定制服务。
资料来源:艾瑞咨询研究院
产业链分析:
AIGC 产业可分为三层,其中模型层和应用层值得关注。AIGC 现有产业链由数据供给、模型开发与定制、应用与分发构成。目前来看,模型层为关键因素之一;其次,应用层发展空间巨大。上游数据供给由收集大量原始数据对其进行预处理,以便提供给模型训练,投资确定性强。在中游,使用注释数据开发和训练 AI 模型以生成内容,在垂直细分领域进行二次开发,来适应定制化需求;下游协助用户使用模型和算法生成内容,例如:文本、图像、视频等。基于不同的价值创造逻辑,将生成的内容分发到各种渠道。
AI产业链分层
资料来源:公开资料,艾瑞咨询研院
1、基础设施层:
从算力供给而言,可以分为通用算力、智能算力和超算算力。算力实现的核心是 CPU、GPU、FPGA、ASIC 等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算,算力数值越大代表综合计算能力越强,常用的计量单位是 FLOPS(每秒执行的浮点数运算次数)。
算力是设备根据内部状态的改变,每秒可处理的信息数据量。算力的载体发展经历了以算盘和机械计算器为代表的时代到基于架设互联网基础平台的服务器的历程。在过去 20 年,随着算力载体的丰富程度得到了极大提升,呈现多样化发展趋势。算力架构可以拆解为芯片、设备、软件,呈现“云-边-端”一体格局。未来将形成云端侧负责大体量复杂计算、边缘侧负责简单计算执行、终端侧负责感知交互的泛在算力部署形式。
算力架构
资料来源:华为《泛在算力》,中国银河证券研究所
AI芯片:
AI 芯片进入舞台中央,广泛应用于训练或推理。AI 芯片是指所有能够用于人工智能的芯片,主要包括GPU、ASIC、FPGA 三大类,海内外大型厂商集中于 GPU 和 ASIC 架构。AI 芯片按应用场景可以分为训练芯片和推理芯片:训练芯片用于算法模型开发、训练,利用标记的数据,通过该芯片“学习”出具备特定功能的模型;推理芯片用于应用层,利用训练出来的模型加载数据,通过芯片计算“推理”出各种结论。按照部署的位置可以分为云端芯片和边缘端芯片:云端芯片部署在公有云、私有云或者混合云上,不但可用于训练,也可用于推理,算力强劲;边缘端芯片主要应用于嵌入式、移动终端等领域,此类芯片一般体积小、耗电低,性能要求也相对不高,一般只需具备一两种 AI 能力,用于推理。
GPU 大规模并行运算优势明显,是 AI 芯片市场的首选。GPU 即图形处理器,主要分为传统 GPU 和GPGPU,分别用于图形渲染和通用计算,用于 AI 服务器的 GPU 一般指后者。按照 IDC 统计,我国2023 年上半年 GPU 服务器占据加速计算服务器 90%的比例,其余 NPU、FPGA 等形式的加速计算服务器占比为 10%,此前几年 GPU 也一直是主流选项。
资料来源:IDC,中信证券
GPU 市场目前仍由英伟达、AMD 等国外厂商主导,国内正处于发展起步阶段,在 AI 芯片市场的竞争力较弱,未来在大模型技术发展的催化下,叠加美国限制向中国出口高端 GPU 芯片等因素,国产 GPU芯片将迎来发展机遇。据 IDC 统计,2023 年上半年,中国加速芯片的市场规模超过 50 万张。从品牌角度看,中国本土 AI 芯片品牌出货超过 5 万张,占比整个市场 10%左右的份额。
全球 GPU 市场竞争格局:英伟达独占鳌头,AMD 跟随其后。英伟达是全球 GPU 芯片市场的绝对龙头,AMD 紧随其后。根据 JPR 数据,2022 年二季度,英伟达在全球独立 GPU 芯片市场占有率为 79%,AMD 以 20%的市占率跟随其后。英伟达于今年 11 月份发布的新一代人工智能芯片 H200,相比 H100内存速度和容量均实现大幅升级,在用于推理或生成问题答案时,性能较 H100 提高 60%至 90%,预计将于 2024 年二季度上市。H200 将进一步提升大模型的训练与推理效率。
ASIC 是一种定制芯片,可提供更高能效表现和计算效率。ASIC(专用芯片)是一种为特定目的、面向特定用户需求设计的定制芯片,具备性能更强、体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。ASIC 芯片主要应用于深度学习加速,在推理侧,相较其他 AI 芯片在效率和速度方面具有明显优势。以谷歌为例,谷歌早在 2015 年就发布 TPU v1,与当时通用 CPU 和 GPU的神经网络计算相比,TPU v1 带来了 15-30 倍的性能提升和 30-80 倍的能效提升,以较低成本支持谷歌的多项服务,仅可用于推理;2017 年发布 TPU v2,用于加速大量的机器学习和人工智能工作负载,包括训练和推理;2018 年发布 TPU v3,算力和功率大幅增长,采用了当时最新的液冷技术;2020 年和 2021 年分别发布 TPU v4i 和 v4,应用 7nm 工艺,晶体管数大幅提升,算力提升,功耗下降;2023年谷歌发布 TPU v5e 和 TPU v5p,12 月最新发布的 TPU v5p 与 TPU v4 相比浮点运算性能进一步大幅提升,高带宽内存方面是 TPU v4 的近 3 倍。
AI服务器:
AI 服务器是指能够提供人工智能(AI)的数据服务器,具有强大的图形处理和高性能计算能力,既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,能支持多种常用的 AI 技术,如机器学习、自然语言处理、计算机视觉、生物信息分析等。AI 服务器与普通服务器的区别主要在于计算架构的不同,AI 服务器通常根据应用场景的不同,采用 CPU+GPU/ASIC/FPGA 或其他加速卡的异构式计算架构。
互联网云巨头贡献 AI 服务器主要需求,资本投入力度有望维持增长。AI 服务器市场的下游主要是以大型云计算厂商为主。TrendForce 统计数据显示,2022 年 AI 服务器采购量中,美国四家云厂商,微软、谷歌、Meta、AWS 的采购量位居前四,合计占比约 66%。国内企业字节跳动、腾讯、阿里巴巴、百度紧随其后,在 AI 基础设施方面的建设步伐较为领先。IDC 统计数据显示,2023 年上半年,互联网依然是我国加速服务器最大的采购行业,占整体加速服务器市场超过一半的份额,此外金融、电信和政府行业均有超过一倍以上的增长。未来,随着 AIGC、边缘计算、自动驾驶等新兴技术和应用的不断普及,各大云厂商有望持续加大在 AI 相关基础设施方面的投入,持续为 AI 基础设施市场注入发展动力。
2、模型层面:
大模型算法的迭代可以大致分为萌芽阶段、探索阶段和快速发展阶段三个阶段。第一阶段以 CNN 为代表的传统神经网络模型为主。1980 年,卷积神经网络的雏形 CNN 诞生;1998 年,以卷积神经网络为架构的 LeNet-5 深度学习模型问世,为大模型的发展奠定基础。2006 年-2019 年,是以 Transformer为代表的卷积神经网络模型阶段。2014 年,对抗式生成网络 GAN 诞生,开启生成模型研究新阶段。2017 年,Google 开创性地提出了 Transformer 架构,随后,OpenAI 和 Google 分别发布了 GPT-1 与BERT 大模型,大模型的性能显著提升。2020 年以后,卷积神经网络模型的参数量激增,多种通用大模型相继问世。
Transformer 引入注意力机制,突破 RNN、CNN 处理长序列的局限。Transformer 模型是由Google 团队的 Ashish Vaswani 等人发表论文《Attention Is All You Need》提出的模型概念,是当前大模型领域主流的算法架构基础,其上形成了 BERT 和 GPT(Generative Pre-Trained Transformer)两条主要的技术路线,其中 BERT 的代表性落地项目是谷歌的 AlphaGo。在 GPT3.0 发布后,GPT 逐渐成为大模型的主流路线。当前,国内包含百度文心一言、阿里通义千问等在内的几乎所有参数规模超千亿的大型语言模型均采用 GPT 模式。
Transformer 模型是一个深度学习模型,其标志性特征是采用了 self-attention 机制,可为输入数据的各部分分配不同权重,核心是从关注全部到关注重点,从而节省资源,快速获得最有效的信息。selfattention 机制的引入突破了 RNN 处理长序列的输入,以及 CNN 解决远距离特征依赖问题的局限,使得通过提升参数量来提升预训练大模型的性能成为了可能。
Transformer模型系列分类 模型架构
资料来源:CNDS,谷歌,平安证券研究所
云端大模型:
OpenAI 明年上半年预计发布 GPT-5,Meta 预计已在开发比 GPT4 更强大的开源大模型 Llama3。大模型从云到端持续推进,云端继续升级,终端大模型呼之欲出。GPT-5 训练数据来源于互联网数据集和公司专有数据,包括开源和私有数据,涵盖各种数据类型,如文本、图像、音频和视频,将支持更多种类的输入和输出。OpenAI 表示,GPT-5 的终极目标是实现类似人脑的超级 AI,最终实现 AGI(ArtificialGeneral Intelligence)。Meta 称正在研发 Llama3,预计将于 2024 年上半年亮相。Llama3 被猜测可与GPT-4 相匹敌,能够支持生成精密文本、分析和其他输出性服务,并计划保持开源免费。
据 MordorIntelligence 预计,云人工智能市场规模将从 2023 年的 510.4 亿美元增长到 2028 年的 2074亿美元,预测期内(2023-2028 年)复合年增长率为 32.37%。随着企业数量的不断增加以及企业之间的竞争,企业正在积极尝试将人工智能技术与其应用、分析、业务和服务相集成。此外,将公司致力于降低运营成本以提高利润率,推动云端人工智能快速发展,进一步推动预测期内的市场规模增长。
云端AI市场规模预计
资料来源:MordorIntelligence,中国银河证券研究所
边云算法协同:
大模型时代,从云到端(边缘侧)算法不断优化升级,其中边缘智能优化方向包括五大方面,包括边云协同、模型分割、模型压缩、减少冗余数据传输以及轻量级加速体系结构。其中,边云协同、模型分割、模型压缩能够减少边缘智能对于计算、存储和设备的需求;减少冗余数据传输以改善传输效率,降低网络资源浪费;轻量级加速体系结构将在硬件和应用方面支持边缘计算效率提升。
边云协同云计算和边缘计算相结合,将数据和计算资源分布在云端和边缘设备,实现数据的高效处理和传输。云边协同优势明显,1)充分利用云端强大的计算资源;2)在需要实时响应或者断网情况下可借助本地设备完成任务;3)保证数据安全性。
云端处理人工智能的成本高昂,致使发展高效“云端处理+边缘设备”混合人工智能处理以落地终端的重要性凸显。混合架构具有不同的卸载选项,以便根据模型和查询复杂性等因素在云和设备之间分配处理。具有超过 10 亿个参数的 AI 模型已经在手机上运行,其性能和准确度水平与云类似,并且具有 100 亿个或更多参数的模型预计在不久的将来在设备上运行。
终端侧大模型主要用于推理,将拓展边缘设备应用。混合 AI 将提振 B 端 AI 产品及服务实力,面向行业开发多场景应用、优化 AI 交互体验感、增强工作自动化程度,从而提升工作效率;混合 AI 将优化生成式 AI 的功能性及可用性,推动企业研发以全面化终端 AI 功能,拓展 C 端软件及硬件产品的多样性。混合人工智能方法几乎适用于所有生成式人工智能应用程序和设备领域,包括智能手机、笔记本电脑、汽车、机器人和智能物联网终端(AIoT)等。
3、应用层:
当前,人工智能在我国各行业已经得到广泛应用。根据 IDC 数据,2022 年,人工智能在我国互联网、金融、政府、电信、制造等行业的渗透率分别为 83%、62%、52%、51%、45%。其中教育、金融、办公、法律、医疗行业渗透加速。随着国产大模型的逐步成熟,我国大模型产品面向我国庞大的互联网 C端用户群和丰富的行业应用场景,将与产品和应用场景深度融合,赋能我国数字经济的发展。参考我国数字经济的巨大体量,我国 AIGC 产业未来发展前景广阔。
(1)AIGC+教育:
人工智能技术在教育领域的应用场景广阔,可大致分为四个层面:1)知识内容检索。AI 可以帮助学生快速检索相关知识内容,满足对知识点查询的需求。这一应用场景知识密度要求较高,但对学生思维引导性较弱;2)语言学习。AI 可以评估和纠正学生的口语、写作等语言表达能力。这一应用在通用智能达到一定阈值后即可实现,知识密度要求不高,但对学生思维起到部分引导作用。3)内容生成。AI 可以根据教材和课程设置自动生成相关学习内容,如生成习题、案例分析等。这一应用知识密度需求不高,但对思维引导性要求增加。4)灵感索引。灵感索引是“因材施教”的关键,也是传统教育中老师较难被替代的环节,例如,在学生若干结题步骤中精准定位出错点,判断思维误区,进行正确引导,目前国内外 AI+教育产品均在探索中,尚无成熟案例。
在线教育市场规模稳定增长,未来大有可为。根据艾瑞咨询数据,2025 年我国在线教育市场规模将达到 4905 亿元,年复合增长率 17.5%。这主要受益于以下几个方面的因素:1)国家对于教育事业的重视和支持,不断增加教育经费投入,推动教育信息化和现代化的发展,为在线教育提供了政策红利和基础条件。2)互联网技术的不断进步和创新,提升了在线教育的技术水平和服务质量,为在线教育提供了技术驱动和效率提升。3)用户对于在线教育的接受度和付费意愿的不断提升,以及对于个性化、多样化、国际化的在线教育需求的不断增长,为在线教育提供了市场需求和消费动力。4)在线教育机构的不断创新和优化,以及与其他行业的跨界合作和融合,为在线教育提供了产品多元和竞争优势。
(2)AIGC+医疗:
弗若斯特沙利文发布《医疗智能行业白皮书》显示,中国医疗产业正由 1.0 医疗信息化发展为 3.0 医疗智能化,大数据、云计算、AI 技术能力、医学知识与场景经验、场景与算法高频迭代是五大核心要素。白皮书预计,2025 至 2030 年中国医疗智能市场规模复合年增长率 37.4%,市场规模将破 1.1 万亿元。
中国医疗智能化市场规模
资料来源:沙利文《医疗智能行业白皮书》,中国银河证券研究所
AI+核心医疗产业链可以分为 AI 基础层,AI 医疗技术层与应用层:1)基础层,除数据服务外,芯片与通信等基础核心领域已形成牢固的技术壁垒,市场呈寡头局面;2)技术层,算法、框架以及通用技术则需要长期的投入与研发来攻克,目前各大科技企业与互联网巨头企业基本已完成布局,中小企业生存空间较少;3)应用层,应用层可触达全医疗服务场景,如院内临床决策系统、手术机器人、智慧病案系统、医疗影像、药企新药研发与基因检测。
AI+医疗产业链
资料来源:艾瑞咨询,中国银河证券研究所
(3)AIGC+办公:
海外,微软于 2023 年 3 月 16 日发布会上发布重磅产品 Microsoft365Copilot,其集成 GPT-4 的功能,以聊天机器人的模式出现在产品的右侧。用户通过向其发号指令,便可自动生成文字、表格、演示文稿等内容。大模型的赋能下,简化了用户的学习路径,通过自然语言就可与机器进行交互并发号指令,将操作流程大大简化,使得工作流程与效率得到了较大的提升。7 月 18 日,微软公布其 Copliot 价格为 30美元/人/月,此举将大幅提升其产品单价。在近期微软发布会上,其公布 Copliot 产品将于今年 11 月 1日正式面向全部企业用户推出,并将嵌套进全新的 windows11 系统。伴随着微软 Copilot 的全面落地应用,AI 对业绩、用户数据、产品优化的贡献能力将不断显现,24 年将开始逐步反应在财报上。
国内,2023 年 4 月 18 日,金山办公宣布推出 WPSAI,将应用于新一代在线内容协作轻文档,能力包括:从 0 到 1 生成内容、多轮对话以修改内容、以及处理(编辑/改写/扩充)已有文档等功能,并将陆续嵌入全线产品。7 月 6 日,WPS 面向大众招募智能办公体验官。AIGC 对办公产品的赋能将提升用户的使用意愿与付费意愿。AI 功能主要在云端进行推理任务,用户只能通过订阅付费方式进行获取,将进一步提升公司付费率。目前公司付费率依然较低,相较于微软 18%左右的付费率仍有较大空间。此外,随着 AI 功能的上线,未来产品单价将进行提升,ARPU 值将得到提升。此外,对比竞争对手微软来说,金山的价格优势有望进一步放大。
(4)AIGC+金融:
2023 年 3 月 30 日,彭博发布其大语言模型 BloombergGPT,是 LLM 在垂直金融场景的落地加速的象征。BloombergGPT 聚焦于金融场景,将其多年积累的金融领域报告术语等对 LLM 进行训练,相较普适性类 ChatGPT 产品,其对金融术语的理解更为高效与准确。
BloombergGPT 采用 500 亿参数与 7000 亿数据集规模对大模型进行训练,远小于 GPT3 的 1750 亿参数与 45TB 数据量。其数据集主要包含两个部分,一个数据量占比 49%的通用型文本数据集,主要包括ThePile、C4、Wikipedia 等通用常识类数据集,另一个数据量占比 51%的金融预料数据集,主要包含括新闻、研究报告、公司财报、网络爬取的金融文件以及提取到的社交媒体消息等内容。根据彭博发布的论文,BloombergGPT 在通用领域能力与 GPT3 几乎持平,但在金融垂直领域文本撰写和问答能力更为突出。BloombergGPTLLM 预训练的成功说明 LLM 在垂直领域应用的可用性和训练成本可控的可行性。
行业现状:
。在网民规模持续提升、网络接入环境日益多元、企业数字化进程不断加速的宏观环境下,AIGC技术作为新型内容生产方式,有望渗透人类生产生活,为千行百业带来颠覆变革,开辟人类生产交互新纪元。艾瑞咨询预测,2023 年中国 AIGC 产业规模约为 143 亿元,随后进入大模型生态培育期,持续打造与完善底层算力基建、大模型商店平台等新型基础设施,以此孕育成熟技术与产品形态的对外输出。2028 年,中国 AIGC 产业规模预计将达到 7202 亿元,中国 AIGC 产业生态日益稳固,完成重点领域、关键场景的技术价值兑现,逐步建立完善模型即服务产业生态,2030 年中国 AIGC 产业规模有望突破万亿元,达到 11441 亿元。
2022-2030年中国AIGC产业规模
资料来源:艾瑞咨询
艾瑞咨询-人工智能行业:2023 年 AIGC 场景应用展望研究报告