AIGC算力全景与趋势报告

2023-08-01 16:23:00   来源:新浪VR

  量子位发布《AIGC算力全景与趋势报告》,原文如下:

  2023年无疑是AIGC元年,ChatGPT引发的各类大模型竞赛中,行业内绕不开的一个话题便是算力从何而来。

  算力目前已经在AIGC产业内形成新共识——算力成为AIGC发展的关键基石。随着英伟达今年一系列不断推陈出新的产品动作,可以看到国际上最先进的算力厂商如今已迈向由超级芯片组成的算力集群阶段。

  此外,算力厂商也无疑成为AIGC产业下的率先受益方。然而,随着大模型参数的不断增长,OpenAI近期表明算力成为其发展的挑战之一。在AIGC产业繁荣的当下,可以预见的是未来对算力的需求会越来越大。那么,在这场AIGC盛宴中,应该如何应对当下面临的‘算力危机’呢?

  在《AIGC算力全景与趋势报告》中,量子位智库将从我国算力产业现状、算力产业变革、趋势预判等角度出发,通过广泛调研与深度分析,全面立体描绘我国当前AIGC算力产业全景与趋势。

  我们期待,能够与众多投入、关注、期待中国AIGC算力产业的伙伴一起,共同见证并打造中国AIGC算力产业的蓬勃未来。

  一、AIGC驱动,算力产业机遇空前

  1、AIGC潮起,算力产业挑战巨大,机遇空前

  OpenAI发布ChatGPT属于GPT系列中的聊天机器人模型。GPT系列中GPT3是由1750亿参数组成的语言模型,而GPT4的参数更是达万亿级别。国内目前公布的大模型参数规模也普遍在百亿至千亿级别。如此庞大的参数规模,对于芯片提供商、云服务厂商以及服务器厂商都产生了新需求。

  全球范围内,GPT具备从底层改变各行业规则的能力,作为AIGC产业的基建,算力产业在未来有望成为一项公共服务渗透入各行各业。基于此,智算中心作为公共算力基础设施,成为AIGC基建中的关键环节。

  云计算厂商:游戏规则被改写,MaaS能力成为竞争的关键变量。

  智算中心:在算力需求暴涨、数据和模型资源稀缺、AI技术广泛落地背景下,智算中心成为地区AI新基建。

  服务器厂商:大模型训练驱动AI服务器需求暴涨,并且正在催生新物种——AI模型一体机。

  芯片:GPU为核心的AI训练芯片供不应求,是AIGC算力产业最大挑战和最大机遇。

  2、芯片:大模型训练需求暴涨,GPU供不应求

  需求

  当前大模型参数量在百亿至千亿参数规模,在训练阶段,对芯片的需求从CPU+加速器转变为以GPU主导的大规模并行计算。未来,当多数大模型参数规模到达万亿级别,将产生更大的算力需求。在单芯片性能之上,智算中心能够通过算力的生产-调度-聚合-释放,支持AI产业化发展。

  缺口

  目前市场对于英伟达芯片的需求远大于供给。经测算,一万枚英伟达A100芯片是做好AI大模型的算力门槛。国内具备此量级的公司最多只有1家,而GPU芯片持有量超过一万枚的企业不超过5家。

  3、服务器:业务增长显著,高端芯片AI服务器火爆

  现状

  AIGC产业的发展将加剧AI服务器行业的增长速度,国产服务器厂商普遍业务增量在30%以上;国内市场中,服务器重新进入洗牌期。

  需求趋势

  由于AIGC对于高性能计算的需求,云厂商在服务器的选择上以AI服务器为主。据IDC数据,2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。英伟达GPU短期内面临产能不足问题,或将一定程度上限制AI服务器生产,从而影响出货量。

  4、云计算厂商:服务范式变革,MaaS带来新商业路径

  范式转变

  MaaS成为云计算服务的新范式,云计算判别标准从算力能力转向‘云智一体’的AI产品能力。

  成本

  自研芯片:根据 IDC 2018年服务器成本结构数据显示,高性能服务器中,芯片成本占比高达 50%~83%;全球头部云厂商(谷歌、微软、腾讯等)为摆脱过于依赖芯片厂商的局面,均加大芯片自研力度。

  5、智算中心:基建级AI算力供应,打造地区经济增长新引擎

  《智能计算中心创新发展指南》指出,在智算中心实现80%应用水平的情况下,城市/地区对智算中心的投资可带动人工智能核心产业增长约2.9-3.4倍,带动相关产业增长约36-42倍;未来80%的场景都将基于人工智能,所占据的算力资源主要由智算中心提供,智算中心将成为经济增长的新动力引擎。

  公共基建

  全国超30座城市落地智算中心:北京、天津、河北、南京、无锡、宁波、杭州、武汉、沈阳、成都、哈尔滨、许昌、广州、宿州、乌镇、昆山、甘肃、长沙。

  企业方

  阿里云张北超级智算中心、乌兰察布智算中心、商汤科技人工智能计算中心

  百度智能云-昆仑芯(盐城)智算中心、百度智能云(济南)智算中心、腾讯长三角(上海)人工智能先进计算中心、腾讯智慧产业长三角(合肥)智算中心、曙光5A级智算中心、克拉玛依浪潮智算中心、中国电信京津冀大数据智能算力中心、中国联通广东 AI 智算中心。。。。。。

  二、AIGC算力产业全景

  1、AIGC算力现状链路:芯片—服务器—云平台—模型应用

  以微软为例

  芯片资源

  •外部:Azure云服务为ChatGPT构建了超过1万枚英伟达A100 GPU芯片的AI计算集群。

  •内部:微软正在自研AI芯片——雅典娜(Athena),将由台积电代工,采用5nm制程。

  首个目标:为OpenAI提供算力引擎,以替代英伟达A100/H100。

  云基础设施平台Azure

  微软是OpenAI唯一云服务提供商,为GPT训练提供计算资源、存储资源、自动化部署和管理等支持。

  模型即应用(MaaS)

  1)Azure OpenAI 服务:

  企业级解决方案:借助 Azure OpenAI,用户可以汇总文本、获取代码建议、为网站生成图像等。

  2)Microsoft 365 Copilot:

  使用了GPT-4作为其核心的LLM,将用户的自然语言输入转化为高效的生产力工具,集成在Word、Excel、PowerPoint、Outlook、Teams等多个应用中。

  2、芯片层现状:AIGC算力2大路线,GPU通用路线和AISC专用路线

  AI芯片目前有两大路线,一种是英伟达代表的GPU路线,更适合当前AIGC产业对大算力的需求,与AIGC大模型的训练及推理适配度极高。另一种路线则是以国内华为(主力产品)、寒武纪厂商为代表的AI芯片路线,此路线下的芯片更适用于垂类小模型,为其提供能效比更高的芯片。此外互联网云厂商的自研芯片也是专用路线,芯片主要服务于自家产品,为自身产品打造性能更优的算力底座。

  3、服务器层现状:AI服务器成主要增长点,采购占比互联网客户为主

  服务器作为算力的载体,是AIGC基础设施的核心硬件。由于AIGC对于高性能计算的需求,云厂商在服务器的选择上以AI服务器为主。据IDC数据,2025年全球AI服务器市场规模将达317.9亿美元,年复合增长率为19%。AIGC产业的发展将加剧AI服务器行业的增长速度,国产服务器厂商普遍业务增量在30%以上。

  TrendForce日前发布预测,指出随着AI服务器与AI芯片需求同步看涨,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等主芯片)出货量将接近120万台,年增38.4%,并将2022-2026年AI服务器出货量年复合增长率上调至22%。2022年,国内互联网大厂成为AI服务器的最大买家。

  2023年,随着AIGC的爆发,根据业内消息,互联网厂商依旧是AI服务器的最大买方。

  4、云计算现状:MaaS重塑服务模式,新老玩家重构竞争力

  大模型成为MaaS的基座,MaaS所打造的商业模式也是大模型厂商的主要变现模式——基于大模型产生有实际应用价值的产品。

  MaaS模式最早由阿里提出,随后互联网大厂、人工智能企业(如商汤)均已引入MaaS模式。此外,互联网大厂、华为等企业已经将自研芯片用于MaaS底座构建中。

  云厂商是MaaS的提出者,也是主要参与方。MaaS模式基于大模型,能够最大限度消除大型企业数字化过程中规模化、标准化壁垒,降低企业部署难度;对于C端用户来讲,MaaS可在不同层级里产生价值,有望为云计算厂商带来新增长曲线。

  5、智算中心现状:地域发展差异明显,‘东数西算’成算力调度关键

  智算中心是对原有数据中心的升级,其提供的首要是AI算力。具体来讲,智算中心提供包括算力、框架、模型,以及支持应用场景具体的基础设施,将不同层级进行打包,通过本地化部署完成智算中心建设。相比于数据中心,智算中心更贴近应用和产业方。

  6、AIGC算力产业全景图

  三、AIGC算力产业‘五新’趋势

  趋势01——新机遇:芯片竞逐高性能大算力,引入新计算架构

  趋势02——新增长曲线:AI服务器异军突起,红利曲线先训练后推理

  AI大模型对算力需求呈指数级增长,使得具有更高配置的AI服务器成为AIGC算力的主要载体。相比于传统服务器,AI服务器的计算、存储以及网络传输能力能达到更高的水平。例如,NVIDIA DGX A100服务器 8 个 GPU+2 个 CPU 的配置远高于传统服务器 1~2 个 CPU 的配置。

  智算中心作为提供算力资源的公共基础设施平台,其算力机组以AI训练服务器和AI推理服务器为主。随着大模型训练阶段完成,未来AI服务器的主要需求将向推理侧转移。根据IDC的预测,到2026年,AIGC的算力62.2%将作用于模型推理。

  趋势03——新游戏规则:MaaS重塑云服务范式,AIGC商业模式闭环

  MaaS(模型即服务):在算力、算法和应用层中嵌入大模型,以智能底座集成应用并统一对外输出。MaaS的本质是将行业内通用的基础技术提炼整合成服务,满足各类应用场景需求。

  云计算服务能力的判别式从算力水平转向‘云智一体’能力,在算力基础设施之外,核心竞争力变为把算力、模型和场景应用打造成标准化产品的能力。

  趋势04——新物种:AI模型一体机呼之欲出,传统产业‘开箱即用’

  趋势05——新基建:智算中心护航AIGC运营,算力租赁模式成新解

  算力租赁模式可以有效降低大模型研发门槛,对于研发垂类行业的小模型企业来说,没有购买足够AI服务器的实力,公共算力基础平台将帮助中小型企业搭建其自身所需模型。企业无需购买服务器,通过浏览器便可访问算力中心,并使用算力服务。对于中小企业来讲,无需依赖云厂商所构建的大模型底座进行二次开发,而是通过租用公有算力平台的算力资源,研发垂类行业小模型。

  四、AIGC算力产业周期预测

  一个周期三个阶段:基建期、开发期,商业期

  1、AIGC基建期:2023年~2025年

  全球范围内,OpenAI的GPT初步实现智能涌现,其背后的算力支撑是英伟达高性能GPU。在追赶GPT的过程中,需要大模型企业在短时间内完成模型的训练过程。因此,在AIGC初期阶段,大模型研发企业不会考虑除英伟达之外的芯片作为训练阶段的芯片。

  在初期阶段,高性能GPU厂商将成为最大收益方;同时,AI服务器厂商是此阶段的强势供给方。目前,AI服务器领域已经出现供不应求的局面。

  2、AIGC开发期:2026年~2028年

  在中期阶段(5年内),推理芯片将成为主要需求方。相比于GPU的高算力高功耗以及对应的算力浪费,推理芯片更注重芯片的算效比,对于功耗和成本有更优的把控。

  此外,这个阶段也会是创新型芯片的机会。分析师预计存算一体芯片、类脑芯片、硅光芯片将有更多市场机会。

  中期阶段AIGC市场将呈现收敛趋势,从百花齐放到逐步淘汰,此阶段主要是模型层公司之间的淘汰战。在此阶段,AI服务器厂商的红利期逐渐见顶,智算中心与超算中心走向融合;芯片也从GPU转向NPU/ASIC/FPGA/CPU等多种形式并存。创新型芯片路线中,看好存算一体架构的发展。

  中期阶段,具备底层创新能力的芯片厂商有望成为最大获益方。

  3、AIGC商业期:2028年后

  后期阶段(10年内)将在应用端呈现出百花齐放的趋势;届时,AIGC应用将呈现出类app模式,出现各类细分领域的应用程序,通过模型层提供的API接口来发展各自的应用程序。此阶段,大众层面几乎不会感知到算力问题。

  后期阶段,算力租赁有望成为算力平台最具规模的盈利模式。

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

微博

HOT RECOMMEND

关于新浪VR | 论坛社区

Copyright © 1996-2015 SINA Corporation, All Rights Reserved 京ICP证000007  京网文【2017】10231-1157号

北京幻世新科网络科技有限公司 版权所有