人工智能芯片:高算力核心底座,核心环节梳理

发布时间:2023-05-09

当前人工智能爆发新一轮浪潮,海量参数产生大算力需求,OpenAI预估算力需求每3.5个月翻一倍,每年近10倍。AI大模型的算力水平显著供不应求,在大模型训练对数据总量的带动下,需要性能更高、功耗成本更低的算力芯片,高壁垒AI芯片显著受益。

随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用将加落地,推动AI芯片市场高速增长。2025年全球人工智能芯片市场规模将达到726亿美元。未来几年内,中国人工智能芯片市场规模将保持年均40%至50%的增长速度,到2024年,市场规模将达到785亿元。

同时,随着美国持续加大对中国高端芯片的出口限制,高速运算相关的芯片国产化进程必然加快。

01

AI芯片行业概览

AI服务器相较于高性能服务器、基础服务器在芯片组(CPU+GPU)的价格往往更高,AI服务器(训练)芯片组的成本占比高达83%、AI服务器(推理)芯片组占比为50%,远远高于通用服务器芯片组的占比。

AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、神经拟态芯片(NPU)等。

GPU是显卡的核心单元,是单指令、多数据处理器。其采用数量众多的计算单元和超长的流水线,在图形领域的加速方面具有技术优势。

FPGA集成了大量的基本门电路及存储器,利用门电路直接运算、速度较快。用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,从而调整到最佳运行效果。相较于GPU灵活度更高、功耗更低。

ASIC为特定目的、面向特定用户需求设计的定制芯片,具备体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,具备成本低的特点。

CPU、GPU、FPGA、TPU、ASIC对比(纵轴代表灵活性、横轴代表性能):

02

GPU:专用计算的刚需

GPU(GraphicsProcessingUnit,图形处理器):是英伟达公司在1999年8月发表NVIDIAGeForce256(GeForce256)绘图处理芯片时首先提出的概念。

是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像加速和通用计算工作的微处理器。

GPU的优点是性能高通用性好、缺点是功耗高,拥有硬件技术的核心壁垒,可同时用于GPT模型的训练和推理过程。

GPU可作为深度学习的训练平台,优势在于:

1、GPU服务器可直接加速计算服务,亦可直接与外界连接通信;

2、GPU服务器和云服务器搭配使用,云服务器为主,GPU服务器负责提供计算平台;

3、对象存储COS 可以为GPU服务器提供大数据量的云存储服务。

GPU行业的产业链主要涉及三个环节:设计、制造、封装。

全球范围竞争格局来看,GPU市场基本被海外巨头垄断,位居产业链各个环节核心,对全球GPU行业起着决定性的作用。

集成显卡方面,由于英特尔是全球最大的CPU厂商,而目前带GPU的CPU仍占主要GPU需求,因此市场主要由英特尔主导,其PC GPU出货量占全球PC GPU出货量的比例保持在60%-70%之间;AMD,英伟达紧随其后。

独立显卡方面,英伟达占据着绝对的市场领导地位,其市场份额常年在75%-80%之间,AMD则是独立显卡市场的第二大玩家,市占率约20%。

因此,尽管从全球范围来看GPU市场一直保持着较高增速,但真正的玩家只有英特尔,英伟达,AMD等少数海外巨头。

从国产替代方案来看,具有先发优势的头部厂商包括景嘉微、龙芯中科、海光信息、寒武纪、芯原股份等。该环节主要玩家还包括好利科技、壁仞科技、芯动科技、沐曦、摩尔线程等。

国内GPU市场格局及部分代表厂商:

03

GPGPU:门槛极高的领域

GPGPU服务器是目前AI加速服务器的最主流选择。

GPU的核心价值体现在图形图像渲染,而GPGPU的重点在于算力,虽然都是由GPU的架构演进而来,但所关注的重点有明显区别。

GPGPU架构设计时,去掉了GPU为了图形处理而设计的加速硬件单元,保留了GPU的SIMT架构和通用计算单元,使之更适合高性能并行计算,并能使用更高级别的编程语言,在性能、易用性和通用性上更加强大。

随着AI加速服务器需求的快速提升,GPGPU出货量有望迎来显著增长。

IDC预计2025年我国GPGPU芯片需求量将达到329.95万颗,出货量将实现显著增长。

GPGPU是一个门槛极高的领域。在中国市场上,根据IDC数据,2021年英伟达占据我国加速卡80%以上市场份额,处于市场领先地位。

国产企业中,海光信息、华为海思、寒武纪等都是国产协处理器研发的主要企业。中科曙光的GPGPU产品深算一号在2021年已经实现商业化应用,首年实现销售额2.39亿元,出货量1.24万片,成为最早实现商业化销售的国产GPGPU芯片之一。

04

FPGA

FPGA(现场可编程门阵列)芯片集成了大量的基本门电路以及存储器,灵活性介于CPU、GPU和ASIC之间,在硬件固定之前,允许使用者灵活使用软件进行编程。

在人工智能领域,FPGA 芯片可以作为加速卡加速人工智能算法的硬件级运算速度。

FPGA 芯片擅长将运算在空间维度并行展开,十分契合神经网络的运算需求,因此能够明显提升人工智能算法的计算速度,在面向人工智能领域的计算密集型任务时,FPGA芯片流水线并行和数据并行的特点也能很大程度提升系统的运算效率。

海外厂商主导全球FPGA市场,赛灵思和英特尔形成双头垄断,国内企业持续加大FPGA 芯片的布局,成长空间巨大。

国内主要厂商包括复旦微电、紫光国微和安路科技。

复旦微电和紫光国微在特种FPGA领域已经陆续突破2xnm及1xnm,下游国产化率持续提升。

复旦微电高可靠FPGA 技术领先,率先推出亿门级FPGA 和PSoC 芯片,应用领域不断丰富。

紫光同创(紫光国微持股30%)是国内特种集成电路行业领先者,产品覆盖500 多个品种,特种领域FPGA 持续更新。

安路科技是国内民用FPGA龙头。2021年发布了FPSoC系列产品SWIFT1,2022年用于FPSoC系列产品的软件工具FutureDynasty发布,建立了FPGA软硬件生态系统。

05

ASIC

ASIC(专用芯片)是一种为特定目的、面向特定用户需求设计的定制芯片,具备性能更强、体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。

随着机器学习、边缘计算的发展,大量数据处理任务,对计算效率、计算能耗等都提出了更高的要求,在此背景下,ASIC芯片开始受到重视。

ASIC主要应用于深度学习加速,目前市场上主流ASIC有TPU芯片、NPU芯片、VPU芯片以及BPU芯片。

国外谷歌、英特尔、英伟达等科技巨头相继发布了TPU、DPU等ASIC芯片,国内寒武纪、比特大陆、地平线等公司也都推出了深度神经网络加速的ASIC芯片。

其中表现最为突出的ASIC就是Google的TPU(张量处理芯片)。谷歌数据显示,TPU 平均比当时的GPU或CPU快15-30倍,能耗比高出约30-80倍。

但是ASIC一旦制造完成以后就不能后续修改,且研发周期较长、商业风险较大。一般只有大企业或背靠大企业的团队愿意投入到它的完整开发中。

KBVResearch报告数据显示,2019-2025年,全球ASIC芯片市场规模预计将达到247亿美元,在预测期内以8.2%的复合年增长率增长。

近年来,国内一些AI算法企业开始向下游延伸,针对自身算法特点自研或者联合开发芯片,行业呈现出百花齐放的状态。随着大模型AI对算力、存储需求加大,推动芯片设计和制造升级。叠加国际地缘形势紧张,AI芯片国产替代需求强烈。在各方因素的推动下,核心环节具有先发优势的厂商有望引领行业国产化发展加速。

来源:乐晴智库