AI服务器行业报告:大模型算力需求驱动AI服务器行业高景气

AI服务器行业报告:大模型算力需求驱动AI服务器行业高景气插图

核心观点

1、算力场景向Al升级,CPU+GPU是核心

服务器随着场景需求经历通用服务器-云服务器-边缘服务器-Al服务器四种模式,Al服务器采用GPU增强其并行计算能力;

Al服务器按应用场景可分为训练和推理,训练对芯片算力的要求更高,根据IDC,随着大模型的应用,2025年推理算力需求占比有望提升至60.8%;

Al服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);

Al服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练型服务器其80%以上的成本来源于CPU和GPU。

2、ChatGPT等大模型训练和推理需求激增驱动Al服务器市场高速增长

据ARK Invest预测,Chat GPT-4参数量最高达15000亿个,由于参数量与算力需求间存在正比关系,所以可推算GPT-4算力需求最高达到31271 PFlop/s-day。随着国内外厂商加速布局干亿级参数量的大模型,训练需求有望进一步增长,叠加大模型落地应用带动推理需求高速增长,共同驱动算力革命并助推Al服务器市场及出货量高速增长。

3、国产芯片推理接近国际一流水平,国产Al服务器有望受到下游需求拉动

美国对中国禁售英伟达高性能芯片A100和H100,英伟达特供中国的削弱互联带宽的版本A800或为当前可替代方案;

以海光信息、壁侧科技等为代表的国产GPU部分单卡指标接近英伟达,在推理场景中具有一定竞争力;

国产Al服务器厂商全球份额超35%,浪潮信息位列榜首;国产AI服务器厂商各具优势,有望受到下游需求拉动。

4、建议关注

浪潮信息、中科曙光、拓维信息、工业富联、神州数码、紫光股份。

风险提示

1、国外制裁范围扩大的风险;

2、国内厂商发展不及预期的风险;

3、下游市场需求不及预期的风险;

4、版权、伦理和监管风险等。

 

资源下载地址

该资源需登录后下载

去登录
温馨提示:本资源来源于互联网,仅供参考学习使用。若该资源侵犯了您的权益,请 联系我们 处理。