智通财经APP获悉,信达证券发布研究报告称,ChatGPT的快速渗透侧面反映出大模型在通用任务上所展现的强大能力,也为人工智能产业未来的投资指引了方向。在AIGC驱动新一轮产业革命的趋势下,AI算力产业链上下游均有投资机会。建议关注:海光信息(688041.SH)、寒武纪-U(688256.SH)、龙芯中科(688047.SH)、澜起科技(688008.SH)、工业富联(601138.SH)、紫光国微(002049.SZ)、中芯国际(688981.SH)、华虹半导体(01347)、华大九天(301269.SZ)、概伦电子(688206.SH)等。
▍信达证券主要观点如下:
Transformer模型是参数量可以无限增长的通用模型,可以处理长序列的输入、输出。
Transformer模型是一种基于自注意力机制的深度学习模型,相较于传统AI模型如循环神经网络(RNN)和卷积神经网络(CNN),它在处理序列数据时具有更高的并行性和可扩展性。其中,自注意力机制使得模型能够捕捉序列中长距离依赖关系,同时避免了RNN中的梯度消失或爆炸问题。
Transformer模型的参数量之所以会随着数据量和任务复杂度无限增长,是因为它可以通过堆叠更多的层或增加隐藏层宽度来提高模型性能,从而适应更复杂的数据和任务;在传统CNN/RNN模型中,增加网络参数量会提高模型的拟合能力,但过多的参数容易导致过拟合现象。
因此,长期来看大模型领域或许会出现没有上限的“军备竞赛”。
训练:根据英伟达测算,在4096颗A100 GPU互联的情况下,训练10000亿参数的模型约需要3-4周时间,而在4096颗H100 GPU互联的情况下,时间约需要1周左右。
考虑到1周是研发阶段可承受的周期,因此该行认为,4000颗左右H100将是一个大型云计算企业每年支持30-50个5000亿参数模型项目训练所需要的芯片数量。考虑到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上升。
若以英伟达HGX H100-8计算集群为单位(1024 Nvidia H100 GPUs),总共需要4-8个计算集群,考虑到售价为4900万美金/集群,则单个支持GPT训练的云计算中心至少投入1.96-3.92亿美金用于服务器的购买 。
推理:相比训练,模型的部署是更大的市场。
该行认为,应用对于服务器的最大承载能力要求在于过峰,即满足PCU时刻的访问需求。
根据Statista,Steam 2021年月活用户约为1.32亿人左右,而Steam公布服务器最高访问人数截至2021年12月31日为2738万人,最高817万人同时在线进行游戏。因此合理推断一款被高强度访问的应用,最高在线人数约为月活用户的6.19%-20.74%。假设在国内8亿用户体量下,最高并发访问人数可高达4952万人-16592万人。
根据10 DGX H100服务器一秒内可支持300用户的并发访问,若响应时长延缓至5秒及以上,最高可支持1000人以上的并发访问。据此测算,国内由AI带动的服务器需求量约为5万台-16.6万台,芯片为50-166万颗。假设全球活跃用户体量为国内用户体量的3倍,则全球服务器需求量为15-50万台,芯片需求量为150-500万颗。
风险提示:
技术迭代不及预期;制裁风险;本文对服务器、芯片需求量等测算是基于一定前提假设,存在假设条件不成立、市场发展不及预期等因素导致测算结果偏差。