券商观点|通信行业深度报告:应用端百花齐放,硬件侧本固枝荣

2023-04-11 14:16:07 来源: 同花顺iNews

  4月11日,民生证券发布一篇通信行业的研究报告,报告指出,应用端百花齐放,硬件侧本固枝荣。

  报告具体内容如下:

  ChatGPT引入插件Plugin,开启AI生态。在ChatGPT联网前,用户仅能查询到2021年9月之前的消息,但随着OpenAI开放网络浏览器和代码解释器,用户不仅能够查询到最新新闻。从这一点看,我们认为ChatGPT未来最大的进步在于从“有监督式”学习转向“无监督式学习”。在联网前,ChatGPT都是从已有固话训练集中获取学习素材,需要认为调整训练参数才能提升学习精度;联网后,ChatGPT能够根据实时更新数据素材进行“自我迭代”,搜索精准度、理解准确度都将迎来新的提升。

  算力仍是重中之重,带动产业链成长。我们认为ChatGPT体现了当前AI训练速度、训练精度的提升,背后的根本逻辑在于庞大训练数据集的支撑,而对于硬件层面来说,计算与传输是保证ChatGPT平稳运行的核心。根据贝壳财经咨询,北京时间2月9日,由于训练量超负荷,ChatGPT官网无法登录,页面显示“超负荷”,侧面印证了当前的网络资源/计算能力无法保证未来大量涌入的算力需求。ChatGPT的总算力消耗约为3640PF-days,从摩尔定律角度看,以ChatGPT为代表的AI发展速度呈指数级上涨,约每隔3~4个月翻倍(摩尔定律翻倍周期约18个月)。

  从ChatGPT所需要GPU数量测算,未来所需要高功率机柜近7.5万个。根据钛媒体,GPT3.5完全训练需要A100芯片近3万颗,对应英伟达DGXA100服务器近3750台。考虑到英伟达DGXA100服务器单台最大功率为6.5kw,假设平均功率为4kw/台,则10kw功率机柜可搭载2.5台AI服务器。为满足3750台AI服务器,需要建设机柜1500个,假设算力需求扩至50倍,共需要高功率机柜约7.5万个。

  AI大趋势下,数据中心耗电成为“阿喀琉斯之踵”。数据中心制冷主要采取风冷+液冷,液冷有望成为大数据中心主流方案。根据IDC圈,液冷的冷却能力较风冷而言高1000~3000倍,且液冷对环境要求更低,适应性更强。根据Dell'Oro统计预测,2022年-2027年数据中心基础设施(DCPI)收入CAGR有望保持8%,超350亿美元。且随着英特尔、英伟达、AMD等处理器与加速器性能的提升,数据中心机架功率密度会再度提升。

  投资建议:AI模型及相关应用带动算力增长,建议关注第三方头部IDC运营厂商奥飞数据300738)、数据港603881)、宝信软件600845)(计算机组覆盖)、光环新网300383)、润泽科技300442)(计算机组覆盖);同时我们认为随着未来高密度数据中心兴起,叠加ESG要求,IDC储能温控环境有望核心受益,建议关注科华数据002335)、申菱环境301018)、英维克002837)、依米康300249)。

  风险提示:市场竞争加剧,技术更新风险,电价波动风险。

  声明:本文引用第三方机构发布报告信息源,并不保证数据的实时性、准确性和完整性,数据仅供参考,据此交易,风险自担。

关注同花顺财经(ths518),获取更多机会

0

+1
  • 正丹股份
  • 南京化纤
  • 新研股份
  • 上工申贝
  • 北化股份
  • 国联证券
  • 南京聚隆
  • 川发龙蟒
  • 代码|股票名称 最新 涨跌幅