通信行业专题报告:应用端百花齐放,硬件侧本固枝荣

ChatGPT 引入插件 Plugin,开启 AI 生态。

ChatGPT 引入插件 Plugin,开启 AI 生态。在 ChatGPT 联网前,用户仅能查询到 2021 年 9 月之前的消息,但随着 OpenAI 开放网络浏览器和代码解释器,用户不仅能够查询到最新新闻。从这一点看,我们认为 ChatGPT 未来最大的进步在于从“有监督式”学习转向“无监督式学习”。在联网前,ChatGPT都是从已有固话训练集中获取学习素材,需要认为调整训练参数才能提升学习精度;联网后,ChatGPT能够根据实时更新数据素材进行“自我迭代”,搜索精准度、理解准确度都将迎来新的提升。

算力仍是重中之重,带动产业链成长。我们认为 ChatGPT 体现了当前 AI训练速度、训练精度的提升,背后的根本逻辑在于庞大训练数据集的支撑,而对于硬件层面来说,计算与传输是保证 ChatGPT 平稳运行的核心。根据贝壳财经咨询,北京时间 2 月 9 日,由于训练量超负荷,ChatGPT 官网无法登录,页面显示“超负荷”,侧面印证了当前的网络资源/计算能力无法保证未来大量涌入的算力需求。ChatGPT 的总算力消耗约为 3640PF-days,从摩尔定律角度看,以 ChatGPT 为代表的 AI 发展速度呈指数级上涨,约每隔 3~4 个月翻倍(摩尔定律翻倍周期约 18 个月)。

从 ChatGPT 所需要 GPU 数量测算,未来所需要高功率机柜近 7.5 万个。根据钛媒体,GPT 3.5 完全训练需要 A100 芯片近 3 万颗,对应英伟达 DGX A100 服务器近 3750 台。考虑到英伟达 DGX A100 服务器单台最大功率为6.5kw,假设平均功率为 4kw/台,则 10kw 功率机柜可搭载 2.5 台 AI 服务器。为满足 3750 台 AI 服务器,需要建设机柜 1500 个,假设算力需求扩至 50 倍,共需要高功率机柜约 7.5 万个。

AI 大趋势下,数据中心耗电成为“阿喀琉斯之踵”。数据中心制冷主要采取风冷+液冷,液冷有望成为大数据中心主流方案。根据 IDC圈,液冷的冷却能力较风冷而言高 1000~3000 倍,且液冷对环境要求更低,适应性更强。根据Dell 'Oro 统计预测,2022 年-2027 年数据中心基础设施(DCPI)收入 CAGR有望保持 8%,超 350 亿美元。且随着英特尔、英伟达、AMD 等处理器与加速器性能的提升,数据中心机架功率密度会再度提升。

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第1张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第2张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第3张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第4张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第5张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第6张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第7张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第8张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第9张图片

通信行业专题报告:应用端百花齐放,硬件侧本固枝荣-第10张图片

附件
【零帕4261】通信行业专题报告:应用端百花齐放,硬件侧本固枝荣.pdf
application/pdf
2.17MB
30
下载文件
附件购买(促销中)
促销价:2.4 积分原价:3 积分

登录注册购买。 VIP权益 | 不支持浏览器清单

免责声明:本文来自民生证券,著作权归作者所有,如有侵权请联系本平台处理。商业转载请联系作者获得授权,非商业转载请注明出处。内容投诉
零帕网 » 通信行业专题报告:应用端百花齐放,硬件侧本固枝荣
您需要 登录账户 后才能发表评论

发表评论

欢迎 访客 发表评论