Scaling law 持续有效,大模型的迭代有望持续带来大量算力需求,英伟达业绩再创新高,占全球 AI 芯片市场九成。近年来,生成式 AI 需求快速增长,推动 AI 芯片市场规模迅速扩大。据 Gartner 预测,2025 年全球 AI 芯片收入总额有望达到 919.55亿美元。作为人工智能领域的领导者,英伟达(NVIDIA)在全球人工智能芯片市场的市占率达到了九成。FY25Q1,英伟达业绩继续超预期,营收、净利润创新高。英伟达在大模型的开发训练方面有着深厚积累,使得其在这波 AI 浪潮中成为“卖铲子”的龙头企业。公司数据中心业务持续增长,FY25Q1,英伟达数据中心业务实现营收 226 亿美元,同比增长 427%,数据中心业务占到所有业务收入的 87%。
英伟达在训练算力领域的绝对优势,得益于其硬件的持续迭代和其 CUDA 生态的持续完善。面向模型开发者,英伟达能够提供以 AI 芯片、网络为基础的性能卓越的硬件,以及 CUDA 为主的完善的软件生态。多年来,英伟达 AI 芯片不断迭代,且算力呈指数增长,在八年间算力增长了 1000 倍。英伟达的加速计算平台性能突出,生态环境优异。自 2006 年面世以来,CUDA 持续更新迭代新版本,功能持续优化,性能持续提升,相较于 ROCm 等生态也更加成熟稳定,成为英伟达最大的护城河之一。
推理占比逐步提升,AI 应用有望迎来爆发。据英伟达 2024 财年 Q4 的电话会披露,公司全年的数据中心收入里已经有 40%来自推理业务,未来推理端算力需求将占据主导地位。类比移动互联网时代,AI 应用还需要一定时间探索产品形态,2B 应用会是最先突破的方向。随着 AI 推理成本下降和模型性能提升,根据云计算市场的发展经验,我们认为最接近最终客户的应用层肯定是价值最大的环节。长期看,AI应用的市场规模广阔。
英伟达发布 NIM 微服务,加速 AI 企业端部署。 NIM 的全称为 Nvidia Inference Microservice,即英伟达推理微服务,是 Nvidia AI Enterprise 的一部分,可以帮助客户快速部署产品级 AI 大模型应用。NIM 实际上是一种容器化的部署工具,包含了行业标准 API、特定领域的代码、优化的推理引擎以及对于自定义模型的支持。相比于直接开发部署,NIM 的部署时间大幅缩短。目前已有数百家生态系统合作伙伴嵌入了 NIM。除了基础的 AI 模型都和 NIM 进行了适配加速外,一些行业巨头企业也已经开始使用 NIM 来加强自身的生成式 AI 应用,涉及制造业、医疗、金融服务、零售、客户服务等领域。
NIM 的推出为英伟达在企业软件服务领域的发展再次加码。英伟达通过将 AI 领域的开发和部署软件微服务化,加速企业的生成式 AI 应用开发与部署。NIM 是数据驱动的推理核心,NVAIE 则包含了整个 AI 开发全链条工具,如 RAG、数据清洗、抗压测试等。通过提前针对模型、CUDA 等做好优化,让企业用户无需深入了解技术,也能做出满足企业需求的 AI 应用,让用户的注意力更加聚焦于如何用 AI 去解决业务场景中的问题,而不是去担心硬件和模型。
我们认为,从今年开始 AI 在企业端的应用有望加速落地,类似 NIM 这样的软件平台推出有望进一步推动 AI 应用发展,英伟达相关的合作方有望受益,建议关注亚康股份、神州数码、浪潮信息等。
目 录
一、AI 算力需求高涨,英伟达业绩持续高增 ..........4
二、英伟达软硬件积累深厚,支持各类大模型开发 .......... 6
三、英伟达加速从硬件“卖铲人”转向企业服务 .......... 11
3.1 推理占比逐步提升,AI 应用有望迎来爆发 .......... 11
3.2 英伟达推 NVAIE 和 NIM 微服务,加速 AI 在企业端部署 .......... 14
投资建议与投资标的 .......... 20
风险提示 .......... 20

因篇幅限制,仅展示部分,更多重要内容、核心观点,请下载报告。