我们认为从Intelligence Per Token到Inlligence Per Task的模型变化是重要方向。
1)训练阶段,大模型训练预计继续遵循“Scaling Law”。云、创业公司、主权AI将继续大量采购算力并建设数据中心,追求继续提升Intelligence Per Token,预计全球训练集群将持续扩容,在训练集群超过10万片GPU后,对数据中心的建造、部署、供电、互联构成新挑战。计算密度、互联密度、功率散热密度与存储密度将有望快速提升。
2)推理阶段,我们认为树状搜索/自博弈等方式有望快速提升Intelligence Per Token,我们看好在计算阶段GPU与CPU的高速互联。以及在应用阶段,我们认为模型新架构带来的规划能力逐步提高;数学、代码与通用能力也将逐步提升。
我们建议关注标的:NVDA MSFT GOOG AMD ARM CFLT ESTC
风险提示:行业竞争加剧;AI发展与需求不及预期;产品交付不及预期

因篇幅限制,仅展示部分,更多重要内容、核心观点,请下载报告。