全球大模型与算力悄然迭代中本周海外市场特别是科技行业显示出明显的反弹迹象,以巨头英伟达为例,其股价已显著回升,超过 3 万亿市值,自低点以来涨幅超过 20%。
这一现象反映出市场对英伟达因 B 卡延迟事件所受负面影响的担忧正在减少。此外,光模块行业受到 B 卡延迟事件的影响较小,其根本原因在于供需缺口较大,光模块的交付相对紧张,特别是上游光芯片的持续紧缺,导致供应链难以快速匹配采购节奏,叠加光模块可以提前采购或囤货以应对需求的释放,因此光模块行业整体受 B 卡延迟影响有限。
从宏观角度来看,AI 发展前景乐观。近期降息和一些重要经济数据(如CPIPPI非农数据等)的发布成为市场关注的焦点,目前市场对美国经济实现“软着陆”的信心较强,各 CSP 巨头积极落地算力投资,AI 领域的长期发展前景仍然保持乐观态度。
从中观角度来看,垂类大模型迎来新一轮算力需求。海外 AI 算力市场发展节奏依旧快速,垂类应用大模型正在悄然迎来迭代,从 LLMs 的“微调”加速跃迁至“预训练”,对算力的需求再上新高度:预训练与微调:预训练(Pre-training)是指在一个大型的数据集上训练一个模型,通常不针对特定的下游任务,适用于建立一个强大的语言模型基础用于如文本生成、翻译、问答等,预训练在大规模数据集上进行,通常需要大量的计算资源,数据量通常在数百 GB 甚至TB 级别,模型的参数量往往非常庞大(如数亿至数千亿参数)。
微调(Fine-tuning)是在预训练模型的基础上,针对特定的下游任务进行额外的训练,适用于需要高精度处理特定任务或特定领域的场景,如医学文本分析、法律文书处理、客户服务对话等,相比预训练,微调的计算需求相对较低。
垂类大模型的微调困境:理论与现实的差距较大,垂类行业的专业性和门槛较高-理论上垂类大模型仅需在开源模型的基础上进行微调,但实际应用效果欠佳,主要还是因为领域知识具备较高的复杂性(垂类领域独特的术语和概念在通用模型的预训练数据中并不常见)、数据质量与覆盖度(微调数据集不够全面或质量不高)、任务复杂性(如医药或金融行业,不仅需要广泛的知识,还涉及到复杂的推理、逻辑以及高精度的预测能力,通用大模型难以具备)等。
前期处于算力资源考量,率先尝试微调,忽略效果-预训练需要消耗大量的算力资源和时间,成本通常较高,因此很多团队会优先尝试微调,实际应用后如果微调后发现模型性能未能达到业务需求,团队会投入更多资源进行预训练。
定制化需求无法满足-部分垂类行业需要高度定制化的模型,在通用模型基础上的微调无法实现。

因篇幅限制,仅展示部分,更多重要内容、核心观点,请下载报告。