AI行业巨变:从“大力出奇迹”到“推理模型”和“Agent”的新时代
华尔街投行巴克莱的最新研报预测,AI行业正在经历一场颠覆性的“巨变”,其中“推理模型”和“Agent”将成为新时代的主导力量,而传统的大型AI模型可能很快将过气。这场变革的核心在于AI模型的进化,从“死记硬背”到“举一反三”,不再单纯追求模型的大小和参数数量,而是更加注重模型的推理能力和效率。
推理模型的崛起
巴克莱指出,AI行业正在发生重大转变,包括从传统的大语言模型(LLM)转向新型推理模型,从聊天机器人转向Agent,从预训练转向测试时计算(test-time-compute),从通用训练芯片转向定制推理芯片,以及从集中式超大规模集群转向更小、更靠近边缘的计算集群。这种转变意味着AI模型将不再一味追求“大”,而是更注重“巧”,通过引入“推理”能力,模型可以在处理任务时进行多步思考、反复验证,从而得到更准确的结果。
“链式思考”(Chain-of-Thought,CoT)模式让AI模型更像一个“专家”,而不是一个“书呆子”。这种模式还实现了成本与收益的更好匹配:任务越复杂,需要的算力越多,反之亦然。巴克莱提到,像OpenAI的o1、o3模型,以及DeepSeek的R1模型,已经在实践中证明了推理模型的强大潜力,它们不仅在多个基准测试中超越了传统大模型,而且训练成本更低、推理效率更高。
Agent的崛起与AI应用新范式
除了推理模型,巴克莱还强调了Agent在AI应用层面的重要性。Agent可以被理解为一种更智能、更自主的AI应用,它不仅能回答问题,还能执行任务、完成交易。巴克莱预测,随着推理模型和Agent技术的成熟,AI的应用将迎来爆发式增长。ChatGPT用户数在短短两个月内增加了1亿,就是最好的证明。
这场AI巨变对整个行业的“钱”景产生了深远影响。巴克莱提出了两种可能的情景:一是Chinchilla缩放定律继续有效,模型规模持续扩大;二是预训练缩放停滞,行业转向推理模型和测试时计算。在第二种情景下,巴克莱预测,到2028年,AI行业的总计算需求仍将高达1万亿美元,但远低于Chinchilla缩放定律持续有效的情况。更重要的是,推理成本将大幅下降,科技巨头们不再需要为训练超大模型而“烧钱”,而是可以将更多资源投入到推理模型的优化和应用上。
情景 | 模型规模 | 参数数量 | 训练数据量 | 到2028年的预测 |
---|---|---|---|---|
Chinchilla缩放定律继续有效 | 持续扩大 | 65万亿 | 325万亿个token | 总计算需求可能更高 |
预训练缩放停滞 | GPT-5级别后不再增长 | - | - | 总计算需求1万亿美元 |
尽管预训练缩放可能停滞,但巴克莱认为,AI行业的算力需求仍然巨大。即使在“停滞”情景下,到2028年,全球仍将面临2500亿exaFLOPS的推理算力缺口。这意味着,对推理芯片的需求将持续增长。巴克莱预计,到2028年,推理计算将占整个AI行业的50%以上。
巴克莱还关注到了开源AI的快速发展。像Llama和DeepSeek这样的开源模型,正在吸引越来越多的开发者和用户。然而,巴克莱认为,开源AI在短期内还不足以对整个行业产生重大影响,原因在于,微调或精简开源模型的成本相对较低,远不及训练一个像GPT-4.5或Claude 4这样的大模型。
对于投资者来说,这场AI巨变意味着投资逻辑的巨变:押注“效率”而非“规模”。那些能够以更低成本、更高效率提供AI服务的公司,将在未来的竞争中占据优势。