FOREXBNB获悉,财通证券发布研报称,Scaling Law作为实验科学的产物,目前面临数据资源枯竭的挑战,Transformer架构也未能完全表达人脑的思考机制。该行认为,对Scaling Law需要树立正确的认知,它存在自然衰减,LLM能力的期望存在较高方差,以及大规模跨学科的工程化尝试需要时间。在对新范式的不断探索下,Scaling Law正向后训练、推理阶段转移,该行称,DeepSeek-R1-Zero在技术路线上实现了突破性创新,也指出了LLM Scaling Law的关键方向之一,即高质量数据集与强大的基座模型。投资方面,建议关注AI基座相关环节:CPU/GPU与服务器、IDC厂商、AI服务器液冷和电源。

财通证券主要观点如下:

Scaling Law:实验科学的产物。Scaling Law指的是大语言模型(LLM)的最终性能主要与计算量、模型参数量和训练数据量的规模相关,而与模型的具体结构(如层数、深度或宽度)基本无关。随着模型规模、数据量和计算资源的增加,模型的性能会相应提升,并且这种提升呈幂律关系。Scaling Law是实验科学的产物。2022年11月,ChatGPT的亮相震惊了业界,标志着大模型的重大突破,Scaling Law并成为进一步扩展模型规模的核心指导思想。业界普遍认为,只要能够提供更大规模的参数、更多的数据和更强大的计算能力,模型的能力将持续提升,最终可能接近或实现通用人工智能(AGI)。

Scaling Law面临的挑战:高质量数据和算法创新。当前的数据资源正面临枯竭的挑战,Transformer架构也未能完全表达人脑的思考机制。当前AI的局限性不仅在于数据不足,还在于其学习效率的低下。真正的智能不仅仅是数据量的堆积,更在于对信息的压缩和提炼,类似于通过总结第一性原理的方式获取更深层次的智能。

Scaling Law的新范式探索,向后训练、推理阶段转移:当前业界所经历的“放缓”是LLM Scaling Law中一个预期的部分。该行认为,对Scaling Law需要树立正确的认知,它存在自然衰减,LLM能力的期望存在较高方差,以及大规模跨学科的工程化尝试需要时间。在对新范式的不断探索下,Scaling Law向后训练、推理阶段转移,研究发现强化学习(RL)与测试时间(Test time)也存在Scaling Law。

DeepSeek-R1-Zero在技术路线上实现了突破性创新,成为首个完全摒弃监督微调环节、完全依赖强化学习训练的大语言模型,证明了无监督或弱监督学习方法在提升模型推理能力方面的巨大潜力。李飞飞团队以低于50美元的训练成本开发出的高性能AI推理模型s1-32B和上海交大团队提出的LIMO等研究不仅揭示了高效能、低成本开发路径的可能性,同时也指出了LLM Scaling Law的关键方向之一,即高质量数据集与强大的基座模型。在这一框架下,研究的重点从单纯追求更大规模的数据和计算资源转向优化数据质量和挖掘现有模型的潜在能力。

What will we scale next?任何新范式最终都会达到瓶颈或边际放缓,因此,当前的方向应当是在瓶颈到来之前,穷尽现有的Scaling方向,同时寻找新的Scaling Law环节。借用Cameron R. Wolfe, PhD的一句话,“Whether scaling will continue is not a question. The true question is what we will scale next”。

投资建议:

建议关注AI基座环节:

CPU/GPU与服务器:海光信息(688041.SH)、协创数据(300857.SZ)、寒武纪(688256.SH)、浪潮信息(000977.SZ)、中科曙光(603019.SH)、神州数码(000034.SZ)、紫光股份(000938.SZ)等。

IDC厂商:万国数据(09698)、数据港(603881.SH)、奥飞数据(300738.SZ)、润泽科技(300442.SZ)等。

AI服务器液冷和电源环节:液冷关注英维克(002837.SZ)、高澜股份(300499.SZ)、申菱环境(301018.SZ)等;电源关注欧陆通(300870.SZ)、麦格米特(002851.SZ)、中国长城(000066.SZ)等。

风险提示:技术迭代不及预期的风险;商业化落地不及预期的风险;政策支持不及预期风险;全球宏观经济风险。