FOREXBNB獲悉,財通證券發布研報稱,Scaling Law作為實驗科學的產物,目前面臨數據資源枯竭的挑戰,Transformer架構也未能完全表達人腦的思考機制。該行認為,對Scaling Law需要樹立正確的認知,它存在自然衰減,LLM能力的期望存在較高方差,以及大規模跨學科的工程化嘗試需要時間。在對新範式的不斷探索下,Scaling Law正向後訓練、推理階段轉移,該行稱,DeepSeek-R1-Zero在技術路線上實現了突破性創新,也指出了LLM Scaling Law的關鍵方向之一,即高質量數據集與強大的基座模型。投資方面,建議關注AI基座相關環節:CPU/GPU與服務器、IDC廠商、AI服務器液冷和電源。
財通證券主要觀點如下:
Scaling Law:實驗科學的產物。Scaling Law指的是大語言模型(LLM)的最終性能主要與計算量、模型參數量和訓練數據量的規模相關,而與模型的具體結構(如層數、深度或寬度)基本無關。隨著模型規模、數據量和計算資源的增加,模型的性能會相應提升,並且這種提升呈冪律關係。Scaling Law是實驗科學的產物。2022年11月,ChatGPT的亮相震驚了業界,標誌著大模型的重大突破,Scaling Law並成為進一步擴展模型規模的核心指導思想。業界普遍認為,只要能夠提供更大規模的參數、更多的數據和更強大的計算能力,模型的能力將持續提升,最終可能接近或實現通用人工智能(AGI)。
Scaling Law面臨的挑戰:高質量數據和算法創新。當前的數據資源正面臨枯竭的挑戰,Transformer架構也未能完全表達人腦的思考機制。當前AI的局限性不僅在於數據不足,還在於其學習效率的低下。真正的智能不僅僅是數據量的堆積,更在於對信息的壓縮和提煉,類似於通過總結第一性原理的方式獲取更深層次的智能。
Scaling Law的新範式探索,向後訓練、推理階段轉移:當前業界所經歷的“放緩”是LLM Scaling Law中一個預期的部分。該行認為,對Scaling Law需要樹立正確的認知,它存在自然衰減,LLM能力的期望存在較高方差,以及大規模跨學科的工程化嘗試需要時間。在對新范式的不断探索下,Scaling Law向後訓練、推理階段轉移,研究發現強化學習(RL)與測試時間(Test time)也存在Scaling Law。
DeepSeek-R1-Zero在技術路線上實現了突破性創新,成為首個完全摒棄監督微調環節、完全依賴強化學習訓練的大語言模型,證明了無監督或弱監督學習方法在提升模型推理能力方面的巨大潛力。李飛飛團隊以低於50美元的訓練成本開發出的高性能AI推理模型s1-32B和上海交大團隊提出的LIMO等研究不僅揭示了高效能、低成本開發路徑的可能性,同時也指出了LLM Scaling Law的關鍵方向之一,即高質量數據集與強大的基座模型。在這一框架下,研究的重點從單純追求更大規模的數據和計算資源轉向優化數據質量和挖掘現有模型的潛在能力。
What will we scale next?任何新範式最終都會達到瓶頸或邊際放緩,因此,當前的方向應當是在瓶頸到來之前,窮盡現有的Scaling方向,同時尋找新的Scaling Law環節。借用Cameron R. Wolfe, PhD的一句話,“Whether scaling will continue is not a question. The true question is what we will scale next”。
投資建議:
建議關注AI基座環節:
CPU/GPU與服務器:海光信息(688041.SH)、協創數據(300857.SZ)、寒武紀(688256.SH)、浪潮信息(000977.SZ)、中科曙光(603019.SH)、神州數碼(000034.SZ)、紫光股份(000938.SZ)等。
IDC廠商:萬國數據(09698)、數據港(603881.SH)、奧飛數據(300738.SZ)、潤澤科技(300442.SZ)等。
AI服務器液冷和電源環節:液冷關注英維克(002837.SZ)、高瀾股份(300499.SZ)、申菱環境(301018.SZ)等;電源關注歐陸通(300870.SZ)、麥格米特(002851.SZ)、中國長城(000066.SZ)等。
風險提示:技術迭代不及預期的風險;商業化落地不及預期的風險;政策支持不及預期風險;全球宏觀經濟風險。