FOREXBNB獲悉,韓國大型財團之一的SK集團董事長崔泰源在周一接受採訪時表示,英偉達執行長黃仁勳先前要求SK集團旗下記憶體晶片製造巨頭SK海力士(SK Hynix)提前六個月推出其下一代高頻寬儲存產品HBM4。SK海力士10月在財報中曾表示,計劃在2025年下半年向大客戶(市場猜測為英偉達以及AMD)提供HBM儲存系統。SK海力士發言人周一表示,這一時間表確實比最初的目標要快,但沒有進一步進行闡述。

黃仁勳親自要求SK海力士加速下一代HBM——HBM4儲存系統的交貨速度,凸顯對英偉達對於開發愈發先進的人工智慧GPU系統的更高容量、更節能HBM儲存系統的無比強勁需求,以及更加凸顯出OpenAI、Anthropic、微軟、亞馬遜以及Meta等人工智慧、雲端運算以及網路大廠們對於AI訓練/推理算力幾乎無止境的“井噴式需求”,迫使英偉達(NVDA.US)核心晶片代工廠台積電(TSM.US)加班加點擴大Blackwell AI GPU產能,以及紛紛要求英偉達以更快速度推出性能更高、儲存容量更龐大、推理效率更強大且更節能的下一代AI GPU的研發進程。

英偉達計劃於2026年推出新一代AI GPU架構——Rubin,預計Rubin AI GPU將搭載HBM4儲存系統。據不完全統計,英偉達目前在全球資料中心AI晶片市場佔據80%-90%堪稱壟斷的市佔率,預計AMD佔比接近10%,其他份額則為谷歌TPU、亞馬遜自研ASIC等大廠自研AI晶片。

作為英偉達H100/H200以及近期批量生產的Blackwell AI GPU的核心HBM儲存系統供應商,SK海力士一直在引領全球記憶體晶片產能競賽,以滿足英偉達、AMD以及Google等大客戶們滿足對HBM儲存系統的爆炸性需求以及其他企業對於資料中心SSD等企業級儲存產品的需求,這些儲存級的晶片產品對於處理大量資料以訓練出愈發強大的人工智慧大模型以及需求劇增的雲端AI推理算力而言堪稱核心硬件。

但SK海力士也面臨來自三星電子以及美國儲存巨頭美光(MU.US)日益激烈的競爭壓力。三星上週在財報中表示,在與一家主要客戶(可能是英偉達)達成供應協議方面取得了積極進展,此前該公司長期遭遇產品測試延誤並且在上一次測試中未能通過英偉達資質測試。三星補充表示,該公司正在與主要客戶進行談判,有可能明年上半年批量生產“改進後”的HBM3E產品。三星也計劃在明年下半年生產下一代HBM——HBM4儲存,以跟上競爭對手SK海力士的步伐。

在美國,美國本土儲存巨擘美光乃另一獲得英偉達供應資質的HBM供應商,另一家為SK海力士。在今年2月,美光已經開始量產專為人工智慧和高效能運算所設計的HBM3E儲存系統,並表示英偉達一部分H200以及Blackwell AI GPU將搭載美光HBM3E。隨後,美光CEO也多次表示,美光今明兩年的HBM產能已銷售一空。美光也表示,正在加速推進下一代的HBM4和HBM4e研發進程。

在與崔泰源接受訪問幾乎同一時間,SK海力士執行長郭魯正在首爾舉行的2024年SK人工智慧高峰會上表示,該公司計劃在今年底前向一位大客戶(市場猜測為英偉達)提供最新的12層HBM3E,並計劃在明年初運送更先進的16層HBM3E儲存樣品。而這位執行長在採訪中也透露,英偉達AI GPU供應仍難以滿足需求,并且英偉達多次要求SK海力士加快HBM3E供應規模。

HBM需求炸裂,堪稱“印鈔機”

英偉達創辦人兼CEO黃仁勳在前不久的訪談中曾透露,Blackwell架構AI GPU已全面投產,且需求非常“瘋狂”;同時,隨著AI GPU需求爆表,HBM儲存系統需求也隨之激增,並且未來幾年可能持續供不應求。

據了解,來自天風國際的知名科技產業鏈分析師郭明錤最新發布英偉達Blackwell GB200晶片的產業鏈訂單訊息,指出微軟目前是全球最大的GB200客戶,Q4訂單激增3-4倍,訂單量超過其他所有的雲端服務商總和。

郭明錤在最新報告中表示,Blackwell AI GPU的產能擴張預計在今年第四季初啟動,屆時第四季的出貨量將在15萬到20萬塊之間,預計2025年第一季度出货量将显著增长200%到250%,達到50萬到55萬塊。這意味著,英偉達可能只要幾季就能實現百萬台AI伺服器系統的銷售目標。

根據華爾街金融巨頭花旗集團的最新預測數據,到2025年,美國四家最大規模科技巨頭的資料中心相關資本支出預計將年增至少40%,這些龐大的資本支出基本上都與生成式人工智慧掛鉤,意味著ChatGPT等AI應用的算力需求仍龐大。花旗集團表示,这意味著巨头们对于数据中心的支出规模有望在本已强劲的2024支出規模之上繼續大舉擴張,該機構預計這一趨勢將為AI GPU當之無愧的霸主英偉達以及資料中心互連(DCI)技術提供商股價持續帶來非常重磅的正面催化劑。

HBM儲存系統與AI晶片霸主英偉達所提供的核心硬體——H100/H200/GB200 AI GPU以及廣泛的AI ASIC晶片(例如穀歌TPU)配合搭載使用,HBM與英偉達AI GPU共同組合成所謂的“NVIDIA AI GPU伺服器”。HBM以及AI GPU對於驅動ChatGPT以及Sora等重磅人工智慧應用可謂必不可少,AI GPU需求越強勁,則說明HBM儲存需求愈發猛烈。

HBM是一種高頻寬、低能耗的儲存技術,專門用於高效能運算和圖形處理領域。HBM透過3D堆疊儲存技術,將堆疊的多個DRAM晶片全面連接在一起,透過微细的Through-Silicon Vias(TSVs)進行資料傳輸,從而實現高速高頻寬的資料傳輸。HBM透過3D堆疊技術,將多個記憶體晶片堆疊在一起,不僅大幅減少了儲存體系空間佔比,也大幅降低了資料傳輸的能耗,高带宽则能够显著提升数据传输效率,使得AI大模型能夠24小時不間斷地更有效率地運行。

尤其是HBM儲存系統具有無可比擬的低延遲特性,能夠快速回應資料存取請求。GPT-4等生成式AI大模型通常需要頻繁存取大數據集以及進行無比繁重的大模型推理工作負載,強大的低延遲特性能夠大幅提高AI系統的整體效率和反應速度。在AI基礎設施領域,HBM儲存系統全面捆綁英偉達H100 /H200 AI GPU以及AMD MI300X等AI GPU,以及正在批量生產的英偉達B200和GB200 AI GPU,以及AMD MI325X等。

華爾街大行高盛發布研報稱,由於企業無比強勁的生成式人工智慧(Gen AI)需求推動了更高的AI服務器出貨量和每個AI GPU中更高的HBM密度,該機構大幅提高了HBM總市場規模預估,現在預計市場規模將從2023年到2026年間以複合年增速100%大幅成長,預計到2026年增長至300億美元。高盛預計,HBM市場供不應求的情況未來幾年將持續,SK海力士、三星和美光等主要玩家將持續受益。