2025 年 3 月 21 日,美銀邀請了《我們的下一個現實》的聯合作者、HTC 公司全球企業發展副總裁阿爾文・王・格雷林(Alvin Wang Graylin)先生,共同探討如何為後通用人工智能(AGI)時代的現實做好準備。需要注意的是,本文中任何第三方發言人表達的觀點,並不代表美國銀行全球研究部的觀點。

四大技術同時融合

阿爾文・王・格雷林先生表示,我們正面臨技術不受控制的加速發展、國家和企業之間無節制的競爭,以及對貨幣化和利潤的過度追求,這使我們只注重短期利益。因此,我們必須做出正確決策,進行長遠思考。他提到,四項呈指數級增長的技術正在同時融合併走向成熟:第一,基因和數字生物技術,它將延長人類壽命;第二,人工智慧(AI),它將使我們的思維更強大、更智能;第三,機器人技術,它能做出物理反應,並在現實空間中承擔人類的角色;第四,擴展現實(XR)和元宇宙,它可以為我們創造一個新的虛擬宇宙,每個人都能擁有不同的數字世界。任何技術都並非完美無缺,總會存在一些弊端。

質疑假設

王(格雷林)先生認為,人們需要對所有假設提出質疑,他有以下這些假設:

XR 和元宇宙並未消亡,將從二維媒介向三維媒介發展;

擴展計算能力並非實現通用人工智能(AGI)的唯一條件;

AGI / 超人工智能(ASI)是可以實現的,且可能很快到來;

主權人工智能不會帶來積極的結果;

“人工智能接管” 並非人工智能最大的風險;

人工智慧 / 機器人很可能會取代我們的工作,但這未必是件壞事;

全球普遍基本收入(UBI)和央行數字貨幣(CBDC)是可行且必要的,否則我們的社會將陷入困境;

世界各國必須共同發展 AGI,並決定人工智能的發展方向,否則我們將面臨相互對抗的人工智能;

經濟並非零和博弈,在人工智能的影響下更是如此。

沉浸式技術的關鍵 ——3D 內容

王(格雷林)先生說,我們在三維空間中成長,但展望未來,他認為目前的多屏幕設備將被一副重量不足 100 克的眼鏡所取代,這種眼鏡目前已在市場上有售。他表示,虛擬現實(VR)未能迅速發展的原因在於缺乏內容。在新的模型內容協議下,一個 3D 物體可以通過文本創建,人們可以使用 World Labs 的生成式人工智能模型來實現這一點,並將其集成到遊戲或 VR 設備中。

更優算法帶來性能的指數級提升

王(格雷林)先生將智能定義為在動態環境中準確預測的能力。根據縮放定律,如果你構建更大的模型,擁有更多的計算能力和數據,模型就會變得更智能。在過去一年裡,出現了三條新的縮放定律:第一,更優的算法;第二,推理計算,讓模型有更多時間進行思考和推理;第三,蒸餾和量化,利用大型模型訓練小型模型 。

王(格雷林)先生補充說,在過去二十年裡,我們能夠提升計算機系統的智能,是因為我們有能力增加計算、數據和參數的規模。他說,現在訓練一個模型的成本高達十億美元,所以我們不能再繼續採用目前的擴展方式。他認為,下一波改進必須來自技術,因為如果在算法上採用更好的技術,就能帶來性能的指數級提升。蒸餾雖然不能讓模型變得更智能,但可以使其效率更高、體積更小、能耗更低。因此,為了提升到下一個層次,我們必須專注於獲取更多更好的數據,將智能轉化為智慧,同時研發更優的算法。他指出,目前仍有大量數據未被使用,這些數據存在於企業網絡、個人電腦、智慧型手機、多媒體、感應器、網路攝影機、衛星、汽車以及合成數據等之中。

王(格雷林)先生認為,所有模型都將實現商品化,無論採用哪種基準測試,其性能都將趨於相似。他表示,DeepSeek的訓練成本比 Claude、ChatGPT 4 和 5 以及 Grok 3 低得多,因為改進了算法,並且有更好的方法使用專家混合(MOE)技術。它對大型模型進行蒸餾,並採用開源模式,所以全世界的研究實驗室都在助力該模型變得更好。他說,Deepseek不是一個中國項目,而是美中政策共同作用的產物 —— 美國的政策迫使中國進行創新,而中國的優秀人才無法前往美國;同時,中國的政策也促使Deepseek的創始人減少對量化交易的關注。王(格雷林)先生還提到,在相關會議之後,Deepseek仍能向世界發布六篇新的研究論文。他認為這可能是中國向美國拋出的在人工智能領域合作的橄欖枝,因為Deepseek目前的利潤率為 84%,而 OpenAI 每月虧損約十億美元。他表示,運行這些模型的成本正在下降 —— 在過去一年半的時間裡,達到 ChatGPT 4 水平智能的成本下降了 1000 倍,所以人們不必擔心算力耗盡的問題。他強調,中國可能還有十多種其他人工智能模型,目前世界上最好的開源模型是中國研發的,並且它們向全世界公開了源代碼。

主權人工智能不太可能帶來積極結果

王(格雷林)先生表示,主權人工智能的理念是每個國家利用自己的語言和數據構建自己的模型,並將自己視為 “好人”,將其他國家視為 “壞人”。他指出這並非一個好主意,因為我們不希望超級人工智能係統引發國家間的衝突,也不希望它們瓜分資源(如圖形處理單元(GPU)和數據)。此外,大多數人在工作中並不需要超級人工智能,他們只需要一個小型的基礎模型。他還表示,對英偉達芯片的依賴將會消除,因為開源模型可以在其他公司的芯片上運行。

人工智能的積極和消極影響

王(格雷林)先生說,生成式人工智能只是人工智能發展的中間階段,下一階段將是智能體人工智能(agentic AI),它可以為你完成任務,之後則是通用人工智能 / 超人工智能(AGI/ASI),它能夠完成非常複雜的任務,並開始在勞動力和工作領域取代人類。人們認為,通用人工智能 / 超人工智能可能會在 2025 年至 2030 年之間出現。從積極的方面來看,通用人工智能可以:第一,增進人類對社會和所有人的理解;第二,提高社會生產力;第三,幫助解決能源限制和氣候問題;第四,找到治療當前健康問題和延緩衰老的方法;第五,帶來一個富足的時代。從消極的方面來看,人工智能可能:第一,取代工作崗位,進而造成社會不穩定和心理健康問題;第二,濫用、篡改和操縱人們的計算機系統,政府也可能將人工智能軍事化,使其成為一種武器。

王(格雷林)先生認為,人工智能的安全性與庫茲涅茨曲線較為相似 —— 在其發展不成熟時風險很高。最近的一篇研究論文表明,人工智能係統越先進,就越能明辨是非,能夠從連貫的價值體系中找到自身的效用驅動力,並且受他人的影響也越小。王(格雷林)先生說,人工智能和機器人很可能會取代我們的工作,無論是體力勞動還是腦力勞動都難以倖免。他提到,每個工人每年的平均工作時長已從工業革命時期的 3000 小時降至現在的 1500 - 2000 小時。他認為人工智能可以提高我們的生產力,幫助減少工作時長。他說,未來時間將成為最稀缺的資源,我們將回歸到一個更加平等的世界。王(格雷林)先生認為,人工智能真正的危險並非來自國家。就像核武器一樣,各國在使用人工智能相關能力對付其他國家時必須謹慎,但極端組織等不法行為者更有可能毫不猶豫地濫用人工智能。

相互確保發展與降低人工智能風險

王(格雷林)先生表示,“相互確保摧毀”(MAD)理論在冷戰期間幫助我們避免了核武器的使用,他建議 “相互確保發展”(MAD 2.0)能夠讓各方共同合作,實現共贏。他認為,前谷歌首席執行官埃里克・施密特(Eric Schmidt)共同撰寫的《超級智能戰略報告》中提出的破壞競爭對手人工智能項目的策略是個糟糕的想法,不僅無效且成本高昂,而合作才能為每個人創造更美好的未來。

在降低人工智能風險的行動方面,王(格雷林)先生建議:第一,向公眾普及人工智能的風險和益處;第二,成立一個專注於人工智能安全的國際監管機構;第三,針對安全風險建立檢測和應對措施;第四,對失業人員進行再培訓,並籌備全球普遍基本收入(UBI);第五,加速開放元宇宙基礎設施的部署,這樣可以為人們提供心理健康支持,或許還能創造一種二次就業模式;第六,將民用和國家安全研究分開,以便推進民用領域的應用;第七,全球共同努力,以實現具有全球效益的安全的通用人工智能 / 超人工智能。王(格雷林)先生列舉了過去幾十年的幾個全球合作項目,並認為各國應該繼續攜手解決問題,共同尋找解決方案。

問答環節

問:人工智慧領域的全球合作至關重要,但目前我們似乎正朝著相反的方向發展。您對此有何看法?華盛頓方面對此有何相關表態?答:王(格雷林)表示,由德米斯・哈薩比斯(Demis Hassabis,谷歌旗下 DeepMind 聯合創始人兼首席執行官)和約書亞・本吉奧(Yoshua Bengio,人工智慧 “教父” )牽頭,有一个由人工智慧实验室和研究人员组成的联盟,他们希望打造一个人工智慧领域的 “歐洲核子研究組織(CERN)” 。中國的實驗室和歐盟支持這一想法,但美國卻不支持。王(格雷林)認為,美國需要時間來認識到,在邁向富足世界的進程中,集權並尋求對其他國家的主導並非長久之計。

問:在政府和企業將數據 “隔離” 的情況下,我們尚未也無法利用所有數據。如何解决这一問题?

答:王(格雷林)稱deepseek已開放了其整個模型,企業可以將模型下載到自己的網絡中,使用自己的數據對模型進行訓練和微調,並將模型應用於自身業務,而無需向外界分享數據。

問:在deepseek取得突破後,您如何看待 OpenAI 未來的競爭格局?

答:王(格雷林)認為,面對deepseek的競爭,OpenAI 面臨巨大壓力。有新聞報導稱,OpenAI 已請求美國政府對deepseek實施更多限制。王(格雷林)表示,OpenAI 的資本支出高昂,因此它應該借鑒deepseek的創新成果來降低成本,但 OpenAI 可能認為如果大家都能这么做,自己就沒有優勢了。這就是為什麼該公司聯合特朗普以及軟銀和甲骨文的領導人,大力宣揚 5000 億美元的人工智能使用 “星門” 計劃。不過,王(格雷林)認為,鑑於聯合創始人的離開,OpenAI 的發展狀況並不樂觀。

問:埃森哲的研究顯示,90% 的人工智能項目本質上是企業在全球範圍內考慮如何裁員。在我們應對勞動力結構調整(如留住員工和進行再培訓)的過程中,這一過程會持續多久,會產生多大的影響?

答:王(格雷林)認為,未來 10 年 90% 的腦力勞動者崗位將被取代,再培訓可能無濟於事。他建議在人們失去現有職業時,確保有普遍基本收入(UBI),以便他們能為社會做出其他形式的貢獻。當越來越多的人離開辦公室和工廠的工作崗位,就會有更多人可以照顧老人、小孩,維護環境安全和健康,屆時這些社會效益應被納入國內生產總值(GDP)的考量。這將是一種重新分配社會資源的方式,而無需創造新的就業機會。