根據FOREXBNB的報導,有消息人士披露,OpenAI的聯合創始人Ilya Sutskever正在為其新創公司Safe Superintelligence募集超過10億美元的資金,預計這輪融資後公司估值將超過300億美元,這將使得Safe Superintelligence成為全球最有價值的私營科技公司之一,儘管公司成立至今僅8個月。
消息人士進一步指出,位於舊金山的著名風險投資公司Greenoaks Capital Partners正在主導對Safe Superintelligence的投資,計劃投資額高達5億美元。值得注意的是,Greenoaks也是人工智能行業領先企業Scale AI和Databricks Inc.的重要投資者,這為Safe Superintelligence的未來增添了更多期待。
據悉,这次融资将显著提升Sutskever公司的估值,從之前的50億美元大幅增加。然而,需要注意的是,融資談判仍在進行中,相關細節仍有可能變化。
此前,Safe Superintelligence已經從包括紅杉資本和Andreessen Horowitz在內的多家知名投資機構成功籌集資金。對於這次融資,Greenoaks拒絕發表評論,而Sutskever的代表也未能立即回應評論請求。
Sutskever,這位曾在OpenAI擔任首席科學家並在技術開發中扮演關鍵角色的研究人員,於今年5月離開了OpenAI。一個月後,他與曾在蘋果公司從事人工智能工作的風險投資家Daniel Gross以及前OpenAI研究員Daniel Levy共同創立了Safe Superintelligence(簡稱SSI)。
SSI致力於開發安全的人工智能係統,儘管公司目前尚未產生收入,且短期內沒有銷售人工智能產品的計劃,但其願景清晰堅定。
值得一提的是,在協助Altman回歸之前,Sutskever是2023年推動OpenAI首席執行官Sam Altman下台的關鍵人物。他領導的SSI能否在人工智能領域再創佳績,值得業界持續關注。
Safe Superintelligence:安全超級智能的黎明
據了解,Safe Superintelligence 的目標是構建一個安全且強大的人工智能係統,這一目標將在一個純粹的科研機構內實現,該機構短期內沒有銷售人工智能產品或服務的計劃。換句話說,他希望在不受OpenAI、Google、Anthropic等競爭對手的干擾下,繼續推進自己的工作。
“Safe Superintelligence的獨特之處在於,它的首要且唯一任務就是打造安全超級智能,”Sutskever在一次關於其計劃的獨家訪談中透露,“它將完全不受外界壓力影響,無需分心於復雜的產品線,更不必捲入激烈的市場競爭。”
實際上,該公司的名稱已經明確傳達了Sutskever的核心理念——將人工智能安全放在首位。然而,定義人工智能係統的安全性,或者說真正的人工智能安全是什麼,仍然是業界需要解決的關鍵問題。儘管Sutskever尚未給出明確答案,但他確實表示,新公司將嘗試通過工程上的突破性進展,從根本上確保人工智能係統的安全,而不是僅僅依賴於事後添加的防護措施。“我們所說的安全,是指類似於核安全級別的安全,而不是‘信任與安全’這樣的寬泛概念,”他強調。
Sutskever的聯合創始人包括投資者兼前蘋果公司AI部門負責人Daniel Gross,以及OpenAI時期的同事Daniel Levy。Gross因投資包括由著名程序員約翰·卡馬克創立的Keen Technologies在內的多家知名AI初創公司而聞名。Levy則在OpenAI期間與Sutskever共同訓練大型AI模型,積累了豐富經驗。“我認為現在是啟動這樣一個項目的最佳時機,”Levy表示,“我與Sutskever有著相同的願景:一支精簡而專注的小團隊,共同致力於實現安全的超級智能。”Safe Superintelligence將在加利福尼亞州帕洛阿爾托和以色列特拉維夫設立辦事處,這與其兩位聯合創始人Sutskever和Gross的以色列背景相契合。
鑑於Sutskever在人工智能領域的傳奇地位,圍繞其未來走向的不確定性數月來一直是矽谷的熱門話題。從大學研究員到谷歌科學家,再到OpenAI的早期參與者,Sutskever在推動多項人工智能關鍵進展中發揮了核心作用。他倡導OpenAI構建更大規模的模型,這一戰略不僅助力OpenAI超越谷歌,更為ChatGPT的崛起奠定了堅實基礎。
自去年年底OpenAI的內部紛爭以來,外界對Sutskever計劃的關注度持續攀升。儘管他依然不願透露過多細節,但當被問及與OpenAI現任CEO Altman的關係時,Sutskever僅表示“關係良好”,並透露Altman對新企業“有所了解”。談及近幾個月的經歷,他坦言:“這很奇特,很奇怪。我不知道還能給出更貼切的形容。”
Safe Superintelligence在某種程度上是對OpenAI初創理念的回歸,即作為一個研究機構,致力於開發在多項任務上能與人類匹敵甚至超越人類的人工智能。然而,隨著籌集巨額資金以支持計算能力成為迫切需求,OpenAI的結構也隨之改變,與微軟建立了緊密的合作關係,並推動創收產品的開發。這一難題同樣困擾著所有主要的人工智能參與者,隨著模型規模持續指數級增長,他們不得不為日益增長的計算需求買單。
這些經濟現實使得Safe Superintelligence對投資者而言成為一場豪賭,他們押注Sutskever及其團隊能取得突破性進展,在與擁有更大團隊和明顯領先優勢的競爭對手的競爭中脫穎而出。投資者們將投入資金,但不期望在此過程中創造出盈利的熱門產品。至於Safe Superintelligence能否實現這一目標,目前尚不明朗。該公司使用的人工智能行業術語所描述的系統,與大多數大型科技公司追求的人類級人工智能截然不同。業界對於這種智能是否可行,以及公司將如何構建這種智能,尚未達成共識。
儘管如此,鑑於其創始團隊的強大實力和對該領域的深厚興趣,Safe Superintelligence籌集資金的過程可能不會遇到太大阻礙。“在我們面臨的所有挑戰中,籌集資金絕非其中之一,”Gross表示。
幾十年來,研究人員和知識分子一直在探討如何提升人工智能係統的安全性,但相關的深度工程實踐卻遠遠滯後。當前最先進的技術依賴於人類與人工智能的協作,以引導軟件朝著符合人類最佳利益的方向發展。如何防止人工智能係統失控,在很大程度上仍是一個懸而未決的哲學議題。
Sutskever表示,他花了數年時間思考安全問題,並在腦海中構思了一些解決方案。然而,關於安全超級智能的具體細節,他尚未展開討論。“從最基本的角度來看,安全超級智能應具備不會大規模傷害人類的特性,”Sutskever指出,“在此基礎上,我們期望它能成為一股向善的力量,基於一些核心價值觀運作。我們考慮的一些價值觀可能源於過去幾百年來支撐自由民主的理念,如自由、民主、獨立。”
Sutskever強調,當前主導人工智能領域的大型語言模型將在安全超級智能中扮演重要角色,但其目標是構建更為強大、功能更為廣泛的系統。“目前的系統,你與之交談,完成對話,任務即告結束。”他說道,“而我們追求的是更加通用、功能更為廣泛的系統。想像一下,一個能夠自主開發技術的巨型超級數據中心。這聽起來很瘋狂,對吧?我們希望能為它的安全性做出貢獻。”