根据FOREXBNB的报道,有消息人士披露,OpenAI的联合创始人Ilya Sutskever正在为其新创公司Safe Superintelligence募集超过10亿美元的资金,预计这轮融资后公司估值将超过300亿美元,这将使得Safe Superintelligence成为全球最有价值的私营科技公司之一,尽管公司成立至今仅8个月。

消息人士进一步指出,位于旧金山的著名风险投资公司Greenoaks Capital Partners正在主导对Safe Superintelligence的投资,计划投资额高达5亿美元。值得注意的是,Greenoaks也是人工智能行业领先企业Scale AI和Databricks Inc.的重要投资者,这为Safe Superintelligence的未来增添了更多期待。

据悉,这次融资将显著提升Sutskever公司的估值,从之前的50亿美元大幅增加。然而,需要注意的是,融资谈判仍在进行中,相关细节仍有可能变化。

此前,Safe Superintelligence已经从包括红杉资本和Andreessen Horowitz在内的多家知名投资机构成功筹集资金。对于这次融资,Greenoaks拒绝发表评论,而Sutskever的代表也未能立即回应评论请求。

Sutskever,这位曾在OpenAI担任首席科学家并在技术开发中扮演关键角色的研究人员,于今年5月离开了OpenAI。一个月后,他与曾在苹果公司从事人工智能工作的风险投资家Daniel Gross以及前OpenAI研究员Daniel Levy共同创立了Safe Superintelligence(简称SSI)。

SSI致力于开发安全的人工智能系统,尽管公司目前尚未产生收入,且短期内没有销售人工智能产品的计划,但其愿景清晰坚定。

值得一提的是,在协助Altman回归之前,Sutskever是2023年推动OpenAI首席执行官Sam Altman下台的关键人物。他领导的SSI能否在人工智能领域再创佳绩,值得业界持续关注。

Safe Superintelligence:安全超级智能的黎明

据了解,Safe Superintelligence 的目标是构建一个安全且强大的人工智能系统,这一目标将在一个纯粹的科研机构内实现,该机构短期内没有销售人工智能产品或服务的计划。换句话说,他希望在不受OpenAI、谷歌、Anthropic等竞争对手的干扰下,继续推进自己的工作。

“Safe Superintelligence的独特之处在于,它的首要且唯一任务就是打造安全超级智能,”Sutskever在一次关于其计划的独家访谈中透露,“它将完全不受外界压力影响,无需分心于复杂的产品线,更不必卷入激烈的市场竞争。”

实际上,该公司的名称已经明确传达了Sutskever的核心理念——将人工智能安全放在首位。然而,定义人工智能系统的安全性,或者说真正的人工智能安全是什么,仍然是业界需要解决的关键问题。尽管Sutskever尚未给出明确答案,但他确实表示,新公司将尝试通过工程上的突破性进展,从根本上确保人工智能系统的安全,而不是仅仅依赖于事后添加的防护措施。“我们所说的安全,是指类似于核安全级别的安全,而不是‘信任与安全’这样的宽泛概念,”他强调。

Sutskever的联合创始人包括投资者兼前苹果公司AI部门负责人Daniel Gross,以及OpenAI时期的同事Daniel Levy。Gross因投资包括由著名程序员约翰·卡马克创立的Keen Technologies在内的多家知名AI初创公司而闻名。Levy则在OpenAI期间与Sutskever共同训练大型AI模型,积累了丰富经验。“我认为现在是启动这样一个项目的最佳时机,”Levy表示,“我与Sutskever有着相同的愿景:一支精简而专注的小团队,共同致力于实现安全的超级智能。”Safe Superintelligence将在加利福尼亚州帕洛阿尔托和以色列特拉维夫设立办事处,这与其两位联合创始人Sutskever和Gross的以色列背景相契合。

鉴于Sutskever在人工智能领域的传奇地位,围绕其未来走向的不确定性数月来一直是硅谷的热门话题。从大学研究员到谷歌科学家,再到OpenAI的早期参与者,Sutskever在推动多项人工智能关键进展中发挥了核心作用。他倡导OpenAI构建更大规模的模型,这一战略不仅助力OpenAI超越谷歌,更为ChatGPT的崛起奠定了坚实基础。

自去年年底OpenAI的内部纷争以来,外界对Sutskever计划的关注度持续攀升。尽管他依然不愿透露过多细节,但当被问及与OpenAI现任CEO Altman的关系时,Sutskever仅表示“关系良好”,并透露Altman对新企业“有所了解”。谈及近几个月的经历,他坦言:“这很奇特,很奇怪。我不知道还能给出更贴切的形容。”

Safe Superintelligence在某种程度上是对OpenAI初创理念的回归,即作为一个研究机构,致力于开发在多项任务上能与人类匹敌甚至超越人类的人工智能。然而,随着筹集巨额资金以支持计算能力成为迫切需求,OpenAI的结构也随之改变,与微软建立了紧密的合作关系,并推动创收产品的开发。这一难题同样困扰着所有主要的人工智能参与者,随着模型规模持续指数级增长,他们不得不为日益增长的计算需求买单。

这些经济现实使得Safe Superintelligence对投资者而言成为一场豪赌,他们押注Sutskever及其团队能取得突破性进展,在与拥有更大团队和明显领先优势的竞争对手的竞争中脱颖而出。投资者们将投入资金,但不期望在此过程中创造出盈利的热门产品。至于Safe Superintelligence能否实现这一目标,目前尚不明朗。该公司使用的人工智能行业术语所描述的系统,与大多数大型科技公司追求的人类级人工智能截然不同。业界对于这种智能是否可行,以及公司将如何构建这种智能,尚未达成共识。

尽管如此,鉴于其创始团队的强大实力和对该领域的深厚兴趣,Safe Superintelligence筹集资金的过程可能不会遇到太大阻碍。“在我们面临的所有挑战中,筹集资金绝非其中之一,”Gross表示。

几十年来,研究人员和知识分子一直在探讨如何提升人工智能系统的安全性,但相关的深度工程实践却远远滞后。当前最先进的技术依赖于人类与人工智能的协作,以引导软件朝着符合人类最佳利益的方向发展。如何防止人工智能系统失控,在很大程度上仍是一个悬而未决的哲学议题。

Sutskever表示,他花了数年时间思考安全问题,并在脑海中构思了一些解决方案。然而,关于安全超级智能的具体细节,他尚未展开讨论。“从最基本的角度来看,安全超级智能应具备不会大规模伤害人类的特性,”Sutskever指出,“在此基础上,我们期望它能成为一股向善的力量,基于一些核心价值观运作。我们考虑的一些价值观可能源于过去几百年来支撑自由民主的理念,如自由、民主、独立。”

Sutskever强调,当前主导人工智能领域的大型语言模型将在安全超级智能中扮演重要角色,但其目标是构建更为强大、功能更为广泛的系统。“目前的系统,你与之交谈,完成对话,任务即告结束。”他说道,“而我们追求的是更加通用、功能更为广泛的系统。想象一下,一个能够自主开发技术的巨型超级数据中心。这听起来很疯狂,对吧?我们希望能为它的安全性做出贡献。”