最近,开源的大型语言模型DeepSeek R1的流行引起了行业内外的广泛关注。摩根士丹利指出,该模型以显著低于GPT的成本实现了相似的性能,可能会对中国的数据中心和软件产业产生重大影响。
1月27日,摩根士丹利的分析师Yang.Liu、Tom.Tang、Lydia.Lin在一份报告中提到,DeepSeek R1的问世激发了人们对于是否需要使用大规模高端GPU集群来训练大型语言模型(LLM)的讨论。作为一个开源项目,其训练成本仅为GPT的1/30,却能实现与GPT相媲美的性能。
摩根士丹利认为,对于中国的数据中心来说,DeepSeek R1可能产生以下影响:
短期内,如果大型科技公司开始采纳类似DeepSeek的技术路径,可能会减少AI模型训练的需求,特别是在边远地区的数据中心。
但从长期来看,低成本模型可能会促进推理需求的增长,这对一线城市的数据中心需求是有利的。
另一方面,对于中国的软件行业,摩根士丹利认为DeepSeek R1可能带来选择性的小幅正面影响。因为AI模型成本的降低可能会降低应用程序运行AI功能的门槛,从供给侧改善行业环境。然而,这并不直接意味着更好的变现能力,软件行业最大的挑战仍然在需求端。
摩根士丹利认为,最终的影响将取决于具体的软件产品及其下游市场。
本文来源于“华尔街见闻”,作者:黄雯雯;FOREXBNB编辑:李佛。