OpenAI的GPT系列身后,国产大模型正紧追不舍。
1月20日,DeepSeek正式发布DeepSeek-R1,并同步开源模型权重。据介绍,DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI o1正式版。
根据其公布的测试数据,DeepSeek-R1在美国AIME 2024、MATH-500和SWE-bench Verified测试中的比分均高于OpenAI o1(小K注:前两个测试专注于数学能力,SWE-bench Verified旨在评估AI模型解决现实世界软件问题的能力)。
同一天,Kimi全新SOTA模型——k1.5多模态思考模型上线。在long-CoT模式下,Kimi k1.5的数学、代码、多模态推理能力,也达到长思考SOTA模型OpenAI o1正式版的水平。官方表示,这应该是全球范围内,OpenAI之外的公司首次实现o1正式版的多模态推理性能。Kimi技术团队第一次准备了详细的技术报告。
在short-CoT模式下,Kimi k1.5的数学、代码、视觉多模态和通用能力,大幅超越了全球范围内短思考SOTA模型GPT-4o和Claude 3.5 Sonnet的水平,领先达到550%。
其他国产大模型同样表现出色,1月15日,MiniMax发布全新开源模型系列Minimax-01,在多个标准和内部基准测试中,Minimax-01的性能与GPT-4o、Claude3.5-Sonnet等顶尖模型相当,尤其在长上下文处理方面表现突出。
OpenAI分别在2024年5月、9月和12月发布了GPT-4o、GPT-o1(包括o1-preview和o1-mini,o1正式版推迟到2024年12月发布)和GPT-o3,目前最强大的模型是o3,具备出色的推理能力、科学知识掌握更优秀、编码能力更强。
o1紧随其后,擅长编码、数学和写作,其多模态功能支持图片上传,允许它将推理应用于视觉,以获得更详细、更有用的回复。
以DeepSeek为代表的国产大模型团队力图在性能上比肩最先进的大模型,定价则展示了极致性价比。
DeepSeek-R1 API服务定价为每百万输入tokens 1元(缓存命中)/4元(缓存未命中);每百万输出tokens 16元。
与之对比,GPT-o1模型每百万输入tokens 15美元(约合人民币110元);每百万输出tokens 60美元(约合人民币438元)。OpenAI目前最便宜的模型是GPT-4o mini,其定价为每百万输入Tokens 10美元(约合人民币73元);每百万输出tokens 20美元(约合人民币146元)。
国产大模型呼唤国产算力
国内外大模型厂商你追我赶,短时间内迅速迭代,意味着大模型厂商对算力的需求仍在继续增加。
火山引擎智能算法负责人吴迪此前曾表示,字节跳动综合考虑算力资源储备、市场未来用量、模型成本下降等因素判断,2027年豆包每天Token消耗量会超过100万亿,将是现在的100倍以上。
1月20日消息称,据芜湖市生态环境局官网,字节跳动(抖音集团)旗下芜湖江东名邑科技有限公司拟在安徽芜湖建设火山引擎长三角算力中心项目,项目环境影响评价文件近日获受理,并正在实施批前公示。该项目总投资80亿元,设计服务器机柜数为21824台,网络机柜236台,一座220kV变电站。
此前有消息称,小米正在搭建自己的GPU万卡集群,并对AI大模型进行大规模投资。
东莞证券此前表示,未来,随着字节、幻方、小米等国内厂商积极布局AI领域,国产大模型有望快速崛起,推动国产算力需求增长,促进国产算力基础设施建设,我国国产算力产业链有望迎来发展机遇。
上海证券也发布研报称,以字节为代表的国产大模型崛起,以及小米等玩家的入局,有望拉动国内互联网大厂在算力端的支出,国内算力军备竞赛刚刚开始,国产算力厂商迎来发展机遇。
东方证券表示,算力建设持续性至关重要,在此背景下,服务器及液冷厂商、PCB厂商等有望受益。此外,数据存力和运力需求的持续攀升,为存储、光模块和光芯片等企业创造了更多的市场机会,促使整个产业链不断优化升级,以满足日益增长的AI算力需求。
本文转载自“财联社”,FOREXBNB编辑:刘璇。