据南华早报,一家中国初创公司DeepSeek 正在成为2025年开源大型语言模型(LLM)领域的“最大黑马”。就在几天前,该公司的最新版本发布在全球人工智能(AI)社区引起轰动。

这一评估来自英伟达高级研究科学家、人工智能代理计划负责人 Jim Fan 在元旦当天在社交媒体平台X上发布的一篇帖子。此前,这家总部位于杭州的初创公司上周发布了同名法学硕士学位课程 DeepSeek V3。

范写道:“(新的 AI 模型)表明,资源限制迫使你以惊人的方式重塑自我。”他指的是 DeepSeek 如何以其他科技公司投资打造法学硕士的资本支出的一小部分来开发该产品。

打开网易新闻 查看精彩图片

DeepSeek V3 拥有 6710 亿个参数,训练耗时约两个月,耗资 558 万美元,所使用的计算资源比Facebook母公司Meta Platforms和ChatGPT创建者OpenAI等大型科技公司开发的模型少得多。

LLM 指的是 ChatGPT 等生成式 AI服务的基础技术。在 AI 中,大量参数对于使 LLM 能够适应更复杂的数据模式并做出精确预测至关重要。开源让公众可以访问软件程序的源代码,允许第三方开发人员修改或共享其设计、修复损坏的链接或扩展其功能。

尽管美国的制裁在很大程度上阻止了中国人工智能公司获得用于训练模型的先进半导体,但 DeepSeek 以比大公司更低的成本开发出了强大的 LLM,这表明中国人工智能公司已经取得了长足的进步。

打开网易新闻 查看精彩图片

利用旨在实现高性价比训练的新架构,DeepSeek的V3模型仅需278万GPU小时(即图形处理单元用于训练LLM的总时间)。根据这家初创公司在12月26日发布的技术报告,DeepSeek的训练过程使用了英伟达中国定制的H800 GPU。

这一过程大大少于 Meta 在英伟达更先进的 H100 芯片上训练其 Llama 3.1 模型所需的 3,080 万 GPU 小时数,而英伟达的 H100 芯片是不允许出口到中国的。

“DeepSeek V3 看起来是一个更强大的模型,只需要 280 万个 GPU 小时,"计算机科学家 Andrej Karpathy(OpenAI 的创始团队成员)在 12 月 27 日的 X 帖子中说。

卡帕奇的观察促使樊尚当天在 X 上发文回应:"资源限制是一件美好的事情。在残酷的人工智能竞争环境中,生存本能是取得突破的主要驱动力。”

打开网易新闻 查看精彩图片

“我关注 DeepSeek 很长时间了。他们去年的开放编码模式是最好的之一,"樊纲写道。“卓越的OSS(开源软件)模式给商业化的前沿乐虎国际客户端下载公司带来了巨大压力,迫使它们加快步伐。”

云计算初创乐虎国际手机版下载人工智能公司创始人贾阳青在12月27日的一篇X帖子中呼应了樊纲的观点。“他曾担任《南华早报》所有者阿里巴巴集团控股公司的副总裁。

DeepSeek 没有立即回应置评请求。

据报道,这家初创公司是对冲基金经理 High Flyer Quant 于 2023 年分拆出来的。DeepSeek 的幕后推手是 High-Flyer Quant 创始人梁文峰,他曾在浙江大学攻读人工智能专业。

打开网易新闻 查看精彩图片

2023 年 5 月,梁文峰在接受中国网络媒体 36Kr 采访时说,在美国政府对中国实施 AI 芯片限制之前,High-Flyer Quant 已经购买了 1 万多块 GPU。这笔投资为 DeepSeek 作为 LLM 开发商运营奠定了基础。Liang说,DeepSeek还得到了High-Flyer Quant的资金支持。

DeepSeek 的大多数开发人员都是应届毕业生,或者是人工智能职业生涯的初期人员,这也是公司在招聘新员工时更看重能力而非经验的做法。