打开网易新闻 查看精彩图片

2 月 23 日,Anthropic突然发布一份报告,直接把矛头对准DeepSeek、月之暗面、MiniMax。

  • 核心指控只有一句话:你们用24000个账号,没日没夜地给Claude发消息(1600万次调用),专门获取 Claude 的推理能力数据。

打开网易新闻 查看精彩图片

在他们看来,这不是普通的API使用,而是“工业级蒸馏”。

简单说,不是简单问答案,而是刻意诱导 Claude 把完整的“思考过程”一步步写出来,然后把这些推理过程拿去训练自己的模型。

如果这事儿是真的,那性质就变了。这不再是简单的商业纠纷,而是蒸馏行为第一次被公开上升到安全层面。更微妙的是:报告发布当天,Anthropic的CEO正在五角大楼开会。

你看,【技术问题】瞬间就变成了【安全问题】。

AI也开始“盯防”AI了

  • Anthropic报告里提到:
  • (1)只要Anthropic发个新模型,MiniMax24小时内就能把一半的流量转过去“爬取信息”。
  • (2)月之暗面的一些请求元数据,是直接对应到了他们高级员工的社交账号指纹。
  • (3)DeepSeek虽然次数相对少:但专门让Claude解释推理过程,然后拿去喂自己的推理模型。

打开网易新闻 查看精彩图片

这些判断均来自其单方技术分析报告。这说明:国内有一些AI公司有专门的“爬虫团队”,美国这边发布会刚结束,那边的爬虫代码就已经写好了。

这意味着什么?美国的大模型公司,已经开始做“对手行为画像”。AI不只对话用户,AI也在分析AI。

硅谷真正害怕的,是“偷思路”

报告里最敏感的指控是:“思维链蒸馏”(Chain of Thought)。

  • 什么意思?由于中国公司拿不到顶级芯片,就让Claude把题都做一遍,然后把解题思路写出来,这相当于:不只抄作业。还把老师的草稿纸复印回家。

如果属实,这才是核心冲突。

为什么是现在?

这个时间点非常微妙,因为在报告发布当天,Anthropic的CEO正在五角大楼开会。时间点的重合,引发外界猜测。媒体也迅速把这件事从【技术争议】推向【安全议题】。

当“蒸馏”被纳入国家安全框架,规则就开始改变。未来API调用行为可能会更严的审查。

马斯克:你们也干净不到哪去

Anthropic的委屈: “我辛苦研发几年,你们花点 API 钱就把我内功吸干了,这不公平!”

结果马斯克在 X 上公开质疑:得了吧,你们自己也是靠抓全网数据训练模型的。

打开网易新闻 查看精彩图片

马斯克这话虽然糙,但理不糙。整个AI行业,起步阶段谁没在公开互联网上“扒拉”过数据?就在去年(2025年),Anthropic自己还因为抓取盗版书,赔了作家们好几亿美金呢。

下一步,会不会限制API?

如果你的模型不好用,人家犯得着花几百万美金去薅你吗?这反而从侧面印证了Anthropic的产品好用。就像卢松松以前做站长一样,最开始是 Ctrl+C和Ctrl+V,但想活得久,最后还得靠原创。

  • 你可以说我抄了作业,但你不能说我没交学费。毕竟那1600万次调用,这三家公司可都是花了钱充值的。

问题在于:中国公司受限算力,美国公司封锁芯片。所以从目前来看API跨境调用以后会被严格监控,国产模型会加速自研推理能力。

中国AI真的只会抄吗?

我看未必。

如果你的作业写得烂,谁会放着几万个账号去薅你羊毛? 这事儿反倒说明,Claude在逻辑推理上确实是目前的“天花板”。

  • 但现实也必须承认:蒸馏这事做不长久,当蒸馏被定性为安全问题,中美AI将进入各自为战的阶段了。

正在考验的时刻到来了:万一哪天美国的API彻底断供或者不稳定了,咱们的国产模型,能不能完全靠自己,稳稳地站住脚跟?

打开网易新闻 查看精彩图片

卢松松是一位自媒体人、短视频博主。也是创业者必看的账号,关注草根创业圈、科技互联网、自媒体和短视频行业。感谢您的关注!