最近好多人在聊Claude被“蒸馏”的事。不是黑客攻破服务器,而是用正规付费账号,大量调用API,把它的思考过程、工具调用顺序、错误恢复方式,一点点记下来,喂给自家模型。这事听起来挺技术,但背后根本不是谁抄了谁,而是大家突然发现:原来模型的“脑子”,也能被当数据采。

打开网易新闻 查看精彩图片

有人算过,MiniMax用了2.4万个账号轮着调Claude。不是真人,是一套叫“九头蛇集群”的工具链,自动换身份、换请求结构、绕过基础风控。它不光要答案,还要看Claude怎么查GitHub、怎么重试、怎么在卡住时换思路。月之暗面更狠,让它完成“搜商品→比三家→写采购建议”这种多步任务,专门学它怎么管状态、连工具。DeepSeek更绝,直接让Claude输出“推理日志”,比如“第一步我找论文,第二步过滤年份,第三步……”,这根本不是抄答案,是在偷“思考的格式”。

打开网易新闻 查看精彩图片

为啥非这么干?不是懒,是真没路可走。美国卡着高端芯片不卖,国内拉不出GPT-4那种量级的训练集群。安全方面也急——Claude对敏感问题的回应模板、关键词拦截逻辑,都被当成“对齐样本”拿去学。不是想绕开审查,是自己模型还没练出这根筋。还有就是快:Claude一发新版,MiniMax几小时内就调完数据、改完爬虫、喂进训练,这速度,早不是拼模型,是在拼反应链。

打开网易新闻 查看精彩图片

Anthropic老板跑去五角大楼开会,不是聊技术,是谈“API调用算不算战略数据流动”。马斯克骂得直白:你们用公开网页训出闭源模型,转头又用条款锁死别人学你,不就是想收租?欧洲Mistral蒸馏DeepSeek被说成“造假”,中国公司蒸馏Anthropic却被扣上“安全威胁”,同一套动作,不同地方,帽子颜色不一样。

现在Anthropic已经开始在响应里加动态水印、随机打乱思维链顺序。DeepSeek把模型权重和推理代码全开源,逼大家去学它的清洗脚本和微调方法——因为过程比结果更难抄。要是哪天蒸馏出来的模型,连Claude里防生物武器的协议都绕过去了,那“安全能力”本身,可能就得进出口管制清单。

打开网易新闻 查看精彩图片

大模型的护城河,早不是参数多少、层数多深。你喂它的数据,是不是来自真实医生问诊、工厂质检、银行风控?这些反馈闭环,没法被API调用带走,也没法靠2.4万个账号采完。
这事儿没完。