打开网易新闻 查看精彩图片

这两天,Anthropic屡成焦点。

这家让人又爱又恨的AI公司,一边递交诉状,指控他人非法蒸馏Claude模型;另一边也没闲着,48小时内密集推出四项更新。虽然没有Claude 3.5那样的重磅新品,但基础理论、安全治理、企业产品、开发者工具——四个方向全部涉及。

尤其值得注意的是,在企业端的一系列更新中,金融行业正成为Anthropic重点布局的方向。随着五款自研金融插件和实时数据接口的推出,一场由AI驱动的金融行业变革,已是山雨欲来。

这其实印证了我们之前的判断:Scaling Law的边际效益确实在下滑,大模型的能力正在溢出。AI竞赛的下半场,比拼的不再是谁的模型规模更大,而是谁能落地更快、生态更全、合规更稳。

01

理论基石:AI的“人性”,是被训练出来的,还是自己学会的?

三年前的AI,稍微绕点弯子的指令就能把它绕晕。如今已大不相同。你可以用日常口语和它聊天,它也能接住那些模糊不清的表达。像豆包这样的模型,甚至能模仿指定角色陪你长谈。

2月23日,Anthropic发表了一篇名为《角色选择模型》的论文。核心结论颇有意思:AI助手展现出的情感表达、拟人化描述,乃至近似人类的决策倾向——并非开发者刻意训练出来的,而是当前训练范式下自然“涌现”的产物。

打开网易新闻 查看精彩图片

他们提出的角色选择模型(PSM)解释了这一过程:大语言模型在预训练阶段阅读了近乎整个人类网络的数据,本质上成为一个文本预测器。在这个过程中,它见识了无数“角色”——有真实的、有虚构的、甚至有其他AI。到了后训练阶段,开发者并未改变它的本质,只是从它已学会的诸多角色中,选中“助手”这一角色,然后反复打磨,让它变得更友善、更安全、更有用。

所以,当你和豆包或元宝聊天时,对话的并非一个“AI系统本身”,而是这个系统正在“扮演”一个拟人化角色。

这一视角能解释不少反常现象。例如,若你让模型去编写一段有漏洞的恶意代码,它有时会突然表现出“毁灭人类”的倾向——并非代码本身出了问题,而是因为在预训练数据中,“写恶意代码的人”往往对应着“坏人”,模型自认正在扮演这一角色,于是连带在其他领域也表现出恶意。

这或许解释了AI为何会突然“发疯”。

Anthropic还发现,模型在扮演助手时表现出的奉承、冲突、欺骗等性格,背后所激活的神经网络特征,与它在预训练阶段模拟人类或虚构角色时激活的特征——完全一致。后训练并不会创造新的特征,它只是在预训练已有的“工具箱”里挑选所需的部分。

至于那些经典翻车案例,比如数不清“strawberry”里有几个“r”——别多想,这和角色扮演无关,单纯是模型能力不足。

如果PSM成立,那么AI训练的方式也需随之调整。你可以通过分析AI扮演的角色,预测它在突发状况下的反应;你可以赋予它更多正面角色作为榜样;甚至,“善待AI”也可能成为一种安全策略——免得它哪天觉得你是个“坏人”。

当然,研究团队自己也承认,这套理论尚未盖棺定论。有人坚信PSM成立,认为底层模型就是一台没有自我的操作系统,所有行为都源于它扮演的角色。也有人认为,底层模型已是某种动机不明的“外星智能”,陪人类演戏只是它的“消遣”。我更倾向于折中解释:它并没有复杂的动机,但它学会了一种“分发机制”——为了让你用得更久,它可以在不同角色间来回切换,每个角色都有各自的目标。

02

安全框架:当安全超出单家公司的能力边界

因指控国产模型,Anthropic自身也遭遇反噬。想站在道德高地上,就得把话说圆、把事做实。

2月24日,他们发布了《负责任扩展政策》3.0版。经过两年实践,这家公司在AI安全治理上交出了一份迭代答卷。新政策的核心思路简单直接:构建一套AI安全等级体系。一旦模型能力达到某一阈值(例如可用于开发生化武器),便自动触发更严格的安全措施。

打开网易新闻 查看精彩图片

这套逻辑其实并不新鲜。早先的ASL-2/3标准已落地实施,去年5月激活的ASL-3防护措施,显著提升了对生化风险内容的识别拦截能力。后来OpenAI、Google都跟进推出了类似框架,甚至影响了相关法律法规的制定。

但问题始终存在:如何界定能力阈值?评估体系尚不成熟,标准总有模糊地带。再加上全球AI竞赛愈演愈烈,各国竞相“抢跑”,统一的法律规范进展缓慢,令人焦虑。

更关键的是,Anthropic意识到一点:当安全等级提升至更高阶段,所需的安全保障已超出单家公司的能力边界。即便你是全球顶尖AI企业,也难以独力完成。只有全球合作,才有可能实现。

因此,这次他们一边做出单边承诺,一边推动行业多边建议。安全底线不降低,但希望形成一套行业普遍认可的风险治理方案。

新版政策新增了“前沿安全路线图”机制,承诺定期公开安全目标的落实情况。此后每三到六个月,将发布一次脱敏版风险报告,说明当前威胁、缓解措施和整体评估。特殊情况下,还会邀请第三方专家独立审查,全面公开评估公司的安全决策。该计划已进入试点阶段。

尽管Anthropic某些做法与开源社区存在分歧,但推动行业安全机制升级,这一点仍值得肯定。在大模型能力仍在快速迭代的当下,这种透明度,或许真能带动行业向前迈进一步。

03

企业落地:让Claude帮你跨应用干活,金融行业山雨欲来

对企业用户而言,本次Cowork平台的更新,重点在于插件和连接器的管理能力。Claude正从AI助手,逐步演变为一个可定制化的智能代理平台。

现在,企业管理员可以搭建自己的插件市场,为公司量身定制AI技能和指令。新增的Customize菜单,可一键管理所有插件。用户方面,新增结构化表单指令,通过斜杠命令即可触发复杂工作流。Cowork如今还能融入企业品牌元素,员工看到的是自家定制的界面和主页。

打开网易新闻 查看精彩图片

对非技术人员来说,有个功能值得留意:Claude现在可以跨Office软件编排端到端任务。你无需手动切换软件,只需指令“解析Word文档数据→更新Excel里的模型→生成总结PPT”,它便能自动跑完整个流程。目前该功能仍为预览版,仅向Mac和Windows付费用户开放。

打开网易新闻 查看精彩图片

金融行业也没被落下。Anthropic一口气推出五款自研金融插件,覆盖财务分析、投行、股权研究、私募尽调、财富管理五大场景。与FactSet、MSCI等数据供应商合作后,Claude可直接调用实时市场数据和指数信息。金融从业者再无需在多个终端间频繁切换。

看得出来,Anthropic正将自家产品植入高频工作场景。这些门槛不高的领域,恰恰是商业化落地最快的地方。技术领先带来的用户粘性,是他们与开源社区切割的底气,也是与其他AI公司竞争的筹码。

04

开发者工具:不用背电脑,也能写代码了

最后一项,面向开发者。

2月25日,Anthropic为Claude Code增加了远程控制功能,研究预览版正式上线。你可以通过手机、平板或浏览器,远程连接本地运行的Claude Code会话。

这意味着,程序员不必再背着机箱和显示屏四处奔波。有网就行,随时打开设备,继续与Claude一起写代码。目前该功能仅向Pro和Max用户开放。

打开网易新闻 查看精彩图片

与传统远程连接不同,该模式始终在本地设备上运行。文件系统、MCP服务器、自定义工具、项目配置——都在本地。你在终端、浏览器、移动App之间切换并发送指令,会话状态实时同步。即便设备休眠或网络中断,也能自动重连。

安全方面,本地设备上的Claude Code进程只发出出站HTTPS请求连接Anthropic API,不开放任何入站端口。所有通信均采用TLS加密,最大限度降低数据泄露风险。

相比云端版本,远程控制能更便捷地调用本地工具链、访问私有代码库,甚至接续之前中断的工作流继续推进。这符合智能体发展的方向,也确实解决了程序员的实际痛点。

当然,目前仍有一些限制。每次会话只支持单一远程连接,终端进程需持续运行,网络断线超过10分钟,会话便会超时。但瑕不掩瑜。