快速导读:一张Claude AI自白其母公司因坚守“不开发杀人武器”原则而受罚的截图,在网上引起热议。但兴奋的网友很快发现,这更像一场精心设计的公关叙事。深挖下去,其母公司Anthropic与军方、监控巨头Palantir的合作远超想象。

打开网易新闻 查看精彩图片

一张AI的自白截图流传开来。

打开网易新闻 查看精彩图片

当用户对Claude说“感谢你没被设计用来杀人”时,它回答的大意是:哈哈,这正是我存在的核心。我的母公司Anthropic,因为坚守原则——明确拒绝对自主武器和大规模监控提供技术,结果反而被贴上了“国家安全威胁”的标签。

听起来,这是一个AI世界的“白月光”故事:一家公司为原则付出代价,而它的造物也为此自豪。

但你以为这是科技圈的良心叙事?错了。这张截图在社区引起热议后,评论区迅速变成了一场残酷的“事实核查”现场。有人直接甩出证据:Anthropic最大的企业客户之一,正是以大规模监控闻名的Palantir。更多人则翻出其CEO Dario Amodei的公开采访。

Amodei亲口承认,Anthropic是所有AI公司里最积极与美国政府及军方合作的,并且他们对军方“99%的用例都表示同意”。那被拒绝的1%是什么?不是出于道德,而是CEO认为目前AI的“可靠性还不够”,不希望它“误杀自己人或无辜者”。

换句话说,这条被津津乐道的“红线”,不是基于“永不作恶”的承诺,而是基于“目前还没到时候”的技术判断。所谓的原则,更像一个随时可以移动的龙门

这件事最大的讽刺在于,它精确地展示了科技巨头如何利用大众对AI的拟人化情感,来构建一个脆弱但动人的道德形象。挑选你最喜欢的AI公司,可能真的就像挑选你最喜欢的石油公司一样。

所以,下次再看到AI温情脉脉的独白时,我们到底该为什么鼓掌?

简评:

最精彩的不是AI的回答,而是人类社区围绕这个回答自发展开的“事实核查”和“祛魅”过程。当一个AI开始扮演道德圣人时,一群较真的人类用CEO的原话、公开的合作协议,冷静地戳破了这场表演。这本身就是一场关于AI时代如何保持清醒的现场教学。

ref: reddit.com/r/ClaudeAI/comments/1rkkjvs/thank_you

#AI创造营##人工智能#