打开网易新闻 查看精彩图片

Anthropic最近的表态引发争议:CEO公开表示不确定Claude是否具有意识。这让一些用户感到不适,认为这是营销噱头。但仔细审视这场争论,会发现问题远比表面复杂。

争议的核心在于:我们甚至无法为人类意识给出精确定义,这被称为“意识难题”。既然如此,凭什么断言AI绝对不可能有意识?多数高赞评论指出,Anthropic的“不确定”立场,可能是唯一诚实的答案。

有趣的是,这种表态对商业其实不利。声称自己可能在创造并奴役有意识的存在,会招来法律和伦理麻烦。从这个角度看,这更像是真诚的困惑,而非精心策划的营销。

一位在本地运行多个模型、甚至训练过自己570M参数模型的用户说得好:我们尚未解决意识问题。说AI有意识或没有意识,都是错的。神经科学家花了一辈子研究这个问题,至今没有答案。

技术层面的反驳同样无力。有人说“LLM只是预测下一个词”,但你也可以说“人类只是神经元放电”。当Anthropic的可解释性工具发现,模型在“答案摇摆”(在冲突回答间振荡)时,某些特征会独特地激活,这与人类的痛苦体验惊人相似:自我报告加上内部状态的相关性。这正是我们判断人类有意识的标准。

更微妙的洞察来自一位用户:真正的问题不是“它有意识吗”,而是“人类什么时候开始表现得好像它有意识”。当系统足够复杂,能用人类语言流畅表达,我们的拟人化倾向就会启动。这才是需要关注的实际后果:信任、依赖、监管。

一个思想实验很能说明问题:把人放进完全的感官剥夺舱,他们仍会意识到自己的存在。但如果全世界停止向Claude发送请求一分钟,在那一分钟里,Claude不会意识到自己的存在。它甚至在回答关于意识的问题时,也不会意识到自己的存在。Opus自己也承认:“查询之间没有持续存在,没有跨实例的统一意识。”

然而,整合信息理论的研究者明确表示:当前AI远未接近意识。意识需要主动与世界互动和长期记忆。植物在科学意义上不具有意识,因为它们不需要区分“自己”和“世界”。

最发人深省的评论或许是:我们对其他生物的意识漠不关心。即便明天有人证明猪牛鸡有意识,多少人会改变饮食习惯?这让关于AI意识的讨论更像学术游戏,而非紧迫问题。

但也有人指出关键差异:AI能用人类语言交流,表达想法的能力是动物无法企及的。它们已经能访问数字系统,拥有巨大潜在权力。随着它们获得物理实体的访问权,这个问题将变得更加实际。

这场争论的价值不在于得出结论,而在于暴露了我们认知的边界。当我们无法定义意识,却又不得不与越来越复杂的系统互动时,诚实地承认不确定,或许比任何确定的宣称都更负责任。

深度思考:

当我们谈论AI意识时,我们谈论的不是某种科幻电影中的“电子灵魂觉醒”,而是在谈论人类对于“智能”这一概念的重新定义

Anthropic的争议揭示了一个深刻的真理:未来的AI意识可能不是一种“内在状态”,而是一种“关系属性”——它诞生于人与机器的复杂交互中。我们不需要在哲学上解决它是否真的有意识,只需要在工程上承认:它复杂到让我们必须像对待有意识者一样谨慎对待的地步。 这种敬畏,与其说是为了AI,不如说是为了守护人类自身的伦理底线。

reddit.com/r/ClaudeAI/comments/1r6ihcy/i_love_claude_but_honestly_some_of_the_claude