AI做不到某件事时,总有一群人跳出来护短:"人类也做不到啊!"等AI稍微进步一点,同一批人立刻改口——这种双标戏码,马斯克看腻了。

这事的背景是AI能力边界的争论。每次新模型发布,评论区都会分裂成两派:一派盯着错误案例说"看吧还是不行",另一派搬出人类也会犯错来和稀泥。问题是,后一派的标准飘忽不定。

马斯克的原话很直接:「当最新AI系统做不到某件事,就会有人说'人类也做不到'——然后AI稍微改进一点,他们就不这么说了。」

说白了,这是个动态靶子。AI弱的时候拿人类当遮羞布,AI强了立刻换一套评价体系。这种论证不是为了求真,是为了在辩论中永远立于不败之地。

类似的话术迁移到处可见:自动驾驶出事时强调"人类司机更危险",等真要担责时又强调"机器不可信"。标准跟着立场走,讨论就变成各说各话。

有研究员在评论区补刀:这类人通常还兼任"AI不会取代你"的安慰剂发放员。身份切换之快,连AI都学不会。