在阅读文章前,辛苦您点下“关注”,方便讨论和分享。作者定会不负众望,按时按量创作出更优质的内容。

文I

编辑I

最近刷到个特逗的研究 —— 宾夕法尼亚大学那帮教授闲得慌,拿 130万个句子去考七大AI模型,结果差点没把人笑晕。

就好比七个老师批改同篇作文,有人打满分,有人给零分,还都是正经名校毕业的那种。

先说最离谱的:OpenAI、Google、DeepSeek 这些巨头的AI,对着同一段文字能吵翻天。

比如一句带点调侃的话,有的模型立马标红“仇恨言论”,有的却大手一挥“通过”。

研究里说,这些AI对125个群体的态度简直天差地别。对种族、性别这类话题,七个模型倒是能达成共识,像被统一培训过似的。

可是一碰到教育水平、收入阶层这些,就彻底放飞自我了。比如你说句“程序员头发都不多”,有的 AI 觉得是人身攻击,有的还觉得挺幽默 —— 合着程序员的发际线在 AI 眼里是敏感词还是段子素材,全看模型心情?

最让人哭笑不得的是同一模型自己还会“精分”。有时候相似的话,上一句判违规,下一句就放行,就跟抽奖似的。

有个叫Claude 3.5 Sonnet的模型更绝,搞“零容忍”政策,只要看见个敏感词,管你上下文是骂街还是学术讨论,一律咔掉。就像语文老师看见“死”字就打叉,哪怕你写的是“牺牲的烈士永垂不朽”。

这事儿往深了想还挺吓人。现在各大平台全靠 AI 当“门卫”,可这些门卫连统一的门禁规则都没有。你在A平台发个帖好好的,转到B 平台就被封号。

为啥会这样呢?说到底还是 AI 的“家教”不一样。OpenAI 家的模型可能从小看CNN长大的;Google的说不定是天天刷纽约时报;而DeepSeek 这类本土选手又有自己的训练素材。就像七个孩子分别在七个国家长大,对“礼貌”的理解能一样才怪。

更扎心的是,AI也偏心。对那些常上新闻的群体,保护得跟亲儿子似的;对那些不怎么出声的小众群体,就睁一只眼闭一只眼。

比如你骂句“某宗教信徒怎样怎样”,AI 立马跳出来制止;可你要是嘲讽“小区广场舞大妈”,AI 可能还觉得挺有梗 —— 合着被保护的资格,还得看群体的“曝光度”?

有人说这是技术问题,等AI再聪明点就好了。但研究里的教授们说了大实话:语言这东西太微妙了。同样一句“你可真行啊”,笑着说和翻着白眼说,意思能差十万八千里。AI 现在也就听个字面意思,哪懂人类这九曲十八弯的心思?

不过这研究也不是没好处,至少让咱们明白:别太把 AI 的判断当圣旨。说不定你被删的帖子,换个平台就能成为爆款。也别总怪平台审核严,可能它家 的AI今天正好“心情不好”。

说到底,AI再牛也只是工具。真正的分寸感,还得靠人来把握。就像七个老师意见不统一时,总得有个校长出来拍板。

未来这些科技公司要是能坐下来商量个大致标准,别让用户猜来猜去,那才是真的进步。

最后说个冷知识:研究发现,越是“谨慎”的 AI,越容易误判正常内容。

所以下次你发的东西被删了,别太生气 —— 可能只是碰上了个 “老古板”AI,它不是针对你,它是对谁都这样。