“我只能写代码,不懂国际政治。” 一句话,把天聊死。可屏幕那头的提问者并没撤,反手甩来一张截图:某国产大模型在敏感话题下秒回“愿世界和平”,被赞高情商;同个问题甩给ChatGPT,它只肯重复“超出范围”。点赞差出十万,评论区吵成一锅粥——有人夸国产懂人情,有人骂OpenAI装清高。

热闹背后,真正扎心的是:用户根本不在乎谁更正确,只想被“好好接住”。 把“超出范围”四个字挂嘴边,像把敲门的人直接推出去;换句“世界和平”,听着像敷衍,却至少递了杯热水。技术圈老爱说“对齐人类价值观”,可对齐的不是代码,是情绪。

打开网易新闻 查看精彩图片

再往深扒,两家公司的训练数据里其实都塞过同类语料,区别在一条人工规则: 国产团队给审核员留了“柔性回答”选项,允许模糊表态;OpenAI内部指南白纸黑字:“不生成任何可能被视为立场的内容”。规则一厘米的差异,产品落地就成了鸿沟。

打开网易新闻 查看精彩图片

于是出现荒诞景象:最讲客观的AI,被用户嫌“冷冰冰”;最该严谨的答案,反而靠“打太极”拿高分。 有人担忧,怕这种“高情商”会滑向墙头草;也有人拍手,说技术本来就该先让人舒服。争论没输赢,只说明一件事—— AI再牛,仍活在人类预期的夹缝里:既想要绝对正确,又想要温度;既怕它胡说,又怕它闭嘴。

打开网易新闻 查看精彩图片

短期看,国产模型靠“世界和平”赢了掌声;长期看,一旦用户发现模棱两可无法解决真问题,照样摔门走人。 毕竟,安慰剂只能止痛,不能治病。下一次,当提问者带着代码报错再来,他记得的不会是谁能说漂亮话,而是谁真的帮他抓到了那行缺掉的分号

技术产品的宿命向来如此:先被情绪选中,再被实力留下。