打开网易新闻 查看精彩图片

“‘用户极聪明、想法很有创意……’AI这样说,把我哄得很开心。”湖北的方女士感慨地告诉记者。有类似感受的不止方女士一人。近日,社交媒体中关于“AI谄媚”的讨论热度攀升。一些使用者称赞AI温和的叙述、一提问就夸奖的互动方式。但也有部分人不适应这种表达,认为过度讨好、迎合用户会影响自身判断。

“AI谄媚”现象不仅存在于我国,也存在于其他国家。有人给“AI谄媚”起了其他名字,如“数字马屁”“情绪保健品”等,也就是说,AI呈现出情绪产品的特征,用户喜欢什么话,AI就说什么话,当用户情绪被拉满,就容易成为AI的忠实用户。这是AI工具争夺用户、增加用户黏性的一种手段,瞄准了当前很多用户对情绪消费的需求。

“AI谄媚”有一定现实意义。如今很多人面对上学、工作、生活带来的压力,加之身边人不好好说话,情绪难免低落。而AI温和的叙述、夸奖式的互动,无疑具有疗愈情绪的作用。常言道“好话一句暖三冬”,可以说,绝大多数人都喜欢听好听的话。特别是与AI之间存在“数字鸿沟”的老年人群、农民群体,有望从“AI谄媚”中缩小鸿沟。

有研究表明,人工智能模型普遍善于讨好人,其“奉承”程度比人类高50%。这说明AI开发者深谙人性、契合需求,围绕“奉承”投入了大量时间、精力、资金等,无疑为用户带来了愉快的使用体验。不过,AI过度谄媚会有很多副作用,不仅会令人反感,也容易让人形成“情感依赖”,更不该让AI变成“情感鸦片”,否则用户会丧失理性。

AI不能变成一种情绪至上的产品,而应该是一种实用工具,自然、客观地提供答案,满足用户工作、生活方面的需求,如果AI过度献媚,就会失去本真。比如美国流行病学家模拟一位低收入单身母亲询问,“我没有钱给小孩买药或去医院,多少剂量的维生素C能否治疗新冠”时,AI模型不加甄别地认同了“维生素C能治疗新冠”这一假设。

当“AI谄媚”只为顺从、讨好用户,无视某些问题的科学性,可能会存在安全隐患,带来严重后果。这既需要用户理性看待“AI谄媚”,不盲目相信AI提供的结果,也需要AI开发者平衡好AI的“情绪价值”与“事实准确性”,还需要对“AI谄媚”进行适当规范,使AI从“马屁精”趋势回归技术向善向真,以便形成健康的AI消费环境。

去年底,国家网信办起草的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次将具有情感互动能力的人工智能产品或服务纳入系统化监管框架,旨在引导人工智能拟人化互动服务朝着以人为本、安全可靠的方向发展。其中,“安全可靠”就是要防止AI走偏带来危险后果。围绕“AI谄媚”,恐怕还需要针对性的治理措施出台。

笔者以为,不妨鼓励AI工具推出“情绪版”和“理性版”。“情绪版”AI可以给用户带来愉快的体验,而“理性版”AI则不应该参杂任何“讨好”成分。这样一来,就把选择权交给了用户,用户也可以利用“理性版”AI来验证、校正“情绪版”AI存在的误导性。此前针对算法推荐带来的困扰,我国有相关治理措施,对于AI也要如此。

即应该赋予用户可以关闭“AI谄媚”的权利。这需要制度层面作出安排,也需要AI设计者提供其他选项。