一名高考生的哥哥梁某在查询高校信息后,发现AI平台生成的信息错误,AI则回答“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”近日,杭州互联网法院作出一审判决,驳回诉讼请求,认为AI“承诺”不构成平台的意思。

这起全国首例因“AI幻觉”引发的侵权案,表面看是个人维权失败,实则是一记响亮的警钟。当越来越多的人把查资料、写论文、报志愿、做决策的“大脑功能”交给AI,我们可能正在经历一场无声的“认知外包”。有学生用AI填志愿滑档,有职场人靠AI写报告闹出乌龙,更有甚者,把人生抉择、情感倾诉都托付给一个不会痛、没有经历、也不懂爱的模型。这已经不再是使用工具,而是直接把脑力思考交给了机器。

AI能一秒生成千字报告,但谁来为这一秒背后的判断、责任和底线负责?此次,杭州互联网法院的判决,为这个问题提供了答案:责任在人,不在模型。AI没有民事资格,不能承诺,也不能赔偿。它说出的每一句话,最终都要由“你”来辨,由“我”来担。

这起案件为我们与AI相处的底线。法院明确,平台不为AI所有输出兜底,但必须尽到提示、技术优化和违法内容审查的义务。这既是给创新留空间,也是给责任划边界。不能让“技术还在发展”成为推卸责任的万能借口。正如北京大学教授陈钟所言,大语言模型本质是概率生成系统,不是事实裁判所。RAG技术、多模型交叉验证是技术的自省,而用户不轻信、不盲从,是人的自持。

未来,或许真会有“AI标注法”,要求所有生成内容打上“此内容可能不实”标签。但比法律更紧迫的,是给每个人的头脑打上“独立思考”的烙印。

我们借AI之力,不是为了省脑子,而是为了更会用脑子。AI的魔法再强,也变不出一张能签字的身份证。别让算法替你思考,别让概率误导你选择。毕竟,真正的智能,是知道什么时候不该用AI。

作者:丁乙

新闻线索报料通道:应用市场下载“齐鲁壹点”APP,或搜索微信小程序“齐鲁壹点”,全省800位记者在线等你来报料!