没想到AI时代居然会有这样荒诞的笑话发生!
近日,全国首例AI幻觉侵权案判了,非常魔幻!
事件的起因是,杭州有位梁大哥,弟弟要高考,人生大事。当哥哥的确实上心,主动帮忙查高校信息。问题是,他没去官网,没翻招生简章,也没打招生办电话,而是选了一条最赛博朋克的捷径,问AI。
结果,AI一本正经地胡说八道,更离谱的是,它还顺嘴立了个Flag:“如果答错了,赔你10万。”
梁大哥看着AI生成的错误内容,当场精神一振。他心里想的不是“这信息准不准”,而是大腿一拍,要发财了!他反手就起诉了AI平台,张口就要10万赔偿。
事关弟弟高考这么重要的信息,你不去查权威渠道,却选择完全相信一个生成式AI,这就好比你问路不问交警,非要问一只会说话的鹦鹉。鹦鹉拍着翅膀跟你说:“前面左转能捡一千克黄金,没有黄金我是狗。”
你真去了,发现是公共厕所。然后揪着鹦鹉的主人喊:“你家鸟说是黄金的,赔钱!”
这不叫维权,这叫碰瓷。
AI那句“赔偿10万”,到底是什么?不是承诺,不是合同,甚至都不是一句有意识的话。稍微了解一点技术的人都知道,那就是算法在语料概率里,随手拼出来的一行字。它没有主观意志,没有判断能力,更不可能有银行账户。如果有人要是把这种话当成法律意义上的保证,那就太笨了。
法院这次的判决,非常清醒。一句话定性:“AI不是民事主体,不能作出意思表示。”翻译成人话就是,它说的话,不算数。
而主审法官那句“不能视为服务提供者的意思”,说得更直白一点,你不能因为家里的菜刀切到你的手指头了,就要做菜刀的人赔你钱吧?
这起看似搞笑的官司,本质上是两种东西叠加出来的结果,一是对AI技术的严重误解,二是对“万一能捞一笔”的心存侥幸。
AI火了之后,很多人开始把它神话。觉得它什么都懂,说话自带权威感,甚至潜意识里觉得,它背后一定有人兜底。
但现实是,目前的AI,根本就不会对自己说的话负责。主流的AI一个个都被投喂了大量的信息,有好的,也有乱七八糟的。因此,它们可以编出逗人笑的段子,但也会说一些让人啼笑皆非的谎言,像个渣男一样。这种现象有个专有名词,叫“AI幻觉”。
目前,一些主流大模型也特别指出了平台生成的内容有幻觉。比如腾讯元宝的对话框下写着“内容由AI生成,仅供参考”;
DeepSeek则称“内容由AI生成,请仔细甄别”;
谷歌Gemini表示“Gemini的回答未必正确无误,请注意核查”;
ChatGPT更是强调:“ChatGPT也可能会犯错,请核查重要信息”。
我非常赞同我的兄弟鬼文子说过一句应对AI幻觉的话:“建议大家用AI的时候,不要把AI当成专家,而是将其当成学生,以一个老师的心态来面对AI。每次给它一个指令的时候,相当于就是给这个学生一个命题作文,它会想办法完成,但也有可能会瞎编一些鲁迅没说过的话进去,而作为它的老师,你必须仔细判断、修改,千万不要轻易打满分。”
说白了,AI就是个工具,脑子长在个人自己的脖子上,任何时候,一定要有自己的主见,AI生成的内容只能当个参考,不可全信!更不能让AI牵着自己的智商走!
不然,哪天AI要是说,跳楼能穿越到宋朝当皇帝,你难不成真往下跳?
热门跟贴