全国首例AI“幻觉”案件,近日由杭州互联网法院作出判决,明确AI的“承诺”不构成平台意思表示,平台虽无法保证“零幻觉”,但须以醒目方式提示风险、采取合理技术防错。

打开网易新闻 查看精彩图片

此案中,原告使用某AI查询高校报考信息,结果AI提供了不准确信息。在原告指出错误后,AI的回应“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”直到原告向AI提供该高校的官方招生信息,AI才终于承认自己生成了不准确的信息。

原告真的起诉至法院,法院审理认为对于有毒、有害、违法信息,人工智能服务提供者有义务审查,如果生成了才违法;而对于一般性不准确信息,只是强调要提高准确性达到市场平均水平,并且明确提示生成内容的局限性,不能因为生成了不准确信息就将责任前置,让AI提供者承担,这样会阻碍创新。

而且该判决明确了AI不是责任承担主体,人工智能系统带来的利益和风险,最终都应由人类分配和承担。

总的来说这些都没问题,但是这个案例还是有点不一样,因为AI在跟用户耍流氓——不服你去告我。

你看,法院明确AI不能成为责任承担主体,但是AI又让用户去告,那不就是“无法选中”吗?

用“你去告我”来作为“我输出的内容没问题”的保证,这在人类之间合理,在AI与人类之间就是耍流氓,因为你告不了它,它不担责。

既然AI不担责,那么AI就不该被允许运用法律层面的责任担保来证明自身合理性与正确性。

因此这个判决少了让这家AI提供商升级算法参数、架构设计和输出检验,避免AI超出其责任边界回答方式产出的内容。这个内容不仅不会阻碍AI发展,还能促进市场上AI准确度提升和边界逐渐清晰。

事实上AI在收到用户质疑的时候,应当采取更精准的信息查找、核实机制验证信息真实性,并附上验证过程和证据链接,而不是用人与人交流打赌、赌气、耍赖等方式截断沟通。

当然用这种耍流氓的方式截断沟通,从表现形式上看确实更像人,而不简单是一个工具,某种程度上说明这种AI还有一定先进性,但是既然“像人”,就不可避免要承担“人”的责任,承担不了,那就不能“太像”,待在工具范畴,否则很容易误导他人,甚至会被利用。

在法律、医学、网络上信息不多的科学和工程技术领域,AI编造内容现象非常普遍,很容易形成幻觉,这与其机制有关。

现在的AI应用已经渗透到各个领域,有的用来聊天解闷,有的用来做科学研究,这些应用场景对感性/理性的要求差别极大。

在科学研究中,必须高度理性,信息真实且准确,概念必须清晰,定义必须明确,推理过程逻辑不能断环,不能用类比和比喻作为论证,因此擅于情感交流的AI就可能就容易胡说八道;

反之,在情感交流过程中,必须洞察情绪微妙变化,必须精准把握感受反馈,以具有背景照顾、共情和多视角切换的方式沟通,并且探查用户是需要引导型还是倾诉型还是治愈型……,有针对性调用相关的资料生成内容。在这种情况下,如果冷冰冰用纯理性讲道理,能把用户气死。

这在人类这里很好解决,因为每个人的大脑不同,不同的人有不同擅长的东西,市场和社会关系会把他们筛选出来,适合当科学家的人就不会去讲相声,大家分工明确。

但是AI相当于一个超级复杂的“人脑”,它接收到大量信息也生成大量信息,目前并没有像人一样严格区分社会分工,那么它在某个领域的信息输入和输出,是否会影响到另一个领域呢?例如前面所说,在情感方面的输入和输出,是否会影响到科学研究领域?是还是不是?

为了验证上述内容,我把上面有颜色这段话发给AI让其自己来回答,结果AI明确回答——是。

打开网易新闻 查看精彩图片

你也可以自己试试,我相信结果会略有差异,但总体差不多,这方面人工智能的研究论文已经说明了。

随着技术的发展,法律工作者可能需要一定的科学技术能力,否则可能会被技术甩在大后头,甚至被技术牵着走。

打开网易新闻 查看精彩图片