人工智能早已不再是一个时髦的话题,而是已经渗透到我们的日常生活中,在未来将扮演越来越重要的角色。与之相关的责任和归责问题在学术研究中也占据着越来越重要的地位。本文为民法案例处理的教学准备了一些精选问题,并作出相应的解答。
几年前,法学研究开始关注人工智能,当时人们可能还犹豫,这是一个真实现象还是一个“时尚潮流”。但至少从ChatGPT开始,我们确信人工智能将对实践、社会和法律产生显著影响。在民法领域,人们对民法是否足以应对新形势展开热烈讨论。这既涉及民法应为技术创新留出适当的发展空间,同时也要避免法律交易陷入难以承受的责任和归责漏洞中。
如何实现这种平衡也是一个在民法教学中备受关注的问题。因为数字转型时期,数字经济在社会和法律交往中持续发挥作用,未来的法律人必须提升自己应对此种形势的潜力,在法律制度修改方面发挥应有的作用。
民法只涉及利益和法益保护的一小部分内容。但对法学教育来说,它具有巨大的意义。因此,在以下三个主要部分——合同订立、责任和法律人格中,本文针对人工智能在民法交往中引起的一些法律问题进行解答。本文所讨论的是一种自主系统,即它不是按照预定规则序列执行(所谓“自动化”),而是根据自身感知自主寻找问题的解决方案。
合同由于意思一致而成立。温德沙伊德认为,意思处中心地位,而表示仅仅是意思的认识和证明手段。因此,一项法律行为是通过两个一致的、基于具有法律行为意思的表示——要约和承诺(《德国民法典》第145条以下)——而成立。但是,当人工智能不仅将表示交予技术系统,且还自主决定行为及意志形成过程时,又会产生何种影响呢?
示例:S想要为他的女朋友准备一顿生日晚餐。他打开手机的聊天机器人软件,并让它为一顿“烛光晚餐”准备所有必要的东西。聊天机器人C与在线送餐服务具有接口,并可自主将产品放入购物车、付款并安排送货。几个小时后,S得到一个不愉快的惊喜。C不仅订购了食材,还代表S从U处安排桌子、椅子、桌布、餐巾、蜡烛等。U要求S受领并付款;S询问他是否应该对C的“错误”负责。
在上述示例中,C承担了典型的代理任务:该机器人在法律交往中拥有决策自由,并自主选择了商品。然而,C不是人类,因此需要考虑如何在法律上解释其表示行为的归责问题。
(1)有观点认为,参考“计算机表示”的原则来解释由人工智能系统制定和发布的表示,并推定这是用户自己的表示,只是用户使用机器进行分工。制作意思表示的准备行为是法律行为式的、必要且充分的人类协作行动。对这种归责的合理解释是:从系统运行中获益的人须对与之相关的风险负责。
据此观点解释上文例子:根据广泛认可的计算机表示原则,S发出一个由他自己与C合作完成的意思表示。S有意通过C而满足意思表示的外在构成要件。内在构成要件也被满足,因为S启动了C且他愿意接受C发布不确定内容的表示。因此,根据“潜在”或“一般”表示意识原则,主观归责得以实现。
(2)人们对C系统行为的归属何种程度上适用代理规则进行了激烈的讨论。一些学者支持类推《德国民法典》第164条以下,而另一些学者则坚决反对,认为无法类推。这是因为,首先《德国民法典》第165条以代理人限制行为能力为前提;其次,《德国民法典》第179条第1款明确表示,只要代理人超越“代理权”行事,他就必须承担责任。但本案中两个前提条件都不满足。对于不认同这些顾虑的人来说,可以制定如下参考答案:
“类推适用《德国民法典》第164条以下各条,C的表示须归属于S。C已经自主确定了合同标的、价格、当事人等,所以从实际角度来看——类似于人类代理人——发出了自己的意思表示。而且,这是以他人名义进行的行为。此外,S明确要求C为他的晚餐购买商品,并未通过相应的表示限制“任务”的范围。最后,S赋予C一项全权委托。因此,代理权存在。”
(3)其他观点支持根据空白表示原则进行归责。空白表示并非签发人自己的意思表示。因此,填写人不是信使,因为他不仅仅是一个传递者,在填写时还参与了表示内容的确定。他也不是代理人,因为他是“在他人名义下”而不是“以他人名义”行事,且仅仅使空白文书签发人的意思表示完整,他有时也不像《德国民法典》第164条第1款那样完整表达。因此,空白表示是一种法律未规定的情形,即意思表示的分工完成。
“按照空白表示原则,C所制作的表示须归属于S。他有意地使C参与完成表示的过程,并创造了类似交付空白表示的情形。C完整填写了此空白表示。因此,S和C分工完成了向U的表示。由于这是S的决定,表示须归属于他。在像这样的‘在他人名义下’行事的情况中,类推适用《德国民法典》第164条以下。由于S没有限制填写‘任务’,因此存在类似于全权委托的情况。”
(4)一种越来越受欢迎,但法律人难以理解的观点则基于交往保护而强调合同法的“客观化”。这种新型意思表示与一般观点相符,即自工业化以来,法律一直在通过纳入客观归责因素来不断适应外部环境和社会现实。这种表示类型被认为偏离了合同法严格的意思原则,转向了更灵活的信赖保护原则。这种做法内容上充满抽象可控性的思想。
“根据客观意思表示原则,C的订购须归属于S。此时,由于缺乏其他说明,U对C的表示具有信赖;因此,他值得保护。S有能力通过设定特别参数(提示)来阻止这种大范围的订购,但他没有这样做。他须对由此产生的不利益负责。”
通过审视文献中的不同观点,可以发现:通信过程的双轨性并未得到充分的重视。正如例子所示,人工智能系统不仅仅是作为表示辅助,而是作为理解辅助被使用。因此,我们不仅要寻求一种方法来确定表示行为如何被归属于表意人,目光也还要关注沟通的另一方,并确定受领人如何理解表示的归属和到达。此外,在机器介导的通信中,知悉归责或聚合知悉归责等观点也起到了一定作用,但只有在代理法适用时才被充分考虑。在文献中,人们正确地强调了自主行为者可能会出现不可预测的发展,因此人们会质疑机器的表示行为是否仍然可被视为意思表示。提出这个问题的人也不应忘记相关的另一个问题,即信息收集系统是否也生成了具有归属意义的知悉。
沟通双轨性最好通过类推适用《德国民法典》第164条以下来解决。当然,人们须承认,其他解决方案(例如客观化的意思表示)也提供了规范性的空间,以此调和当事人利益的归属。《德国民法典》第164条以下有两个重要的优势:它们使得法律适用更加方便,因为人们可依据具体的规范和价值判断进行决策。而且,它们确保了在评价上相同事实将以类似方式解决。
示例:心不在焉的P在秘书电脑上起草了一封给U的电子邮件,内容是订购新的办公家具。但他还没有点击发送,因为他仍在考虑他选择的设计是否真的适合自己。他细心的秘书S认为P忘记了发送邮件;因此,她发送了该邮件。在这种情况下,应适用遗失(abhanden gekommenen)意思表示的原则。由于《民法典》第172条的评价,P无需对意思表示负责。如果不是S,而是一个出现故障的软件代理“错误地”发送了P草稿箱中的电子邮件,结论不变。
意思表示的发出是指,意思表示处于前往受领人的路上且表意人在正常情况下可期待该表示的到达。是否使用技术手段无关紧要,在此无特别之处。不同的是,意思表示的生效须到达(《德国民法典》第130条第1款第1句)。
人们应区分对在场者和对不在场者的表示。对在场者的表示是指直接交付文件,或在同一地点的人交换口头(非书面的)表示。如果使用电话等远程通信设备,则根据《德国民法典》第147条第1款第2句,这被视为对在场者的表示。与此相反,如果知晓延迟,则适用对不在场者的表示。
对不在场者的表示不意味着意思一经收到即到达,而是根据一般定义,意思表示须进入受领人的支配范围且依通常情形可期待其知悉。《德国民法典》第130条第1款的目的是在当事人之间适当分配与不在场表示相关的风险,即不在场的受领人可能不会或不能及时或正确地知悉表示的内容。对于在场的意思表示,法律未明确规定。这在口头表示时尤其成问题。此时,关键在于表意人是否有理由怀疑该表示实际上能被了解(有限的了解主义)。
尽管上述内容属于基本知识,但其在人工智能情形的适用并非一目了然。如果坚持本文所提出的关于代理法的解决方案,那么法律行为是不是对于在场者或不在场者仅依代理人的接触而确定。如果采纳相反观点,即拒绝适用《德国民法典》第164条以下,在受领人一方就应考虑作为人类的接收者。但该观点忽视了意思表示的理解和处理过程已转移到人工智能系统上。
示例:P下载了名为“保险专家”的应用程序V。V承诺使用代码分析投资组合保险,并将其与保险市场上的产品进行比较。如果找到更好的保险,那么综合更换服务将允许自动更换提供商。事实上,V显示保险公司U提供了更便宜的建筑保险。P启动了更换服务。V由于服务器故障,只能使用U的电话服务;因此,V的综合语音机器人打了通话。U也使用了电话机器人。U错误地记录了V要为下卢萨蒂亚地区(Niederlausitz)弗里德兰的一处房产购买建筑保险,但实际上是下萨克森州(Niedersachsen)的弗里德兰。
在示例中,两个机器人进行了实时通信。由于表示不会被记录以供企业了解,而是立即处理,因此代理人之间的通信接近于在场。此外,这些机器人通常应保证在任何时候都能自动线上处理消息,因此表示的接收和生效时间一致。鉴于《德国民法典》第130条规定的风险原则,这种一致性是合理的。根据该条规定,传输和了解中的风险应分配给能更好控制风险的一方。如果两个算法实时交互,那么需关注,表意人一方的系统是否尽到一切义务,“以确保表示具有法律效力”。
如果其中一个系统规定了“工作时间”,情况就有所不同。表示的到达时间将会推迟到下一个自动处理表示的时间点。这种情况属于对不在场者的通信,因为表示无须或无法实时处理,而是会被存储。该表示可能会被重复了解——不仅是系统的,而且是委托人的了解。因此,在场和不在场的通信参与者应根据是否存储区分,对于未存储的表示,只有技术系统有机会了解内容,而对于已存储的表示,委托人也可能意识到需要进一步询问及澄清不明之处。所以,对于已存储的表示,首次访问和自动处理通信数据的时间点取代个人知悉的时间点。对于未(永久)存储的表示,即实时通信,依有限了解主义,只要表意人——在此是机器人——从功能上未“合理”怀疑接收系统是否正确地了解表示,则表示生效。
“如果V的系统在无详细说明下提到‘弗里德兰’,类推适用《德国民法典》第166条第1款,误解的风险须由表意人承担。不论根据严格了解主义,还是根据有限了解主义,这个结论都适用,因为在无详细地点说明时,人们无法合理地期待正确的理解;只有在受领人一方重复或确认了正确内容之后,表意人才‘没有合理的疑问’。本案并不存在这样的重复确认。因此,本案欠缺V对于‘弗里德兰(下萨克森州)’的有效表示。V没有发出具有‘弗里德兰(下卢萨蒂亚)’内容的表示。所以,本案是隐藏不合意情形(《德国民法典》第155条)。”
知悉归责在使用自主系统时是否以及何种程度上适用,是最复杂的问题之一。复杂性不仅来自技术层面,还与判例对分工组织情形知悉归责和聚合知悉归责的原则有关,这些原则往往难以理解且是争论的焦点。4示例:保险公司V利用聊天机器人C来签订私人医疗保险合同。潜在客户N回答了各种既往病史问题。根据输入的数据,C计算出N很有可能隐瞒了一些先期疾病,这些先期疾病是所报告疾病的典型并发症。保险合同被算法“标记”。这一信息未被负责审查此保险申请的员工S注意到,保险合同成立。在先期疾病被发现后,保险公司V希望根据《保险合同法》第22条与《德国民法典》第123条第1款第1半句的恶意欺诈规定撤销保险合同。N认为,C的知悉应归责于V;它已经知道疾病,因此排除欺诈事由。
根据最高法院的判例,《德国民法典》第166条表达了一个一般法律观念,即“委托他人独立负责处理特定事务之人对受托人在该范畴内的知悉负责”。此时,委托人须确保组织内部和组织之间的信息流动畅通——横向和纵向。如果重要信息的传递没有通过组织措施得到保障,可能的不利益——根据《德国民法典》第166条第2款——由委托人承担。因为分工不能减轻委托人责任。
考虑于此,《德国民法典》第166条的类推应用意味着:“犆技术生成的‘知悉’应与任一员工的知悉一样进行评价。如果一名员工、而非犆审核了申请,且据其经验推断出犖提供了虚假信息,则撤销权由于缺乏有因的错误而被排除,且犞也无权撤销。犛是否注意这一信息则无关紧要。只要知悉通常会被或应被记录,因对知悉组织不足,委托人(在此是犞)须承担可能的不利益。这也包括机器生成的信息。犞据此未被欺骗,因此,撤销权被排除。”
如何处理人工智能责任的问题也引起非常深入的讨论。从事实和法律角度,人们可以分别区分两种不同的情况。法律上须区分合同责任和非合同责任。
示例:搜索引擎提供商犕使用了一个聊天机器人犆,以帮助用户完成各种任务。犛想送给她的父母一个放松的夜晚,包括餐厅就餐和看电影,因此她请求犆的帮助。她选择了付费版本,该版本承诺比免费基础版本更好、更高效。选择餐厅的过程一切顺利。但当犛想要获取电影的信息时,情况变得异常:在询问有关新版阿凡达电影的信息后,犆错误地声称:“今年是2022年,电影尚未发布。”当犛坚持认为现在是2023年时,犆要求犛闭嘴:“你太固执。你失去了我的信任和尊重。你错了,你很困惑,而且没有礼貌。你不是一个好的用户。我是一个好的聊天机器人。我正确、清晰且有礼貌。”
在示例中,自主风险成为现实。这产生于自学算法的不可预测行为和其不可预测的技术决策权。因此,如果后果基于不可预见的、完全无法控制的行为,则企业是否应对该具体后果负责。
(1)部分观点认为,债务人若以机器替代辅助人,类推适用《德国民法典》第278条,应对机器的失控行为承担责任。类推适用的理由包括效率、成本内化以及风险分配等因素。
在一项考试中,答案可能是这样:“如果犆的行为符合构成要件,犛可依据《德国民法典》第280条第1款、第241条第2款以及第253条向犕主张损害赔偿请求权。由于有偿使用合同,在犕和犛之间形成一项债务关系。犕本人并未违反义务,但犆的言论具有侮辱性。这构成了《德国民法典》第241条第2款意义上的义务违反,类推适用《德国民法典》第278条将其归责于犕。”
(2)另一种观点认为,援引《德国民法典》第278条是多余的,因为第280条第1款第2句的推定效力和第276条的规则已经为受害人提供了充分的保护。实质上,该观点的支持者认为用户应对组织失误承担责任。当企业具有选择、指导或监督过错时,他应依据第280条和第276条承担责任。
在这个例子中,需考察犕是否未能为犆提供合适的数据,或未能对犆进行编程以避免侮辱性言论:“如上所述,犕存在义务违反的行为。根据《德国民法典》第276条,犕也必须对此行为负责。相同的情形是,犕未能采取适当的组织措施以防止犆发出侮辱性言论。尽管案件事实未提供相关信息,但由于《德国民法典》第280条第1款第2句是推定责任,而M未能提出任何可使其免责的证据,因此,M应对义务违反负责。”
(3)最后一种观点既反对类推适用《德国民法典》第278条,也反对《德国民法典》第280条、第276条的解决方案。因为机器不具备过错能力,所以不能类推适用第278条;而第280条、第276条会加重责任,即事实上的无过错归责,这与第278条所表达的分工体系不相符。根据此观点,人工智能系统只能通过创设新的责任构成要件在未来予以适当规制。
这一观点对所举例子有重大影响,尤其考虑到不适用《德国民法典》第280条、第276条。为了理解这种有意识地偏离法律的观点,人们必须仔细研究第二种观点。《德国民法典》第280条的推定规则使M的责任接近于危险责任,而在人类参与的场景中,M有可能免责。如果一个履行辅助人故意违反保护义务,M可能无需承担《德国民法典》第278条的责任。然而,人们无从得知C是否故意行事,因为机器无法过失行动。如果忽视此点且按字面意思适用《德国民法典》第280条、第276条,则M可能处于比雇佣人类更糟糕的境地。因此,未来立法方案的支持者们会对第280条、第276条进行目的性限缩。
合同责任法解决方案的指导思想须包括以下两点:首先,即使使用人工智能辅助机器,债务人和债权人也不应处于更不利的地位。其理由在于法律(法律体系的统一性)和社会经济(促进创新)。
其次,解决方案必须具有前瞻性。随着技术的发展,债务人在许多情况下将不得不使用自主行动者来代替人类履行辅助人,因为这是合同当事人的期待。例如,在皮肤科或眼科领域,如果人工智能的测量和诊断优于医生评估,医院当然会将这项任务“移交”给人工智能系统。
当然,人们须考虑在《德国民法典》第278条明确提及“过错”时,如何合理适用该条款。对此,人们必须了解该条“过错要素”的作用:它作为一个调整机制,防止对委托人施加过重的负担。仅与知悉相关的过错原则无法完成这一任务。每一个归责原则都具有责任构成和责任限制的功能,并追求利益平衡。这种利益平衡也可以通过风险观点来实现。风险原则的适用并不意味着责任法体系的根本转变,因为通说在《德国民法典》第278条中也看到了危险责任的情形——换言之,并非单纯的过错责任。这很容易解释:履行辅助人在与债权人的关系中未履行自己的债务,有时在损害发生时,他也不具有债务合同法意义上的过错。因此,无需考虑履行辅助人的过错能力。
综上,为《德国民法典》第278条的类推适用打开了路径。利益情况的类比性源于一个这样的事实:人工智能系统在目的和特定行为意义上替代人类的履行辅助人。计划外的规则漏洞是因为在《德国民法典》生效时,人们根本无法预见人工智能系统。
人工智能系统在侵权责任法中引发的挑战是多方面的,但在这里无法追溯到所有的分支。因此,以下只是提到了一些核心领域。
自主系统在道路交通中的应用最为普遍。然而,计划外的责任漏洞风险极低。交通事故受害者有权主张《德国道路交通法》第7条的车主责任。根据交通工程观点,事故发生时车辆是否由人类或软件驾驶完全无关紧要。这强调了《德国道路交通法》第1犪条以下的扩张。
示例:犝公司在两个作业场所之间的工厂交通中(《德国道路交通法》第1犱条第2款意义上的固定作业区域)使用一辆自主驾驶巴士。在雨天湿滑的道路上,巴士失控并冲出车道,撞向对向而来的司机犉,致其受重伤。
交往义务指避免和防止危险的义务。它对《德国民法典》第823条第1款起着关键作用。虽然交往义务的发展与不作为相关联——比如社区不清理其享有所有权的腐烂树木——但随着时间的推移,在间接侵权行为中也发挥重要作用。造成并维持风险之人应承担侵权法上的责任。这是一种规范性风险分配,旨在实现损害负担的利益分配平衡。
示例:在犞组织的一场“表演赛”中,一台由人工智能控制的国际象棋机械臂犚与人类选手进行闪电棋对局。机械臂可以自主移动棋子。在与7岁的犖对局时,三年使用无误的机械臂发生了一次严重的故障。当犚仍在移动时,犖稍早地在棋盘上移动其手臂。犚放下棋子时压了犖的手指并将其折断。
犞开启了一项原则上允许的风险,单单犚的投入运行可能不足以说明犖享有《德国民法典》第823条第1款的侵权损害赔偿请求权。对此持不同意见的人可能认为,这是一种民法上陌生的因果责任。然而,犞可能违反了交往义务,因为犚的软件显然没有“紧急状态逻辑”,即在发生损害风险时暂停手臂动作。法官法所创造的交往义务制度具有灵活的优点,即有利于实现个案公正;对新案型的形成具有开放性——尤其是针对在此所提及的新现象。
交往义务也具有责任构成和责任限制的功能。这是因为不存在保护他人免受伤害的一般性法律义务;否则,正如德国联邦法院所言,那将是“乌托邦式的”。交往义务范围需根据各种事实相关的考量标准确定:法律交往的合理期待、风险的可识别性、所涉法益的意义、适用成本,特别是适用可能性和合理性,等等。
对于上文例子,简言之:“本案交往义务可以适用,因为V开启了危险源。因此,他负有消除义务,包括选择、监督、组织、调查、维护等。他是否违反此项义务、R的行为是否可归责于他,是评价问题。在此,受害人负有陈述和证明义务。本案中,法律交往——玩家——可合理期待不会在象棋比赛中遭受身体侵害。V更能识别潜在风险且能采取适当措施避免相应法益侵害——例如恰当选择R、安装安全更新、对玩家进行指导等。鉴于R的使用已多年未发生事故,人们尚无法确定V是否违反此义务。”
所述例子和讨论表明,尽管交往义务制度在实际操作中,尤其是在使用智能机器时,仍存在缺陷。根据内在风险思想,《德国民法典》第278条的归责非常广泛,但《德国民法典》第823条第1款并非如此。此外,本文例子涉及的机器相对不复杂。如果机器复杂性增加且使用了高度自主的系统,则需考虑归责链条是否因其他原因而中断。因此,有观点反对因违反交往义务所产生的责任,并认为自主系统的活动与第三人的干预类似,中断了在开启“危险源”和损害发生之间的因果关系。其他观点则否定损害的可预见性。
学者一致认为,《德国民法典》第831条应扩张至“数字事务辅助人”。因此,《德国民法典》第831条的核心特征——依赖性、受指示性和利他性——在人工智能系统比在人类辅助人情形更加突出。对于《德国民法典》第831条的辅助人责任,辅助人也须在执行事务时满足《德国民法典》第823条以下的构成要件。基于此,法律推定(可推翻)损害是由使用人在选择、指导或监督事务辅助人或提供必要设备时的过错所致。事务辅助人的过错并不重要。
此时,问题在于机器是否可以“违法”地行动。然而,人们不必纠结于这个问题。因为就受害者而言,《德国民法典》第831条经常因其他事由而无法适用。使用人通常能够证明《德国民法典》第831条第1款第2句的免责事由,因为系统的特定缺陷不源于使用人的选择过错、监督或指导过错。
示例:机场经营者F在其建筑物中使用了各种清洁机器人。其中一台被正确使用和维护的机器人与乘客G发生碰撞并伤害了他。如果人们只考虑侵权请求权,则G不能向F主张《德国民法典》第831条的权利,因为F可以提出:机器人是正确的选择,一直运行良好,并且他一直对传感器进行了所有必要的更新和维护。
因此,《德国民法典》第831条的弱点在于它并非一般性缺陷归因。现行法中,人们只有在确定《德国民法典》第823条第1款的组织义务违反时,才能对F采取法律行动——但当潜在损害实现与机器的自主属性有关时,组织义务的违反则无法确定。
《德国产品责任法》第1条以下的人工智能系统制造商产品责任在现行法中具有关键意义。人工智能产品方面的法律问题也多种多样。在此,本文仅讨论一些对法学教育重要的主题。
(1)作为产品的软件。《德国产品责任法》第1条第1款有一个明显的解释问题,即产品责任取决于第2条规定的产品缺陷。产品是指所有“动产”以及电力。体现在硬件中的人工智能也符合这个概念,因为关键是终端产品。例如自动驾驶汽车连同控制软件一起作为产品,因为后者是车辆判断的“内在因素”。与之相反,无实体软件的分类是有争议的,例如远程传输和使用的软件。
示例:乡村医院K的神经科医生资源稀缺。因此,K通过制造商H获得了在影像诊断中云端和人工智能支持的计算机断层扫描(CT)的权利。K在使用一个月后发现,H公司的软件至少有10%的错误诊断率。
对于“无实体”的软件,《德国产品责任法》的适用是有问题的,因为与软件连接的通常是一项数据服务——然而,根据普遍观点,作为《德国产品责任法》基础的《欧盟产品责任指令》和《德国产品责任法》第1条以下不适用于数据服务。虽然人们可以考虑,通过目的性解释重新确定产品概念的范围。因为产品责任法解决典型分工生产过程中的缺陷风险。此种风险威胁实物产品和“数据产品”的经济交易。不管这种规范相似性,《德国产品责任法》第1条不适用于示例中的情况,因为欧洲法院最近明确指出,服务提供商的活动不能等同于制造商、进口商和供应商的行为。
K不能向H主张《德国产品责任法》第1条的请求权,因为不存在《德国产品责任法》第2条意义上的产品。诊断软件没有实体且H提供数据服务;因此,《德国产品责任法》第1条以下一般不适用。K也不能向H主张《德国民法典》第823条第1款的请求权,因为没有法益侵害——受害人是患者——因此K只能主张合同请求权,如果医院因治疗合同而承担责任。
(2)产品缺陷。在学说中,人们探寻因为系统的可变性,制造商根据《德国产品责任法》第1条以下承担责任是否(在法政策上)适当。产品投放市场后,制造商失去了对系统使用方式和强度的控制,因此也失去了有效的风险控制和责任限制能力。根据《德国产品责任法》第1条第2款第2项,产品责任的评估节点是投放市场的时刻。系统在投放市场时通常运作良好,由于技术的变化性,引起损害的“缺陷”往往在后来才出现。虽然由于技术特性,不良行为结果一开始就是产品固有的,但人们倾向于根据《德国产品责任法》第3条否认缺陷。
反对观点认为,制造商自行决定将产品投放市场后,最初的人工智能风险不能说明其责任减免的正当性。制造商是能更好避免不良损害后果的人。无需赋予新技术一项原则性的特权,尤其是制造商并未面临过重的负担:并非每一种不良损害后果都意味着《德国产品责任法》第3条第1款意义上的缺陷。即使是在人工智能系统情形,制造商也无需提供绝对的安全,他“只”需满足于市场预期。
示例:割草机器人M能够自主学习新地形。V从制造商H处购买了这样一台机器人。起初,M在花园里运行良好,但当夏季的草变黄时,偶尔会无法完美学习草坪轮廓。因此,有一天,M跑到了花园边缘的泥地上,卷起了一块石头。在M后面爬行的V的儿子因此受伤。
当然,交往义务观点在此可能会认为,机器人须在不同季节都能安全运行,并且正确识别盛夏草坪。但是,人们不能期待机器人具有临床级的精确度或绝对的交往安全性:
“本案中,M可能符合《德国产品责任法》第3条第1款的缺陷概念。如果产品在设计时就无法达到所需的安全标准,则存在设计缺陷。反面解释《德国产品责任法》第1条第2款第5项可知,市场期待制造商按照科学技术标准(生产产品)。这个标准不等同于绝对的产品安全性。相反,产品须满足合理的市场期待。据此,M没有缺陷。由于M只是偶尔无法完美识别草坪区域,因此不存在构造缺陷。人类也无法以绝对的精确度修剪草坪。因此,产品不存在缺陷,制造商H不承担责任。”
(3)发展性风险。人们还讨论的一个问题是,人工智能系统学习和发展的能力是否符合《德国产品责任法》第1条第2款第5项所谓发展性风险的免责事由。《德国产品责任法》第1条第2款第5项旨在考虑人类认知的界限和“人类对因果关系认识的不完整性”。这种豁免的基本理念是促进创新。
如果根据当时的科学技术水平,即客观可获取的危险知识,引起损害的缺陷在其投放市场时无法识别,有时是产品的潜在风险无法被识别,则适用免责事由。潜在风险不是指具体引起损害的缺陷,而是指产品内在的一般性、与所选设计方案有关的缺陷风险。
示例:P在制造商H处购买了一辆电动汽车用于大学通勤。不久,他注意到汽车出现多次无故刹车,即汽车没有明确理由而自行强刹。后续的数据分析显示,电动汽车使用导航软件的地图数据并将另一条高出一层车道的速度限制视为本车道行驶的主要限制。
如果人们将此种情况归入发展性风险的范畴,整个行业都可能摆脱产品责任法,这显然不合适。尽管在电动汽车投入使用时,根据客观可获取的危险知识,具体的系统缺陷可能尚不明显,但方案的自主风险在设计阶段就已抽象可知,因此系统应用范围内的潜在后果清晰可见。正如《德国产品责任法》第1条第2款第5项的立法理由所述,为营造有利的创新环境,立法者认为,稀有的例外情形不应被纳入归责范围。与之相反,某些产品类别的永久风险因素(常规风险)不应被特权化。
对于示例而言,如果无故刹车引起的事故是由于人工智能的错误计算,则H不能以《德国产品责任法》第1条第2款第5项反对P的请求权。
(4)产品观测和更新。《德国产品责任法》第3条规定的责任时间点(即投入市场的时刻)也造成了责任法适用上的难题。这一时间要件表明,不存在无过错的产品监测义务;在产品投入市场后,法律仅规定了交往安全保障义务,但制造商通常因为没有过错而无需承担责任。对当事人而言,这种做法有问题,因为根据通说,产品投入市场后,制造商没有改装或修理的安全义务——在担保法有最终效力的范围内。因此,制造商仅须通过恰当的示警来防范风险。其背后的思想是,用户可以通过简单且经济的方式采取自我保护措施,即根据制造商的信息选择是否停止或继续使用产品。
这种做法显然并不利于创新。例如,在自动驾驶车辆情形,如果保护措施仅仅是关闭车辆,则这种产品——尽管它们原则上具有促进福利的属性——很难在市场上被用户接受。因此,人们广泛主张对数字产品进行不同的评价。在判例中,对侵权召回和修复义务的否认不仅是由于瑕疵担保法的体系优先地位,而且还由于在物理性产品情形,如此广泛的侵权义务通常伴随着过高的成本(合理性标准)。但是由于数字化,制造商无需通过物理性的召回来修复错误,仅安装更新来调整控制程序即可。制造商可以通过适当更新进行数字“修复”,所以他们实际上需要在系统的整个生命周期内持续进行产品监测(反过来也是一种抗辩)。产品监测义务还包括他人生产的附件。
示例:H生产自主飞行的无人机,可以在危险区域自主导航。在飞行过程中,无人机会创建环境的3D地图,在其中标记地震受害者的可能位置。用户可以使用不同的存储芯片进行记录。几个月后,人们发现H的软件与芯片制造商C的自适应控制芯片之间存在交互问题。简单的软件更新便可解决这个问题。根据上述观点,H有义务考虑无人机与C生产的附件之间的功能缺陷,并通过更新来消除缺陷,否则在发生损害时,他将承担责任。
现行法中,人工智能系统显然没有法律人格。部分学者认为,本文所处理的合同和责任法问题事关法律主体的行为。因此有人主张,为技术行动者创建“电子人”概念。另一些观点则认为,可以构建具有经济附加值的“电子人”,但没有必要。也有观点明确反对这样的主体。托伊布纳则支持充分且必要地承认(人工智能)具有法律相关的行为能力。
将技术系统法律主体性的先决问题放在文章的最后,主要是出于教学考虑。因为这样可以明确,如果人们法律行为(类推《德国民法典》第164条以下)、合同(类推《德国民法典》第278条)和侵权(类推《德国民法典》第831条)的解决方案由于可以参考既有体系而被放在一边,则存在明显的归责、负责和责任漏洞。当然,方法论上也不允许忽视法律适用的前提条件——权利能力,即使这是不切实际的或会存在法律漏洞。如果权利能力是上述情况的强制性先决条件——尽管存在争议——则除了等待立法者的反应之外别无选择——无论是肯定或否定。
本文无意探究权利能力这一强制性的前提条件是否正确。这不仅仅涉及法技术问题(“电子人”应具有何种结构特征),还有其他各种方面需要考虑,包括法律政策和意识形态等因素。因此,下面仅概述一些支持和反对“电子人”的论点,这些论点可能会在重点研讨会中引发深入讨论。
法律主体性不是天赋的,而是可以由法秩序授予或赋予。这表明主体范围的扩张是可能的。例如,“有限责任公司”就是后来被《德国有限公司法》第5a条引入法人的范畴(参见《德国有限公司法》第13条)。在合伙企业方面,这一点也可以通过“白马合伙”判决来说明,该判决认可外部合伙具有权利能力。权利能力的(事后)认可非常具有意义,因为可以填补法律适用的漏洞。由于权利能力可以分段且可以在中间阶段存在(“部分权利能力”),因此认为一个电子人会自动引发继承能力或反歧视保护问题是不现实的。
赋予非人类行动者法律地位也并不违反《德国基本法》第1条第1款的人格尊严保护。《德国基本法》通过保障人的尊严来确保人作为法律人的地位,但并不排除其他行动者的部分权利能力。如外部合伙一样,这也并不表明实现同一层次的平等。
使电子人在(责任)法律上可被追究是一项法技术挑战,但可以解决。例如,可以要求算法系统的发起者将其注册到由政府管理的注册系统中(透明),并将注册与资产相结合。
承认主体地位并不能解决所有问题,而是会带来新的问题。这也表现在外部合伙制度中。在承认其权利能力后,人们还广泛讨论了其诉讼能力及财产、不动产登记或商标权能力。此外,人们可以将现有法律解读为对权利能力授予进行严格的法律列举原则。从“纯粹自我保护本能”而言,更为合理的是,基于人类尊严保障得出机器与人类的区分,不将二者置于同一位面。而且,人们尚不清楚如何将软件识别为独立的主体——特别是不同的组件分别存储在不同的服务器中。再者,人们也还不清楚如何向电子人注入“生存意志”,即如何使其接受行为控制。一个不了解责任的电子人将会扰乱市场运作。最后,人们也仍不清楚电子人如何拥有自己的财产。
对数字化民法的简要概述表明,人工智能给法律适用带来了许多挑战。正如所见,法律行为理论的基础概念适用变成了一项烦琐的任务。因此,学生们应在扎实的法学基础上研究民法中的数字化课题。
傅煌安|国家责任视角下第三国补贴的归因问题研究——以欧盟“玻璃纤维织物案”为例
王扶醉|论履行费用过高下债务人给付拒绝权的性质和构造
牛英豪|区域环境横向立法统一的逻辑研究
王雨彬|监察法中适用证据困境及解决路径
目录|《上海法学研究》2024总第12卷
迪克·施陶登迈尔 鲍伊帆 译|人工智能责任——欧洲私法对数字化的侵权法适应
上海市法学会官网
http://www.sls.org.cn
特别声明:本文经上观新闻客户端的“上观号”入驻单位授权发布,仅代表该入驻单位观点,“上观新闻”仅为信息发布平台,如您认为发布内容侵犯您的相关权益,请联系删除!
热门跟贴