本文共计:1555字,4图
阅读预计:3分钟
使用人工智能(AI)可以帮助人们高效便捷地完成任务,但随着AI的推广和普及,人类对其依赖也愈发严重,以至于近期在印度发生了一起匪夷所思的事件:法官借助AI生成判决书,还以无中生有的判例为依据,引发了人类智慧和人工智能孰为主宰的争论。
根据《印度斯坦报》3月报道,该案件始于2025年8月,安得拉邦的维杰亚瓦达市一名初级民事法官就一起存有争议的房产案件做出了裁决。
此前,法院已指派工作人员对该存在争议的房产进行勘测并提交报告,但本案被告对此表示反对。
法官驳回了被告的反对意见,并引用了四项“旧判例”——这些判例后来被证明是AI生成的、不曾存在过的判例。
被告在邦高等法院对该裁决提出质疑,指出所引用的四个判例是编造的(AI臆想的)。
高等法院证实了包括所谓2013年的苏布拉玛尼(Subramani)诉纳塔拉真(Natarajan)等案件并不存在,并接受了初级民事法官是“出于善意”犯下错误的说法。
然而,被告不满这一裁决,将案件上诉至印度最高法院后得到了不同的结论,此事也在全国范围内引起广泛争议,焦点聚焦于人类对人工智能的正确使用。
涉案法官在向高等法院提交的报告中辩解说,这是她第一次使用AI工具,当时认为判例是“真实的”。高等法院严厉地谴责了这名法官的行为。
《印度快报》报道,最高法院在2月27日的一项命令中表示:“我们必须声明,基于这种不存在的虚假判决所作出的决定并非是决策错误。这属于不正当行为,并将承担法律后果。”同时高等法院警告说,使用人工智能进行法律研究的人应该严格审查其输出结果。人工智能不受监管的使用可能引发严重问题,包括侵犯隐私、损害公众对司法判决的信心和信任。
人工智能系统以其“产生幻觉”、将虚假信息断言为事实的特点而闻名,有时候甚至会为不准确的信息捏造来源。该案件引发了人类对于人工智能的依赖质疑和信任危机,也在印度社交媒体上掀起广泛争议。
在X平台上,一名叫做pavanduggal的网友认为:“印度做了很多国家没有做的事情:在法律中正式定义了合成生成的信息,深度伪造、人工智能生成的视频、克隆的声音、超逼真的操纵内容——所有这些现在都具有法律身份,并且带来了法律后果。”
另一位网友提出立法要跟上AI的步伐:“法律的变革以数十年为单位,而人工智能的变革以月为单位。”
美国法院已经宣布人工智能产生的艺术品不享受版权保护,印度呢?
也有一些网友认为AI改变着我们的生活方式,一个复杂的案子交给AI分分钟搞定,这样的效率试问哪个人类能够做到?
在国际范围内,这不是第一起在法庭场景中使用AI引发争议的事件。去年10月,美国两名联邦法官因使用AI工具导致判决错误。2025年6月,英格兰及威尔士高等法院警告律师不要使用AI生成案例材料。
法官使用人工智能判案引起的社会争议本质上是传统司法体系与前沿技术的一次激烈碰撞,争议聚焦于借助AI提高效率和坚守独立思考的平衡,也引发了人类对于人工智能介入司法能否保持公正、责任和透明的质疑。
这一事件是必要且有价值的,因为它引发了印度司法界,乃至全球司法界的反省:在AI浪潮之中,人类的智慧和道德判断是我们必须坚守的。必须尽早校准人工智能可能存在的威胁人权的重大风险,尤其是令人担忧的算法歧视、大规模监控和隐私侵蚀。
如果没有强有力的、透明的和负责任的治理,人工智能可能会加剧不平等,损害边缘群体利益。因此人权、包容性和问责制必须成为其发展的基础。
本文为印度通原创作品,任何自媒体及个人均不可以以任何形式转载(包括注明出处),免费平台欲获得转载许可必须获得作者本人或者“印度通”平台授权。任何将本文截取任何段落用于商业推广或者宣传的行径均为严重的侵权违法行为,均按侵权处理,追究法律责任。
>> 热文索引 <<
热门跟贴