首席大法官将这一现象定性为“令人震惊”且“绝非必要”。这一表态不仅揭示了人工智能潜藏的风险,更触及了更深层次的职业操守问题。问题的核心并不在于人工智能技术本身,而在于从业者对生成式输出的盲目信赖。
在确保安全的前提下,人工智能可以减少常规性工作,成为法律研究的助力。不加甄别地依赖人工智能生成的产物——包括那些根本不存在的判例引用,即法律界常说的“幻觉”现象——正成为司法的隐患。
印度法院并非首次遭遇此类乱象。去年11月,提交至最高法院的一份答辩状被发现引用了完全虚构的人工智能生成判决。无独有偶,孟买高等法院曾指出,一名所得税评估官员所依据的司法裁定事后被证实纯属虚构。在卡纳塔克,据报道甚至有初审法院法官在撰写判决书时,采纳了由人工智能工具生成的假判例。
这些事件清晰地表明,法律幻觉并非律政界的专利,任何将人工智能输出视为权威而不加验证的权力机构都难以幸免。
这些案例共同揭示了一个全球性现实:生成式人工智能系统虽然功能强大,但其设计初衷并非可靠的法律数据库,必须经过人工校验。
国际司法界的应对措施主要分为两类。首先,法院对提交未经验证的人工智能材料的律师施以罚款或制裁。专业机构与法院开始发布指导意见,包括要求律师签署证明书,确认未曾使用人工智能,或在使用人工智能后已由人工对内容进行了独立验证。
目前,印度尚缺乏关于在法院诉状中使用生成式人工智能的综合指南。虽然最高法院发布了白皮书,喀拉拉等高等法院也采取了积极步骤,阐明了涵盖行政与技术融合的宏观人工智能政策,并敦促在依赖人工智能工具前保持审慎。印度仍需要来自多个机构参与者的全面回应,包括建立必要的震慑机制。
首要责任在于辩护律师。提交虚构的判例,即便由于人工智能误导所致,也绝非单纯的技术疏失。
这实质上构成了一种不公平竞争,违反了辩护律师对法庭负有的基本义务。在最高法院的语境下,这种义务对于专门负责备案诉状的记录律师而言更为重大。记录律师制度的存在,正是为了确保提交给法庭的每一份材料都具备一层责任背书。
如果人工智能的“幻觉”进入了法庭记录,那么这种失败本质上不是技术性的,而是监督性的。因此,建立有效的惩戒机制刻不容缓。同时,印度律师理事会及其他法律行业监管机构必须为从业者和法学学生制定结构化的负责任使用指南。
解决之道不在于简单的禁止,而在于专业的培训——即让法律从业者充分理解人工智能工具的局限性,尤其是虚假引用的风险。
这其中同样存在机构层面的因素。法庭有时会受理起草不当的诉状,而不坚持要求其符合既定的陈述标准,这在无形中降低了对严谨性的要求。关于诉状起草的法律规定——即要求案由清晰、事实具体、理由明确——其存在自有其深意。
如果这些规则能得到一以贯之的执行,无论是由人类还是由机器生成的肤浅写作,都将受到自然的阻吓。
斯瓦普尼尔·特里帕蒂
热门跟贴