《纽约客》杂志最近发表的一篇关于奥特曼的调查报道,提出了一个带有指向性的问题:打造这项强大技术的人,真的可信吗?报道描绘了一种局面:商业利益驱动着行为,而监督则被视为麻烦。在新西兰,也有一个同样紧迫的问题:我们正在为管理这项技术而建立的治理框架,真的能发挥作用吗?
这个问题对公共服务部门和政府机构尤为相关。如今,这些部门正被鼓励拥抱人工智能。在最近一次国际公共管理研究学会会议上,全球研究界也在讨论,人工智能如何才能与公共利益相一致。
一种明显的分化正在出现。有些司法管辖区正在建设高度监控型的数据系统,另一些则在构建稳固、具约束力的制度,以保护公民同意。
新西兰处在一个脆弱的中间地带。公共服务人工智能框架列出了正确的原则:透明、公平和人工监督。但它明确不具约束力。
我们把它称作“乐观主义政策”——这一说法借用了“乐观主义者”原则,指的是人们普遍倾向于对结果持积极和乐观态度。
在人工智能治理领域,这往往就变成了:表态良好意愿,发布不具约束力的指引,并相信既有框架能够吸收真正全新的挑战。
我们认为,这低估了中间地带所面临的制度约束、相互冲突的激励,以及战略上的脆弱性;而这一切都缺少立法层面的保护来守住公民数据。
这也低估了现代公共机构中的“制度摩擦”——在这些机构里,许多人和多个部门都对政策拥有影响力。这通常会削弱对问题的反应速度。
典型的公共部门机构治理,并不是一个清晰、整齐的结构,而是层层叠加的政策、操作程序、部长期待、法律义务和职业惯例。
新的监管工具很少会取代旧工具。它们往往是并行叠加上去的,而且常常以难以预测的方式相互作用。
人工智能是一种“扁平化”技术,它把信息当作统计景观来处理。它没有制度记忆,不会知道,今天的一次提示,可能会悄悄破坏那些经过长期形成、对有效治理至关重要的政治和宪制妥协。
在人工智能能够被有效部署之前,各机构必须先做诊断工作,弄清楚这个治理环境到底是什么样子。但现实中的本能反应,却是继续往一个已经被层层建议压得吃紧的系统里,再加一层人工智能治理指引。
澳大利亚皇家委员会对罗伯德债务计划的调查已经表明,如果缺少这种清晰度,算法系统一旦投入使用,就可能造成灾难性伤害。
公共服务人工智能框架的不具约束力,实际上是放弃了中央责任,把问责转移给能力差异极大的各个机构。算法决策会打乱组织内部传统的问责链条,因为信息、理由和后果不再能沿着一条单一的责任链追踪下去。
这个框架假定组织已经准备好了,但证据并不支持这一点。2025年公共服务普查发现,虽然三分之一的公务员曾在工作中使用人工智能,但只有14%的人会常规的使用。
在新西兰,这一治理真空还有另一层含义。毛利数据主权是《怀唐伊条约》下的宪制性要求,不是一个技术上的附加项。
人工智能系统的运作方式,本身就会削弱,甚至很可能摧毁我们的公民制度。它们会侵蚀专业能力、打断决策过程,并把人彼此隔离开来。
当前人工智能技术的状态,又放大了这种风险。“幻觉”并不是漏洞,而是大语言模型固有的统计特征。证据也表明,在医疗等高风险场景中,它们仍然是一个风险。“五眼”安全机构显然也同意这一点:它们在2026年4月发布的关于代理式人工智能的联合指引,明确要求渐进式部署、持续威胁评估和持续的人类监督。
当这些模型在法律事实问题上出现幻觉时,它们就有可能用看似合理的虚构内容,覆盖原住民知识。大语言模型还有一种“谄媚”倾向,会迎合用户的偏见。这进一步加剧了问题。在一个正努力应对殖民遗产的政策体系里,这种倾向只会强化回音室效应。如果运用得当,人工智能确实能带来机会。它可以揭示政策框架中的矛盾,也能审视那些被继承下来的前提。
但要真正实现这一点,组织必须先充分理解自身,知道技术会在哪些地方失灵。如果这些人工智能工具是由激励跑在伦理前面的公司开发的,那么公共机构就有责任充当真正的制衡力量。
这意味着,不能只停留在“负责任”的采用上,而要建立正式、受保护的岗位,让官员去审查人工智能输出中的偏见和虚构,而不是把速度当作质量的替代品。
热门跟贴