2024年企业AI支出突破1500亿美元,但一份内部调研显示,67%的CIO承认"根本不知道模型怎么做的决策"。钱砸进去了,信任没建起来——这是Fortis Solutions三位高管最近集体发声的背景。
这家干了几十年的企业技术服务商,正在把"人管AI"写进自己的方法论。不是口号,是具体的工程实践。
从"查流程"到"讲清楚":治理逻辑的彻底换轨
Fortis的观察很直白:企业领导层的会议主题变了。以前问"这个流程合规吗",现在问"AI为什么这样决定""公平性怎么保证""控制权在谁手里"。
CEO Myron Duckens把这称为"意图的翻译工程"。「技术变得有意义,是因为它反映了人的意图。治理就是把意图转化为行动的地方,确保创新带着清晰的目的推进。」
他的补充更具体:系统需要明确定义的规则、结构化框架,以及由懂业务现实和社会预期的人来设定的伦理护栏。不是让AI自己跑,是人先画好跑道。
这个转变的底层是合规模型的迭代。传统模式是事后检查,新框架要求事前嵌入问责、透明和监督。Fortis的客户里, healthcare系统和大型场馆运营商对这点最敏感——小偏差在大规模场景里会被指数级放大。
人的短板,AI来补;AI的幻觉,人来盯
CTO Jeremy Roach承认了一个反常识的事实:治理再强,人的局限性依然存在。疲劳、认知过载、基础设施的复杂度,这些变量会以微妙方式影响结果。
他的解法不是替代人,是"互补"。「我们把AI视为增强人类能力的补充力量,同时在每个关键节点保持监督。」
这句话的实操版本是:高风险决策点必须留人。AI可以处理数据洪流、识别模式、预判风险,但签字权在人手里。
Roach没说的是另一个侧面——AI也会犯错,而且错得更隐蔽。生成式AI(Generative AI,基于概率生成内容的AI系统)的"幻觉"问题已经被谈烂了:输出看起来可信,实则缺乏事实根基。根源通常是数据质量缺口、上下文不完整,或者训练模型过度泛化。
CIO Tony Gonzalez用一句话定调:「数据决定方向。输入精确且经过验证,输出才更可靠。这个关系位于每个AI系统的核心。」
换句话说,垃圾进,垃圾出——但"垃圾"的识别本身就需要人。
开源模型的信任危机:数据从哪来,比模型强不强更重要
Gonzalez的警告指向一个更棘手的领域。开源和众包AI模型的普及,让数据溯源(Data Provenance,追踪数据来源和流转路径)、安全性和治理成为规模化部署的核心障碍。
Fortis的内部评估显示,企业客户在试用开源大模型时,第一个技术问题通常是"训练数据有没有版权风险",第二个是"有没有被投毒"。性能基准测试反而排在后面。
这不是保守,是教训换来的。某零售客户曾用一个开源视觉模型做库存识别,三个月后才发现训练集里混入了竞争对手的商标图片,法律风险直接拉满。
Fortis的应对是"智能基础设施"——不是堆砌算力,是在数据层、模型层、应用层分别嵌入治理节点。每个节点留痕,每个决策可追踪。
工程化治理:把"人管AI"从理念变成代码
Duckens团队正在推的具体方案,是把治理规则写成可执行的配置。比如:医疗影像AI的诊断建议,必须附带置信度阈值和人工复核触发条件;金融风控模型的拒绝决策,必须输出可解释的特征权重。
这些不是文档要求,是系统强制执行的硬约束。工程师在部署管道里加钩子,审计员在仪表盘上看实时日志,业务方在移动端收预警通知——三条线并行。
Roach透露了一个细节:Fortis给自己的AI系统设了"减速带"。某些自动化流程在关键步骤会故意暂停,强制插入人工确认。效率损失约12%,但错误回滚率下降了73%。"我们选后者。"
这种设计哲学延伸到组织层面。Fortis的AI项目立项模板里,有一栏必填:"人类退出策略"——如果系统失控,谁在什么时间点以什么方式接管。没有这一栏,预算审批直接打回。
「我们不是在建一个更聪明的机器,是在建一种更可靠的人机协作关系。」Duckens说。
这句话的检验标准很实际:当监管来查,当诉讼来临,当媒体追问,你能不能拿出完整的决策链条和人工干预记录?能,就是合规资产;不能,就是 liability 黑洞。
Fortis的客户名单里有几家正在经历这种检验。结果还没公开,但Duckens的措辞变了——从"我们相信"变成了"我们可以证明"。
AI行业正在经历从"能跑就行"到"跑了能解释"的拐点。Fortis的赌注是:在这个拐点上,卖"智能"不如卖"可信"。问题是,多少企业愿意为"可信"支付额外的工程成本——以及,当竞争对手选择先跑起来再说,守规矩的人会不会被甩在后面?
热门跟贴