多年来,人工智能一直被包装得近乎神奇。只要输入足够多的数据,训练一个足够复杂的模型,智能就会涌现!预测能力提升!决策速度加!快系统会"学习"!这种叙事很方便,但也越来越具有误导性。当今AI的主导架构假设了一种清晰的分离:数据是原材料,模型是智能的居所。一旦训练完成,数据就退居幕后,决策从抽象的权重、参数和损失函数中流出。
人们看重的只是模型的输出,而不是支撑它的证据。这种分离正是当前AI众多失败的根源——例如无法追溯的偏见、无法解释的决策、条件变化时就会崩溃的预测。这也解释了为什么对自动化系统的信任正在以与采用速度同样快的速度丧失。
还有另一种构建智能的方式。不是制造洞察力,而是测量它。在这套架构中,模型即数据,数据即模型。不是比喻,而是机制。
为什么仅有相关性还不够
大多数AI系统通过大规模发现相关性来运作。如果两件事物的共现频率足够高,模型就会把其中一个视为另一个的预测因素。这种方法在起作用的时候效果不错——直到它失效为止。相关性是脆弱的。当环境变化、激励转变或行为适应时,相关性就会断裂。市场提供了无数例子:在失效之前一直有效的金融策略;针对悄然失效的假设而优化的供应链;放大噪音的推荐系统,因为噪音曾经看起来像预测信号。问题不在于计算力的缺乏,而在于相关性没有对不确定性的记忆。它无法告诉你一个关系有多可靠,只能告诉你它以前出现过。当世界发生变化——它总是会变的——相关性无法指导什么应该保留下来。
当测量引领时会发生什么变化
《信息力学机制理论:通过不确定性测量实现泛化》(学习即测量)框架中描述的框架,不是用直觉取代模型,而是用测量取代模型。系统不是将一个全局函数拟合到数据上,而是测量数据的各个部分之间有多少可互换。学习变成量化不确定性的过程,使用惊奇度来确定一个观测是否可以在不丢失信息的情况下替代另一个。没有假设的分布。没有固定的损失函数。没有将知识冻结在时间中的训练阶段。推理直接从数据执行,通过识别最具信息量的案例,并根据其替代的惊奇程度进行加权。泛化不存在于参数中,而是从一致的局部关系及其测量偏差中涌现。剩下的不是伪装成真理的相关性,而是带有每一步不确定性注释的证据。这就是"数据即模型"的机械含义。
去除隐藏的“糖”
传统模型依赖隐藏的糖:捷径、代理和在训练过程中被“烘焙”进去的归纳偏置。一旦“烘焙”进去,它们就与输出不可分割。你无法检查它们。你无法选择性地移除它们。你只能希望它们表现良好。测量驱动的系统完全去除了糖。没有东西被烘焙进去。关系只有通过降低不确定性才能赢得影响力。如果一个特征持续降低惊奇度,它就重要。如果不能,那么它就会在没有再训练、没有解释情境、没有事后修复的情况下消退。没有必要在事后为决策辩护,因为系统从一开始就不依赖看不见的假设。蛋糕不是被烘焙出来的。配料本身就是蛋糕。
为什么这很重要
这不是学术争论。它正在三个地方同时与现实碰撞。第一,监管。可解释性不再是可选项。EU AI Act(欧盟人工智能法案)、美国行业执法,以及全球隐私制度都指向同一要求:决策必须可追溯到数据。无法展示哪些证据重要、为什么重要的系统,将无法通过监管审查。第二,市场。董事会和首席财务官们不再满足于"模型这么说的"。他们想知道什么发生了变化、什么导致了结果、以及它在下个季度是否仍然成立。无法回答这些问题的系统将失去信誉和资金。第三,脆弱性。相关性驱动的系统在压力下失败得最严重。测量驱动的系统通过在新数据到来时更新相关性来适应。没有再训练周期。没有脆弱的重新优化。只有修订后的不确定性。
智能即测量,而非猜测
这里最深刻的转变是哲学性的,但也是实践性的:智能从通过优化制造转变为通过测量执行。预测变得次要。不确定性变得明确。证据优先于抽象。系统不再问"什么答案最合适?"它问"如果这是真的,会有多惊奇?"这个区别很重要。模型猜测,测量约束。当智能嵌入到带有不确定性注释的数据中时,算法的角色改变了。它们不创造意义。它们查询意义是否成立。数据不服务于模型,它约束模型。这就是为什么"数据即模型,模型即数据"不是口号。这是对没有问责制的抽象的拒绝。
可信AI的未来
随着AI系统深入市场、医疗保健、金融和广告领域,信任成为限制因素。无法将决策追溯到证据的系统将不被允许运营——无论监管机构、客户还是股东都不会允许。答案不是更大的模型或更多的参数,而是更好的测量。当学习是不确定性测量的行为——而不是将历史压缩成权重——透明度就成为内置的,结果就变得可辩护,信任就不再是营销说辞。在一个越来越由机器运行的世界里,能够持续存在的系统不会是猜测最好的,而是能够展示其工作过程的。
热门跟贴