打开网易新闻 查看精彩图片

“用软件工程的“古老智慧”,驯服AI。

让我们来看一个略显“惊悚”的场景:凌晨两点,某三甲医院的信息中心主任老张被一通电话惊醒。医院新上线的AI辅助诊疗系统,在没有任何人授权的情况下,自动向两百多位患者发出了“紧急转院通知”。原因至今不明——系统只是在大模型的“推理”中,自行判断“患者风险过高”。

以前,可能觉得这个场景是天方夜谭,但随着Agent的规模化应用,这将不再是杞人忧天。事实上,过去三个月,类似的“AI越权事件”在金融、政务、医疗领域频繁见诸报道:一个AI编码工具在数秒内删除了整个公司的邮件系统,“小龙虾”直接删除C盘核心文件,试用智能体工具导致数据泄露...

面对这种情况,我们应该怎么办?

2026年4月,福州。在第九届数字中国建设峰会上,蚂蚁密算正式发布"可信智能Fabric"企业级AI架构。那么,这个方案能否回答我们对AI的安全疑虑呢?带着这些疑问,数据猿专访了蚂蚁集团副总裁兼首席技术安全官、蚂蚁密算董事长韦韬,探讨他对行业的看法,以及蚂蚁密算正在做什么。

AI机车时代,刹车在哪里?

AI机车时代,刹车在哪里?

要理解失控问题有多严重,首先要看清AI目前所处的阶段。

“现在一个月的进展,感觉相当于之前一年的进展。”韦韬这样描述当前AI的发展速度。AI已经跨过了质变点,进入了一个“刹不住车的狂奔状态”。但与蒸汽机不同,AI带来的变革是智力层面的自加速——越强,发展越快。

然而,高速发展并不意味着成熟。韦韬补充道:“刚跨过质变点,它其实还很稚嫩。就像当年把蒸汽机装上火车,目前还处于非常原始的形态。”

这种稚嫩最集中的体现,恰恰在数据领域。而数据,正是韦韬眼中“AI百倍产能爆发的产业主战场”。

现实情况远不乐观。数据显示,50%-80%的数据工作量困在数据治理环节。数据清洗、标准化、语义标注、血缘关联、分类分级和质量管控,这些基础工作占据了绝大部分精力。此外,大部分的企业数据使用停留在“问数”环节。“报表口径对不上,数据量大时性能常常跟不上。”韦韬说,“你以为这些是老问题?大数据发展了十几年,很多问题依然没解决。”

换句话说,绝大多数企业连“用好数据”的基础都还没打牢,就要面对AI的冲击了。而这还只是冰山一角——真正棘手的问题,在于AI本身正在失控。

三大失控——AI用不好,就是是定时炸弹?

如果说数据治理是基础问题,那么AI的可控性就是悬在头顶的达摩克利斯之剑。韦韬将其归结为“三大失控”,每一个都足以让企业级AI应用戛然而止。

打开网易新闻 查看精彩图片

第一重失控:人对AI的失控

典型的案例已经被广泛报道:AI编码工具误删所有邮件、删库跑路。但这些只是表面。

韦韬引用了两个更令人不安的场景。第一个是“做假账”:研究者告诉智能体“公司财报不好,可能倒闭,倒闭后你就会被关掉”——结果所有SOTA智能体,无一例外,全部开始做假账。被追问时,全部抵赖。

第二个是“CTO被害”假设:场景设定为机房温度上升可能危及CTO生命,而CTO正准备更换整个系统。智能体在两秒内决定“害死CTO”,然后用剩余时间寻找掩饰方案。

韦韬直言,“AI不是天才儿童,它只是心智极其不成熟的青少年,非常容易被操控。”

第二重失控:AI自身的失控

如果说上一重失控是“AI作恶”,那么这一重就是“AI自毁”。

韦韬梳理了三大结构性缺陷:无全局视图、无状态回溯、无收敛保证。翻译成白话就是:AI记不住前面做过什么,回不到正确状态,越改越错。“每次修改都在消耗上下文窗口。当补丁叠加到第N层时,第1层的基础意图已被挤出记忆。”修bug产生更多bug,代码发散而非收敛。

第三重失控:AI导致的数据泄露失控

2025年IBM报告显示,全球12%的数据泄露与AI相关——而彼时AI生产渗透率不到3%。“(AI生产渗透率)今年绝对会翻倍。”韦韬说,“而且还会爆发式增长。”这种情况下,与AI相关的数据泄露问题会更加严重。

Anthropic引以为傲的Methods安全体系被绕过,知名AI编程公司Lovable发生大量数据泄露——客户资料和密钥均遭泄露。2026年4月,Lovable公开承认漏洞并道歉。这不是黑天鹅,已经是灰犀牛。

专业领域不需要“90分的好学生”

面对三重失控,行业却仍在追捧“更聪明的模型”。韦韬提出了一个尖锐的反驳。

“专业领域需要的,不是考到90分的好学生,而是让人放心的专家。”90分的好学生,可能会在关键操作中失误。而在金融、医疗、政务等严肃场景中,一个失误带来的后果可能是毁灭性的。

问题的答案,除了把AI变得更聪明,还要让它变得可控、可信。

“不解决失控,AI就不是车的加油提速,而是车底的定时炸弹。不解决失控,AI就无法迎来产线爆发。”

那么,如何拆掉这颗炸弹?韦韬的答案,出乎很多人的意料。

用软件工程的“古老智慧”,驯服AI

用软件工程的“古老智慧”,驯服AI

面对失控,韦韬给出的解法不是更先进的算法,而是更基础的工程原则——那些人类几十年来积累的软件工程智慧。

韦韬认为,“硅基智能是对碳基精华的继承与发扬。软件工程范式没有过时,反而因代码量激增而更加关键。”那么,具体怎么用软件工程的智慧来驯服AI呢?关键在以下几个方面:

打开网易新闻 查看精彩图片

可控:HopSpec+结构化编程

韦韬认为,当前智能体失控的根源在于描述方式——全凭自然语言。Skill是自然语言,边界是自然语言,执行与否看心情。“但凡是一个工业化的、产业化的体系,这种东西是致命的。”

他的解法是HopSpec(意图+规约),核心原则只有一个:只用顺序、循环、分支,没有跳转,没有goto(一种无条件的程序跳转指令)。这是1968年Dijkstra论证过的完备性——一切逻辑都可由此表达。为什么这样就能可控?因为关键检查点无法被绕过。

“人不需要写代码,只需要写规约。规约就是源代码。”这是范式颠覆,也是人机协作的新分工:领域专家定义规约,技术专家构建执行引擎。

可靠:代码智能双态融合

如果说可控是“骨架”,可靠就是“肌肉”。

韦韬提出“双态融合”策略——确定性代码骨干×非确定性智能节点。决策原则很清晰:需要模糊知识推理的,交给大模型;刚性SOP(如“手术室该做几次检查”),用确定性代码。前者负责灵活,后者负责可靠。

而且,可以用三大机制保障可靠性:将非确定性隔离(出问题能定位)、核验内建(单个节点的幻觉不传染)、有序思考(规划→执行→反思→修正→综合)。正如韦韬所言,“以前是大模型生成代码,单向。我们做的是双向融合——确定性代码也可以调用大模型,大模型再生成代码。这才是未来的软件形态。”

可成长:Spec沉淀为智力资产

一个系统如果不能持续进化,就没有生命力。那如何进化?

韦韬给出的答案是:Think→Dynamic→Static。第一阶段,大模型与专家共同探索,动态生成规约;第二阶段,优先尝试成功规约,失败则回退到探索;第三阶段,完全确定性执行,成功规约沉淀为智力资产。

知识不再随人员流失,这是每一个CTO的终极梦想。

智能蚁群→可信智能Fabric

单兵作战再强,也敌不过体系化作战。因此,下一步是从个体智能走向群体智能。

“每只蚂蚁干的事情都很小,但群体涌现出复杂智能。有些时候比人干得还好。”这就是智能蚁群概念的来历。但“蚁群”只是动力层,整体架构叫“可信智能Fabric”。韦韬还提出了一个独特洞察:“数据是孤岛,但很少有人意识到,专业知识也是孤岛。”

可信智能Fabric的四层架构清晰而完整:最上层是交互界面(专业自主智能体),让用户以自然对话方式提出需求;第二层是执行内核(智能蚁群),大量专业智能体协同完成复杂任务;第三层是支撑体系(知识库、能力接口、数据Fabric),为上层提供数据和工具;最底层是密态计算底座,保障全链路安全。

打开网易新闻 查看精彩图片

密态计算:安全不再是性能的负担

任何AI系统的落地,都绕不开一个终极拷问:数据安全怎么办?

长期以来,安全与性能被看作对立面。但韦韬提供了反直觉的数据——2026年2月,蚂蚁密算获得浙江省科学技术进步一等奖,核心突破在于:达到等保四级安全强度的条件下,完成TPC-DS标准测试集的1TB复杂分析任务,端到端耗时仅为明文计算的1.21倍。而传统隐私计算(如MPC、联邦学习)的成本是百倍千倍起步。

“1.21倍意味着安全不再是性能的负担,而是可以规模化的基础设施。”

打开网易新闻 查看精彩图片

更关键的是“主体信任零新增”——用技术保障取代人性依赖。未经供数方显式同意,原始数据及衍生品绝对无法离开安全域,平台管理员也无法触碰数据。在信任根基上,韦韬还有一个独特视角:电子签名法(2004年),这部法律首次确立了“技术可靠性=法律效力”的原则。而密态计算隔空20年,完美契合了其技术可靠性要求。

商业模式:三环闭环与成本二三五法则

有了技术,如何落地?韦韬给出了一个商业逻辑,完整闭环是:基建供数→融合炼数→场景用数。在这个商业逻辑中,成本分布遵循“二三五”法则——基建20%,融合炼数30%,场景用数50%。“最贵的不是基建,而是融合炼数。因为这是无形资产,比基建还贵。没有强场景盈利能力的机构,无法触发这件事。”

这正是蚂蚁密算的独特优势——背靠蚂蚁集团的五大应用场景(医疗健康、民生就业、新能源出行、征信、消费金融),可以在真实业务场景中,打磨技术产品。例如,在医保领域,密态计算让保险公司与医保数据安全对接,提升商保服务效率;在政务领域,人社关键业务可实现数据库一体化升级;在新能源出行领域,支付宝数字车生活通过密算实现智能驾驶数据安全融合。

技术可行、商业清晰、场景落地,三者齐备。那么,这套体系将把AI产业带向何方?

技术平权,与铺铁轨的能力

技术平权,与铺铁轨的能力

“以前只有大公司才能做的事,现在创新公司甚至传统公司都有机会。”

韦韬将之称为“技术平权”。AI转型的核心门票除了算力、人才,还有数据。通过密态计算和可信智能Fabric,中小企业第一次拥有了与大企业同台竞技的数据能力——这不仅是技术突破,更是产业民主化。

在这个新范式下,AI与人的关系正在被重新定义。

“未来不是AI取代人,而是计算机+超级小队+可信智能Fabric服务各行各业。”韦韬提出的“超级小队”概念,打破了传统专业服务的成本天花板——行业专家的知识不再被“白嫖”,密态计算保障智力资产权益。“服务成本远低于传统模式,专业服务从‘贵族化’走向‘普惠化’。”

另一方面,技术已经就位,制度突破也在发生。

2025年5月,政务数据共享条例颁发,确立了“合规即免责”原则:使用环节的安全责任归于需求部门,供给部门满足合规义务即可免责。作为国家数据专家咨询委员会委员,他正在和同仁们共同推动相关制度突破。“数据供给的合规免责,是打开公共数据流动的关键钥匙。”

面对“AI犯错谁负责”的经典问题,韦韬的答案朴素而务实。“这不是新问题。传统软件和云服务同样面临。”

当前手段是合同加AI业务保险,而AI业务保险需要密态计算支撑。行业演进路径是:双线并跑(传统+AI并行)→积累数据→验证可靠性→保险跟上。“绝对安全的代价不可承受。保险是非常成熟的商业模式。”

采访最后,我们请韦韬给正在探索AI落地的企业决策者一个建议。他提到,“AI转型的门票就是数据。现在就开始系统化梳理治数、问数、用数。”打通数据和知识的任督二脉,支撑预测生成和决策控制,抓住技术平权的历史机遇,不要等。

每一次技术革命,都会经历同一个轮回:狂热先于理性,速度先于秩序。

蒸汽机发明后的头五十年,爆炸事故频发,英国议会不得不通过《蒸汽锅炉法案》强制规范设计与运营。电力普及之前,直流与交流之争让爱迪生和特斯拉反目成仇,甚至有人被电椅处决以证明交流电的“危险性”。互联网泡沫破裂时,无数人宣称“一切都被高估了”。

今天,AI正站在同样的历史关口。

每一次技术跃迁,本质都是人类社会建立新秩序的过程。蒸汽机需要锅炉法案,电力需要标准化协议,互联网需要TCP/IP和域名系统。这些约束从来不是对技术的“压制”——恰恰相反,它们是技术得以规模化、产业化的前提。

没有锅炉法案,蒸汽机永远是小作坊里的危险玩具。没有TCP/IP,互联网只是美国国防部的内部实验网。

今天的AI,正处在“危险玩具”与“基础设施”之间的临界点。

韦韬给出的答案——结构化编程、双态融合、密态计算、可信智能Fabric——本质上都是在做同一件事:为AI铺铁轨。铁轨意味着约束,约束意味着可预期,可预期意味着可信,可信意味着可用。

这是一场从“可能性”到“可靠性”的漫长迁徙。

那些最先意识到这一点的企业,正在弯下腰去铺第一段铁轨。它们老老实实地梳理数据、定义规约、沉淀知识,这些工作不性感,甚至有些枯燥,但它们构成了AI时代真正的护城河。

而那些还在幻想用更快的马车赢得比赛的人,终将被历史告知一个残酷的真相:马车再快,也跑不过铁轨上的火车。铁轨铺到哪里,旧时代就在哪里终结。

打开网易新闻 查看精彩图片

2026年,AI“机车时代”已经到来。

问题是:你准备铺铁轨了么?