当整个行业还在用"更好的提示词"给大语言模型(LLM,大型语言模型)系安全带时,有个团队直接拆了方向盘——他们不再信任AI本身。

Lirix v1.5.1「Omniscience」今天发布。这不是又一个安全补丁,而是一套数学强制边界:彻底剥夺LLM的绝对裁量权,把它锁死在密码学真理之内。

打开网易新闻 查看精彩图片

如果你在做Web3+AI,这条产品路线值得盯紧。

为什么"概率系统"在链上是死路

LLM擅长三件事:综合信息、制定计划、识别模式。但它同样擅长在最关键的时刻,自信满满地编造 nonsense。

输出一段文字时,这叫"幻觉";输出一笔交易时,这叫"财务自杀"。

原文列了五种典型死法:恶意授权、被污染的兑换路由、代理层伪装的蜜罐、失效RPC节点制造的幻觉、以及本不该存在的状态转换。每一种都是真金白银的归零风险。

所以核心问题从来不是"你的AI听起来多聪明",而是"你的系统能否强制这份聪明经受住现实的检验"。

Lirix的答案是:用数学替代直觉。

三层控制平面:从意图到执行的绞杀链

1.5.1版本的核心架构是"分层控制平面"——每一层都在价值流动前切除一种模糊性。

第一层卡在意图生成阶段。

当AI生成恶意、畸形或不安全的意图时,系统不会抛出那种毫无意义的通用堆栈跟踪。Lirix会拦截载荷,触发精确的LirixSecurityException异常,并通过exc.resolution_for_agent协议返回"预期值"与"观测值"之间的精确数学差值。

关键差异:Agent收到的不是拒绝,而是修正路径。

原文强调这个设计哲学——"智能系统不应仅被阻挡,而应被教导"。传统模式是盲重试→信心崩溃;Lirix的模式是错因解释→实时自纠→数学干净后才恢复执行。

这不是错误处理,这是对自主系统的行为 conditioning(条件作用)。

第二层是Pydantic v2引擎的结构绞杀。

交易进入模拟前,原生引擎强制执行结构刚性:无效类型、幻觉字段、漂移参数、畸形载荷——全部在本地立即终止。AI必须说协议的确切结构语言,否则交易当场死亡。

第三层(原文未完全展开,但指向明确)是密码学证明层——这也是"Omniscience"这个代号的含义:全知不是让AI知道一切,而是让系统能证明一切。

产品逻辑:从"信任AI"到"不信任任何人"

这个版本号是1.x架构的"canonical endgame(规范终局)"——原文用词很重。意味着这不是过渡方案,而是第一代的最终形态。

背后的商业判断很清晰:Web3 AI的安全赛道,prompt engineering(提示词工程)和政策剧场已经卷到边际效益归零。真正的差异化来自数学保证的可组合性。

对开发者来说,这意味着什么?

如果你在做链上Agent,现在有两条路:继续堆叠"希望层"——更长的系统指令、更复杂的权限规则、更多的人工审核节点;或者接受一个更硬的约束——把AI的决策空间压缩到可证明的集合内。

Lirix选了后者,而且把"可证明"做成了产品接口。

exc.resolution_for_agent这个协议设计尤其值得关注:它把安全异常转化为可消费的反馈信号,让Agent能进入自我修正循环。这不是给人类看的日志,是给机器读的教案。

谁该认真看这个发布

三类人:

正在做DeFi Agent的团队——你们的用户不会容忍"AI抽风"导致的资金损失,而传统风控无法覆盖LLM的涌现行为;

关注AI安全基础设施的投资人——这个方向的技术债正在从"可能出问题"变成"已经出问题",数学约束层是少数可规模化的解法;

对"确定性计算+概率推理"交叉点感兴趣的工程师——Lirix的架构选择(Pydantic结构验证+密码学边界+异常反馈协议)提供了一个可研究的实现样本。

原文没有提团队背景、融资情况、或已有客户案例。所以这些都不能写。但技术路线的选择本身已经足够具体:他们用"数学笼子"替代"信任AI",用"可证明"替代"可解释"。

这是两条完全不同的产品哲学

下一步值得追踪的信号

1.5.1是1.x的终局,意味着2.0已经在路上。关键观察点:数学约束层是否会开放给非Lirix原生Agent?异常反馈协议能否成为行业标准?以及,在多签、MPC(多方计算)、TEE(可信执行环境)等现有方案之外,"确定性笼子"能否证明其不可替代性。

Web3 AI的安全基础设施还在早期。但方向已经分化:一边是用更多胶水把LLM粘得更牢,一边是用更硬的边界把LLM关得更死。

Lirix押了后者。如果你也在做链上Agent,建议把他们的release note(发布说明)下载下来仔细读一遍——不是抄代码,是抄思路。

数学不会幻觉,但前提是,你真的用了数学。