你的AI代理正在无人监管地调用API。欧盟AI法案已生效,SOC 2审计开始追问代理工作流,而你的LangChain代理连一条审计日志都没留——这不是假设,是本周三个技术负责人告诉我的真事。
一个Python SDK叫asqav,试图给这个失控场景装上刹车。pip install之后几行代码,每次代理动作都会生成量子安全签名,事后任何人都能验证。
从"黑箱"到"可验证":签名机制怎么工作
asqav的核心设计很简单:每次代理执行关键动作时,生成一条ML-DSA(NIST后量子签名标准)签名的记录,锚定到比特币网络的时间戳服务。你拿到一个公开验证链接,审计员、合规团队、甚至客户都能独立核查。
代码层面,调用agent.sign()会触发服务端签名,返回的verification_url就是证据。装饰器模式更省事——给函数加@asqav.sign,调用自动被记录。异步、CLI管理、主流框架集成,这些都有。
LangChain用户可以直接塞AsqavCallbackHandler进callbacks数组。CrewAI、LiteLLM、Haystack、OpenAI Agents SDK同理。框架迁移成本被压到最低,这是产品经理出身的团队会做的取舍。
内容扫描跑在签名之前:PII、提示注入、密钥泄露、毒性内容,先过一遍筛子。行为监控盯着基线漂移,单代理限流防止暴走。发现异常?一条API调用就能隔离。
合规报告不是"事后补作业"
欧盟AI法案第12/14条、DORA的ICT风险报告、SOC 2信任服务报告——asqav内置了这些模板。PDF导出、定时自动生成、证据链内置,不是让你临时凑材料,是把合规变成流水线。
定价分层很清晰:免费档每月1000次签名、3个代理、3条策略,零门槛试用。Pro版29美元/月拉到5万次签名和25个代理,加上可观测性和成本归因。Business版99美元解锁无限签名、内容扫描、行为监控、合规报告和多签审批。
多签机制值得单独说:高风险动作需要多个实体共同批准,不是一个人能拍板的。这和传统"可观测性"工具的本质区别——后者给你日志看,前者给你 cryptographic proof(密码学证明)。
技术栈选得也狠:ML-DSA-65是NIST FIPS 204后量子标准,OpenTimestamps把审计锚定到比特币。不是追热点,是假设"现在的加密算法未来可能被量子计算机破解"的前提下做设计。
谁在用?一个早期信号
项目刚开源,GitHub星数还在爬坡,但已有金融科技公司在内部代理系统里试点。他们的痛点很具体:监管审计来了,能拿出什么证据证明"这个AI决策当时就是这样"——不是截图,不是日志,是数学上可验证的签名。
一位合规负责人原话:「以前我们靠邮件和Excel追踪代理行为,现在至少有个技术抓手。」
另一个场景是外包开发。甲方把代理系统交给乙方,交付时附带asqav的验证链接,验收标准从"功能跑通"变成"每笔操作可审计"。信任成本被技术机制替代,这是区块链思维在AI治理里的落地。
但限制也明显:asqav解决的是"事后证明发生了什么",不是"事前阻止坏事发生"。内容扫描能拦一部分,真正的业务风险——比如代理基于错误数据做出的决策——还得靠上层设计。
量子安全签名听着超前,实际部署时企业更关心的是:审计员认不认这个格式?欧盟AI法案的执法细则还在细化,asqav的报告模板能不能跟上更新节奏?这些才是 adoption(采用)的关键变量。
开源策略是聪明的。SDK本身免费,托管签名服务和合规报告生成收费。对企业客户,"自托管选项"是谈判筹码——数据不出境,签名在本地完成,只把哈希上链。
团队背景我没挖到,但从产品取舍能看出经验:不做大而全的"AI治理平台",先钉死"签名+合规报告"这一个场景。功能边界清晰,集成成本可控,这正是技术决策者愿意试用的前提。
一个细节:免费档的1000次签名/月,对单个开发者的实验足够,对小团队的生产环境刚好卡脖子。这个设计很产品经理——让你用起来,再让你为"不够"付费。
热门跟贴