打开网易新闻 查看精彩图片

去年一家金融科技公司的安全团队,平均每天收到1200条SaaS告警。工程师们把80%的时间花在"这到底是什么意思"上,真正处理威胁的时间只剩两成。这不是某个团队的特例——Gartner数据显示,企业安全运营中心(SOC)的告警疲劳率已达62%,误报泛滥让分析师们逐渐对真正的风险脱敏。

Reco盯准了这个痛点。这家专注SaaS安全的公司,用亚马逊Bedrock(Amazon Bedrock,亚马逊云科技的生成式人工智能模型托管服务)搭了一套"告警翻译器",把机器生成的技术日志转换成人类能读懂的故事。结果很直接:客户侧的平均事件响应时间缩短了47%,高危告警的首次响应从小时级压到分钟级。

告警翻译的难点:机器说"异常",人想知道"有多严重"

传统安全告警的困境,很像医院急诊室的分诊系统。系统抛出一堆指标——"用户A在非常规时间访问了敏感文件B,IP属地异常,操作频率超出基线300%"——但值班医生(安全分析师)需要快速判断:这是误触还是内鬼?要不要立即升级?

Reco的CTO Tal Shapira在博客中写道:「现代告警是高度技术化的,工程师必须手动分析原始事件数据、跨多个告警交叉引用指标、确定潜在影响和响应方案,再把发现传达给非技术决策者。」这套流程平均消耗45分钟到2小时,而攻击者的横向移动往往只需15分钟。

Reco的解法是把Anthropic Claude(Anthropic公司开发的大语言模型)塞进Bedrock,做了一层"告警故事生成器"(Alert Story Generator)。核心逻辑不复杂:把技术日志、用户行为画像、资产敏感级别、历史上下文喂给模型,输出一段带优先级标记、影响范围、建议动作的叙事文本。

Bedrock的选型逻辑:不是选模型,是选"换模型的自由"

Bedrock的选型逻辑:不是选模型,是选"换模型的自由"

打开网易新闻 查看精彩图片

Reco选Bedrock而非直接调用Claude API,看中的是四层能力。第一层是模型超市——Bedrock托管了Anthropic、AI21、Stability AI、亚马逊自研等多家的基础模型,Reco可以针对不同告警类型切换模型:Claude处理长上下文叙事,Titan(亚马逊自研模型)做快速分类,不用被单一供应商锁死。

第二层是安全合规。金融和医疗客户的数据不能出VPC(虚拟私有云),Bedrock的VPC集成和静态加密让Reco可以承诺"数据不离环境"。第三层是成本结构——按token付费,没有预置集群的固定成本,告警量波动大的场景下,这比自建模型服务器便宜40%以上。

第四层被很多人忽略:API架构的灵活性。Reco的产品经理Tamir Friedman提到,他们用Bedrock的API把AI能力嵌入现有工作流,"不用重构应用架构,也不用把数据流交给第三方"。这对已有技术债的企业客户很关键。

四步流水线:从原始日志到可执行洞察

四步流水线:从原始日志到可执行洞察

Reco的系统把告警处理拆成四个环节,每个环节都有明确的输入输出标准。

第一步是上下文组装。系统抓取告警触发时的用户身份、设备指纹、访问的资产类型、历史行为基线,以及同类告警的处置记录。这些信息被格式化成结构化提示词(prompt),喂给模型。

第二步是叙事生成。Claude根据提示词输出三段内容:发生了什么(用业务语言描述事件)、为什么重要(关联资产价值和潜在影响)、建议做什么(分立即行动和后续调查两档)。Reco在这里做了严格的输出约束——禁止模型 hallucinate(幻觉生成)不存在的指标,所有结论必须锚定到原始日志的字段。

打开网易新闻 查看精彩图片

第三步是优先级校准。生成的叙事会经过一个规则引擎,结合客户自定义的SLA(服务等级协议)调整紧急程度。比如同样是一次异常下载,涉及财务报表的自动标为P1(1小时内响应),普通营销素材则降为P3(24小时内处理)。

第四步是闭环反馈。分析师对生成内容的评分("有用/需改进/错误")会回流到提示词优化流程,形成数据飞轮。Reco透露,上线三个月后,分析师对生成叙事的满意度从初期的67%提升到89%。

一个被验证的细节:提示词工程比模型选择更重要

一个被验证的细节:提示词工程比模型选择更重要

Reco在博客里公开了他们的提示词设计思路,这很少见。他们没有用复杂的链式调用(chain-of-thought),而是把"角色设定+输入格式+输出约束+示例"四层结构压缩在单轮对话里。

角色设定让模型扮演"资深安全分析师,擅长向业务负责人解释技术风险";输入格式强制要求JSON结构,避免解析错误;输出约束用 bullet point 限定字段,禁止自由发挥;示例则提供3-5个经过人工审核的优质输出,作为少样本学习(few-shot learning)的锚点。

这种设计牺牲了一定的灵活性,但换来了稳定性和可解释性——金融客户审计时,Reco可以出示完整的提示词版本和输出样例,证明没有黑箱操作。

Reco的客户数据里有个反直觉的发现:告警处理速度提升后,误报率并没有显著下降,但分析师的"误报耐受度"提高了。因为每条告警都有了上下文叙事,判断"这是噪音"所需的时间从平均8分钟降到90秒。换句话说,系统没有减少噪音,但让人更快识别出噪音。

这套方案现在的瓶颈在哪?Reco没有回避:多语言支持还在打磨,日语和德语的叙事生成准确率比英语低12-15个百分点;超大规模客户(日告警量超过10万条)的成本曲线需要重新测算;以及,模型偶尔会在"建议动作"环节给出过于保守的策略——这是安全领域的经典难题,宁可漏报不可误报的倾向,如何与业务风险偏好校准?

最后一个细节来自Reco的落地反馈:某家跨国制造企业的CISO(首席信息安全官)在内部会议上说,以前每周安全周会的开场是"我们这周有3400条告警,处理了其中的78%",现在变成了"我们这周阻止了2起潜在的数据泄露,涉及财务和研发部门,这是具体案例"。叙事方式的改变,让安全团队从成本中心变成了业务伙伴——这个转变,或许比47%的响应速度提升更值得被记录。