人工智能实验室安斯罗普克本周宣布,已开发出一款强大的新模型。该公司认为该模型有望重塑网络安全格局。
安斯罗普克表示,其最新模型“神话预览版”能够发现高危漏洞,这些漏洞甚至存在于所有主流操作系统和网络浏览器中。
维护常用网络基础设施的开发者表示,在过去几个月里,人工智能模型已经从产生幻觉,转变为能够有效发现软件安全缺陷的工具。
这些软件不仅驱动着操作系统的运行,还负责为连接互联网的设备传输数据。尽管这些新能力可以帮助开发者提升软件的安全性,但它们也可能被黑客和国家级行为体武器化,用于窃取信息和资金,或破坏关键服务。
人工智能网络能力的最新进展出现于周二。当时人工智能实验室安斯罗普克宣布,已开发出一款被其视为有望重塑网络安全格局的强大新模型。
该公司声称,最新模型“神话预览版”能够发现高危漏洞,涵盖所有主流操作系统和网络浏览器。
不仅如此,该模型在构思漏洞利用方法方面也表现得更为出色,这意味着恶意行为体可以更高效地达成其目的。目前,该公司将该模型的访问权限限制在约50家特定的企业和机构,试图以此保护全球最关键的软件。他们将这一合作命名为“透翅蝶计划”,该名称源于一种拥有透明翅膀的蝴蝶。根据公告,安斯罗普克表示,由于滥用风险极高,目前没有计划向公众发布这款特定模型,但会推出其他相关模型。
该公司在声明中写道,其最终目标是让用户能够安全地大规模部署“神话”级别的模型。
尽管如此,安全专家指出,潜在风险主要针对网络安全专业人士,而非普通大众。
网络安全公司Proofpoint威胁研究副总裁丹尼尔·布莱克福德表示,他并不认为普通电脑用户需要对此感到根本性的担忧。
他强调,普通人更应该担心的是如何避免泄露密码,因为这种事情每天都在频繁发生。托管开源系统内核的Linux基金会首席执行官吉姆·泽姆林表示,“神话预览版”在协助开发者修复漏洞方面,可能也具备超越以往模型的能力。
内核是实现硬件与软件通信的接口,而该基金会的内核驱动着包括安卓在内的最广泛使用的操作系统,以及全球最强大的500台超级计算机。
Linux基金会是“透翅蝶计划”的成员之一。泽姆林透露,负责维护内核的核心团队即维护者已经开始对新模型进行测试,以探索最有效的使用方式。
泽姆林坦言,在人工智能出现之前,这些维护者就已经处于超负荷工作的状态。这项新技术的出现,无疑大大改善了他们的工作处境。甚至在“神话预览版”限量发布之前,网络安全界就已经在应对目前最先进商用人工智能模型的强大能力。
开发者们正争分夺秒地修复黑客利用人工智能标记出的安全漏洞。安全专家担忧,如果这种能力在缺乏护栏的情况下肆意扩散,未来可能会面临不可预知的风险。
黑客利用人工智能寻找漏洞:从失效到奏效丹尼尔·斯坦伯格指出,人工智能模型能力的提升在2026年初变得尤为明显。
他是开源数据传输工具cURL的首席软件开发者。这款拥有30年历史的工具被广泛应用于汽车和医疗设备等各类互联网连接设备中。斯坦伯格表示,这一转变紧随2025年底发布的新一批前沿模型而来。与软件界的许多人一样,斯坦伯格也依靠安全研究人员的协助来维持软件的功能和安全性。所谓的“白帽黑客”会在私下向开发者报告安全缺陷。作为回报,他们有时会获得被称为“漏洞赏金”的奖金,或者获得以自己名字命名该安全缺陷的荣誉。
尽管所有的漏洞都会影响软件功能,但只有部分漏洞会构成真正的安全威胁。
这一机制在去年开始出现崩溃的迹象。斯坦伯格的团队被大量虚假报告淹没,他坚信这些报告是由人工智能生成的。
斯坦伯格透露,他们全年共收到185份报告,但最终真正与安全问题相关的不到百分之五。
尽管从2024年到2025年,报告数量翻了一番,但斯坦伯格最终发现并修复的安全漏洞却在减少。
由于垃圾报告泛滥成灾,斯坦伯格甚至停止了为cURL工具发放漏洞赏金。
斯坦伯格表示,向他提交报告的黑客通常是匿名的,他们也不会透露报告是否借助了人工智能。
但他指出,人工智能具有独特的写作风格。这些报告往往极其详尽且充满描述性,人类只需50行就能说清楚的问题,人工智能会生成一份长达400行的报告。
斯坦伯格用于管理安全报告的平台HackerOne在2025年夏天对黑客进行了一项调查。
结果显示,近百分之六十的受访者正在使用人工智能、学习人工智能,或者正在学习如何审计人工智能及机器学习系统。
今年的情况发生了戏剧性的变化。斯坦伯格表示,报告数量甚至超过了2025年,但到目前为止,其中大部分都揭示了真正的问题。
他感叹道,几乎所有劣质报告现在都消失了。据他估计,大约十分之一的报告涉及安全漏洞,其余大部分也是真实的程序缺陷。
在2026年仅仅过去的三个月里,斯坦伯格领导的团队发现并修复的漏洞数量,就已经超过了过去两年的总和。
除了依赖外部安全研究人员的报告,斯坦伯格自己也使用人工智能来寻找漏洞。
只需一键操作,人工智能就以近乎神奇的方式,在他的代码中标记出了100多个缺陷。而这些代码此前已经经过了人类和传统代码分析器的多轮审查。
斯坦伯格的经历并非个例。Linux内核的维护者们也观察到了漏洞报告质量的类似变化。
安斯罗普克的研究科学家尼古拉斯·卡利尼利用较早版本的安斯罗普克模型和相对简单的提示词,成功在Linux内核中发现了漏洞。
此外,卡利尼还利用人工智能在另一个拥有20年历史的开源项目中,发现了首个高危漏洞。
人工智能软件安全公司Corridor的首席安全官亚历克斯·斯塔莫斯直言,大语言模型在寻找漏洞方面已经超越了人类的能力。
斯塔莫斯曾担任雅虎和脸书的安全主管。他指出,安全研究报告质量的提升,是在去年11月安斯罗普克发布“杰作4.5”模型之后出现的。
斯塔莫斯进一步分析称,由于大量商业软件包含开源组件,开源项目的遭遇将对整个互联网产生更广泛的影响。
人工智能能否修复其发现的漏洞?斯坦伯格认可目前公众可用的人工智能模型在寻找漏洞方面变得更加实用,但他同时也对未来更强大的模型可能给开源软件开发者带来的冲击保持警惕。
他指出,这会给所有维护者带来超负荷的压力,而这些维护者在很多情况下已经处于工作过载、人手不足、薪酬微薄且资金匮乏的困境中。
斯坦伯格并未参与“透翅蝶计划”。他坦言,许多作为互联网真正基石的关键项目,实际上被排除在了该计划之外。
针对美国全国公共广播电台的置评请求,安斯罗普克未予回应。
不过,基于目前的经验,斯坦伯格认为人工智能在修复缺陷和安全漏洞方面的表现,远不及它在发现问题时的亮眼。
部分原因在于,无论是漏洞本身还是其修复方案,往往都不是非黑即白的。与软件开发的其他许多环节一样,做出判断所耗费的时间往往多于实际编写代码的时间。
斯坦伯格解释道,一旦确定了问题并达成共识,实际的修复工作并不困难,也不会耗费太多时间。真正消耗时间和精力的,是达到这一步之前的整个过程。
但也有人持有不同观点。HackerOne公司目前正在开发一款代理型人工智能产品,旨在更自主地发现并修复漏洞。
人工智能如何影响网络安全攻防战?
斯塔莫斯指出,发现漏洞并不等同于让漏洞变得可被利用。
他解释称,在所谓的“杀伤链”中,第一步是发现缺陷,而下一步才是真正构建武器。目前的基础模型并不会替你完成构建武器的工作。
基础模型是由安斯罗普克、OpenAI和谷歌DeepMind等最顶尖人工智能实验室开发的模型。
这些实验室已经设置了安全护栏,以防止其模型生成可被恶意使用的软件。这些模型具有高度的专有性,其内部运作机制并不公开。
一旦公众更容易获取的所谓“开源权重模型”赶上顶尖实验室的水平,一切防线都可能土崩瓦解。
恶意行为体可以轻易复制这些模型,并移除防范恶意软件的安全护栏。
斯塔莫斯警告称,届时我们将陷入真正的麻烦,因为你不仅可以要求这些模型寻找漏洞,还能让它们生成用于入侵系统的漏洞利用代码。
目前,最先进的开源权重模型与最先进的闭源权重模型之间,差距已不足一年。
斯塔莫斯补充道,外界分析人士指出,五角大楼将安斯罗普克视为对整个美国的威胁,这种论调显得极不明智。
此前,五角大楼将安斯罗普克标记为“供应链风险”,原因是该公司要求政府不得将其技术用于自主武器和大规模监控。
这一标签将禁止政府机构和承包商与安斯罗普克合作。目前,安斯罗普克正在法庭上对这一标签提出异议。
斯塔莫斯认为,安斯罗普克选择不公开发布“神话预览版”,实际上是在为软件开发者以及美国争取巩固防御体系的时间。
热门跟贴