据《财富》杂志,Anthropic泄露的文件显示,新一代超强模型Claude Mythos已在测试中。公司认为其带来了前所未有的网络安全风险。除提及Claude Mythos外,泄露的博客草稿还讨论了一类新的AI模型层级,称为Capybara。文件称:“‘Capybara’是一个新名称,对应一个新的模型层级:规模更大、智能水平更高,超过我们此前最强大的Opus模型。”Capybara与Mythos似乎指向同一底层模型。
《财富》原文报道:
人工智能公司 Anthropic 表示,该公司正在开发一种比以往发布的任何人工智能模型都更强大的新模型,并已开始与早期用户进行测试。此前,一次数据泄露事件曝光了该模型的存在。
Anthropic公司的一位发言人表示,新模型代表了人工智能性能的“飞跃式提升”,是“我们迄今为止构建的最强大的模型”。该公司称,该模型目前正在由“早期用户”进行试用。
该模型的描述信息被意外存储在一个可公开访问的数据缓存中,并被《财富》杂志查阅。
周四晚上之前,一篇发布在不安全且可公开搜索的数据存储库中的博客文章草稿称,新模型名为“Claude Mythos”,该公司认为它会带来前所未有的网络安全风险。
同一批未加密、可公开发现的文件还披露了该公司计划在欧洲举办的仅限受邀人士参加的CEO峰会的细节,这是该公司向大型企业客户销售其人工智能模型计划的一部分。
据计算机和网络安全公司LayerX Security的高级人工智能安全研究员Roy Paz和剑桥大学网络安全研究员Alexandre Pauwels分别找到并审查的文件显示,人工智能实验室将包括一篇疑似宣布新模型的博客文章草稿在内的资料,遗留在了一个未受保护的公共数据湖中。据Pauwels称,总共有近3000份与Anthropic博客相关的资产,这些资产此前并未在该公司新闻或研究网站上发布,但却可以公开访问。
在《财富》杂志于周四告知Anthropic数据泄露事件后,该公司立即关闭了公众搜索该数据存储区和从中检索文档的功能。Anthropic在提供给《财富》杂志的一份声明中承认,由于其内容管理系统配置中的“人为错误”,导致该博客文章草稿可以访问。该文件将存放在不安全且可公开搜索的数据存储库中的未发表材料描述为“拟发表内容的早期草稿”。除了提及 Mythos 模型外,该博客文章草稿还讨论了一个名为“Capybara”的新型人工智能模型。Anthropic 公司在文件中表示:“‘Capybara’是新型模型的新名称:它比我们迄今为止最强大的 Opus 模型更大、更智能。” Capybara 和 Mythos 似乎指的是同一个底层模型。
目前,Anthropic 旗下所有型号均有三种尺寸:最大、功能最强的型号名为 Opus;速度稍快、价格稍低但功能稍弱的型号名为 Sonnet;最小、最便宜、速度最快的型号名为 Haiku。然而,在博客文章中,Anthropic 将 Capybara 描述为一个全新的产品系列,其尺寸更大、功能更强,但价格也更高。
该公司在博客中表示:“与我们之前的最佳模型 Claude Opus 4.6相比,Capybara 在软件编码、学术推理和网络安全等方面的测试中获得了更高的分数。”
该文件还表示,该公司已完成对“Claude Mythos”的训练,该博客文章草稿将其描述为“迄今为止我们开发的最强大的 AI 模型”。
针对有关博客文章草稿的问题,该公司承认正在训练和测试一款新模型。“我们正在开发一款通用模型,它在推理、编码和网络安全方面都有显著提升,”Anthropic 的一位发言人表示。“鉴于其强大的功能,我们正在谨慎地发布这款模型。按照行业惯例,我们正在与一小部分早期用户合作测试该模型。我们认为这款模型是一次飞跃,也是我们迄今为止构建的最强大的模型。”
《财富》杂志和网络安全专家审阅的这份文件包含网页的结构化数据,包括标题和发布日期,表明它是计划中的产品发布的一部分。该文件概述了该模型的谨慎推广策略,首先面向一小部分早期用户开放。博客草稿指出,该模型运行成本高昂,尚未准备好正式发布。
泄露的文件显示,新的人工智能模型存在重大的网络安全风险。
“在准备发布 Claude Capybara 模型时,我们希望格外谨慎,并充分了解它带来的风险——甚至包括我们自身测试中发现的风险。特别是,我们希望了解该模型在网络安全领域可能存在的近期风险,并将结果分享给网络安全防御者,以帮助他们做好准备。”该文件指出。
Anthropic公司似乎尤其担忧该模型的网络安全隐患,指出该系统“目前在网络安全能力方面遥遥领先于其他任何人工智能模型”,并且“预示着未来将出现一波能够以远超防御者速度的方式利用漏洞的模型”。换句话说,Anthropic公司担心黑客可能利用该模型发起大规模网络攻击。
该公司在博客草稿中表示,由于存在这种风险,其模型发布计划将重点放在网络防御者身上:“我们将以早期访问的形式向各组织发布该模型,让他们在提高代码库的稳健性方面抢占先机,以抵御即将到来的 AI 驱动的攻击浪潮。”
Anthropic 和 OpenAI 最新一代的前沿模型已经突破了某个门槛,两家公司均表示这将带来新的网络安全风险。今年2月,OpenAI 发布 GPT-5.3-Codex 时,该公司称这是其根据“网络安全准备框架”评定的首个“高能力”网络安全相关任务模型,也是首个直接训练用于识别软件漏洞的模型。
与此同时,Anthropic公司也面临着类似的风险,其发布的Opus 4.6模型于同一周发布。该模型展现了发现生产代码库中此前未知漏洞的能力,该公司也承认这项功能具有双重用途,这意味着它既可以帮助黑客,也可以帮助网络安全防御者发现并修复代码中的漏洞。
网络安全专家表示,此次尚未公开的信息泄露似乎源于该公司内容管理系统 (CMS) 用户的一个错误,该系统是用于发布公司公共博客的软件。
使用内容管理系统创建的数字资产默认设置为公开,上传时通常会被分配一个公开可访问的URL——除非用户明确更改设置,将这些资产设为私有。
因此,大量图片、PDF文件和音频文件似乎通过现成的内容管理系统被错误地发布到了一个不安全且公开可访问的URL。
Anthropic在给《财富》杂志的一份声明中承认,“我们的一款外部CMS工具出现问题,导致草稿内容可以访问。”该公司将此问题归咎于“人为错误”。
许多文件看起来像是过去博客文章中被丢弃或未使用的素材,例如图片、横幅和徽标。然而,其中一些似乎是私人或内部文件。例如,其中一份文件的标题描述了一位员工的“育儿假”。
这些文件还包括一份PDF文件,其中包含即将在英国举行的欧洲公司CEO专属邀请制研讨会的信息,Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)将出席。其他与会者的姓名未列出,但据称他们是欧洲最具影响力的商界领袖。
为期两天的研讨会被描述为一次“私密聚会”,旨在让与会者在英国乡村一座由18世纪庄园改建而成的酒店和水疗中心进行“深入交流”。文件称,与会者将听取立法者和政策制定者关于企业如何应用人工智能的介绍,并体验尚未发布的Claude功能。
Anthropic公司的一位发言人告诉《财富》杂志,此次活动“是我们过去一年来举办的一系列活动的一部分。我们期待与欧洲商界领袖共同探讨人工智能的未来。”
原文:https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/
热门跟贴