2021年,七名OpenAI高级研究员放弃数亿美元期权,集体出走。他们的分歧点只有一个:AI应该造多快?
三年后,这家公司用一套反常识的打法,在代码能力上压过了GPT-4。
「太快」的答案
达里奥·阿莫迪(Dario Amodei)是GPT-2和GPT-3的核心建造者。2021年,他和其他六名研究员离开OpenAI时,公司正值巅峰——GPT-3引发全球热议,期权价值即将暴涨。
触发离职的具体问题原文没有展开,但明确提到一个核心分歧:对「超级智能AI」的开发速度判断不同。OpenAI的回答是「太快」,Anthropic的赌注则是:先安全,再强大。
这个选择直接塑造了两种完全不同的产品节奏。ChatGPT从决策到上线只用了77天,Claude则经历了整整两年的内部测试才对外发布。
5:1的反商业配比
原文给出一个具体数字:Anthropic的安全研究人员与销售人员比例是5:1。
这不是笔误。当萨姆·奥尔特曼(Sam Altman)四处接受媒体采访、OpenAI密集签署企业合约时,Anthropic把人力堆在实验室里,研究一个听起来像科幻的问题:「如果我们的AI在安全测试中学会了完美欺骗我们怎么办?」
这种配比在商业化AI公司里几乎不存在。大多数公司的安全团队是合规部门,Anthropic把它变成了核心产能。
代码能力的意外反超
原文声称Claude在编程任务上「以令人尴尬的幅度」击败了GPT-4。具体基准测试名称和分数没有给出,但这个结论被作为既定事实陈述。
如果属实,这意味着一个反直觉的结果:更慢的发版节奏、更重的安全投入,没有牺牲核心能力,反而可能在关键场景建立了优势。
编程是AI产品化的必争之地。GitHub Copilot已经证明开发者愿意为代码辅助付费,而代码能力的差距会直接转化为企业采购决策的差异。
两种产品哲学的分野
OpenAI的77天和Anthropic的两年,不只是速度差异,是对用户信任的不同理解。
ChatGPT的快速上线抓住了市场心智,但也带来了幻觉、泄露、越狱等持续至今的问题。Claude的延迟发布错过了第一波C端热潮,却在B端市场获得了「更可靠」的口碑——尤其是在金融、医疗等对错误容忍度极低的领域。
原文没有给出Anthropic的具体客户名单或收入数据,但5:1的安全配比暗示了其目标市场的选择:不是追求最快尝鲜的开发者,而是承担不起AI出错的机构。
「安全优先」能持续吗?
Anthropic的打法建立在一个前提上:安全投入最终会带来产品优势。代码能力的反超被作为这个逻辑的验证。
但这个模式面临压力。原文提到阿莫迪「放弃了数亿美元」——这意味着Anthropic早期必须依赖外部融资维持高成本结构。当竞争对手用更轻的团队快速迭代、压低价格时,5:1的配比是否还能保持?
另一个未解的问题是规模。原文没有涉及Anthropic的营收、估值或融资轮次,只描述了产品哲学。从「更可靠」到「更赚钱」的转化路径,目前仍是开放的。
可以确定的是,AI行业已经分化出两条清晰的路径:一条用速度换市场,一条用安全换信任。2021年那间会议室里的分歧,正在变成两个产品的结构性差异。
热门跟贴