Ilya Sutskever去年5月离开OpenAI时,发了一句简短的告别推文。没有感谢词,没有未来计划,只有一句「After almost a decade, I have made the decision to leave OpenAI」。当时所有人都猜他会去哪——谷歌、Anthropic、还是彻底隐退。结果三个月后,他官宣创立Safe Superintelligence Inc.,名字直白得像在嘲讽老东家。
这家公司从诞生起就透着一股诡异。SSI的使命是「直接构建安全的超级智能」,不搞中间产品,不卖API,不碰消费者应用。用Ilya自己的话说,他们要「一步到位解决对齐问题」。听起来像是要造火箭却拒绝先造自行车,投资人却吃这套。公司成立仅三个月,估值冲到50亿美元;今年3月新一轮融资后,直接飙到200亿——相当于两个半Anthropic的B轮融资体量。
但钱烧到现在,SSI连一个demo都没拿出来。团队规模始终控制在20人以内,官网只有一段宣言和一个招聘邮箱。对比OpenAI同期从GPT-4迭代到GPT-4o,SSI的进度条几乎静止。有投资人私下吐槽,这更像是Ilya的个人研究基金披了层公司皮。
更微妙的是时间线。Ilya离开OpenAI前,正是董事会宫斗的核心人物——他参与罢免了Sam Altman,又在五天后反悔支持其回归。这场闹剧的直接后果,是OpenAI解散了他负责的超级对齐团队。半年后,原团队负责人Jan Leike也跳槽Anthropic,临走前撂下一句「安全文化正在让位于闪亮的产品」。
SSI的200亿估值,某种程度上是市场对OpenAI路线的一次报复性押注。但押注的是Ilya这个人,而非任何可见的技术路径。一位曾接触SSI的VC透露,尽调时团队拒绝披露任何训练细节,只反复强调「scaling law的新形式」。翻译成人话:他们也不知道具体怎么做,但相信Ilya能想出来。
最新消息是SSI正在招ML工程师,要求「愿意长期投入高风险研究」。招聘信息里没提薪资范围,只写了一句话:「我们不为季度目标工作。」
热门跟贴