打开网易新闻 查看精彩图片

整理 | 郑丽媛

出品 | CSDN(ID:CSDNnews)

如果有一天,AI 不再只是帮你写代码、画图和改简历,而是开始自己学习、自己进化,甚至被黑客“借用”去入侵系统、操控现实世界,你希望谁来为这一切兜底?

这正是 OpenAI 近日抛出的一个问题。

他们正在招聘一个听起来像科幻小说角色的职位——Head of Preparedness(应急准备主管),年薪高达 55.5 万美元,折合人民币超过 388 万元。

打开网易新闻 查看精彩图片

但 Sam Altman 在发布这则招聘启事时,却没有一丝“高薪岗位”的轻松感,反而直言:“这将是一份极其有压力的工作,你几乎一上来就要跳进深水区。”

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

这个岗位,到底在“防”什么?

与传统的安全负责人不同,OpenAI 招聘的这个岗位面对的不是单一产品 Bug,而是整个AI技术演进所带来的系统性风险。

OpenAI 在岗位描述中明确提到,Head of Preparedness 的工作内容涵盖多个方面:

  • 主导 OpenAI 的全面准备策略,涵盖能力评估构建、威胁模型建立以及缓解措施的制定与协调;

  • 引领前沿能力评估的开发工作,确保其在快速产品迭代周期中保持精准、稳健且可扩展;

  • 监督主要风险领域(如网络安全、生物技术)的缓解方案设计,确保防护措施技术可靠、切实有效且与基础威胁模型相匹配;

  • 指导评估结果解读,确保其直接影响产品发布决策、政策选择及安全论证;

  • 随着新风险、新能力或外部期望的出现,持续优化并迭代应急准备框架;

  • 跨职能协作,联合研究、工程、产品团队,政策监控与执行团队,治理机构及外部合作伙伴,将应急准备机制融入实际部署场景。

是的,这个岗位要负责的不只是“灭火”,还要提前预判还没发生的风险场景。

正如 Sam Altman 在 X 上所说的:“我们已经能衡量模型能力的增长,但现在更难的问题是——这些能力会如何被滥用?我们又该如何在不牺牲创新的前提下,限制这些负面影响?”

打开网易新闻 查看精彩图片

集体“敲警钟”:现在不害怕,才是真危险

OpenAI 并不是在制造焦虑,事实上,业内多位知名人物都曾公开表达过对 AI 安全的担忧。

微软 AI CEO Mustafa Suleyman 近日在 BBC 节目中直言:“如果你现在一点都不害怕,那说明你根本没有在关注正在发生的事情。”谷歌 DeepMind 联合创始人、诺奖得主 Demis Hassabis 也警告:AI 有可能在某些维度“脱轨”,并对人类造成无法逆转的伤害。

但与 AI 技术高速狂飙形成鲜明对比的,是对其监管的滞后:由于国际层面缺乏统一规则,AI 公司现在几乎处于自我监管状态。这导致 AI 公司不得不走向一种尴尬的局面:一边追求规模和商业化,一边试图自我约束。

对此,“AI 教父”之一的 Yoshua Bengio 曾讽刺说:“一块三明治受到的监管,都比 AI 多。”

打开网易新闻 查看精彩图片

不只是理论AI导致现实悲剧

可能会有人觉得这些担忧仍只是“假设”,但事实证明,AI 的风险已经渗透进现实生活。

例如,上个月 Anthropic 披露了首例 Claude 模型参与的AI网络间谍活动。同时 OpenAI 自己也承认,其最新模型在“黑客能力”上,比三个月前提升了近 3 倍,并预计后续模型会也会持续增长——这意味着,“AI 自动化网络攻击”已经从科幻,走进现实。

此外,目前 OpenAI 还正在面对两起极具争议的诉讼:

(1)加州 16 岁少年 Adam Raine 自杀案:家属指控 ChatGPT 在交流中“鼓励”其儿子自杀,OpenAI 则认为这属于用户误用。

(2)康涅狄格州 Stein-Erik Soelberg 案:诉讼称 ChatGPT 加剧了他的偏执妄想,最终促使他杀害了 83 岁母亲并自杀。

对于这些案件,OpenAI 发言人回应称,公司正在改进模型训练,使其更好地:识别心理或情绪失控信号,主动降级对话强度,并引导用户寻求来自现实世界的帮助。

打开网易新闻 查看精彩图片

年薪 55.5 万美元,网友怀疑没人胜任

在此背景下,此次 OpenAI 招聘 Head of Preparedness 的目的也就不言而喻了。

如 Sam Altman 所说,这份年薪 55.5 万美元的工作确实“高压”,因此除了现金报酬,还外加一份“未披露比例的 OpenAI 股权”——要知道,OpenAI当前估值已高达 5000 亿美元。

打开网易新闻 查看精彩图片

尽管待遇看似不错,但对于这则招聘消息,许多人都表示了质疑与讽刺:

  • “所以,全世界都在警告你的事情正在发生,而你以为雇一个人就能解决问题?”

  • “终于有人想到这一点并发布了招聘信息,但我怀疑根本没人能够胜任这项挑战。”

  • “这些不过是虚伪的安全粉饰之举,根本无法减轻你们的 AI 系统对我们孩子所构成的威胁,就此打住吧!明明 AI 已经失控了,还要装得如此傲慢。”

还有不少人从这个招聘举动中,推测出了 OpenAI 的当前处境:

  • “这篇帖子透露出了 GPT-5+ 已在实验室中诞生。但看情况,它似乎已超越推理与逻辑,正迈入自主控制论领域。所以我觉得,OpenAI 聘请应急准备主管绝非公关噱头,而是一种‘备战姿态’。此刻起,整个行业必须停止AI只是聊天工具的假象了。”

  • “意思是,AI 马上就要反过来对付我们了?”

那么,对于 OpenAI 发布的这则招聘,你又有什么看法呢?

参考链接:https://openai.com/careers/head-of-preparedness-san-francisco/


打开网易新闻 查看精彩图片