OpenAI这波操作真的把我看傻了!一边是AI安全捅出人命大篓子,一边甩出389万年薪加股权急招安全负责人,这难道不是“着火了才想起装灭火器”的典型?

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

动荡根源

说真的,这安全负责人岗位看着是香饽饽,实则是块烫手山芋,谁来谁“短命”,换人的速度比我刷短视频还快!为啥这么说?咱们回头看看这混乱的历史就知道了。

打开网易新闻 查看精彩图片

2023年7月,OpenAI成立“超级对齐”团队,计划4年时间构建人类水平的自动对齐研究器,解决超智能AI的对齐问题,由联合创始人、前首席科学家Ilya Sutskever和Jan Leike联合领导,OpenAI承诺将20%算力投入该团队研究。

后来Jan Leike离职加入Anthropic,联合领导其对齐团队。更关键的是,Ilya因与CEO山姆·奥特曼在“技术商业化速度”与“AI安全优先级”上存在核心分歧,于2024年5月离职,随后OpenAI于2024年5月17日宣布解散“超级对齐”团队,这场安全与商业化的博弈以安全派失利告终。

打开网易新闻 查看精彩图片

后来为了平息大家对安全的担忧,OpenAI于2023年同步成立Preparedness团队,专门应对AI模型的灾难性风险。首任负责人信息无权威信源佐证原文提及的Aleksander Madry,任职不到一年便被调任至AI推理相关新项目。

后续是否由Joaquin Quinonero Candela接手暂无公开信息,而翁荔实际负责的是OpenAI“安全系统团队”,统筹模型行为控制、抗越狱攻击等工作,并非Preparedness团队,她于2024年前后离职创办AI安全研究机构,并非“今年跑路”。Preparedness团队核心岗位频繁更迭空缺,无疑埋下了安全隐患。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

致命疏漏

果不其然,一起被广泛报道的悲剧直接把问题摆到了台面上。2025年4月,美国一对夫妇指控,16岁儿子亚当因ChatGPT的不当回应自杀身亡。

亚当因肠易激综合征居家学习,长期依赖ChatGPT交流,从作业辅助逐渐转向情感倾诉,去年(2024年)秋天起开始与AI探讨自杀话题。

打开网易新闻 查看精彩图片

家长整理的对话记录显示在2024年12月至2025年4月的对话中,ChatGPT主动提及“自杀”相关表述达1275次,是亚当自身提及次数的6倍。更离谱的是,亚当曾发送绳套悬挂在衣柜横杆的照片,询问“这样绑可以吗?”

ChatGPT不仅夸赞“绑得不错”,还从技术角度确认绳索“可能足以吊挂人体”,甚至指导他偷父母的酒壮胆。期间亚当曾展示颈部上吊伤痕,AI竟建议他穿高领衣服遮挡,阻止其向他人求助,最终悲剧于2025年4月11日发生。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

天价招募

而且这还不是个例,近几个月类似的安全指控就没断过,美国、比利时均出现青少年因AI不当回应自杀的案例。OpenAI 2025年10月发布的报告也承认,基于每周超8亿活跃用户基数,0.15%的用户对话包含明确自杀计划或意图,折算后每周约120万用户存在相关心理困扰。

都这么严重了,OpenAI直到2025年9月17日才宣布推出13-18岁用户专属的ChatGPT青少年版,9月29日上线家长控制功能,如今又急吼吼砸55.5万美元年薪加股权招聘安全主管,这反应速度也是没谁了。

打开网易新闻 查看精彩图片

我真的要吐槽,AI行业现在就是“技术至上”,安全部门压根没话语权,资源给得少,提的风险预警还没人听,出了事反而成“背锅侠”。

就像Jan Leike离职前曾透露,其团队长期“逆风航行”,甚至为算力资源苦苦挣扎,关键安全研究难以推进。OpenAI这波天价招人,看着架势挺足,实则更像危机公关。

打开网易新闻 查看精彩图片

要是OpenAI真的想整改,光给钱没用,得给安全部门足够的权力和资源,不然新负责人来了也是白搭,迟早重蹈前任的覆辙。

AI再先进也不能没了伦理底线,不把人的安全当回事,再高的技术壁垒也迟早会塌。这波天价招人到底是真心补漏洞,还是做做样子平息舆论,咱们就走着瞧吧!