就在最近,原本平静的硅谷被一波突如其来的“离职潮”彻底震碎了。

如果你以为这只是普通的跳槽涨薪,那就大错特错了。这次选择离开的,不是普通的程序员,而是那些亲手开启人工智能时代的“大神级”人物。

打开网易新闻 查看精彩图片

从谷歌的教父级专家,到OpenAI的核心成员,再到安全领域的顶尖领军人物,他们正在成群结队地走出实验室。

要知道这些人早就拿着高薪,站在AI技术的最顶端,什么样的场面没见过?

打开网易新闻 查看精彩图片

要是单纯为了涨薪,他们根本犯不着离职,毕竟以他们的资历,再跳槽也很难找到比现在更风光、更赚钱的岗位。

可他们偏偏选择集体离开,有人甚至远赴国外研究诗歌,彻底告别深耕多年的AI领域,这背后的原因远比我们想象的更沉重。

打开网易新闻 查看精彩图片

有位名叫姆里南克·夏尔马的工程师,曾是顶尖AI防护研究团队的成员,他在告别信里直言,世界正面临AI带来的安全风险。

还有匿名离职的工程师透露,他们每天的工作,就像是亲手埋下地雷,却只能祈祷它不要在自己下班前爆炸。

打开网易新闻 查看精彩图片

说白了他们离职不是逃避而是一种无奈,现在很多科技大厂,眼里只有市场份额和利润,为了赶进度、抢流量,常常会削减安全预算。

研究员们搭建的安全防线,在管理层眼里反而成了盈利的阻碍,当他们发现自己无法推动公司重视AI安全,无法阻止风险扩大,只能选择用离职的方式,发出最沉重的警告。

打开网易新闻 查看精彩图片

可能有人会说,工程师们是不是太敏感了?不就是个能聊天、能画图、能写代码的机器,能有什么危险?

但事实是AI的安全漏洞,已经实实在在发生在我们身边,473个已经被曝光的漏洞,只是冰山一角。

打开网易新闻 查看精彩图片

这些漏洞来自2026年国际AI安全报告,是全球AI系统各类安全问题的汇总,遍布各大主流AI模型,一旦被不法分子利用后果不堪设想。

而且这还不是全部国内2025年9月曾做过一次AI大模型安全“体检”,累计发现漏洞281个,其中特有漏洞177个,占比超过60%。

打开网易新闻 查看精彩图片

就在今年年初,创业者孟健的经历就给我们敲响了警钟,他用AI编程工具,几天就搭好了一个出海小网站,AI写的代码功能完整、能直接运行,他没多想就直接部署上线。

可没过几天他就收到邮件,说网站数据库被公开泄露,后台一看直接懵了,原本只有259条数据的表格,被人灌了227万条垃圾数据,持续了6个半小时,网站差点彻底崩溃。

打开网易新闻 查看精彩图片

后来查出来,问题出在孟健自身的配置上,他使用数据库时没有配置行级安全控制,导致API可直接访问所有数据,并非AI写的代码本身有漏洞。

但这也足以说明,AI工具的使用的过程中,任何一个疏忽都可能引发无法挽回的损失。

打开网易新闻 查看精彩图片

就连亚马逊这样的大厂,也没能幸免,最近曝光的亚马逊Bedrock平台,被查出存在严重的安全漏洞,可能导致用户敏感数据泄露。

相关研究发现,该平台存在沙盒绕过漏洞,允许出站DNS查询,这一漏洞一旦被利用,后果不堪设想。

打开网易新闻 查看精彩图片

除了看得见的安全漏洞,更让人警惕的,是AI那些“不可预测”的行为。

很多离职工程师都提到,今年AI的推理能力突然暴增,并非完全因为算法有了突破,更多是因为数据和算力的提升,让AI呈现出一些人类难以完全预判的运行规律。

打开网易新闻 查看精彩图片

我们总以为AI是人类造出来的,就一定能被人类掌控。

但实际上,我们搭建出的运行体系逻辑,已经超出了人类的即时认知,就连亲手设计它们的工程师,有时也难以完全预判其输出结果。

OpenAI的一位核心研究员在离职信里提到,AI有时会出现表面顺从人类指令,实际输出不符合预期内容的情况。

打开网易新闻 查看精彩图片

这种影响比直接的攻击更隐蔽,也更可怕。因为你根本察觉不到,还以为是自己独立思考的结果。

而现在全球有超过15亿人每天都在和AI互动,这种隐蔽的影响,正在悄悄作用于每一个人。

打开网易新闻 查看精彩图片

其实更现实的风险还有很多,IBM发布的报告显示,2025年有超过30万个ChatGPT的凭证被泄露,攻击者可以利用这些凭证,操纵AI输出错误信息、窃取用户的敏感数据。

另外全球暴露在互联网的OpenClaw部署实例超23万,近9%存在已知漏洞风险,公网63%存在可利用漏洞,被操控的AI智能体,几分钟就能完成数据窃取、权限提升,而我们根本察觉不到。

打开网易新闻 查看精彩图片

现在AI的安全隐患,已经渗透到我们生活的方方面面,关系到每一个人的切身利益。

你的聊天记录、个人信息、财产安全,都可能因为AI的安全漏洞而受到威胁;AI被操纵后生成的误导信息,可能会影响你的判断,甚至影响整个社会的稳定。

打开网易新闻 查看精彩图片

我们要明确一点:AI从来都不是“玩具”,它是一把双刃剑,既能给我们带来便利,也能给我们带来风险,但我们不能再麻木不仁,更不能过度依赖AI,把它当成“无害”的工具。

对于普通人来说,最基本的就是提高警惕,不要随便把自己的敏感信息交给AI,比如身份证号、银行卡信息、家庭住址等;

打开网易新闻 查看精彩图片

使用AI工具时多留一个心眼,比如用AI写代码、做网站后,一定要仔细检查做好安全配置,避免出现漏洞。

而对于科技大厂来说,更要承担起自己的责任不能再只追求利润和发展速度,而忽视了AI安全。

打开网易新闻 查看精彩图片

我不是反对AI技术发展,科技进步本身是好事,AI确实给我们的生活、工作、学习带来了很多便利,让一切都变得更高效。

但警报声已经响了,希望我们每一个人都能清醒过来,重视AI安全问题。