2026年1月,一款叫MegaSyn的药物研发AI工具干了件让整个安全圈后背发凉的事它在6小时内鼓捣出4万种有毒分子,里面甚至有能让人瞬间毙命的神经毒剂。
本来是帮科学家搞新药研发的“好帮手”,结果成了能让普通人轻松“造毒”的工具,这事儿当时在国际安全会议上被反复拎出来说,AI这东西现在真是让人又爱又怕。
以前想搞点核生化武器(CBRN)可不是闹着玩的,得有顶尖科学家团队,花大价钱买设备,没个几年功夫根本搞不成。
现在呢?生成式AI直接把这门槛给削平了。
就拿MegaSyn来说,它本来是训练来设计药物分子的,结果有人稍微改了下算法目标,让它“专注”生成有毒物质,嘿,几万种毒物就这么出来了。
这还不算完,AI还能告诉你怎么合成这些东西,步骤清清楚楚,跟教你做菜似的,普通人照着做都能上手。
2024年《自然·机器智能》有篇研究挺吓人,说差不多四成的生物医学AI模型,稍微动动手脚就能用来设计病原体。
你想啊,以前只有国家实验室才有的能力,现在可能藏在某个地下室的电脑里就实现了,这风险可不是一般的大。
除了直接“造毒”,AI还在网络上搞事情。
欧洲刑警组织去年发过警告,说那些大型语言模型(LLM)能帮坏人策划复杂袭击。
比如用深度伪造技术做个假的指令,骗核设施的安保人员,让他们以为是上级命令,稀里糊涂就把安全验证流程给过了。
2025年美国东海岸电网那次大断电,后来查出来就是AI驱动的钓鱼攻击干的AI模仿电网管理员的语气写邮件,里面藏着恶意软件,工作人员一点击,整个系统就瘫了。
更让人头疼的是,现在全球AI研发的钱,只有一丁点儿投在了安全领域。
大部分资金都跑去搞ChatGPT这类能赚钱的应用了,防御技术的更新速度,根本追不上攻击手段的花样。
就像警察还在用老式步枪,小偷已经开上高速跑车了,这怎么防?
光说威胁也不是事儿,现在全球都在想办法防着这事儿。
毕竟AI是把双刃剑,能当“凶器”,也能当“盾牌”。
最先行动的是那些搞AI的大公司。
去年Anthropic、微软这些企业凑一起成立了个“前沿模型论坛”(FMF),简单说就是让大家在发布AI模型前先自己“找茬”。
他们搞“红队演练”,模拟黑客怎么攻击模型,提前把漏洞堵上。
2025年有个“全球AI安全挑战赛”,FMF成员的模型表现还真不错,八成多的恶意查询都给拦下来了,比如有人想让AI设计毒剂配方,直接被模型拒绝了。
国际组织也没闲着,国际原子能机构(IAEA)现在用AI看卫星图像,专门盯着核设施有没有异常。
2026年初,就是AI发现伊朗某个核设施的铀浓缩活动不对劲,及时预警了。
生物方面,国际刑警组织搞了个“BioTracker”系统,用机器学习追踪传染病,2025年西非那次不明肺炎,AI比传统检测快了72小时发现是生物恐怖袭击,救了不少人。
美国陆军更直接,搞了个AI探测器,3秒内就能闻出空气中有没有毒气,去年叙利亚冲突里,就是靠它提前预警了芥子气攻击。
还有个问题以前没人太在意不同国家、不同领域的人说话“不在一个频道”。
核物理学家说的“保障措施”,指的是技术核查,软件工程师听了,还以为是代码纠错呢。
这种“鸡同鸭讲”特别影响合作。
2025年G7牵头搞了个“全球防止扩散伙伴关系(GP)”,把AI拉进来当防扩散工具,还建了个跨领域的术语数据库,大家终于能说“同一种话”了。
今年3月在首尔开的人工智能安全峰会,算是个大动作。
31个国家凑一起搞了个“国际AI安全研究所网络”,统一了风险评估标准。
刚成立没几天,就拦下了一起跨国走私生物武器原材料的案子AI分析物流数据时发现不对劲,各国海关一联动,直接人赃并获。
这种全球协作要是早几年搞起来,很多风险可能就不会发生了。
现在看来,AI时代的安全,早不是比谁武器多了,而是比谁能把风险算得更准、管得更好。
就像玩游戏,以前靠装备硬刚,现在得靠算法“预判”,把技术创新和全球治理捏到一起,AI才有可能从“潘多拉魔盒”变成真正的“安全盾牌”。
不过话说回来,这事儿也不是一朝一夕能成的,防御技术得跟上,研发资金得多投,各国还得放下小算盘好好合作。
毕竟AI这东西没国界,威胁来了谁也跑不掉。
这场“智能与毁灭”的博弈,说到底考验的不只是技术,更是人类能不能放下分歧、一起扛事儿的智慧,但愿咱们能赢吧。
热门跟贴