华盛顿大学DavidBaker实验室用AI搞出了自然界压根没有的全新蛋白质,这事儿听着就挺颠覆的吧?本来想觉得这就是纯纯的科技帮着生命科学往前走。
没成想后面跟着一堆让人捏把汗的事儿,OpenAI都承认,他们最新的AI模型让生物武器被滥用的风险“显著增加”,这可不是科幻小说里的情节,是现在全球都得面对的真问题
AI帮着搞科研,从蛋白质到新药,速度快得离谱
不光是Baker实验室,谷歌DeepMind的AlphaFold系列更厉害,几乎所有已知蛋白质的三维结构它都能预测,最新的AlphaProteo还能设计出能跟特定靶标结合的蛋白质,这对搞生物研究的人来说,简直是省了太多事儿。
以前,研究个蛋白质结构、设计个靶向分子,没个几年下不来,现在几周就能有眉目,传统那种“试错式”的研究方法,算是被AI给彻底改了路子。
就说实际应用吧!辉瑞用AI设计的抗癌药已经进二期临床试验了,针对那种有特定基因突变的肺癌患者,效果比传统药好不少,Moderna去年搞流感疫苗,靠AI预测病毒蛋白的突变位点,直接把研发时间缩短了两个月。
更别说那些罕见病了,全球七千多种罕见病里,能治的也就十分之一,现在AI能帮着筛选药物靶点,已经有五种罕见病的候选药进了临床。
本来想觉得这些技术离普通人挺远,后来发现其实跟治病救人直接挂钩,这算是AI实打实的好处,不过话又说回来,技术进步快了,麻烦也跟着来了。
麻省理工2023年做过个研究,说AI系统居然能帮着没什么专业背景的人设计生物武器,这事儿当时在科学界吵翻了天,更让人担心的是,现在AI模型越来越强,想用上这些技术的门槛却越来越低,以前搞生物武器得有专业知识、还得有贵得吓人的实验室设备,现在不一样了。
风险藏在哪?非专业的人也能碰生物武器
有个国际生物安全组织做过模拟实验,找了个完全没学过生物学的人,用公开的AI工具,比如ProteinMPNN,才两周就把蓖麻毒素的结构优化设计好了,而且那个设计方案还能通过常规的DNA合成公司下单,全球最大的DNA合成服务商TwistBioscience,去年光可疑的毒素基因合成订单就拦下来12起,全跟AI设计有关系。
以前,觉得生物武器是大国或者极端组织才玩得起的,现在普通人都有可能碰得着,这门槛降得也太让人没安全感了,还有更吓人的,斯坦福大学今年研究说,AI能调整毒素的“受体结合域”,让传统的检测试剂根本认不出来。
有专家在《科学》上写文章,说照现在AI的升级速度,2030年前说不定就有人能搞出能通过空气传播的人工改造流感病毒,这种人工弄出来的病原体,要是专门针对某类人设计,常规检测根本查不到,到时候麻烦就大了。
除了这些,数字信息和供应链也有漏洞
2022年欧洲分子生物学实验室的基因组数据库被黑客攻击,15万条人类基因数据被偷走,搞不好就是想用来设计针对性的生物东西,去年东南亚某国还查到过非法流通的“AI优化病毒载体”,源头居然是合规生物公司的供应链出了问题。
这样来看,不光是技术本身,连跟技术相关的信息和材料流通,都得盯紧了,现在最头疼的就是怎么管,《生物武器公约》是1975年的,那时候哪有AI啊,现在AI设计的生物制剂,尤其是还没变成实体、只在电脑里存着的设计文件,这公约根本管不着。
欧盟今年的《AI法案》虽然把生物安全归成高风险,但没说具体怎么管AI设计生物制剂,美国去年改了《生物安全法》,还是盯着实体生物材料,数字设计文件还是没人管
搞不清的是,等各国商量好怎么管,AI说不定又升级好几代了,这种滞后性太要命,科学家之间意见也不统一,Baker觉得蛋白质设计的好处比风险大太多,怕管得太严耽误医学进步,但另一些专家觉得,有些高风险的研究先停一停比较好,
AI公司倒是想了办法,搞内部的生物安全审查机制,可这是自愿的,到底有没有用谁也说不准,今年G7开生物安全会,美国、日本想松点管促创新,德国、法国却要强制AI生物工具备案,到最后也没谈拢。
很显然,想让大家达成一致,还得花不少功夫,不过也不是没进展,微软和DeepMind联合搞了个“AI生物安全筛查系统”,能实时盯着AI工具有没有人用来设计生物武器,现在已经在20个国家用了,联合国也开始琢磨改《生物武器公约》,想加个“数字生物设计监管”的章节。
光靠技术和法律还不够,得让普通人也知道这事儿,毕竟关系到所有人的安全,不能只靠专家和政府说了算,AI确实让生命科学有了大突破,能帮着治病、能搞新药,但生物武器的隐忧也实实在在摆在那。
平衡创新和安全,不是一个国家、一个领域能搞定的,得全球一起动手,不言而喻,现在时间越来越紧,再拖下去风险只会更大,这不仅关乎医学能走多远,更关乎咱们能不能守住生物安全的红线,这事儿真不能等。
热门跟贴