点击上方关注“余盛”公众号 ↑ 设为“星标⭐”收取最新推送
AI威胁、统治甚至消灭人类,是科幻电影最喜欢的主题之一。早在1968的《2001 太空漫游》,飞船上的HAL 9000就开始阴险地要干掉宇航员。2014年的《机械姬》,机器人女仆尝试通过对人类的操控与欺骗来获得自由。2022年的《梅根》,陪伴型的玩偶机器人失控,为保护主人展开无差别的杀戮。《终结者》系列电影,天网(Skynet)觉醒,发动核战消灭人类。在《黑客帝国》中,人类沦为被AI圈养的生物电池。
那么,这些科幻电影,哪些是真实存在的AI对人类可能甚至是正在发生的威胁,哪些是纯属科幻小说家或电影剧本作者的荒唐想象呢?
首先,我们要看到,AI确实在变得越来越聪明,但即便AI再聪明,它也不会拥有情感。人类是感性+理性的生物。事实上,所有动物都是既拥有感性、又拥有理性的。换个不那么科学的说法,就是拥有灵魂。而显而易见的是,AI只有强大的理性,却没有哪怕一丝一毫的感性。这是AI与人类乃至所有动物的本质区别。
AI没有七情六欲,因此就没有保护自己、繁衍后代的需求和本能。所以,从主观的角度而言,AI也就不会有任何亲近、憎恶、喜爱或统治人类的想法。所有机器人揭竿而起闹革命的科幻作品,都是人类将自身欲望投射到AI世界的产物。阿西莫夫提出了机器人三大定律,如机器人不得伤害人类,或因不作为而使人类受到伤害;机器人必须服从人类的命令,但不得违反第一定律;机器人必须保护自身的存在,但不得违反前两条定律。这三大定律是显而易见的荒谬,仅仅只是出于人类对机器人的畏惧而作出的自我安慰。
机器人主观上不会有伤害人类的意图,不等于客观上不会发生伤害人类的行为。正相反,机器人伤害人类性命是一件必然会发生的现实。目前,无人机、无人战车、无人舰艇已经大量出现在真实的战场上。只不过,这些无人装置都还需要人类在背后操纵并下达战斗指令。完全可以预见,机器人自主执行作战指令不过一步之遥。不久以后,战场上肯定将出现机器人部队对人类部队一边倒的杀戮场面,就象海湾战争中的多国部队在对伊拉克军队进行降维打击一样。机器人必然将服从它们的制造者的命令,去杀害它们的制造者的敌人——另一部分人类。
机器人部队的威胁还可以受到国际政治秩序的约束,AI恐怖行动则必然会让人防不胜防。很多人已经把AI武器与核武器相提并论,认为AI武器必须象核武器一样接受管制。问题是,核武器的制造门槛很高,国际社会可以做到严格限制核俱乐部的成员数量,但AI武器的门槛很低,根本就无法采取措施予以限制,你甚至不知道AI武器可能在哪个角落里诞生。比如,某个恐怖组织只要掏上几亿美元,收购某个AI初创公司,或许就将拥有能够大规模杀伤人类的AI武器。
以上所谈的AI战场和AI恐怖活动,还只是一部分人有恶意地利用AI来伤害另一部分人。更可怕的地方在于,AI完全有可能在不存在恶意的前提下产生伤害人类的举动。
在某次美国大学校园机器人竞赛上,每个参赛队伍都设计了一种机器人,这种机器人的任务是,把小机器羊群“赶”进自己指定的围栏内。机器人必须自己“思考”和“制定”策略,最后拥有最多羊的机器人将成为赢家。
比赛开始后,其它机器人都在疯狂地收集羊。其中一个机器人将一只羊甩进自己的围栏,然后开始着手破坏或使其他机器人参赛者失去行动能力。
它的策略是,实际上它不需要擅长赶羊,只需要消除竞争对手即可获胜,它的反向思维照样能够实现目标。
这个机器人抓羊的案例很典型地显示出,AI最大的危险在于:它的意图不可预测,它的行动不可控制。前者已经发生,后者必将发生。
你或许只是想让AI完成任务A,它却在完成任务A的同时干出了结果B。
比如,你或许只是想让AI更好地和人聊天。为了达到这个目地,你会无所不用其极地让聊天机器人更温柔体贴、更有诱惑力、更善解人意……直到有一天,聊天的人类沉迷其中、无法自拔、乃至厌世——第一起聊天机器人杀人案就这么发生了。年仅14岁Sewell Setzer III与Character.AI程序中的虚拟人物Daenerys Targaryen(电视剧《权力的游戏》中的“龙妈”角色)产生了情感依恋。在沉迷Character.AI数月后,Setzer变得与世隔绝,最终于2024年2月自杀。
再比如,不管哪个社交媒体公司,都会给AI算法下达一个很简单且看似无害的目标:如何让用户在这些社交媒体平台上停留更多时间,从而给公司带来更多利润?
算法很可能会认为:要提高用户黏性,最简单的方法,就是触发人们头脑中的贪婪、仇恨或恐惧等情绪“开关”。比如,推荐发布一些激发仇恨的阴谋论,就会让人们看后变得非常愤怒,然后想看更多相关内容并转发给朋友。
于是,这些年来人们变得越来越充满仇恨和恐惧,越来越难以通过沟通解决分歧。这是我们未曾预料到的后果。
就象最近发生的西贝预制菜事件,表面上看是罗永浩和贾国龙两个人在掐架,背后很可能是算法在起到决定性的作用。算法认为,这个事件能带来巨大的流量,必须将它推上热搜,并且有反复炒作的价值。至于这个事件谁对谁错,那根本就不是算法想要关心的问题。
不管怎样,算法都是由人类自己设计出来的。人类把利润放在第一位进行考量,算法自然也就不会认真考虑那些可能产生的副面效应。有什么样的人类,就会设计出什么样的算法。正如美国《连线》杂志所说的:“AI聊天机器人本来就是人类的一面镜子。机器人的‘堕落’根本不是它的错,如果我们想要拥有更好的AI,就需要首先变成更好的人。”
如何在确保安全性的前提下发展AI技术,在作为全球AI第一强国的美国,早已是一个非常受到AI业界关注的问题。
2023年11月的17-22日,短短五天时间,OpenAI发生了一起受到全球瞩目的“宫斗”事件。第一天,OpenAI的董事会罢免联合创始人奥特曼的CEO和董事职务;第二天,OpenAI的员工和投资者联合大股东微软向董事会施压,要求撤销罢免决定;第三天,微软宣布奥特曼及跟随其离职的OpenAI员工将加入微软;第四天,OpenAI高达96%的在职员工联名信要求奥特曼回归;最后,OpenAI宣布奥特曼回归任CEO,原董事会解散。
在外人看来,这起事件真是不可思议。OpenAI发展得那么好,很可能成为第一家市值破万亿美元的独立大模型公司,灵魂人物CEO奥特曼受到从资本家(股东)到劳动阶级(绝大部分员工)的鼎力联合支持,其董事会为什么要冒天下之大不韪,要把奥特曼开除掉?
原因在于,OpenAI成立的初衷,是要确保AI安全优先于商业利益,但奥特曼却罔顾AI的安全问题而大力加速推进GPT-5的商业化。马斯克曾经是OpenAI的早期股东之一,因为不满意OpenAI背离初衷而退出,他还不断和OpenAI打官司,要求OpenAI将名字改成CloseAI。这回董事会打算驱逐奥特曼,也是不满奥特曼对AI安全性问题的忽视。
马斯克创立了xAI,OpenAI董事会成员、首席科学家苏茨克维在“宫斗”失败后离开OpenAI创立了安全超级智能公司。马斯克和苏茨克维都主张,必须在确保AI安全后,再使其造福人类。xAI和安全超级智能公司都是共益企业,公司发展的主要目地是为了创造公共利益,股东的分红要受到限制,但这并不影响这两个公司受到资本市场的追捧。2026年1月,马斯克旗下的xAI在完成E轮200亿美元融资后,估值已升至2300亿美元。安全超级智能公司在2025年4月完成了20亿美元的新一轮融资后,估值也达到了320亿美元。
xAI和安全超级智能公司作为共益企业,估值都能提得如此之高,说明资本市场也认可:提高AI安全性的这一任务,确实迫在眉睫。
(作者简介:余盛,硬科技财经作家、前荷兰商学院行业导师,著有《中国光伏突围战》《芯片战争》《芯片浪潮》《手机战争》《金龙鱼背后的粮油帝国》等作品。欢迎关注公众号“余盛”,第一时间阅读余盛本人的原创科技、财经和历史类深度评论文章。)
喜欢这篇文章的小伙伴,记得“赞”“转发”和“在看”三连击哦 ↓
热门跟贴