他们在这里接受了一项关于如何报道宏大理论话题的指导,即如何向大众传播“失控的人工智能可能毁灭人类”这一警告。
这场聚会选址在旧金山湾区一个宽敞的活动场地。该场地深受当地一个特定社群的青睐,这个社群高度关注超级智能导致人类灭绝的可能性——这一事业有时被外界统称为“人工智能安全”。
当杰弗里·拉迪什穿着直排轮滑鞋轻盈地滑上舞台时,人群中爆发出阵阵欢呼。这位和蔼可亲的前安全工程师曾就职于人工智能初创企业Anthropic。他身穿无袖紧身背心,留着一头金发,与一众专家共同探讨如何向普通大众讲述人工智能灾难的传播艺术。
拉迪什表示,他在2022年离开了开发热门聊天机器人Claude的公司,转而专注于研究如何帮助政策制定者了解人工智能逃避人类控制的各种方式。
在创办非营利组织帕利塞德研究中心几年后,他认为关于该主题的研究已经十分丰富,但这个领域需要传播者将这些发现转化为公众能够理解的语言。
“这就需要一群人把这里的专家们弄清楚的事情,向全世界解释清楚,”他指出。拉迪什本人已经全心投入到这项使命中。近几个月来,他与参议员伯尼·桑德斯共同出镜了一段关于超人类人工智能威胁的爆款视频。
此外,他还在纪录片《人工智能医生》的预告片中担任了重要角色,该片探讨了这种潜在威胁,在YouTube平台上的播放量已达到580万次。
项目规定,在八周的时间里,他们60%的内容必须聚焦于人工智能对社会的影响。随着人工智能技术影响力的不断扩大,将有关其危险性的内容播撒到互联网各个角落的努力,已将相关辩论推向了政治主流。
一波警告该技术的爆款视频,可能会让硅谷支持的超级政治行动委员会感到头疼,因为他们正试图尽量减少对该行业的限制。此前的调查已经表明,大多数美国人支持政府对人工智能实施监管。
学术界和工业界的大多数人工智能专家指出,目前并没有科学依据支持“整个物种面临迫在眉睫的危险”这种断言。他们认为,这种世界末日般的预测不仅高估了现有技术水平,也低估了现实世界的复杂性。
一些人希望立即停止任何关于超级智能的研发工作。另一些人则希望公众意识到,采取行动的时间可能已经所剩无几。
在2025年和2026年,“控制人工智能”YouTube频道上所有视频的总播放量仅略高于8000次。
去年仅一次付费的YouTube合作就斩获了160万次观看。此外,该组织还赞助了格林广受欢迎的《科学秀》节目的一集,净赚了180万次播放量。
制作社交媒体视频标志着人工智能安全倡导者的战略发生了转变。在过去的十年里,支持该运动的科技界富豪捐赠者在非营利组织和研究资助上投入了数亿美元,旨在敦促精英机构认真对待人工智能带来的生存威胁。
这为人工智能实验室、学术界、智库和联邦政府输送了一批专业人才。尽管付出了这些努力,由营销资深人士组成、现专注于人工智能安全的“震源基金会”表示,其研究发现,在公众对人工智能的潜在担忧中,生存风险排名垫底。公众更关心的是失业问题以及技术对人际关系的影响。
近期针对人工智能公司的民粹主义和跨党派不满情绪日益高涨,这为人工智能安全倡导者提供了一个新的契机。
“这是唯一一个让斯蒂芬·班农和拉尔夫·纳德、格伦·贝克和伯尼·桑德斯为同一目标而战的议题,”人工智能安全非营利组织“未来生命研究所”的传播主管本·卡明表示。
他列举了一些最近共同签署人工智能政策优先事项声明的公众人物。这些优先事项包括“保持人类的控制权”和“追究人工智能公司的责任”,签署者中还包括工会和一个保守派智库。
这些新结交的盟友并不一定认同人工智能安全运动中最极端的担忧。该组织支持的视频也并不总是讨论关于人工智能最可怕的预测。
卡明透露,自去年推出数字媒体加速器以来,“未来生命研究所”已经资助了30个开发人工智能安全内容的项目。该非营利组织网站上的申请表显示,其计划每月投入10万美元。
因人工智能原因下岗的工人是否应该获得额外福利?我一直在寻找解决人工智能导致失业的切实可行的方案,而在震源基金会的报告中,隐藏着一张包含一些好主意的图表!
主要发现——32%的人希望获得额外的工人权利。30%的人希望将更高的税收重新分配给受影响的行业。32%的人希望为劳动力提供再培训补助金。
额外福利的想法既有趣又及时,但我有一个疑问:监管能否跟上步伐并迅速采取行动?此外,这些人工智能公司拥有巨大的游说力量。
关于人工智能潜在灾难的通俗易懂的内容如潮水般涌现,这可能会加剧席卷硅谷的政治辩论。由Meta、OpenAI公司以及与唐纳德·特朗普结盟的科技界人士支持的财力雄厚的超级政治行动委员会,给人工智能安全社群贴上了“末日论者”的标签。他们指责这些人阻碍了美国的进步,并试图推动有利于Anthropic公司的监管政策。
Anthropic的创始人曾承诺要比竞争对手更注重安全,并获得了人工智能安全运动中最具影响力的捐赠者的早期投资,其中包括Facebook联合创始人达斯汀·莫斯科维茨和Skype早期员工简·塔林。
莫斯科维茨的慈善机构“系数捐赠基金”拒绝置评;塔林也没有回应置评请求。
前白宫人工智能和加密货币事务主管大卫·萨克斯最近成立了自己的超级政治行动委员会。他将消费者对人工智能的负面情绪归咎于他所谓的“末日论者工业复合体”。
包括OpenAI公司全球事务首席官克里斯·勒汉在内的业内人士,最近将一枚燃烧弹被扔进该公司首席执行官萨姆·奥特曼家中的恶性事件,归咎于“末日论者”的煽动性言论。据称,袭击者的Substack账号曾发布过关于《如果有人制造了它,所有人都会死》的内容,这是一本描述超级智能如何消灭人类的近期著作。
曾批评OpenAI公司安全实践的前员工丹尼尔·科科塔伊洛表示,倡导者发出警告的目的并不是为了帮助人工智能实验室。但他补充道:“存在一种真正的风险,即人工智能安全运动中的许多人与公司走得太近,过于不愿提出会严重损害这些公司利益的解决方案。”
致力于促进人工智能领域的公平、社会包容和问责制的非营利组织“人工智能与数字政策中心”主席梅尔夫·希科克指出,大量资金涌入对立的阵营,已经导致该领域严重两极分化。
“政策制定者要么将人工智能安全视为需要深入参与的领域,要么像特朗普政府那样予以抵制,”她分析道。这在技术对公民权利的影响需要更多关注的时候,削弱了政策层面的应对能力。
在YouTube频道“物种”上发布安全视频的德鲁·斯巴茨表示,如果框架设计得当,这些材料可以赢得庞大的受众群体。该频道拥有超过30万名订阅者。
最近,斯巴茨决定改变方向,不再报道行业动态,而是转向制作叙事类视频。其中包括一些试图展示超人类智能接管世界的不同方式的视频。他认为,讲述关于灾难的故事,能够唤起“最原始的穴居人情感”。
拉迪什在基督复临安息日会的环境中长大,但他表示自己已不再信仰宗教。他告诉台下的观众,他花了一些时间才弄清楚如何与圈外人谈论人类灭绝的风险。
“他们不谈论递归自我改进。他们不谈论内部优化器。”“这些词对他们来说没有任何意义,”拉迪什坦言。“没有人会理解你。”
当他开始在酒吧、机场和Uber网约车上向人们做自我介绍,解释自己是一名研究员并分享自己的想法时,他取得了突破。
“人们通常很乐意交谈,但我也试图谈论一些真实的东西。我试着说,‘我认为我们可能都会死。’然后他们的反应是,‘什么鬼?什么?快给我讲讲!’”他回忆道。
在包括七名女性在内的十几名研究员中,大多数人自己对人工智能安全的词汇也很陌生。“身处旧金山会让你意识到谁不在这个房间里,使用Jat聊天机器人”账号的珍妮特·奥加纳表示。她出生于肯尼亚,但成年后的大部分时间都在伦敦度过。
她指出,她的受众中约有70%是女性,分别来自非洲侨民群体、美国、英国和东非洲。如果不通过她,这些人可能永远听不到来自这个社群角落的声音。
“外面有一个更广阔的世界,那里的人们可能开始感受到人工智能的影响,但方式却截然不同,”奥加纳强调。
YouTube明星格林曾为他的科学频道与“控制人工智能”合作发布过付费内容。他在一份声明中表示,他希望通过让观众接触各种观点,让他们更好地理解这种日益强大的技术。他提到了最近在其个人YouTube频道上进行的非赞助采访,受访者包括人工智能公司炒作的批评者、参议员桑德斯以及《如果有人制造了它,所有人都会死》的合著者之一。
“我认真对待所有这些观点。就我个人而言,我不知道。”“我倾向于认为‘认为人工智能会杀死我们是愚蠢的’,但我是一个非常乐观的人!”格林写道。他最后补充道:“这项技术非常诡异!”
热门跟贴