智东西6月28日消息,彭博社在今日报道了一则与AI安全有关的采访,采访对象是来自美国AI安全中心(CAIS)的主任,也是xAI的安全顾问——丹·亨德里克斯(Dan hendricks),采访内容围绕他对全球AI潜在风险的认识和应对策略展开。
在采访中他谈论到了埃隆·马斯克(Elon Musk)对于AI的看法,并预估在2026年前后会发生一次关键基础设施被恶意攻击的事件,他表示,未来十年,如果人类实现通用人工智能(AGI),那么将面临大规模的劳动力中断。
以下是对话的编译:
我们采访了AI政策领域的后起之星丹·亨德里克斯(Dan hendricks),了解他为什么认为我们需要更多地关注AI带来的灾难性风险。
几年前,丹·亨德里克斯(Dan hendricks)还是加州大学伯克利分校(University of California at Berkeley)的一名学生,正在攻读计算机科学博士学位。现在,他是AI安全和政策领域最有影响力的新人物之一。
▲丹·亨德里克斯(图源:丹·亨德里克斯)
就在过去的几个月里,亨德里克斯一直在为埃隆·马斯克提供咨询;与阿根廷总统共进晚餐,并帮助起草了一项备受争议的加州新立法,名为《SB-1047前沿AI大模型安全创新法案》。
亨德里克斯第一次登上头条是在2023年5月,当时他参与创始的非营利组织——AI安全中心(CAIS)撰写了一封只有一句话的公开信,呼吁将“减轻AI带来的灭绝风险”作为全球优先事项,就像防止流行病或是核战争一样。多名AI领域的知名人士参与签署了这份声明,包括OpenAI的山姆·奥特曼(Sam Altman)和Anthropic的达里奥·阿莫代(Dario Amodei)。
“自那以后,人们对AI可能会终结世界的担忧有所减弱,但这并不意味着我们不应该担心。”亨德里克斯说。
“如果我们在未来10年内实现AGI,这将彻底改变人类的状况:至少会造成大规模的劳动力中断。”亨德里克斯告诉我,“所以这并不是说,‘哦,现在我们有电动牙刷了。’它不像其他小的外围技术创新。”
CAIS已经筹集了数百万美元,下一步目标是扩大在华盛顿的业务。
亨德里克对AI安全的重视和提倡使他在一些圈子里并不受欢迎,尤其是他在加州法案SB 1047上所做的工作,一些技术专家说,这项法案可能会阻碍创新。他说,很多批评都是虚假的。他说:“不管法案内容如何,很多风投公司都会反对它。”
我们采访了亨德里克斯,谈到了该法案引发的愤怒、他与马斯克的合作,以及我们将会以何种方式感知到触达AGI的那一天。
为了篇幅和清晰度,这篇采访经过了编辑。
彭博社:你是埃隆·马斯克的AI安全顾问,和他一起工作是什么感觉?
亨德里克斯:他是一名非常棒的管理者,在每周与他的会议上,我笑得比在其他任何会议上都多。
彭博社:我很想听听马斯克对AI安全的看法,他显然非常关心AI的长期风险。另一方面,他一直直言不讳地表示,不希望监管机构或监管者侵犯言论自由。
亨德里克斯:这是有区别的。所以埃隆绝对是支持监管的。过去,他在AI安全问题上一直是卡桑德拉(Cassandra),耗费了他大量的社会资本。
(*卡桑德拉:通常用来形容那些发出警告或预言危险,但被忽视或不被信任的情况。)
他当然会反对妨碍言论自由,但这种问题并不全是政府的事情。这更多的关乎社会规范,例如“你会指示AI去说一些特定的意识形态的事情吗?”
彭博社:你在xAI安全方面的任务是什么?
亨德里克斯:我认为现在的主要事情是遵守行政命令,并策划一些好的测试,例如:“模型是否可以被不怀好意的恐怖分子用于研究化学、生物、放射性或核武器或网络武器?”为此,我们需要好的测试,这些任务都和我的背景相关。
之后,会有类似的问题,“如果我们在系统中遇到这种危险,公司的政策是什么,我们会怎么做?”我们需要进行协商并且弄清楚那些应该是什么。
彭博社:我觉得在OpenAI或Anthropic,可能至少有几十个人在做类似的工作。你们会增加人员编制吗,还是只有你一个人在做?
亨德里克斯:幸运的是,我在AI安全中心(CAIS)可以做一些工作。例如,我们与Scale AI合作制作了一个大规模杀伤性武器代理基准测试。然后我们可以将其发布出来,而在xAI,他们可以使用这个基准测试。这样,我可以以间接的方式提供帮助,并且随着组织扩展,更多专注于安全的人员加入,这个问题就不会那么严重了。
彭博社:您在CAIS更关注什么?
亨德里克斯:目前,我感兴趣的是提出一种人类可以认同的衡量标准,用以判断“如果跨越了这个门槛,那么我们就达到了AGI。”因为我认为现在要协调出一个一致的标准来判定我们何时达到了超高能力的水平是相当困难的,并且在达到这种超高能力水平时我们应该做些什么。关于能力测量方面,现在一片混乱。
我们的另一个关注点是出口管制和国家安全,确保我们对像英伟达 H100这样的东西进行控制,并试图更多地监督计算的情况,以确保它不会落入像朝鲜这样的地方。
还有就是关注加州立法SB 1047。
彭博社:大约一年前,您说AI可能协助制造生物武器或执行大规模黑客攻击。我们有看到过这样的事情吗?您是否改变了您的预判?
亨德里克斯:我想我是在2021年写下了我的预估。在2026年左右会发生一次对关键基础设施的大规模攻击,这个方向目前来看差不多是对的,甚至会稍微提前。
但我想非常明确地讲,我最担心的两种恶意使用形式——那些影响国家安全的——就是针对关键基础设施的网络攻击和AI生物武器。
我现在并不担心模型。目前我们还停留在GPT4模型阶段,GPT4模型对我来说并不令人担忧。
彭博社:您如何看待许多科技行业的人士强烈反对SB 1047?
亨德里克斯:我和一些人交流过,他们会说,“不应该对模型进行任何测试。政府不应该测试模型或评估它们是否会造成危害。”我的反应是,“好吧,我看不出这里有什么可以协商的余地。”因为在发布之前,我们会对iPhone进行测试。
还有很多完全站不住脚的论点,比如,“哦,这违反了第一修正案”——我想问他们有没有咨询过律师事务所?他们还对其他一些事情非常不满:例如,有人说法案里有伪证条款。是的,如果你故意对政府撒谎,说你进行了安全测试,而实际并没有,如果你对政府撒谎,那你可能会遇到麻烦。这并不是什么不寻常的事情。
很多风险投资人和其他人不管法案内容如何,都会反对它。但我认为我们在做出权衡时做得很好。我们主要针对的是影响国家安全的事情。比如在涉及网络和传统的大规模杀伤性武器时,我们特别关注关键基础设施。我认为他们已经在执行命令的情况下进行了很多这种安全测试。我们只是将其变成法律,而不是某个未来政府可以撤销的行政命令。
彭博社:你认为最近对有效利他主义(EA)的批评是否被用来针对你,或针对整个AI安全工作?
亨德里克斯:这是一种过时的区分。我认为人们普遍认为SB 1047是合理的。我们委托了一项独立的民意调查,以了解全国对它的支持情况。
这不是一个EA的问题。非常不幸的是,在ChatGPT之前,主要关心AI风险的群体是EA。
我们中的一些人不得不与EA们共存,因为他们实在是一个压倒性的力量。但是在GPT之后,他们只是大海中的一滴水,我认为他们可能不再是影响故事情节发展的关键人物。
埃隆(Elon)不是EA。萨姆(Sam)也不是EA。我认为他们非常关心AI安全。
彭博社:你认为在这方面有联邦监管的希望吗?
亨德里克斯:当然。我是说,我们已经有出口管制了,例如,对GPU的出口管制。那些管制有很多漏洞。我们不能指望工业与安全局(Bureau of Industry and Security)自己处理所有问题。我认为世界终于开始意识到:这不仅仅是关于AI开发者的故事,而是关于计算能力和GPU的故事。计算能力的流动非常重要,我们应该确保如果芯片是未来的铀,我们要跟踪“铀去哪里了?有没有被走私?”
我还预计AI能力的发展将会出现飞跃。自从GPT-4以来,我们还没有看到实质性的飞跃,因为还没有一个模型使用比GPT-4多十倍的计算能力进行训练。但当这种情况发生时,我认为人们会说:“哦,AI的发展比预期的要快得多。”到那时,就会有政治力量参与从而推动新的措施。
彭博社:我看到一张阿根廷总统哈维尔·米莱在科技晚宴上的照片,在照片中我看到了您,对吗?如果是的话,你们讨论了什么?
亨德里克斯:是的,没错。显然(米莱总统)的人正在看我制作的教科书,或者他的顾问正在看它。我认为他们正在做一些事情很有趣。我认为评论其他国家的举动不太好,但显然他们在经济上做得很好。我的意思是,我认为他们意识到AI在经济上是非常重要的。所以我们可以看看他们未来的表现。
我坐在OpenAI的格雷格·布罗克曼(Greg Brockman)和安德森·霍洛维茨(Andreessen Horowitz)公司的一些人旁边,玩得很开心,跟他们相处的也很愉快。
结语:AI安全仍是全世界范围内值得关注的问题
在这篇深入探讨AI安全和政策的采访中,我们可以了解到亨德里克斯对全球AI潜在风险的认识和应对策略。从与Elon Musk的合作到加州立法SB 1047的辩论,他不仅在技术层面上推动了安全标准的制定,更在政策层面上促进了对AI监管的深入讨论。随着AI技术的不断进步,其对社会的影响日益深远,必须要在创新与安全之间找到平衡点,确保技术的发展不会以牺牲人类福祉为代价。
随着全球对AI的监管和政策制定越来越重视,我们期待一个更加完善的框架,既能促进技术的健康发展,也能保护社会免受其潜在威胁。这不仅是技术专家的责任,也是每一个社会成员的共同使命。
来源:彭博社
热门跟贴