一项有争议的加利福尼亚州法案 SB 1047 旨在防止人工智能灾难,已在该州参议院通过最终投票,现呈交至州长加文·纽瑟姆处。他必须权衡人工智能系统最极端的理论风险,包括其在导致人类死亡方面的潜在作用,以及这可能对加利福尼亚州人工智能繁荣造成的阻碍。他必须在 9 月 30 日之前将 SB 1047 签署成为法律,或者完全否决它。

州参议员斯科特·维纳提出的 SB 1047 旨在防止超大型人工智能模型引发灾难性事件,例如造成生命损失或造成超过 5 亿美元损失的网络攻击。

需要明确的是,当下很少有规模足够大的人工智能模型能被该法案所涵盖,而且人工智能从未被用于这种规模的网络攻击。但该法案关注的是人工智能模型的未来,而不是当前存在的问题。

SB 1047 将让人工智能模型开发者为其造成的危害负责,就像让枪支制造商为大规模枪击事件负责那样,并赋予加利福尼亚州总检察长权力,若其技术在灾难性事件中被使用,可对人工智能公司提起高额罚款诉讼。倘若一家公司行事鲁莽,法院能够责令其停止运营;所涵盖的模型还必须设有一个“终止开关”,一旦被认定危险,就能将其关闭。

该法案有可能重塑美国的人工智能产业,距离成为法律就差一个签名。下面来看看 SB 1047 的未来可能会怎样发展。

纽瑟姆为何可能签署它

纽瑟姆为何可能签署它

维纳认为,硅谷需要承担更多的责任。此前,他告诉 TechCrunch,美国必须从过去监管技术的失败中汲取教训。

一些人工智能高管对 SB 1047 持谨慎乐观的态度,其中包括埃隆·马斯克。

SB 1047 的另一位谨慎的支持者是微软前首席人工智能官索菲亚·维拉斯特吉。她告诉 TechCrunch,“SB 1047 是一个很好的妥协”,同时承认该法案并不完美。“我认为我们需要为美国或任何致力于此的国家设立一个负责任的人工智能办公室。这不应该只是微软的事,”维拉斯特吉说。

Anthropic 是 SB 1047 的另一位谨慎的支持者,尽管该公司尚未对该法案表明官方立场。这家初创公司提出的几项修改建议已被添加到 SB 1047 中,首席执行官达里奥·阿莫迪现在在给加州州长的信中表示,该法案“好处可能大于成本”。由于 Anthropic 的修正案,人工智能公司只有在其人工智能模型造成一些灾难性损害后才能被起诉,而不是像 SB 1047 的前一个版本所说的那样在此之前就被起诉。

为什么纽瑟姆可能会否决它

为什么纽瑟姆可能会否决它

鉴于行业对该法案的强烈反对,纽瑟姆若否决它,也不足为奇。

若他签署 SB 1047,就会把自身声誉押上;但要是他否决,便能将这一问题再搁置一年,或者交由国会处理。

“这(SB 1047)改变了我们 30 年来处理软件政策的先例,”安德森·霍洛维茨(Andreessen Horowitz)的普通合伙人马丁·卡萨多(Martin Casado)在接受 TechCrunch 采访时表示。“它将责任从应用程序转移到基础设施,这是我们从未做过的。”

科技行业对 SB 1047 表示了强烈抗议。除了 a16z 之外,议长南希·佩洛西、OpenAI、大型科技行业团体和著名的人工智能研究人员也在敦促纽瑟姆不要签署该法案。他们担心这种责任模式的转变会给加利福尼亚州的人工智能创新带来寒蝉效应。(然而,这里值得再次重复的是,几乎没有公司或模型达到 1047 规定的监管标准,当然也没有初创公司——但这在未来可能会改变。)

对初创经济产生寒蝉效应,这是任何人都不愿看到的。人工智能的繁荣对美国经济是一个巨大的刺激,纽瑟姆面临着不能浪费这一机会的压力。甚至美国商会也要求纽瑟姆否决该法案,在给他的一封信中说:“人工智能是美国经济增长的基础。”

倘若 SB 1047 成为法律

倘若 SB 1047 成为法律

一位参与起草 SB 1047 的消息人士向 TechCrunch 透露,如果纽森签署该法案,首日不会有任何动静。

到 2025 年 1 月 1 日,科技公司得为其人工智能模型撰写安全报告。

在这时候,如果加利福尼亚州的总检察长发现某家人工智能公司的模型有危险,就可以要求其停止训练或运营其人工智能模型。

2026 年,该法案的更多内容将开始生效。届时,前沿模型委员会将成立,并开始从科技公司收集安全报告。这个由加利福尼亚州州长和立法机构选出的九人委员会,会就哪些公司遵守规定、哪些公司不遵守规定向加利福尼亚州的总检察长提出建议。

同年,SB 1047 还会要求人工智能模型开发人员聘请审计员来评估其安全措施,从而有效地为人工智能安全合规创造一个新行业。并且,如果人工智能模型开发人员的工具在灾难性事件中被使用,加利福尼亚州的总检察长就能够开始起诉他们。

到 2027 年,前沿模型理事会可能会开始向人工智能模型开发者发布关于如何安全可靠地训练和操作人工智能模型的指导意见。

如果 SB 1047 被否决

如果 SB 1047 被否决

如果纽森否决 SB 1047,OpenAI 的愿望将会实现,联邦监管机构最终可能会带头监管人工智能模型……

周四,OpenAI 和 Anthropic 为联邦人工智能监管的模式奠定了基础。根据一份新闻稿,他们同意让联邦机构人工智能安全研究所提前获取其先进的人工智能模型。同时,OpenAI 已经支持一项让人工智能安全研究所为人工智能模型设定标准的法案。

“出于多种原因,我们认为这在国家层面得以实现很重要,”OpenAI 首席执行官山姆·奥特曼周四在一条推文中写道。

字里行间,联邦机构通常出台的技术法规没那么繁重,而且花费的时间要多得多。但不仅如此,硅谷在历史上一直是美国政府重要的战术和商业伙伴。

卡萨多说:“实际上,最先进的计算机系统与联邦政府合作有着很长的历史。当我在国家实验室工作时,每次新的超级计算机问世,第一个版本都会交给政府。我们这么做是为了让政府拥有相应的能力,我认为这比用于安全测试的理由更好。”