“谨慎行事并进行红队演练”遗憾地不如“快速行动并打破常规”那样吸引人。但三位人工智能安全倡导者向初创企业创始人明确表示,从长远来看,进展过快有可能引发道德方面的问题。
“我们正处于一个转折点,有大量资源正在投入这个领域,”人工智能现在研究所的联合执行董事萨拉·迈尔斯·韦斯特在TechCrunch Disrupt 2024的舞台上说。“我着实担心,当下存在一种急于把产品推向世界的冲动,而没有思考我们真正想要生活在何种世界这一遗留问题,以及正在生产的技术在哪些方面服务于这个世界,又在哪些方面对其造成了实质性的伤害。”
这场对话出现在人工智能安全问题让人感觉比以往任何时候都更为紧迫的时刻。10 月,一名自杀儿童的家属起诉聊天机器人公司 Character.AI,指控其在孩子的死亡中扮演了角色。
“这个故事确实展示了我们所看到的基于人工智能技术的快速推出所涉及的深远利害关系,”迈尔斯·韦斯特说。“其中一些是由来已久的、近乎棘手的网络滥用内容审核难题。
但除了这些生死攸关的问题,从不实信息到版权侵权,人工智能的利害关系仍然很高。
“我们正在构建的东西具有强大的力量,具有真正影响人们生活的能力,”艺术家主导的社交平台卡拉的创始人张静娜说。“当你谈论像 Character.AI 这样能在情感上真正与某人互动的东西时,我认为产品的构建方式应该有一些限制,这是有道理的。”
在 Meta 明确表示可以使用任何用户的公开帖子来训练其人工智能之后,张的平台卡拉迅速火爆起来。对于像张本人这样的艺术家来说,这项政策是一记耳光。艺术家需要在网上发布他们的作品以建立追随者并获取潜在客户,但这样做,他们的作品可能会被用来塑造那些有一天可能会让他们失业的人工智能模型。
“版权保护着我们,使我们能够谋生,”张说道。
如果艺术品能在网上获取,这本身并不意味着它是免费的——例如,数字新闻出版物必须从摄影师那里获取图像使用许可,才能使用这些图像。“当生成式人工智能开始变得更为主流时,我们所看到的是,它不符合我们通常所习惯、且在法律中确立的规则。如果他们想要使用我们的作品,就应该获取许可。”
艺术家也可能受到像 ElevenLabs 这类产品的影响,它是一家价值超过 10 亿美元的人工智能语音克隆公司。作为 ElevenLabs 的安全主管,Aleksandra Pedraszewska 有责任确保公司的复杂技术不被用于未经同意的深度伪造之类的行为。
“我认为,对于生成式人工智能公司所做的任何新发布,开展红队建模工作、了解不良行为和意外后果的情况再次成为[首要任务],”她说。“ElevenLabs 如今拥有 3300 万用户。这是一个规模庞大的社区,我们产品的任何变化都会对它产生影响。”
佩德拉斯泽夫斯卡说,像她这类人能够更积极保障平台安全的一种方式是与用户社区建立更紧密的关系。
“我们不能仅仅在两个极端之间操作,一个是完全反对人工智能和生成式人工智能,另一个实际上试图劝说对该领域零监管。我认为在监管方面我们的确需要采取中间路线,”她说。
热门跟贴