尽管,已经有人将人工智能与核弹相提并论,但人类监管生物武器和生物技术的方法更适合人工智能

今天的人类正在开发可能是人类历史上最强大的技术:人工智能。人工智能的社会危害(包括歧视、对民主的威胁和影响力的集中)已经得到了充分的证明。然而,领先的人工智能公司正在进行军备竞赛,以构建越来越强大的人工智能系统,这些系统将以人类历史上从未见过的速度升级这些风险。

打开网易新闻 查看精彩图片

当我们的领导人努力解决如何遏制和控制人工智能发展及其相关风险时,他们应该考虑法规和标准如何让人类利用过去的创新。监管和创新可以共存,尤其是当人类生命危在旦夕时,它们必须共存。

核技术提供了一个警示故事。尽管就人类死亡率而言,核能的安全性是石油的600多倍,而且能够产生巨大的产量,但很少有国家会接触它,因为公众首先遇到了错误的核家族成员。

人类是以原子弹和氢弹的形式首先接触到核技术。这些武器代表着人类历史上第一次开发出一种能够终结人类文明的技术,它们是军备竞赛的产物,优先考虑速度和创新,而不是安全和控制。随后,安全工程和风险管理的不足 —— 众所周知,这导致了切尔诺贝利和福岛的核灾难 —— 摧毁了人们广泛接受核能的任何机会。

尽管,核能的总体风险评估仍然非常有利,并且几十年来的努力使世界相信它的可行性,但“核”这个词仍然受到污染。当一项技术在其萌芽阶段造成危害时,社会认知和监管部门的过度反应可能会永久地限制该技术的潜在好处。由于早期在核能方面的一些失误,我们无法利用其清洁、安全的电力,碳中和和能源稳定仍然是一个白日梦。

但在某些行业,我们的做法是正确的。生物技术是一个发展迅速的领域:每天都有患者因无法治愈或治疗的疾病而遭受痛苦和死亡。然而,这项研究的精神不是“快速行动和打破常规”,而是尽可能快速和安全地进行创新。这一领域的创新速度限制是由一套确保社会和个人福祉的禁令、法规、道德和规范体系决定的。它还保护了该行业免受灾难反弹的影响。

冷战期间,在《生物武器公约》(biological weapons Convention)中禁止使用生物武器,对立的超级大国得以走到一起,一致认为制造这些武器不符合任何人的最佳利益。各国领导人认为,这些不可控但极易获得的技术,不应被视为赢得军备竞赛的机制,而应被视为对人类本身的威胁。

生物武器军备竞赛的暂停,使研究能够以负责任的速度发展,科学家和监管机构能够对任何可能造成人类伤害的新创新实施严格的标准。这些规定并没有以牺牲创新为代价。相反,科学界已经建立了生物经济,其应用范围从清洁能源到农业。在2019冠状病毒病大流行期间,生物学家以人类历史上前所未有的速度将一种新型技术 mRNA 转化为安全有效的疫苗。当个人和社会面临重大伤害时,监管不会阻碍进步;它使之成为可能。

最近一项针对人工智能研究人员的调查显示,36%的人认为人工智能可能会引发核灾难。尽管如此,政府的反应和监管行动充其量是迟缓的。这一速度无法与技术采用的激增相提并论,ChatGPT现在的用户已超过1亿。

在人工智能风险迅速升级的背景下,1800名首席执行官和1500名教授最近签署了一封信,呼吁暂停开发更强大的人工智能6个月,并紧急启动监管和风险缓解进程。这种暂停将给全球社会时间来减少人工智能已经造成的危害,并避免对我们的社会造成潜在的灾难性和不可逆转的影响。

当我们努力对人工智能的潜在危害进行风险评估时,积极潜力的损失应该包括在计算中。如果我们现在采取措施负责任地开发人工智能,我们可以从这项技术中获得难以置信的好处。

例如,我们已经看到人工智能改变了药物发现和开发,提高了医疗保健的质量和成本,增加了就医和医疗的机会。谷歌的 DeepMind 已经证明,人工智能有能力解决长期以来人类无法解决的生物学基本问题。研究表明,人工智能可以加速实现联合国的每一项可持续发展目标,将人类推向一个更加健康、公平、繁荣与和平的未来。

现在是国际社会团结起来的时刻 —— 就像50年前我们在《禁止生物武器公约》上所做的那样 —— 确保安全和负责任的人工智能发展。如果我们不尽快采取行动,人工智能和我们现在的社会将无法给我们带来光明的未来。

想了解更多关于人工智能、聊天机器人和机器学习的未来吗?请在评论中告诉我们。

如果朋友们喜欢,敬请关注“知新了了”!