我的一位前同事曾在美国政府担任演讲撰稿人,他曾经说过,这份工作感觉就像回到大学,但每周都要换专业。

作为一个试图关注过去几年人工智能 (AI) 政策飞速发展的人士,我最近一直在思考这个比喻。让人感到困惑的不仅仅是发展速度或信息量;还有管理一种有望影响几乎所有领域的通用技术的风险。

引领人工智能未来发展需要雄心、谦逊和对不确定性的适应。对于那些刚接触这些争论的人以及那些每天都在密切关注这些争论的人来说,回顾一下将在 2025 年决定人工智能政策格局的主要问题,将会大有裨益。

以下是我正在追踪的五个:

1. 数据真的是“新石油”吗?

毫无疑问,当今的大型语言模型 (LLM) 使用大量数据进行训练,但重要的不仅仅是数据的数量。数据的质量及其与任务的相关性也同样重要。如果你和数据科学家交谈,他们会强调,将原始数据转换成可用于机器学习的形式需要付出巨大的努力。当我们专注于实时数据集成和在关键任务组织以及与可信赖的盟友和合作伙伴之间共享数据的通用标准时,情况会变得更加复杂。数据很重要,但我们常常将其价值降低为简单的命题,或忽视偏见在塑造结果方面的作用,而这些结果偏向某些利益。社会技术观点迫使我们反思我们如何解释数据,以及我们的假设如何与数据收集过程相互作用,从而加剧不平等或模糊我们对社会和战略环境的理解。

在一片炒作声中,有一点很清楚:对高质量数据的追求正在迅速推进,这些数据用于推动创新和训练越来越强大的人工智能模型。请密切关注法庭上有关培训大语言模型 (LLM) 使用版权材料的法律问题,尤其是有关数字艺术家和其他创作者权利的争论。一些人预测公开文本的库存将出现瓶颈,因此值得跟踪开拓人工智能小数据方法的努力,以及使用合成数据、多感官学习、隐私增强技术、数据库存和公私合作伙伴关系来推动发现曲线。生物数据在培训中的作用也将引发复杂的政策问题,并需要采取细致入微的方法来管理风险,同时推动生命科学的持续进步。

2. 下一个突破将会来自哪里?

虽然有些人认为计算能力是 AI 领导力的关键(见下一个问题),但其他人则认为算法创新和新系统架构是推动进步的关键因素。在未来一年,明智的投资可能会集中在我的一名学生所说的“系统到模型创新”上。OpenAI 的 GPT、谷歌的 Gemini、Anthropic 的 Claude 和 Meta 的 Llama 已经成为主流,但围绕它们的开发生态系统同样重要。OpenAI 公司使用强化学习将思路链提示(一种系统级创新,教导模型在回答查询之前花更多时间推理中间步骤)训练到他们最新的o1 模型中,这并非巧合。

研究人员将继续探索人工智能开发的新范式,重点关注推理能力和心理学家所说的“系统 2 ”思维。新的、计算密集程度较低的方法将吸引一些最聪明的人才。语言模型的分散式训练运行将帮助小公司参与竞争,尽管这种方法对人工智能治理提出了新的挑战。人机协作的政策、系统界面、评估和方法将不断发展,以利用协作的好处,同时降低自动化偏见和其他潜在危害的风险。人工智能人才的更广泛定义以及对教育和劳动力发展(包括非传统途径)的投资将把至关重要的政策关注点集中在人工智能的准备情况以及该技术对工人和生计的影响上。人工智能在科学中的应用将特别值得注意。生物分子建模的最新进展和DNA 基础模型的兴起凸显了人工智能在促进药物发现和公共健康方面的巨大潜力,以及需要负责任的实践和政策指导方针来平衡安全性、隐私性和透明度之间的权衡。

所谓“技术堆栈”的其他部分也值得同等关注。通过《芯片和科学法案》进行的投资正在促进美国半导体制造业的复兴,而国家半导体技术中心则处于有利地位,可以支持劳动力需求和下一代研发。对于那些仔细研究数据而看不到人工智能生产力繁荣迹象的人来说,跟踪市场竞争动态以及人工智能在社会、经济和政府机构中的传播也很重要。技术的传播将增加识别新应用的可能性,并且似乎准备在用于运行人工智能工作负载(也称为“推理”)的计算资源相对份额上进行洗牌,而不是在用于预训练大型模型的芯片集群上进行洗牌。大型基础模型的更新将成为头条新闻,但人工智能的采用速度、规模和深度可能对一个国家的长期增长和竞争力更为关键。

3.“缩放定律”是否会继续适用于人工智能?如果会,那么会持续多久?代价是什么?谁会受益?

或许没有一个问题能像这个问题一样引发如此激烈的争论——这是有原因的。人工智能研究人员经常使用“缩放定律”来谈论:神经网络越大,功能越强大,用于训练的数据和计算资源越多,效果就越好——至少这是普遍的观察。最近的发展提供了一些证据表明,领先模型的表现可能未达到缩放定律的预期,但其他人则指出推理缩放定律是下一个前沿。值得强调的是,当今许多关于数据和计算能力收益递减的估计都专门适用于LLM。其他国家不一定会把所有的鸡蛋都放在LLM上,未来数月和数年,政策制定者和科学资助组织面临的关键问题之一是是否以及如何在人工智能创新的未来上下更多样化的赌注。

另一个问题是:现代人工智能不仅需要大量数据,而且需要大量能源。随着气候变化加剧,人工智能推动了大型科技公司的温室气体排放,政策制定者将面临艰难的权衡,因为他们要努力维持人工智能的成本轨迹直至 2030 年。对新数据中心和更大规模训练的需求将与已经紧张的电网、许可障碍以及在海外建设人工智能基础设施和管理供应链风险的复杂地缘政治相冲突。这些政策和能源动态引发了对小型核反应堆的争夺,并重新引起人们对数据中心“点负载”管理和升级电力基础设施的关注。

在接下来的一年里,值得关注的趋势之一是人工智能是否会加速或破坏清洁能源转型。另一个趋势是算法的改进和人工智能的新方法是否会抑制扩张成本的飙升。我们这些关注国家安全的人也有很多讨论的空间。正如美国国家安全人工智能备忘录明确指出的那样,政府越来越担心人工智能模型权重(从训练过程中得出的数学参数)的安全性,以及人工智能模型被盗窃或滥用以发起复杂的网络攻击、助长虚假信息和提升生物攻击能力。考虑到这些利害关系和保护人工智能基础设施的挑战,更重要的是要问:今天谁从人工智能中受益,谁的声音代表了公众的利益?

4. 我们应该踩刹车、踩油门还是使用减震器?

首先,我们要踩刹车。 人工智能模型是不可靠的。它们会产生幻觉,并将我们的偏见反映给我们。虽然它们的内部工作原理在某种程度上已被理解,这主要得益于过去一年的突破,但具有数千亿甚至数万亿个参数的神经网络并不容易大规模解释。优化技术(如检索增强生成和知识图谱)可以提高性能,但将它们集成到企业应用程序中既是一门艺术,也是一门科学。人工智能技术的行为方式也可能使我们的意图变得混乱。确定何时应该依靠它们来做决策仍然是一项重大挑战,尤其是在努力创建能够在现实世界中规划和采取独立行动的通用人工智能 Agent 的情况下。如果这些问题还不够紧迫,我们还必须防范不良行为者(无论是国家还是非国家)滥用人工智能的威胁,以及组织在安全关键系统中部署人工智能时可能出现的结构性风险。

可以理解的是,一些人呼吁暂停人工智能开发,或至少放慢发展速度,直到我们的社会能够找到负责任地管理这项技术的方法。这种呼吁反映了长期的历史和社会经济模式,即新技术引发了人们对失业、身份认同、稳定和公众信任丧失的持久担忧。

其他人则持相反观点:市场机遇加上人工智能和能源创新的良好发展,需要全速前进。如果民主政府强行干预,他们就会把优势拱手让给独裁竞争对手,并破坏人工智能对经济增长和物质丰富、人类健康和地球福祉的潜在益处。

对于那些希望看到人工智能继续进步但又担心风险的人来说,还有第三种方法正在兴起:使用减震器和更好的 GPS。人工智能正掀起一波繁荣和投资的浪潮,但重要的是在风险演变成大范围危害之前预测它们,并在人工智能开发的整个生命周期中创造激励措施,以促进透明度、参与度和问责制。不断发展的人工智能安全研究所网络将完善我们的安全基准,提高模型评估的科学性。州、联邦和国际层面将继续就人工智能事件跟踪、第三方审计、内容真实性工具、数据保护、安全案例、风险管理和人工智能危害责任进行辩论。在识别和管理风险方面取得的进展将允许制定合理的法规,以建立信任、促进采用并鼓励负责任地使用。对这些问题的关注还将为有效治理提供关键的压舱石:提高政策制定者、立法者和监管者的人工智能素养,同时提高政府提供服务和表达人工智能公共愿景的能力。

5.什么是正确的目标:人工智能促进民主还是民主化人工智能?

上述所有趋势都引出了一个问题:人工智能政策的正确目标是什么?是应该赋予民主国家联盟权力,使其能够在全球范围内与日益壮大的专制竞争对手抗衡,还是应该让政策制定者寻求促进开放获取、开放文献和更广泛地使用人工智能模型、工具和基础设施,以促进创新和安全,同时监控风险?前者表明了围绕人工智能的地缘政治竞争的激烈程度,以及政府保护敏感技术的各种工具;后者反映了长期以来定义该领域的开放传统。这两种观点并不一定相互对立,评估模型保障措施和发布方法的风险和收益不能简单地 归结为开放与封闭的二元论。

然而,在进入新的一年之际,第三个观点值得认真考虑:全球多数。对于许多国家而言,人工智能政策的关键问题不是民主国家获胜还是专制竞争对手占上风,而是人工智能的获取、机会和应用,以满足国内需求,并朝着联合国的可持续发展目标(如教育、医疗保健、粮食安全和体面工作)迈进。重要的不仅仅是获取和采用。世界各国都在努力应对这项技术的法律和道德影响,并要求在人工智能治理中拥有更大的发言权。即使地方和区域举措正在兴起,创造更广泛、更具包容性的全球人工智能对话机会也势在必行。人工智能的前景与迫在眉睫的危险密不可分,但 2025 年的大部分故事可能在远离华盛顿、伦敦、布鲁塞尔、莫斯科和北京的首都书写。世界各地的新兴市场将继续根据当地情况调整人工智能,其风险和利益的扩散将使我们所有人都陷入困境。富兰克林·罗斯福总统的话在今天比以往任何时候都更加真实,“世界变得越来越小,甚至爪哇人现在也成为我们的邻居了。”

随着人工智能实验室在世界各地开展,各国需要找到合作方式,避免监管分散,并建立日益不同的治理机制网络。外交官将制定负责任的使用规范,并提出措施以减少竞争压力升级的风险;研究人员将开展初步努力,促进人工智能验证和创新的制度设计;军队将继续在战场上测试和部署人工智能能力,在跨国挑战和地缘政治竞争加剧的背景下为全球合作创造新的迫切需要。如果说有哪个时候可以将专业转到人工智能和国际事务上,那就是现在。

免责声明:

本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。加密货币市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。

注我们,一起探索AWM

2024-12-03

2024-11-17

2024-11-16