7月7日,WAIC世界人工智能大会在上海世博中心展馆召开。在大会“聚焦·大模型时代AIGC新浪潮”论坛上,中国信通院、清华大学和蚂蚁集团联合发布了《可信AI技术及应用进展白皮书》(以下简称《白皮书》)。《白皮书》基于统一的可信AI认知维度,对可信AI技术及其应用发展现状进行了梳理,对面向新阶段大模型和AIGC引发的新需求进行了提炼,形成了一套以技术为保障的可信AI评估体系和工具。

打开网易新闻 查看精彩图片

同时,论坛上还发布了由蚂蚁集团与清华大学联合研发的生成式AI安全检测平台——蚁鉴2.0,该平台除了1.0版本的AI模型的鲁棒性检测外,还新增AIGC安全性检测+可解释检测。此外,论坛还发布了由多家机构共同发起的《AIGC可信发展倡议》。

在AI狂飙突进的时代,此次论坛让人们在关注AI技术发展的同时更多关注到了AI的可靠性和安全性问题,对于中国AI事业的发展,这具有相当重要的意义。

 AI时代的得与“失”

近年来,AI技术取得了突飞猛进的发展。《白皮书》指出,在算法层面,已开启千亿级甚至万亿级参数量预训练模型的研发热潮,助推深度学习技术突破,加速人工智能外溢性和普惠性发展。数据层面,人工智能快速发展推动数据规模不断上升,并呈现多模态发展态势,数据服务进入深度定制化阶段,各方正在积极建设高质量数据集以支撑知识驱动的人工智能发展。算力层面,单点算力持续突破,面向训练和推理用的芯片快速演进,新架构不断研究,类脑芯片、存内计算、量子计算等加快探索。

尤其值得一提的是,在去年11月生成式AI向人们展示出了强大力量后,各种大模型如雨后春笋一样涌现出来,并实现了大规模的商业化。目前,包括Google Brain、DeepMind、OpenAI、Meta和Microsoft在内的国外巨头,以及百度、阿里巴巴、华为等公司也都参与到了大模型研发的时代浪潮中。

毫无疑问,AI的发展对生产力的发展产生了巨大的推动作用,也让人们的生活变得更为便利了,但与此同时,它也带来了很多新的问题。在我看来,AI带来的问题当中,最值得关注的可以归纳为五个“失”,即:“失业”、“失真”、“失格”、“失陷”和“失控”。

所谓失业,即AI带来的技术性失业问题。由于AI的生产效率要远高于人类,因此在AI工具被普遍使用之后,很多人类的岗位就面临着被替代的风险。尤其是在生成式AI崛起之后,可能被AI冲击的人群已不再限于那些从事低技能职业的工人,高薪白领人群也需要面临被AI替代的风险。例如,根据OpenAI的报告,仅ChatGPT这一个AI模型就可能对美国劳动力市场上八成人员的10%工作内容造成替代。

所谓“失真”,指的是AI技术导致了人们难以分辨网上内容的真假,这造成了很多的问题。如《白皮书》所列,在文本内容方面,恶意用户可以利用AI生成的文本来传播虚假信息、谣言、仇恨言论、歧视性内容或其他有害内容。在图像和视频方面,恶意用户可以使用深度合成技术生成生物识别的人脸或现实不存在的视频片段,从而构造具有合成照片的社交网络间谍账号,伪造公众人物或政企领导的有害视频。这些行为可能引发很多严重的后果:在社会层面,AIGC成为了电信诈骗等违法犯罪活动的新工具。在政治层面,AIGC技术成为攻击政治领袖、引导舆论的新武器。在金融层面,深度伪造技术攻破了支付身份认证,使风控体系失效。

所谓“失格”,指的是在AI的应用过程中可能发生的和伦理道德的冲突。比如,现在大型语言模型的训练都是以互联网上的文本资料作为材料的,所以如不加干预,它就会将文本当中蕴含的种族歧视、性别歧视等内容也一并继承下来。而这可能会误导使用者将具有歧视性的回答视为‘正确答案’而作出错误的决断。此外,在AI的训练过程中,经常会用到与个人身份、行为相关的数据,这就可能会涉及到侵犯隐私、泄露个人信息等问题。例如,2023年2月,微软Bing Chat的Prompt信息被斯坦福的学生以提问的方式轻松窃取;而三星公司引入ChatGPT后不到20天发生了三起半导体机密资料外泄事件。

所谓“失陷”,指的是AI在面临干扰和攻击时面临的风险。《白皮书》指出,在AI的应用过程中,可能面临着来自多方面的干扰和攻击,包括:随机攻击(在自然条件下随机发生的,例如随机噪声,缺失,分布漂移)、盲盒攻击(仅仅基于先验条件下的攻击,例如文字同音词替换、图像风格迁移)、黑盒攻击和白盒攻击。其中,高回报的场景如人脸识别更多面临黑盒和白盒攻击,而实际业务场景则更常见随机攻击和盲盒攻击。如果一个AI系统不能有效地抵御各种干扰和攻击,就可能给使用者和全社会带来巨大的损失。

所谓“失控”,指的是人们对于AI模型的掌控正变得越来越困难。现在的AI模型基本都是建立在深度学习的基础之上的,每个模型都具有数以百亿,甚至千亿级的参数,训练的数据集则更是海量,这使得这些模型变得越来越难以解释。以ChatGPT为例,即使其开发者OpenAI也无法解释其卓越的能力究竟是如何“涌现”而成的。在这种情况下,对AI进行有效的控制也就变得越来越难。现在,AI在各方面的能力正在迅速成长,如果不能有效对AI进行掌控,就随时可能面临各种意外的风险。在极端情况下,甚至可能如《终结者》、《黑客帝国》等影视作品中预言的AI毁灭人类、奴役人类的情况。

在上面罗列的五大问题中,除了“失业”属于所有颠覆性技术所带来的共性后国外,其他的四个“失”都是和AI的技术特征相关的。因此,如果不从技术上对这四个“失”进行回应,AI技术就很难被人们信任,而这就会对其的发展和普及产生很大的影响。可信AI问题,就是在这个背景下被提出的。

  可信AI的历史和内涵

可信AI(Trustworthy AI)的概念最早出现在学术界。例如,在2015年的一篇论文中,就提出了有用性、无害性、自主性、公正性和和逻辑性等AI要被用户信任所需要满足的一系列条件。然后,可信AI的概念被各国政府和国际组织接受,并逐步以此为依据建立了相关的法律、法规和指导文件。例如,在2016年4月,欧盟出台的《通用数据保护条例》,以及2017年12月国际电气和电子工程师协会(IEEE)出台的《人工智能设计的伦理准则》中,都提到了类似的概念。

在2017年之后,在深度学习技术的推进之下,AI发展突飞猛进,关于可信AI的技术的研究也蓬勃发展。在学术领域,以可信AI为题的论文数量不断增加,关于满足可信AI要求的技术的研究日益深入。在实践领域,越来越多的国家都开始按照可信AI的标准来设计关于AI的规制规则。仅在最近,美国就发布了《人工智能权利法案蓝图》,提出了规制AI的五项原则;英国发布了《支持创新的人工智能监管方法》,对安全性、透明性、公平性、问责制、竞争等问题进行了规定;欧洲议会通过《人工智能法案》提案的谈判授权草案,其中也体现了可信AI的基本思路。

在我国,可信AI的概念是由何积丰院士2017年在香山科学会议的第36次学术研讨会上首次引入的。随后,这一概念就引起了政府和产业界的共同重视。例如,2017年12月,工信部印发了《促进新一代人工智能产业发展三年行动计划(2018-2020)》,其中对可信AI的基本思想进行了借鉴。2021年,央行发布了《人工智能算法金融应用评价规范》,其中根据可信AI的思路,对AI模型从算法的安全性、可解释性、精准性和性能三个方面制定了评价的标准。在产业界,包括阿里、腾讯、蚂蚁、百度、京东在内的多家科技企业也都陆续提出了各自版本的可信AI规则和方案。这次世界人工智能大会上发布的“蚁鉴2.0”,正是蚂蚁在可信AI技术领域的最新实践,也是业内首个产业级支持文本、图像等全数据类型的AI安全检测平台。它通过智能对抗技术生成海量测试集,可以对生成式模型进行自动化检测和防御升级,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。

在实践当中,可信AI技术正在安全鲁棒、隐私保护、公平性、可解释的大框架下逐步成熟,并在金融、保险、制造、医疗等行业领域逐渐落实成具体的产品和实践案例,为行业领域发展注入新的动力。

目前,关于可信AI的确切概念,各个机构的表述各不相同,但如下六个标准应该是比较重要的:

一是稳健(robust,又被译为鲁棒),即AI系统应该具有抵抗恶意攻击或者外部干扰的能力。只有当一个AI系统具有充足的稳健性,可以在面临各种攻击或干扰时依然正常工作,履行其主要职能时,它才是安全可靠的,才有可能得到用户的信任。

二是透明和可解释(transparent and explainable)。具体来说,对AI模型中的各个组件都给出清晰的功能说明,让用户知道它们的大致原理究竟如何,到底可以实现哪些功能;对使用的训练数据的来源、样本量、代表性等信息进行标明,并对其可能存在的问题和不足进行说明。

三是可验证(verifiable)。这主要指对于AI的生成物应该具有明确的标识性,从而可以让用户对其真伪进行鉴别。

四是公平性(fair)。这主要指AI模型在开发、训练和应用的过程当中,应当保证公平,而不应该对特定的用户群体进行歧视。

五是隐私保护(privacy)。这要求AI模型在训练的过程当中应当尊重人们的个人信息和隐私,并提升对信息的保护程度,尽量做到不侵犯、不泄露个人信息和隐私。

六是可问责(accountable)。这主要指应当对AI发生问题时,其责任应当是可被追溯的。应当有具体的人或组织来为这些问题负责。

纵观以上几个标准,容易看到标准一主要是针对“失陷”问题的,标准二是针对“失控”问题的,标准三是针对“失真”问题的,标准四、五是针对“失格”问题的,标准六则是划定AI责任的承担者。可以看到,如果AI的模型可以遵循以上几个标准,就可以比较好地回应AI技术所造成的问题。

  集各方之力共建可信AI

很显然,可信AI的实现并非易事,它需要各方力量、多个维度的共同努力。具体来说:

首先,政府和监管机构应当根据不同的应用场景、不同的模型类别制定不同的规则,尤其是对一些必须遵守的底线规则做出规定,让AI发展有法可依、有规可循。这里需要指出的是,由于技术的进步很快,为了给AI发展留下足够的空间,政府所关注的应当是原则性、方向性的问题,至于更为具体的问题,则可以“让子弹多飞一会儿”,等技术达到稳定状态再作规定。

其次,AI行业的从业企业和相关机构应当为可信AI的实现制定更为详细的执行方案。与政府相比,从业企业,以及研究AI的科研机构对AI技术的了解是更为深入的,它们对市场的接触也更多。因而,相比于政府,它们要更了解AI模型的技术特征和相关的优缺点。在这种状况下,它们有责任秉承可信AI的原则,在法律法规的框架之下,根据自身特征制定出更合适的AI自治细则。这次世界人工智能大会上,中国科技企业在筑牢可信可控的AI安全屏障上的最新成果展示是一大亮点。

再次,在对可信AI的相关制度规则进行探索的同时,应该高度注意技术手段在可信AI领域的应用。所谓“批判的武器不能代替武器的批判”,AI发展中的很多问题本质上都是技术问题,因此要根本解决它们也要依靠技术。因此,在实现可信AI的过程中,就应当充分运用好技术的力量,鼓励科研人员围绕可信AI的标准研发相关技术,鼓励从业企业对这些技术进行推广。唯有如此,才能真正实现可信AI的各项标准,解决AI带来的各种问题。

应该说,此次“聚焦·大模型时代AIGC新浪潮”论坛的成功举办就是综合团结各方力量共建可信AI的一次有效尝试,它将为以后的相关工作树立一个良好的典范。