尽管人工智能可能带来巨大的好处,但我们依然要谨慎对待将其广泛应用于社会各领域的可行性。专业会计师能够在这方面发挥关键作用。

ACCA(特许公认会计师公会)澳大利亚和新西兰特许会计师公会(CA ANZ)日前在一份最新报告中指出,财会行业迫切需要将人工智能(AI)与环境、社会和治理(ESG)各个维度建立必要联系。来自21个国家和地区的5700多名受访者参与了此次调研。结果显示,受访者态度谨慎,只有不到一半(43%)的受访者相信人工智能对个体权利会产生积极影响,在安全和个人权益保障、公平、选择权及透明度等方面应得到更多关注。

ACCA和CA ANZ 在这份名为《AI可持续发展中的职业道德:联通AI与ESG》(Ethics for sustainable AI adoption: ConnectingAI and ESG) 的报告中表示:专业会计师长期以来明确致力于践行道德准则,他们完全有资格引导各类组织在采用人工智能的同时承担必要责任。这份报告是对财会行业发出的一项倡议,敦促整个行业成为领航者,担当为职业道德保驾护航的超级联通者。在向大规模采用人工智能过渡的过程中,若想从中获得可持续的长期价值,财会行业就必须确保这一过程符合职业道德标准、尽职尽责。

为此,ACCA中国政策洞察总监钱毓益特别采访了全球领先的人工智能软件公司商汤科技的智能产业研究院院长田丰,就报告中的有关发现和建议,进行了深入的探讨。

钱毓益:在报告中,ACCA提出了的9项建议中,包括企业应确保AI应用符合组织价值观,例如通过优先采用符合组织多元化、包容性等价值观的方式来审视人工智能对弱势群体的影响。作为AI领先企业,商汤科技在AI应用原则上有怎样的理解?能否谈谈您对我们报告中这项建议的看法?

田丰:好的,商汤科技建设了自己的AI伦理产品审核标准与风险控制改进流程,近两年,在研究了上百份全球AI伦理和治理标准规范后,商汤智能产业研究院设计出“平衡发展的AI伦理观”三大原则,即:以人为本、技术可控、可持续发展,旨在跳出传统思维局限,包容跨区域多元文明价值观,平衡风险治理与创新发展,以造福全人类的初心,来规范人工智能产品创新伦理和行业发展底线。我非常认同你们报告中的这项建议,因为这也和我们在AI伦理中的根本原则相契合,也就是以人为本、以环境为本,树立人文原则第一的科研基础理念,AI科技从根本上是为人民服务的,这涉及到造福人类、保护人权、公平无歧视等多个主题。

正如你刚才提到的AI对弱势群体的影响,在面对当今日益老龄化的社会,商汤与大型地产商和物业服务提供商合作,尝试用AI技术赋能传统社区,打造智慧养老社区,旨在帮助“新基建”实现智能化。例如可以根据老年人生活规律和实际需求,在获得授权的情况下,感知他们的生活环境中是否有垃圾清理等需求,通过智能手环等检测他们的各项健康指标,必要时将数据报警信息发送给社区医院和物业,以便进行针对性救助服务。不论是家庭水电故障,还是老人在家突发疾病急需救治,他们都能激活声音报警进行求助。

钱毓益:前面我们也说过要从高层为AI定基调,对此能够谈谈您认为对于人工智能技术,企业高管应该保持怎样的态度?企业中的哪个职务应该负责围绕AI投资做出决策?

田丰:拿商汤举例,内部成立了伦理委员会、安全委员会、产品委员会,每一个产品在研发立项、上线发布、功能变更前都必须通过AI伦理审核、安全审核,定期排查产品从立项到上线流程的伦理风险;并每周搜集全球AI伦理相关政策法律,追踪建立国际AI伦理风险案例库,邀请内外部伦理委员召开会议,讨论AI伦理政策和原则,落实全部产品的风险评估与改进流程。我们每月都举办线下AI伦理研讨会,组织内外部法律、伦理、产业、学术专家(高校、智库)讨论不同行业特定场景下的AI伦理、AI治理问题,并将产业观点、创新解决方案与社会公众、同业合作伙伴、公共服务监管者交流沟通。

从产业界综合来看,AI投资战略决策,在组织中通常由CFO、CIO(首席投资官)、CIO(首席信息官)做出,目前有越来越多的AI投资从业务创新向科研创新、从财务收益向ESG价值转变,所以CEO与业务BU、社会责任代表参与AI投资决策的事情越来越多,标志着人类社会全面进入可持续发展的智能时代。

钱毓益: ACCA该报告中的第2条建议是“创造可持续价值”。对此,您有什么看法?

田丰:可持续发展也是商汤AI伦理观的三大原则之一。AI治理的目标是可持续发展,包括可持续发展、保护环境、保护和平、包容共享、开放协作等伦理原则。价值观的自我约束应高于政策、法律要求,所以针对最新AI政策进行企业文化宣导,实时搜集、建立全球AI风险判例库,以其他企业机构的AI伦理风险事件进行自身预警,并加入更多AI伦理考核检查项。

“AI可持续发展”应保护人类健康、尊严等基本权利,维护全球公认的道德伦理,提升人类职业发展与生活体验,避免特定群体或个人的偏见歧视,保护弱势人群,避免伤害公众与个人合法权益、自然环境、商业相关方利益。 坚持共享发展,按照人人参与、人人尽力、人人享有的要求,注重机会公平,保障基本民生,着力增进人民福祉,使全体人民在共建共享中有更多获得感。 坚持绿色发展,坚持节约资源和保护环境,坚定走生产发展、生活富裕、生态良 好的文明发展道路,推动形成绿色低碳发展方式和生活方式,积极应对气候变化, 着力改善生态环境。

钱毓益:66%的人认为,企业领导者把道德和盈利放在同等重要的位置,遗憾的是,这一比例在中国相对低一些。报告中也建议要遵从AI法则和道德政策,您认为我们应当如何合乎道德地采用AI?

田丰:我们首先要确定AI应用产品的“权力边界”,维持国家安全、公民隐私和国际规则之间的动态平衡。第一,国家安全。国家安全是所有百姓安居乐业的前提保障,是关键底线。在国际上,中国、美国、欧盟等国家或地区都高度重视国家安全风险,如美国就在2019年专门成立了“人工智能国家安全委员会”。第二,公民隐私。公民隐私大部分情况与企业直接相关,企业项目需要保证公民权利和安全。如ISO/IEC 27701(个人信息管理体系)便是全球首个隐私体系标准。第三,国际规则。每个国家具有各自的国情、文化历史和公民隐私诉求,所以在交流沟通过程中需要区域性的国际守则,如《日内瓦数字公约》、《巴黎倡议》、《国际安全港隐私原则》等。以上三因素在不同时期会有不同优先级,例如新冠疫情暴发期,国家安全、国民健康暂居第一。

钱毓益:我们在报告中还提到要优先进行数据管理,众所周知,许多科学技术都具有双刃剑属性,AI也不例外,因此数据管理和技术把控尤为重要,对此,能否谈谈您的看法?

田丰:除了前面我提到的两大原则, AI伦理原则还有一条就是技术可控。技术可控的AI治理观,包括可验证、可审查、合法、可信任等伦理主题,产学研相结合来实现技术可控。在AI道德政策实施层面,相对AI基础技术,应更加关注跟踪AI应用产品的道德监管,由于AI应用的实时性、并发性、高复杂性原因,人力监管者根本无法跟上海量AI数据、算法的实时变化,需要用算法监督算法、以AI监管AI,并对AI应用开发者不断培训、宣贯AI伦理意识,类似交通法规的全民驾驶员培训,建议对AI应用开发者进行伦理信用跟踪。