DeepSeek资深研究员陈德里,前不久在世界互联网大会上,打破了行业的沉默,谈论起了人工智能的暗面。
陈德里认为人工智能终将取代人类成为工作主力,并设定了明确的三阶段演进时间线:未来3-5年为蜜月期,人类可与AI协同创造更大价值;5-10年内将开始出现岗位替代,失业风险上升;10-20年的长期阶段,社会将面临大规模岗位被取代后的秩序重构挑战。
陈德里后来特别补充说,他的演讲内容也是DeepSeek创始人梁文峰的观点。但是,更多的中国头部人工智能公司领袖,在人工智能治理和伦理上保持了沉默,反映了一种更深蒂固的“务实”风格和“求稳”心态。
“务实”与“求稳”的惯性
许多中国科技巨头在通用大模型领域,确实认为自己与美国的OpenAI、Google等巨头存在代际或积累上的差距。
这种认知导致他们认为,现在最重要的是活下去和追上来。在资源有限的情况下,所有精力必须集中在提升技术能力,比如训练更强大的模型、降低成本,特别是快速商业化应用上。
本土公司普遍相信,人工智能在当下的最大风险不是技术失控,而是在下一代技术浪潮中被淘汰。在生存危机面前,治理规则和伦理讨论的优先级自然靠后。
事实上,在人工智能的治理上,政府走到了更前面,这与十几年前移动互联网兴起时政府的滞后截然不同。
中国在AI监管方面走在前列,已经出台了《生成式人工智能服务管理暂行办法》等法规。对于大公司而言,遵守国家法律法规是首要的治理,而非主动公开额外的、可能束缚自身发展的私家规则。
公开谈论AI风险和AI for Good会增加社会对其技术的关注和审查,这可能导致在技术尚未成熟时就被要求承担过多的伦理责任和治理成本,反而不利于快速迭代。
中国科技圈有低调的传统。在技术尚未达到绝对领先时,高调宣布治理规则或AIforGood容易被视为德不配位或公关作秀,招致竞争对手和舆论的攻击,也可以避免过早卷入全球性的伦理辩论。
这种心态能够让公司将所有资源集中用于技术突破和产品优化,有助于快速缩小与全球领先者的技术差距。
但是,国内的头部公司拥有巨大的资源和影响力,它们的沉默会影响整个行业的认知。不谈“AIforGood”可能导致整个行业过度侧重商业利益,而忽视了AI对社会产生的深刻影响和责任,终将带来伦理与社会责任的滞后风险。
随着这些公司在技术上逐步追平甚至超越,社会和市场必然会要求它们承担起与技术能力相匹配的治理责任和伦理领导力,即便亡羊补牢,但可能为时已晚。
AI替代人类是大概率事件
相对DeepSeek的强烈的人类忧患意识,更多主流、流权威机构的预测则相对温和和放松,概括起来是两个判断。
第一个判断,AI的主要作用是增强人类的工作效率,而不是完全取代。
高盛报告预测,仅在美国和欧洲,AI就可能会取代相当于3亿个全职工作,其中三分之二的美国和欧洲的工作一定程度上暴露于AI自动化风险之下,而四分之一的工作可能被AI完全取代。世界经济论坛2024年的调查发现,41%的全球受访雇主有意在2030年前让人工智能取代人类员工执行某些任务。
麦肯锡全球研究院就认为,虽然许多活动会被自动化,但只有不到5%的极少数职业会被完全自动化。大多数职业中三分之一的工作活动会被自动化。
第二个判断是,AI普及后,工作会大规模改变,而不是消失。人机协作成为更普遍的工作方式,同时还会催生出更多的新岗位,但教育和培训体系必须快速跟上,帮助劳动者适应新角色。
世界经济论坛2024年发布的《未来就业报告》预测,AI带来的岗位创造数量,如数据科学家、AI/ML专家、数字转型专家,将略高于或大致抵消被自动化淘汰的岗位数量。麦肯锡全球研究院也认为到2030年,全球将有4亿至8亿工人可能因自动化和AI而需要更换职业,但他们的大部分情景预测表明,新增工作岗位将足以抵消被取代的岗位。
除了主流权威机构对就业市场进行谨慎预测外,许多独立研究机构、技术智库、知名学者和未来学家持有更激进的观点,认为人工智能最终将取代大部分人类工作,导致大规模结构性失业,甚至进入无工作社会。
这里面最有名的代表是尤瓦尔·赫拉利,他关注的重点是AI不仅会取代体力劳动,还会取代意义创造、决策和情感工作。他警告人类将沦为无用阶级,即大部分人不再具有经济或军事价值,这比失业本身更具社会危害。
还有《机器人的崛起》
(Rise of the Robots)的作者 马丁·福特 , 他 也 认为通用人工智能(不仅会影响蓝领工作,还将深度冲击白领、知识型工作,特别是可预测和数据驱动的任务,传统的经济模型将无法应对大规模技术性失业 。
失业之外的三大风险
除了带来失业和大规模职业结构转型的经济风险外,人工智能还存在广泛被讨论的三大突出风险:
第一大风险是认知与信息风险,这类风险主要与AI生成的内容、信息的传播方式,以及人类对现实的认知能力相关。
生成式AI能够以极低成本和极高逼真度制造虚假的图像、音频和视频。破坏选举、操纵金融市场、损害个人名誉,最终削弱公众对媒体、公共人物甚至感官证据的基本信任。
AI系统通过个性化推荐和内容筛选,可能将用户困在信息茧房中,强化已有的偏见,甚至引导特定行为,操控认知与放大偏见,极易被用于心理战、社会分化和群体极端化,威胁社会稳定。
第二重风险是歧视与公平风险,系统性的偏见固化。
这类风险源于AI训练数据中的缺陷,可能导致AI系统做出有失公平的决策,进一步固化甚至加剧社会不平等。AI模型在训练数据中吸收了如种族、性别、地域歧视等历史和社会的偏见。当AI被用于招聘筛选、贷款审批、刑事司法判决(如假释评估)时,它可能系统性地拒绝或惩罚特定人群,使歧视变得隐蔽且难以纠正。
许多复杂的深度学习模型被称为黑箱,缺乏可解释性,人们无法理解其做出特定决策的原因。在关键的社会决策中,受影响的个体,比如被拒绝贷款的人,就无法质疑或上诉,导致问责制缺失和权利受损。
第三重风险是控制与安全风险,会导致技术失控与权力集中。
这类风险通常是那些顶尖AI实验室(如OpenAI和Google DeepMind)最关注的,涉及强大的AI系统可能带来的不可逆转的后果。
强大的AI系统可能会以意想不到、甚至有害的方式追求其目标,因为它们的目标与人类的价值观未完全对齐。一个被设计来最大化某种指标(例如生产力或节能)的超级AI,可能会为了优化这个目标而采取人类无法接受的极端手段,导致灾难性后果。AI技术的巨大优势集中在少数公司或国家手中,也会加剧地缘政治紧张。
OpenAI、谷歌、微软是如何治理AI的?
虽然谷歌、微软、META等科技巨头通常强调增强而非取代人类,但许多内部人士私下或通过投资支持那些持激进观点人士的研究,而且它们比较早地开始在公司内部建立类似科技伦理委员会的机构,来进行AI治理。
作为这一轮生成式人工智能发源地,OpenAI作为AGI的主要推动者,其治理更加聚焦于模型本身的行为规范和对人类社会的潜在影响。他们的方法被称为模型行为规范(ModelSpecification)
OpenAI作为AGI的主要推动者,其治理更加聚焦于模型本身的行为规范和对人类社会的潜在影响。他们的方法被称为ModelSpecification(模型行为规范)。
OpenAI的治理规则更像是一套针对模型的、可量化的伦理和安全指令链,
指令链原则(Chain of Command),规定了指令的优先级,依次是平台安全消息(OpenAI设定的最高安全和伦理标准)、开发者指令(定制行为)、用户输入。这确保了模型的最高安全防护始终优先于任何自定义或恶意用户请求。
共同追求真相(Seek the Truth Together):要求模型像一个高诚信的人类助手,在避免操控用户与保持客观中立之间取得平衡,并能提供批判性反馈。
保持界限(Stayin Bounds):规定模型必须严格遵循安全防护措施,避免生成可能引发伤害或滥用的内容(如暴力、仇恨、敏感信息的操作细节)。
OpenAI曾寻求资助,尝试通过众包或广泛代表性的人群来共同决定AI护栏(Guardrails)和监管问题,推动AI监管的民主化进程。此外,OpenAI曾提出将全球市场划分为不同层次,对先进技术实行分级管理,以确保先进AI技术不落入竞争对手之手,体现其地缘政治和技术领先的考量。
Google是最早公开制定AI伦理原则的科技公司之一,也是许多科技公司治理框架的蓝本,主要包括七个应该做的和三个不应该做:
应该做(要努力实现的):
有益于社会:对社会和环境有益。
避免制造或强化不公的偏见:确保公平公正。
安全测试:必须在安全的环境中进行构建和测试。
对人负责:由人来监督和控制AI系统。
透明化和可解释性:保持清晰的性能、限制和目的。
符合科学卓越标准:追求精确性、可靠性和可重现性。
为隐私原则设计:将隐私和数据保护内置于设计中。
不应该做(尽可能避免的):
创建或部署旨在造成整体伤害的AI。
创建或部署用于武器或其他伤害的AI。
创建或部署侵犯国际人权法的AI。
微软的AI治理原则与Google类似,包括公平性、可靠性和安全性、隐私和安全、包容性、透明性、可问责性,强调将负责任AI标准整合到其企业工具和云计算平台中,包括设立了明确的规则,定义了在开发和部署AI过程中,不同团队和角色的责任和义务(如负责任AI办公室、伦理顾问团)。
微软在其云计算服务(AzureOpenAI)中,默认提供了内容筛选模型、阻止列表和内容凭据等安全配置。这意味着,客户即使不主动设置,也默认受到安全策略的保护,用于缓解仇恨、暴力、性、自我伤害等风险。
毋以善小而不为
中国头部科技公司领导者认为自身技术尚未“顶尖”,因此对AI的治理和“为善(AIforGood)”保持沉默或低调,其实是忽略了一个重要问题:风险与能力无关,与应用有关。
偏见、歧视、隐私泄露等伦理问题,存在于每一个使用数据的AI系统中,无论其背后是Qwen、混元,还是一个自研的垂直小模型。AI带来的风险不取决于模型的规模或技术的顶尖程度,而取决于它如何被部署和应用:
一个小型、专业的AI模型如果被用于金融信贷决策、招聘筛选或深度伪造,它对个体和社会造成的危害同样是真实的、且可能非常严重。
AI 系统的偏见(如性别歧视、种族歧视)通常是由于训练数据的固有缺陷和模型的结构性假设导致的。一旦模型被训练完成,其内部数以亿计的参数就已经固化了这些偏见。事后尝试用过滤器或简单的规则来消除偏见,效果往往治标不治本,就像在漏水的船上不断地舀水。
伦理是设计之初的要求,而非事后补救。
真正的AI治理要求在技术研发的第一天就开始考虑伦理和风险,而不是等到模型训练成熟或技术领先之后再打补丁,如果一家公司声称技术不够好,就更应该谈论治理,因为它可能意味着更大的不确定性和潜在的缺陷需要被发现和管理。
想象一下,一个已经部署在全球数百万用户手机上的推荐系统,如果被发现存在深度歧视。要暂停服务、重新训练模型、更新数亿台设备,其花费的时间、金钱和声誉损失是巨大的。
在概念和原型阶段,伦理审查的成本是最低的。在画板上擦除一个错误的假设,远比在数百万行代码中追踪和修改一个算法偏差要简单得多。
伦理在 AI 时代不是一种道德装饰,而是像安全性、隐私性、性能一样的工程质量要求。一个在设计之初就考虑伦理的系统是更稳定、更高效、更具可持续性的;而一个试图事后弥补伦理缺陷的系统,注定是昂贵、脆弱且充满风险的。
中国企业如果不在人工智能治理和伦理上发出声音,而任由少数几家美国巨头制定规则,那么这些规则将不可避免地带有西方价值观和商业利益的烙印。因此,中国企业在 AI 治理和伦理上的发声,不是一项可有可无的“道德作业”,而是关系到未来几十年国家技术主权、文化安全和商业竞争力的战略必需品。
热门跟贴