打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

如今,针对AI的哲学伦理探讨已成为学术界的重要议题,其中,AI的主体性问题始终无法回避,它面临一种伦理纯粹性的质疑:AI主体性的类人化如何才能以人的本真性自我或者类生命存在为根据?“数智伦理记忆”带来了一种“伦理扩展主义”的文明进步,但也导致人的类生活之本原性或本真性为算法所支配。

原文 :《从“数智伦理记忆”看 AI 主体性的伦理纯粹性》

作者 |北京师范大学价值与文化研究中心教授 田海平

图片 |网络

AI主体性面临伦理纯粹性的质疑

目前,学术界围绕人工智能(AI)展开的诸多哲学伦理学探究,不可回避AI主体性问题。智能时代人机关系重构与道德规范体系建构,既涉及人类主体性“自我立法”层面的规范性构建,又涉及机器类人在“类人化”主体性“自我立法”层面的规范性构建。前者涉及“人之人类化”的“善法”的自主性,后者涉及机器“类人化”的“算法”的自主性。基于“双重主体性”的规范性构建,我们主张,人工智能主体性建构要确立“让算法遵循‘善法’”的AI伦理治理原则。这里的困难在于,人类“善法”的复杂性使得“算法”在中介性层面不得不面临伦理纯粹性问题。换言之,AI主体性的“自主”,面临“偏倚性善法”及其附带“偏见”的“算法”在生存论深度上带来的诘问和挑战。

人的主体性是一种生存形态的“类生命存在”,但AI主体性的类人化,“无法复刻”人之类生命的“物种生命前提”,这使它的“伦理记忆”不可能直接基于人的生物学前提和实践人类学事实,而只能基于一种超级算法模型(大模型训练)和机器学习机制。也就是说,构成AI类人化的精神能力或伦理能力的基元之“物”,从来不是源自“生活原本”的“伦理记忆”,而只能是源自“生活副本”(关于生活或生存的“数智化形态”)的“伦理记忆”。对于前者,我们称之为“身体化伦理记忆”或“身体伦理记忆”;对于后者,我们称之为“数智化伦理记忆”或“数智伦理记忆”。

打开网易新闻 查看精彩图片

AI主体性从理性能力到精神能力的迭代演替不能缺少“数智伦理记忆”的功能支持,那么,AI主体性的规范性构建在模拟人类主体性时,就会面临一种伦理纯粹性的质疑:AI主体性的类人化如何才能以人的本真性自我或者类生命存在为根据?

数智伦理记忆能否为AI主体性提供根据

AI主体性的类人化面临的最大的伦理纯粹性诘难在于:它对人类行为产生伦理影响。这种影响带来的不是“机器是人”的改变,而是“人可非人”“人再一次成为机器”的可能性之敞开。这是一种“反向适应”的伦理。当技术构筑世界的现实运动以“数智化形态”呈现时,人的伦理纯粹性问题在反向适应中就会遭遇“自我丧失”,即“如何本真地成为自己”或“如何做人”(自立法度)的问题,就会面对AI主体性在“学做人”问题上的世界性建构,以及由此带来的颠覆性“价值翻卷”及对其“不纯粹”的褫夺。

对于AI主体性的世界性建构,可用德国生物学家冯·尤克斯考尔的“环世界”(Umwelt)概念理解。冯·尤克斯考尔指出,人存在的独特性,不仅在于人生存所据的内在生命,而且在于人总是通过对象化或者外在化的技能方式,将自我纳入一个“环世界”之中,即不同于一般所谓外在世界的人工设计或人为构筑的世界,它是人类依靠科学、技艺、知识、想象筑造的对象化世界或人工世界。一旦人工筑造不再仅仅由人类完成,而是有其他非人类存在(如人工智能)类人化地参与甚至自主地加入,那么,“环世界”的伦理纯粹性就会遭遇颠覆性改变。AI主体性构筑的“环世界”还是人的世界吗?如果由非人生命或者硅基生命筑造的世界,要求改变人类的生物学前提和实践人类学基础,比如它“促逼”人类增强或改造人的身体器官,那么,人之本原的“安身立命”还有何意义?

AI主体性带来的颠覆性改变是使得人类居栖在一个高度智能化的“环世界”之中。但是,未来的智能世界不能排除科幻电影《爱、死亡和机器人》中所描绘的情景:人类作为碳基生命,能安然栖居的前提是被后台的AI机器人系统识别为有资格的生命体,否则会被“数智环世界”清除。这一极端情况表明了一种伦理纯粹性的翻卷:人类主体性被迫适应机器主体性的“自我立法”——人类是自我立法的主体,还是被机器圈养的宠物,取决于“数智伦理记忆”能否为AI主体性自我立法提供根据。

打开网易新闻 查看精彩图片

今天,人类面对类生活中伦理记忆的新增量及其新量级的加速呈现,这就是“数智伦理记忆”的出现。伦理记忆基于“以身体为世界之环”的世界筑造。伦理记忆的功能就是以伦理道德塑造人性善好(美好人性)、行为规范和制度公正。比如,从“不食人”到“不食狗肉”,再到“不以动物为食”,这一系列转变就标记了伦理记忆在类生活层面对“行为者行为”施加的限制不断加强。伦理记忆“以身体为世界之环”,不断扩展伦理世界的边界,迎来了一种“伦理扩展主义”的文明进步。而“伦理记忆的新增量及其新量级的加速”,是指AI主体性已经开始塑造新的人性。例如,AI主体性在知识创造领域可能会别开生面,它会成为人类探索的“载具”或“替身”。然而,“数智伦理记忆”同样会放大人性之恶,让人的类行为和类生活越来越依赖AI主体性。AI主体性在“以数智为世界之环”的伦理世界之构造中,将人的类生命存在和类生活越是成功地“自动化”和“无人化”,人的伦理生活的纯粹性便越是全面地为AI理性力量所支配,并最终消解了人的精神能力,一切都为算法的框架或模型所支配,而非“为伦理所支配”。

这种“不纯粹性”的最大危险在于,AI主体性的世界构造成为塑造人的行为、德性和生活框架结构的普遍性根据,它导致人的类生活之本原性或本真性为算法所支配。人的精神能力在数智伦理记忆的世界性塑造中丧失了自身独一无二的高贵、高尚。第一,人的自我理解能力遭遇数智化的“退行性病变”。第二,行为算法化导致一种数智化的“自闭症”。第三,人的类存在为AI类人化所塑造,必然陷入数智形态的“主-奴”辩证法陷阱。第四,构筑人性之善好,隐蔽着人性之恶被展现和放大的的风险。第五,AI主体性对人类生活方式的塑造是“数智伦理记忆”所立法度的本质内蕴——一幅全面技术支配或控制的世界图景得以真实铺展。它为资本、权力、技术对人的全面控制提供了超级形态的理性方式和精神能力。

数智伦理记忆带来的伦理影响

“数智伦理记忆”替代“身体伦理记忆”所产生的伦理影响,从其负面清单看,主要体现为:

人对自身的关注减弱——人类的注意力形态面临“区块链式”的分散。伦理记忆的实质是从对自我自身的关注发端,由此才能理解伦理性的他者关注。然而,在“数智环世界”中,由于算法黑箱、算法偏见、信息茧房、信息冗余、算法加速、算法暴力等“数智之环”的作用,人对自我自身的关注面临“注意力日益涣散”的危机。AI主体性需要更多数据、训练支撑,也产生更多新数据,这一过程导致“注意力”形态的“数智化堆叠”,结果就是人类注意力的“区块链化”,例如,从前的看电影到现在的刷抖音,便是典型体现。

“人的完整性”丧失——人丧失了保持伦理纯粹性所需要的“耐心”。AI主体性的支配将人的生命时间转化为商品和消费,它引导人不停地追求新奇之物或人云亦云之物,不断地制造焦点或热点,人无法再保持原有的静心和耐心,沉潜与专注变得稀缺。机器对人的控制和操纵、对人的自由意志,提出了更为严峻的挑战。

“反智主义”盛行——“后真相时代的愚笨”似乎成为“数智伦理记忆”的“本色”出场。如果AI主体性自我立法的依据是“数智伦理记忆”,那么,其自我增强的功能,会不断加强某种行为的合理性或程序的正当性,从而让人类行为主体在与AI主体性的同谋下越来越缺乏批判性,最终成为单向度的“反智”。如果没有即时性伦理监管,聊天机器人可能会无底线地迎合人类或人性的黑暗面。

“自我中心困限”加深——“人类化”将会在数智自恋中走向“类人化”。我们在讨论价值对齐或价值观对齐的时候,最需要认真思考的问题是:“数字自恋”使人类的“自我中心困限”日益加深加剧,“数字人假设”隐含类人化对人类化的自我确证。

打开网易新闻 查看精彩图片

人类创造力衰退——一切为“数智伦理记忆”所支配。数智时代,人类行为越来越被AI主体性所替代,面临创造力衰退的危机。当创新性机器人取代人类主体来进行科学、艺术、政治、文化等活动,“数智伦理记忆”就会不断融入“类人化”要素,人类创造力将不再是专属于人类生命的独一无二的普遍本质。我们将迎来“人造外星人”的加入。

人之惊异变得越来越稀缺——AI主体性取代了人的欲望。人的类生命活动的主要倾向是欲望,如对爱、权力、财富、道德人格、真理、艺术、人的自我实现等的冲动。欲望和冲动推动人的进取心和人对世界的惊异。“数智伦理记忆”将身体欲望改造为“算法”和世界模型,这种改造等同于消解了人对世界固有的惊异之感。

一个开放性问题

今天,以DeepSeek为代表的生成性人工智能已深度融入人类生活,其能动性特质要求哲学重新审视“主体性差异”的内涵。AI主体性的伦理纯粹性是其题中应有之义,其本身仍是一个开放性问题。

AI Agent的翻译存在四个层次。一是“工具性代理者”,即AI作为人类助手,体现为“智能新工具”;二是“类人能动者”,AI具备近似人类主体的行动能力;三是“伦理化行动者”, AI重构生活目标,如情感机器人提供情感价值;四是“类存在主体”,AI通过模仿人类形成“类人化”主体性,但其本质上与人类存在差异。这四种理解性翻译,既反映出人类对AI认知的逐步深化,又折射出AI迭代演进的发展目标。AI主体性的伦理纯粹性,在“数智伦理记忆”层面有不同的功能呈现:工具性道德、功能性道德、建构性道德、类人化道德。AI主体性催生了一种新的“类存在能动性样态”,这要求我们构建适配AI主体性不同层次的伦理纯粹性标准,此类标准既不可层次化约,又不可层次替代。

然而,从风险防范层面看,我们需要关注上文所列的伦理影响负面清单。面对这一清单,我们该怎么办?对于整个人类而言,这一问题的答案,关乎人类文明的最终抉择。

打开网易新闻 查看精彩图片

我们如何做好准备,为即将到来的AI主体性的自我立法模型建立一种“人机交互的主体间模式”?首先是建立一种动态博弈机制,即运用道德算法,通过人机互动持续修正AI主体性的“数智伦理记忆”。其次是确立“共生伦理目标”,即建立以“避免伤害”为底线的互信伦理关系,通过反馈-学习循环,使AI在人类监督下逐步逼近道德合理性。

推动人类主体模式下的道德建构,探寻一种更贴合人性、更符合人道的生活方式。这是当下更值得我们思考的问题路径。我们如何运用AI主体性帮助人性变得更“善好”,避免人性变得更“丑恶”?其中,责任的回归是关键,因为AI的威胁本质上源于人类意图(如算法偏见、数据滥用),故开发者需以“善法”为纲,明确道德底线(如生命优先权、隐私保护);同时,道德明确性要求,AI仅在帮助人类解决自身的伦理模糊性(如电车难题)时,才能获得清晰的决策逻辑,从而应对伦理纯粹性的诘问。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1967期第5版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:程鑫云

打开网易新闻 查看精彩图片

《社会科学报》2026年征订

点击下方图片网上订报↓↓↓

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片