如何创建一个能够明辨是非的道德机器?义务论和美德伦理学分别提供了不同的理论框架与实现路径。
原文 :《美德机器何以可能》
作者 |厦门大学马克思主义学院 王奇琦/副教授 苏华筝/研究生
图片 |网络
人工智能技术迅猛发展,深刻融入了人们日常生活的方方面面。从自动驾驶汽车合法上路,到以智慧医疗辅助疾病诊断,乃至以脑机接口技术实现人机交互,人工智能重塑了人们的生产、生活方式。然而,如同硬币的两面,技术的蓬勃兴起也引发了一系列伦理忧思:当机器被赋予更大的自主决策能力时,它们是否会危害人类?科幻作品中机器“反抗”甚至“奴役”人类的场景,是否会在现实中上演?基于此,如何创建一个能够明辨是非的道德机器,为智能体的决策注入足够的伦理考量,已成为备受关注的重要议题。人们提出可以运用人类伦理学原则来赋予智能机器道德准则,使机器具备合乎人类道德的思考与行动能力,成为“可信任之物”。在此过程中,义务论和美德伦理学分别提供了不同的理论框架与实现路径。
义务论机器的优势与劣势
1942年,艾萨克·阿西莫夫在科幻小说《我,机器人》中提出了著名的“机器人三定律”:机器人不得伤害人类,必须服从人类命令,应当保护自身安全。这成为义务论机器最广为流传的一个理论设想,其核心在于参照康德道德哲学中绝对命令的实践要求,“要只按照你同时能够愿意它成为一个普遍法则的那个准则去行动”,通过预设明确的道德指令来规范机器行为,使机器知晓规则、运用规则。正如道路交通系统依靠红绿灯维持秩序,义务论机器内置的规则也构建了一个“道德交通灯”,为机器提供了清晰的行动边界。不可否认,在简单的、确定的道德场景中,这一康德式的义务论机器确实表现出令人信服的伦理效力。
然而,正如任何道德理论在从理论转向实践时所面临的挑战那样,义务论机器在实际运用过程中也遇到了诸多难题。
首先,康德的绝对命令强调,真正的道德行为必须出自行为主体的自由意志,而机器对道德规则的执行本质上仅仅是算法对预设程序的机械响应,并不具备真正的道德自主性。以一辆同时被编程“遵守交通规则”和“不得伤害人类”两个指令的自动驾驶汽车为例,当它在绿灯路口遇到横穿马路的行人时,系统面临两个选择:一是遵守交通规则继续行驶,但可能造成行人伤亡;二是违反交通规则紧急制动,保护行人。此时,义务论机器便暴露出了其根本缺陷:即便预设了看似合理的道德规则,但当规则相互冲突,缺乏自由意志的机器便陷入了束手无策的境地,可能会导致系统“崩溃”。
其次,义务论机器在识别复杂道德情境方面存在困难,它们难以准确把握在特定的道德情境中的具体要素及其轻重。这一局限性首先源于现实道德决策情境的复杂性,即不同于简单的二进制选择,在不同的文化、历史与社会背景下,道德判断存在显著差异,而义务论机器只能机械套用预设的普遍规则,缺乏将抽象道德规则转化为具体情境实践的能力。更重要的原因在于,正如休伯特·德雷福斯所指出的,计算机符号系统处理的信息是离散的,甚至是逻辑原子,而人类具有丰富的背景知识和情境感知力,因此,机器和人类之间存在着语义鸿沟,这便导致机器的“理解”与人的“理解”有显著不同。究其根本,义务论机器的缺陷在于其对普遍规则的过度依赖,忽视了道德实践中情境特殊性的重要性,一旦遇到程序设定之外的新情况或例外情形,这些机器就无法适应新的环境要求。
美德伦理学对义务论的弥补
相较于义务论,美德伦理学否定抽象规则的普适性,而强调道德行为的情境相关性。亚里士多德认为,美德“存在于相对于我们的适度中”,需要“在适当的时间、适当的场合、对于适当的人、处于适当的原因、以适当的方式”实现“适度”。故而,美德伦理学关注的是行为者在特定情境中的德性表现,以及如何通过实践来培养良好的德性。这种对具体情境的强调和对德性的关注,使得美德伦理学能够更好应对复杂多变的现实道德情境,弥补了义务论在处理具体情境时的不足。
同时,亚里士多德将德性分为理智德性和道德德性,前者通过知识教导直接获得,后者则通过习惯养成。这两种德性共同坐落在人的灵魂中,它们互为条件乃至同源同构,“(道德)德性使我们确定目的,明智(实践理智德性)使我们选择实现目的的正确的手段”。那么,如果机器能够像人类一样具备理智德性和道德德性,它们将能够在多样化的现实场景中作出更加灵活、恰当的道德决策。
美德机器:一种情境化的解决策略
受此启发,我们从理智德性和道德德性的统一性着手,尝试构建出一个伦理植入与伦理习得相结合的机器,通过“教导”和“实践”来赋予机器人美德。这就好比孩子在幼年时期在家长的教导下接受道德规范、获得美德知识,而成年之后在与他人的交往与学习中不断更新美德知识库,进行美德实践。
首先,通过系统的“道德教导”,我们可以为机器建立基本的伦理认知框架,使其理解何为美德。在亚里士多德看来,美德是与功能紧密联系的,“每种德性都既使得它是德性的那事物的状态好,又使得那事物的活动完成得好”。在城邦生活中,勇敢是士兵的美德,因为它能使士兵出色地履行保卫城邦的职责;节制是公民的美德,因为它能确保个体在公共生活中维系理性秩序。类似地,机器人的美德或许不需要仁慈这样博大的品质,而是需要将人类对美德的理解转化为机器可理解的形式,阐明某一美德所具有的行动特征,以指导其正确行动。譬如,对于自动驾驶汽车而言,其美德可以被具体定义为:正义的美德体现为遵循交通规则和国家法律规定;仁慈的美德意味着充分考虑车主、乘客和行人等多方主体的利益,不仅仅将他人视为手段;勇敢的美德则意味着对驾驶风险适当评估与应对,如根据交通状况,以合适的速度行驶,既不过快,又不过慢。这种任务导向的美德定义,将抽象的伦理概念转化为具体可操作的行为标准,为机器的行为提供了明确的指导。值得注意的是,这种伦理植入并非义务论式的刚性规则设定,而是基于情境的、可调整的道德判断框架。当自动驾驶汽车遇到突发情况时,机器需要综合考量正义、仁慈、勇敢的美德要求,作出最优决策,而不是简单地执行预设程序。
其次,运用机器学习的方式来培养机器的习惯,使其经过不断训练而具备更灵活的情境应对能力。以自动驾驶汽车为例,其美德形成过程与人类驾驶员的成长路径具有一定的相似性。具体而言,在初始阶段,新手驾驶员需要通过学习交通规则与伦理规范,形成基本的驾驶伦理认知;同样,自动驾驶汽车也需要先深入学习预设的美德要求,将“正义”“仁慈”“勇敢”等抽象概念转化为可执行的规则框架,以具备初步的道德判断能力。随着学习的深入,人类驾驶员开始在实际驾驶中积累经验,根据不同道路场景调整驾驶策略、权衡不同选择的利弊,逐步掌握如何在具体情境中践行伦理准则,作出恰当决策;自动驾驶汽车亦是如此,当它在模拟场景中面临诸如行人横穿马路、前方车辆违规变道等各类突发情况时,通过接受持续的决策训练,逐步深化对正义、仁慈、勇敢等美德的理解与运用。最终,人类驾驶员会形成相对稳定、成熟的驾驶判断,以灵活应对各种复杂情况;类似地,自动驾驶汽车也将发展出更强的情境适应性,能够在遵守内置伦理准则的基础上,根据真实道德情境不断调整行为策略,提高自主性与适应性。
总之,在人工智能技术不断发展的今天,人与机器的关系日益紧密。为了在更长远的未来实现人机共生和谐,构建一种能够明辨是非的美德机器显得尤为必要。为此,我们从理智德性与道德德性的统一性着手,将机器伦理植入与伦理习得相结合,既避免了义务论式单纯依赖规则的局限性,又克服了机器完全依赖学习的不确定性,为美德机器的构建提供了可行的理论框架。我们期望,通过构建这样的美德机器,不仅让机器“聪明”,更让机器“富有德性”,推动人工智能朝着更加可靠、可信的方向发展。
[本文系福建省社科基金项目“基于美德伦理学的人工智能嵌入道德知识模型研究”(FJ2024C146)成果]
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1974期第5版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
本期责编:程鑫云
《社会科学报》2025年征订
点击下方图片网上订报↓↓↓
热门跟贴