关注人工智能应用中的隐性伦理责任,是因为这些伦理责任在问题产生之初人们就应当且有能力加以干预,只是由于尚且处于隐性状态,往往意识不到,从而导致伦理问题的出现。因此,对这些人们应承担却容易忽略的隐性伦理责任更需要进行专门探讨,揭示其表现形态、成因和落实途径。

以下这五种隐性伦理责任尤其值得重视:

1.家长对未成年人感知能力发育的监管责任

如今智能手机的全球普及率愈发提高,使用电子产品的年龄段逐渐降低,很多儿童早早就玩起了手机或ipad之类的电子产品。据调查显示,16%的2岁儿童每天观看智能设备屏幕的时间高达2小时。受近距离观看的影响,很小就佩戴眼镜的儿童逐渐增多。很多家长发现让孩子玩手机是既能启智又能安抚孩子的好方法,很少考虑这种做法对其感知能力的发育造成的长远不良影响,自己在子女面前也总是手机不离身,并不能起到良好的示范作用。然而已有研究结果表明,儿童和青少年过早过度使用手机和其他智能设备,确实会影响其视力和听力,甚至造成难以逆转的损害。与成年人相比,未成年人缺乏足够的自我调节能力和成熟的自控能力,更容易出现手机成瘾、网络成瘾的情况,一旦使用起来便毫无节制,不仅会影响自身的感知能力发育,也会对个人的语言表达能力和思维方式造成不良影响,严重者还会冷漠孤僻、导致社交障碍等缺陷。

2.教育工作者对“碎片化思维”的矫正责任

所谓“碎片化思维”,指的是人们利用碎片化的时间,加工碎片化的信息,进行碎片化的思考和决策,在一个个不完整的碎片中拼凑组合成不完整的思维闭环。“碎片化思维”并非完全没有利用价值,但存在很多弱点,对整体性、全局性的思考亦有干扰作用。长期生活在“碎片化”环境中的人们,其表达方式和行为习惯均会受到不同程度的影响,具体表现为思考问题时视野狭隘,容易忽视与周围社会环境的各种内在联系,得出的判断和结论片面,做出的行为往往非理性且不计后果。对人工智能产品的不恰当应用,会逐渐加剧这种“碎片化思维”的趋势。比如为了“吸睛”而不择手段的“标题党”、夸大其词的某些“头条”新闻、断章取义的热点事件描述,往往成为微博、微信里大量转载的主要内容。如果人们习惯于通过这些内容获取资源和信息,很难形成完整且有深度的知识体系。

3.人工智能设计者对人的自主能力的保护责任

人工智能正越来越多地替代人的劳动、思维、决策,自动化的扩展逐渐压缩人们自主能力发挥的空间。为了更好地给人类提供便利,人工智能设计者倾向于尽可能减少人工干预步骤。然而人工智能的安全和稳定本身具有相对性。若将控制和决策环节全权交由人工智能负责,一旦人工智能应用的自动控制系统失灵,或因遭受攻击而违反正常指令,又没有给人的自主矫正留有余地,就会造成严重后果。前些年波音737MAX飞机的空难事故,就是由于自动控制系统的设计缺陷造成的。当飞行员明显意识到控制系统失灵时,却无法进行人工干预。现在人们经常担心自动驾驶汽车的安全问题,例如曾引起关注的特斯拉自动驾驶致死车祸事件。无论多么周密的设计,都难以完全避免意外事件的发生。在这种情况下,人工智能的设计者有责任保护人的自主能力,为意外情况下人的自主能力发挥作用创造必要条件。