当算法开始决定什么是"真",人类还能相信自己的判断吗?

企业家、纪录片导演Steven Rosenbaum在新书《THE FUTURE OF TRUTH》中抛出了一个令人不安的观察:机器调解的真相,可能比人类长期以来与事实、偏见和信念的斗争更加复杂和危险。这本书以轻松的对话风格,带领读者穿越当代关于人工智能与真相的思想版图。

打开网易新闻 查看精彩图片

Rosenbaum的素材来自演讲、博客文章以及与学者和文化评论者的访谈,拼凑出一幅关于AI伦理问题的拼贴画。他反复指出,由利润驱动的AI所呈现的真相是滑溜的。以GameStop迷因股事件为例,他写道:"真相就是足够多的人决定它是什么。人工智能并非创造了这一现象——它只是将其完善。"这一观察让人联想到Kellyanne Conway曾为特朗普总统辩护时提出的"另类事实"概念。

书中核心论点令人警醒:人类制造真相向来不完美,受偏见、信息局限和情绪反应影响;而机器系统引入了另一种扭曲——一种数学上极其复杂、生成和验证速度极快的"真相",以至于超出人类感知所能理解。算法偏见正在扭曲新闻、医疗、保险、就业等诸多领域。尽管书中列举了AI大量伦理缺陷案例,但这些片段之间的关联并不总是清晰,读者或许会期待更多对Anthropic、OpenAI等巨头内部权力运作的审视。

Rosenbaum在结尾处提出了一个紧迫的问题:关键不在于AI本身是好是坏,而在于开发、资助并从AI中获利的人和机构,是否愿意正视由此产生的深刻伦理困境。这本书虽未解决这些难题,也未覆盖太多新领域,却为厘清真相、技术与人类责任之间的关系勾勒出一个谨慎乐观的框架。