最近一篇名为《2028全球智能危机:一个来自未来的金融史思想实验》的文章在华尔街火了,甚至被认为影响了部分科技和金融股。
https://www.citriniresearch.com/p/2028gic
这篇文章用一个思想实验,论述了人工智能会在2028年带来经济危机。
简单来说文章的逻辑链条是这样的:
AI能力足够→可以替代技术人员(如程序员)和经验人员(如各类中介)→企业用AI替代这些人 → 这些人失业或降薪,他们数量大,是中产 →大量中产消费能力崩溃 →社会需求坍塌→依赖消费的企业收入崩溃 → 更多裁员更多AI投入→ 形成负反馈→ 私人信贷违约 → 扩散至抵押贷款市场和金融衍生品→ 金融危机。
这个逻辑链条有两个关键假设:
1、AI不消费(或同等能力消费相比人类低很多)会导致社会总需求崩溃;
2、AI可以完全替代技术人员和经验人员。
如果这两个假设成立,那么逻辑链条没有问题,这篇文章很可能变为现实。
但是实际上这两个假设都不成立。
对于第一个假设,AI确实不消费,但是电脑也不消费,可回收火箭、无人驾驶汽车、智能机器人、无人机……甚至蒸汽机、纺纱机也不消费,为什么其它这些东西不会导致社会总需求崩溃呢?它们也实质上替代了很多人啊?
严格区分的话,AI替代的是人的思考,而其他那些替代的是人的执行。
但是思考这玩意又没有一个总量限制、只能思考那么多,反而是思考碰撞的元素、碰撞次数越多,越能出现新的范式、要素和场景。也就是说,AI在替代人思考的同时,也会激发人思考,二者是相互作用的,不是像肌肉力量强弱那样简单的一方强压制另一方。
而且AI没有人的感知系统,没有五感这个输入,只能通过人的自然语言描述获得人感觉的概率性判断,任何基于感觉的思考,AI都无法实质性替代。
这就引出需求的本质——人。
AI替代了一部分工作和劳动,但是并没有消灭人的肉体本身,除非AI直接将人灭掉,不然作为人的需求始终还是在啊!
只要有人就会有需求,需求从来都是围绕着人展开,完全不可脱离人谈需求。
人本身的需求从一个场景转到另一个场景,从对某个事物的需求转为另一个,需求就消失了?
手机替代了当年BP机、MP3的需求,难道人通信交流、听歌的需求就没了?
没有对等的五感,不管能力多强,对人来说那就是工具。
(从更哲学的角度来说是,人只有脱离人本身,才能与它者在存在层面平等、彻底消除主体和客体性,这样才能彻底抹除工具属性,但这显然做不到。类似于佛教众生平等,就是脱离了人本身的存在。)
人对工具的需求是一种表面需求,工具只不过是一种载体,实现的是(对人本身而言)更加底层的需求,就像买钻机不是对钻机有需求,而是需要墙上有个洞。
经济、金融方面类似错误更具有迷惑性——把货币当成真实需求。货币其实也只不过是一种工具,并不是需求本身,而是实现真需求的手段。
因此第一个假设不成立。
而对于第二个假设,也与第一个有关联。
AI能不能替代人的问题其实已经是老生常谈,但不管怎么讨论有一个地方AI无论如何也不具有替代性——
AI无法替人承担责任。
AI会承认错误并改进,但人无法让AI接受对人的惩罚。或者说,对人有效的惩罚,对AI没用,AI不在乎。
没有惩罚自然不存在担责的问题。AI错了是人受着,不是AI受着。
那么为什么对人有效的惩罚对AI无效呢?因为AI不是人。
这看起来是废话,但还是如前所述,AI没有五感,没有人的实体,它不会像人一样产生对大脑强烈冲击的痛苦、焦虑、嫉妒、愤恨……等情绪。
或者更准确一点,它能同时产生这些情绪,也能产生快乐、欣喜、向往、活力……等情绪,这些东西不会像人脑一样在某个时刻充分占据大脑并影响言行决策,AI的“大脑”是高度理性逻辑严格的,是分布式产生结果的,这与人脑完全不同。
这就决定了AI既不“怕”人,也不“渴望”人。
也就是人会有的恐惧和欲求,AI都没有。而恐惧和欲求,是驱动人最根本的动力,也是人类社会权力架构的基础,这是AI无法承担责任的底层逻辑。
进一步,既然AI不能承担责任,自然无法在核心问题上得到人的终极信任。
什么生老病死求不得爱别离怨憎会……人都知道这对AI无所谓,没有这些东西兜底,怎么会信任呢?烈士们之所以会奋不顾身奉献生命,是因为相信身边人、后来人会感受和在乎这种付出,但是怎么可能会出现人为AI奉献生命呢?
不承担责任、没有与人最根本的信任,因此AI不可能完全替代人。
至此此文两个关键假设都不成立,整篇文章破溃。
但是我不理解的是,为什么这种老生常谈漏洞百出的文章能在华尔街火起来,甚至可能影响股票,你知道这是为什么吗?
热门跟贴