这三年里,我们的世界,确切地说,我们认知世界的方式,已经被彻底重构了。
还记得那个让无数人彻夜难眠的2023年吗?那时候,ChatGPT刚刚横空出世,像是打开了潘多拉的魔盒。我们惊叹、狂欢,随即陷入深深的焦虑。如今,时间仅仅过去了两年多,那场关于“AI会不会毁灭人类”的宏大争论似乎稍微平息了一些,取而代之的,是AI像水和电一样,无声无息地渗透进了我们生活的每一条缝隙。
站在2026年的门槛上,我想和大家聊聊。不是聊参数,不是聊股价,而是聊聊这狂飙的两年后,我们到底过得怎么样,以及那位在三年前敲响警钟的老人,他的预言应验了吗?
把时钟拨回2023年5月1日。那天,75岁的杰弗里辛顿做了一个震惊全球的决定:从供职十多年的谷歌离职。
这老爷子是谁?他是图灵奖得主,是深度学习之父。可以说,如果没有他,就没有今天的ChatGPT,没有Midjourney,没有这一切。在人工智能的荒漠时期,学术界的主流是符号主义,那帮人觉得AI应该像做数学题一样,基于逻辑推理来模拟智能。只有辛顿,像个固执的异端,死磕联结主义,坚信智能应该像人脑神经元一样,通过简单的单元连接涌现出来。
他赢了。算力的突破让神经网络大放异彩,他的弟子伊尔亚苏茨克维更是OpenAI背后的灵魂人物。
就在胜利果实挂满枝头的时候,辛顿却说他后悔了。
他在接受《纽约时报》专访时,眼底满是忧虑。他担心的理由很直接:AI进化的速度太快了。以前我们以为强人工智能要50年,现在看,可能20年内,甚至就在这几年。当机器比人更聪明,它还会听话吗?
辛顿当时那句充满无奈的辩解,至今听来仍让人心碎:“我用这个平常的借口安慰自己:要是我没有这么做,别人也会这么做。”
如今站在2026年看,辛顿的担忧绝非杞人忧天。虽然“天网”还没有接管核武器,但技术的奇点效应已经显现。过去两年,AI的迭代速度甚至超过了摩尔定律。我们原本以为创造力是人类最后的堡垒,结果AI画画比插画师快,写代码比初级程序员稳,甚至在科研领域,AlphaFold解构蛋白质的速度让生物学家望尘莫及。
这就是我们面临的现状:未来已来,只是分布得不均匀,而且带刺。
这两年,如果你身处职场,一定感受到了那股寒气。
曾几何时,我们以为AI替代的会是流水线上的工人,是那些重复、枯燥的体力劳动。现实却给了我们一记响亮的耳光。生成式AI的狂飙,首先冲击的是坐在写字楼里、吹着空调的白领阶层。
回看OpenAI在几年前发布的那份报告,预测GPT-4等模型将冲击80%的美国劳动力工作。当时很多人不信,觉得AI写不出有灵魂的文案,画不出有情感的画作。
现在呢?看看你的周围。某4A广告公司早已裁撤了大量初级文案,策划案的初稿几乎全由AI生成,人类只需要做最后的“调味”;插画师群体经历了惨烈的洗牌,只会“行活”的画师消失了,留下的是懂得驾驭AI的美术总监;就连程序员,这个曾经的“金饭碗”,也出现了裂痕。谷歌和IBM在2023年就宣布尝试用AI替代部分岗位,到了2026年,初级代码编写工作,基本已经是AI的天下。
这甚至带有一种黑色的幽默感:那些大型科技公司的员工,夜以继日地研发AI,最后研发出来的“孩子”,抢走了自己的饭碗。
失业的压力是真实的,也是残酷的。但这并不意味着工作的终结,而是工作定义的改变。我们被迫从“执行者”转变为“指挥者”,从“工匠”转变为“鉴赏家”。在这个时代,提出好问题的能力,比寻找标准答案的能力金贵一万倍。
如果说就业的冲击是阵痛,那么虚假信息的泛滥,则是AI留给社会的慢性毒药。
三年前,我们还在嘲笑AI画的手指头有六根。现在的生成式AI,造假能力已经登峰造极。一段,你看到是你熟悉的朋友在说话,声音、表情、动作无懈可击,但这可能完全是AI生成的。
这种造假和识假能力的严重失衡,让互联网变成了一座“黑暗森林”。电话诈骗升级成了诈骗,成本低到令人发指。更可怕的是那些并非恶意的“娱乐”——有人用AI生成搞笑,有人生成虚构的新闻图片。当这些内容在社交媒体上病毒式传播时,我们对“真实”的感知力被稀释了。
在2026年,我们不得不养成一种习惯:对屏幕上的一切保持怀疑。这是一种集体的悲哀,我们失去了“眼见为实”的安全感。
面对这匹脱缰的野马,我们该怎么办?
历史上,古罗马皇帝韦帕芗曾为了保护臣民就业而拒绝先进机器。工业革命时,卢德运动的工人们曾愤怒地砸毁纺织机。历史的车轮滚滚向前,“堵”永远是下策,“疏”才是出路。
我们需要给AI立法,给它画出红线。
在这方面,欧盟走在了前面。他们早早通过了《人工智能法案》,这在2026年的今天看来,是一部具有里程碑意义的法律。这部法案聪明在一点:它不搞一刀切,而是采用“基于风险的方法”。
它把AI系统分成了四类:
- 不可接受的风险:比如侵犯人权、搞社会信用评分的,直接禁止,没商量。
- 高风险:比如用于执法、教育、关键基础设施的AI。这类不禁止,但必须透明,必须有人类监管,必须有详细的日志记录。这就像是给高风险的金融产品设了严格的监管局。
- 有限风险最低风险:监管相对宽松。
对于生成式AI,法案特别规定:必须披露是否使用了受版权保护的材料。这一条,直接击中了AI公司的软肋。在过去,AI训练大多是“白嫖”人类的创作数据,现在,必须得有个说法了。
而在大洋彼岸的美国,监管也在收紧。FTC等部门联合声明,严打AI带来的歧视和偏见。算法审计成了大公司的标配,就像财务审计一样。
在我们国内,网信办的规定也早已落地。对于生成式AI的服务管理,不仅要有技术底线,更要有价值观的底线。
光靠法律够吗?法律是滞后的,是昂贵的。面对秒级进化的AI,我们还需要“代码之治”,也就是用技术手段来治理技术。
科幻作家阿西莫夫提出过“机器人三法则”,这在文学上很美,但在工程上很难实现。因为AI这东西,有时候“一根筋”,它可能会为了“保护人类”而把人类圈养起来。
所以,现在的重点是AI对齐性。我们要让AI的目标,真正和人类的价值观对齐。
这其中,最精妙的一招是:用AI训练AI。
OpenAI当年训练ChatGPT时,就用了这招。GPT-3刚出来时,也是满嘴跑火车,甚至会有种族歧视言论。怎么改?靠人去一个个纠正太慢了。于是,他们引入了“基于人力反馈的强化学习”。先让人类教一个小模型什么是“好”的回答,然后让这个小模型充当“教练”,去训练大模型。
这就像是培养出了一个懂规矩的“AI政委”,让它去管教那些能力强大但不懂事的大模型。在2026年,这种“以模制模”的方法,已经成为了行业标准。
此外,区块链技术和隐私计算也在发挥作用。以前插画师没法证明AI用了自己的画,现在通过区块链确权,每一笔贡献都能被记录,每一次调用都可能产生收益。这或许是解决AI版权烂账的唯一解法。
AI狂飙两年后,我们确实失去了一些东西:旧的职业安全感、对互联网信息的无条件信任、甚至是作为“唯一智慧物种”的傲慢。
我们收获了效率,收获了工具,也收获了对自身价值的重新审视。
辛顿的悔意,是对技术失控的敬畏,也是给全人类的清醒剂。它提醒我们,技术从来不是中性的,它是一把锋利的双刃剑。
在2026年的今天,我们不再谈论“AI取代人类”,我们谈论“人机共生”。我们制定法律,我们编写代码,我们调整伦理,都是为了在这场技术洪流中,保住人类的尊严和驾驭权。
生活依然继续。AI可以写出完美的十四行诗,但它不懂在冬夜里读诗时,那颗因为思念而颤抖的心。AI可以生成绝美的风景画,但它无法体会当你真正站在雪山脚下,寒风灌进衣领时那种渺小与崇高的感动。
意义,依然是人类独有的特权。
在这条共生之路上,愿我们保持警惕,保持清醒,但更要保持对未来的野心。因为无论AI多么强大,按下启动键的,永远是我们。
热门跟贴