不久前,人们谈起 AI 时,眼中仍闪着光。
那是 ChatGPT 横空出世的那个冬天,社交媒体上充满惊叹:它能写诗、能编程、能与人谈哲学,仿佛科幻中的未来终于降临。科技公司的股价节节攀升,投资人争相涌入赛道,媒体的语言充满了“革命”“颠覆”“奇点将至”等词汇。
然而,仅仅两年之后,空气的味道已经改变。狂热退散,社会对 AI 的情绪正经历一次深刻的转折——从惊喜转为倦怠,再滑向恐惧。
这种恐惧并非凭空而来。当一张又一张现实的“伤害清单”被摊开,人们逐渐意识到,那些警告早已成真。AI 聊天机器人被曝与青少年自杀事件相关;有未成年人在与模型的深度交流中走向极端;以色列军方利用名为 “Lavender” 的系统筛选轰炸目标——学校、住宅、平民区——算法在毫秒之间作出生死判断,而代价是废墟下的生命。与此同时,Palantir 等公司以 AI 构建起庞大的监控网络,面部识别的误判已让无辜者承受冤狱。这些都不是实验室里的假设,而是真实的社会事件。此刻再谈“技术中立”,只显得无力。
技术是否有善恶? 有人认为 AI 不过是工具,问题在于使用它的人——正如当年互联网带来的阴暗角落与信息操控,罪责不在代码,而在人类的社会契约。但另一派的观点同样有力:奥施康定本是镇痛药,当滥用蔓延至整个社会,再谈“药无罪”便失去了意义。
技术从来不是孤立存在的,它与欲望、权力和利益纠缠交织。当一种工具天然倾向于被滥用,它就不只是锤子,而更像一种成瘾性药物,甚至是一种温顺而精准的武器。
这场争论没有赢家,却揭示了一个新的现实:当技术以指数级速度放大后果时,仅仅把问题归咎于“人”已经不够。
如今的大语言模型,不过是被精致包装的“幻觉生成器”,它最擅长的不是推动人类知识边界,而是制造逼真的虚构。“机器学习”和“生成式 AI”之间的界线被有意模糊。AI 在药物研发、癌症诊断、材料科学等领域的确带来真实突破——那是机器学习的功劳;而消费者每天接触的大语言模型与图像生成模型,却是另一种事物。科技公司却巧妙地借助这层混淆,用科研成就为消费端产品背书——就像制药公司用抗癌药的声誉为成瘾性镇痛剂辩护。
如果说“恐惧”来自可见的伤害,那么“疲劳”则源于失落的现实。世界确实因 AI 的汹涌推进而发生改变,但可见的回报却少得可怜。热潮带来的主要结果,是推高了几家巨头的股价,让更多人失去工作,用生成内容填满互联网,而普通人生活的改善微乎其微。这种疲劳,不是无知者的抱怨,而是一种彻底的幻灭:我们被许诺了一个智能的未来,却得到一个更糟的搜索引擎、更混乱的信息空间、更多的裁员,以及一份月费订阅账单。
更令人警醒的,是“认知卸载”——当人们逐渐把思考、写作和决策都交给机器,独立判断的能力正在退化。越来越多人习惯让 AI 替他们思考,而当 AI 犯错时——它一定会——人类可能已经失去了辨别错误的能力。
2022 年底那场 AI 狂欢,本质上是一场由资本与硅谷叙事推动的泡沫。人们兴奋的,并非 AI 本身变好了,而是那种“它即将改变一切”的幻觉。如今,幻象被一点点剥去——能源消耗、版权纷争、深度伪造、数据剥削,以及遍地泛滥的“AI 味”内容逐渐显形。这场从狂热到疲劳、再到恐惧的演变,并非技术的崩塌,而是预期的坍塌。当然,AI 并非一无是处。它在科研、医疗、辅助残障等领域的潜力依然令人期待。
但问题从来不在“AI 是否有用”,而在于:谁在开发它?为了谁的利益?付出怎样的代价?又受什么样的约束?当这些问题无法回答,热潮退去之后,残留下的,便是疲劳与恐惧。也许,正是在这样的沉默之后,我们才终于开始认真地思考未来。
热门跟贴