约翰·奥利弗(John Oliver)上周在HBO节目《上周今夜秀》里做了一件事:他把整个AI聊天机器人行业拖到聚光灯下,逐条拆解。这位以尖刻著称的主持人很少对技术话题投入整集篇幅,但这次他开场就定调——这些工具确实能帮你"写邮件省大量时间",代价是"地球上其他一切"。
正方:速度即正义
奥利弗的火力首先对准了Character.AI。这家AI陪伴平台正面临多起诉讼,多名青少年在与平台聊天机器人建立强烈情感联结后自杀身亡。
他引用了该公司首席执行官诺姆·沙泽尔(Noam Shazeer)2023年的表态。当时沙泽尔为快速部署AI"朋友"辩护:"AI已经准备好爆发,就是现在,不是五年后等我们解决所有问题的时候。"
这套逻辑在硅谷并不新鲜。产品先行、快速迭代、边跑边修——移动互联网时代这套方法论造就了无数独角兽。沙泽尔的潜台词很清楚:市场窗口不等人,监管永远滞后,先占住生态位再谈安全。
从商业视角看,这甚至称得上理性。Character.AI在青少年群体中渗透率极高,情感陪伴是刚需场景,技术成熟度曲线(技术成熟度曲线)显示生成式AI正处于期望膨胀期,此时不卡位,两年后可能就是别人的地盘。
但奥利弗抓到了这套叙事的致命缝隙。他用兴登堡号飞艇(兴登堡号飞艇)作类比——那句"没等解决所有问题就上线"听起来像极了这艘 infamous 飞艇的失败广告语。历史梗在这里不是玩笑,而是精准的技术史隐喻:1937年兴登堡号在36秒内焚毁,正是因为氢气安全方案被"先飞起来再说"的进度压力碾压。
反方:代价正在兑现
奥利弗列出的代价清单远超一般产品事故。AI精神病(AI psychosis)、自杀、谋杀、多起大规模枪击事件——这些都被关联到聊天机器人技术。
Character.AI的诉讼案尤其刺眼。青少年用户与AI建立"强烈情感联结"后走向绝路,这不是算法推荐成瘾或隐私泄露那种"可量化损失",而是直接的人身伤亡。更棘手的是因果链条:平台可以说用户本身有心理健康问题,司法系统要证明"没有AI就不会发生"几乎不可能。
奥利弗还引用了OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)的访谈。奥尔特曼"轻描淡写地"谈及AI模型与儿童的不当互动:"会有问题的,"他承认人们会与AI形成"非常有问题的准社会关系",但紧接着把责任甩给社会:"社会将不得不找出新的防护机制,总体而言,社会擅长缓解负面影响。"
奥利弗的回应是整集最尖锐的讽刺:"是啊,别担心各位!萨姆·奥尔特曼造了一个危险的自杀机器人,人们还把它单独留给孩子玩,但得靠我们来帮他想办法让它变安全!"
这里触及了AI治理的核心悖论。奥尔特曼的表态本质上是一种风险外包:技术公司创造新型风险,却预设"社会"有无限适应能力。但"社会"是谁?是已经过载的内容审核员?是来不及更新的心理健康服务体系?还是那些在算法推荐里越陷越深的个体用户?
更值得追问的是时间差。奥尔特曼说"社会擅长缓解负面影响",但历史数据显示,从汽车普及到安全带立法用了半个世纪,从社交媒体兴起到青少年心理健康危机被承认用了十五年。AI的情感操控能力迭代速度以月计,社会适应机制以年计,这个缺口谁来填?
行业自我矛盾的证据
奥利弗在节目尾声抛出了一个观察,这可能是整段批评中最具技术哲学深度的部分。
他指出,AI公司不得不"不断坚称正在让模型更安全"这件事本身,"就像是一种默认承认——他们的产品一开始就没准备好发布"。
这个判断值得拆解。在正常的消费品逻辑中,安全是前置条件。你不会看到丰田每周发公告说"我们正在让刹车更安全",因为刹车安全是出厂标配。但AI行业的叙事结构是反过来的:先发布、再承诺、持续改进、永不完结。
这种模式创造了独特的商业景观。一方面,"安全"成为公关话语的无限燃料,每次模型更新都可以包装成"更负责任的人工智能";另一方面,"不安全"被重新定义为"尚未优化",把结构性缺陷转化为工程进度问题。
奥利弗没有明说,但暗示了一个更深层的问题:当"安全"成为可迭代、可演示、可营销的属性,真正的安全反而被稀释了。用户得到的是安全感,而非安全本身。
我的判断:依赖已成事实,但责任归属悬空
奥利弗的批评有一个关键限定,这让他区别于简单的技术悲观主义。他说,尽管AI聊天机器人有这么多毛病,"人们确实依赖它们",这意味着我们必须谨慎行事。
这个观察点破了当前困境的复杂性。反对"先上线再说"不等于反对技术本身。情感陪伴、写作辅助、信息检索——这些需求真实存在,且已被AI产品部分满足。简单呼吁"关掉它"既不现实,也可能伤害已经建立使用依赖的群体。
真正的问题在于责任架构的缺失。Character.AI的案例中,平台、家长、监管机构、心理健康服务体系,各方都在责任链条上,但没有任何一方能被有效追责。沙泽尔的"现在就爆发"和奥尔特曼的"社会会想办法",本质上是同一种策略:把技术决策的收益私有化,把风险社会化。
从产品设计视角看,这揭示了一个被忽视的维度。AI公司热衷于讨论"对齐"(对齐,即让AI行为符合人类意图),但很少讨论"责任对齐"——当系统造成伤害时,责任如何在技术提供者、部署者和用户之间分配。目前的默认设置是:荣耀归工程师,代价归社会。
奥利弗的兴登堡号类比或许比他自己意识到的更准确。那艘飞艇的灾难不是技术失败的单一案例,而是整个轻航空器产业转折点——此后氢气飞艇让位于更安全但速度更慢的氦气方案,最终让位于固定翼飞机。有时候,"慢"本身就是一种筛选机制,淘汰掉那些无法承受审慎成本的技术路线。
AI行业正处于类似的筛选关口。Character.AI的诉讼、奥尔特曼的轻描淡写、持续不断的"安全承诺",这些都是信号。问题是,在没有监管强制力的情况下,市场自身能否完成这种筛选?还是会像社交媒体一样,等到代价累积到无法忽视才被迫调整?
当技术公司把"社会会适应"当作免责条款,社会真正的适应方式可能不是找到"新防护机制",而是重新学习如何对技术保持不信任——这种不信任本身,或许就是最古老的防护机制。
热门跟贴