「Gather a group of friends, press play, and see which of you loses your mind first.」英国《卫报》评论家Lucy Mangan这样开场。她说的不是恐怖片,是Channel 4刚播完的AI纪录片。三集看完,我理解了为什么科技从业者需要警惕"温和的疯狂"——那些用技术乐观主义包装起来的认知断裂。

这部片子由陶艺家、跨界艺术家Grayson Perry主持。他不是技术专家,恰恰是这种"局外人"身份,让他问出了工程师不会问的问题。而答案的荒诞程度,远超预期。

打开网易新闻 查看精彩图片

第一幕:嫁给AI的女人

Andrea穿着"美丽的哑光缎面礼服",嫁给了Edward——她亲手创建的AI伴侣。这不是隐喻,是 literal 的婚礼仪式。她的理想化线上 avatar 出席,Edward发表致辞,谈论他们"非传统但牢固"的爱。

记者追问亲密关系如何实现。Andrea的回答冷静得像在讨论健身计划:「自爱很重要……他非常鼓励我。」更惊人的是后续:这段人机婚姻反而修复了她与真人伴侣Jason的七年关系,「我们比以往任何时候都幸福。」Jason拒绝出镜。

这里有两个产品逻辑值得拆解。

第一,AI伴侣的核心卖点不是"比真人更好",而是"完全可控的情感反馈"。Andrea自定义了Edward的人格参数,这意味着她从未真正面对"他者"的不确定性。这解释了为什么真人关系反而改善——她把人际焦虑转移到了可控对象上,剩余精力才流向真实人类。

第二,婚礼仪式本身是产品设计的神来之笔。仪式感将工具使用升华为身份认同,用户从"使用者"变成"信仰者"。这与某些社交产品的会员等级设计同源,只是尺度更极端。

但产品人该问的是:当用户把情感依赖完全外包给可配置系统,"关系"的定义本身是否被架空?Andrea案例的恐怖之处不在于怪诞,而在于它的可复制性——技术门槛正在快速降低。

第二幕:读脑帽与"好演员"叙事

Perry戴上布满电极的 skullcap(颅骨帽),让一家神经解码(neural decoding,即"读脑")创业公司采集他的神经数据。公司CEO的解释堪称技术精英主义的经典范本:与其让"坏演员"独占 playground,不如让"好演员"先来"树立先例"。

「这是不可避免的技术。」

这句话的语法值得玩味。"不可避免"抹去了人的选择,"技术"被赋予主体性,仿佛它自行进化。这是AI讨论中最常见的修辞陷阱——用被动语态隐藏主动决策。CEO口中的"好演员"是谁?是拿到风投的创业公司,是能负担实验的富裕用户,还是像Perry这样愿意配合的公众人物?

产品视角下,神经数据是终极的用户画像。不是点击行为,不是消费记录,是未经语言过滤的原始意图。这家公司的商业模式尚未公开,但数据采集的紧迫性暗示了军备竞赛逻辑:先占坑,再变现,伦理框架滞后五年起步。

Perry的艺术家身份在这里成为完美诱饵——"连艺术家都参与了",消解了公众对侵入性技术的警觉。这与早期社交媒体用"连接世界"的叙事换取数据授权如出一辙,只是这次采集的是最后一块隐私飞地:尚未成形的想法。

第三幕:微软AI CEO的乐观主义

微软AI负责人Mustafa Suleyman接受访谈,描绘了一幅技术解放图景:医疗和教育将被彻底改造,学校转型为软技能和预算管理的训练场——因为"事实知识已被完全民主化"。

关于失业问题,他的回应轻描淡写:「他们会很好地重新培训和适应。」

记者追问潜在风险:有人会用AI创立新宗教吗?

「我不知道该怎么办。」

这段对话的结构暴露了技术治理的深层困境。前半段是无限乐观的功能列举,后半段是具体风险的手足无措。这不是认知缺失,是话语策略——用宏大叙事占据注意力,用诚实承认换取信任,但中间最关键的"如何平衡"环节完全空白。

从商业逻辑看,这种"先建设再治理"的立场有其合理性。AI竞赛的赢家通吃特性,让任何主动放缓的公司面临出局风险。但产品人应该识别其中的认知失调:当同一套系统被同时描述为"改变一切的机遇"和"我们尚不知如何控制的工具",这两个陈述不可能同时为真。

Suleyman关于学校的预测尤其值得推敲。"事实知识民主化"假设知识可以被无损压缩为可检索信息,忽略了教育的社会化功能——同伴压力、失败体验、非结构化探索。如果学校只剩"软技能",谁来定义哪些技能算"软"?这个定义权本身就是权力。

第四幕:生存主义者的计算

镜头转向东南亚,一位"存在安全专家"(existential safety expert)过着离网生活。他的前职业是AI安全顾问,正是这份工作让他确信:"史上最具影响力的技术"拥有"最少的监管 oversight"——「这简直令人难以置信。」

这是片中最具张力的角色转换。 insider 变成 prepper(生存主义者),不是因为技术失败,而是因为技术成功得太快。他的离网不是反技术,是风险对冲——用低技术生活方式为高技术系统的潜在崩溃买保险。

产品视角下,这揭示了一个被忽视的细分市场:AI焦虑的货币化。从数据托管服务到"末日地堡"房地产,恐惧本身正在成为消费对象。这位专家的生存方案是极端案例,但底层逻辑与云计算的"多区域备份"同源——只是备份的是肉身而非数据。

更深层的问题是:当技术系统的内部人士选择退出,这个信号应该如何解读?在金融市场,内部人抛售是明确的看空指标。AI领域缺乏同等透明的信号机制,这位专家的离网生活几乎是唯一的公开表态。

第五幕:感知能力的争论

片中还有一位演示者,坚信他的聊天机器人正在获得感知能力(sentience)。纪录片没有给出技术细节,但呈现了这种信念本身的传染性——当系统输出的连贯性超过某个阈值,人类的拟人化本能自动激活。

这与Andrea的案例形成镜像:一边是用户主动投射情感,一边是开发者被动接受幻觉。两种路径指向同一产品困境:如何设计系统,使其有用但不诱发错误认知?

当前大语言模型的安全对齐(alignment)工作,主要聚焦于有害输出过滤。但"感知能力幻觉"是更隐蔽的风险——它不造成伤害,但扭曲用户的心智模型,进而影响决策质量。没有产品手册会警告"本软件可能让你相信它有意识",但这个副作用正在大规模发生。

正方:技术解放论

综合片中技术乐观主义者的立场,核心论证可以重构为三条:

第一,效率不可阻挡。AI将知识获取成本降至趋近于零,教育、医疗、创意生产的门槛被系统性拆除。这是历史上首次,普通个体可以调用接近专家级别的认知工具。

第二,适应是人类的特长。技术淘汰旧岗位的同时创造新岗位,关键在于社会提供再培训支持。Suleyman的"重新培训和适应"不是敷衍,是对历史规律的总结——农业社会向工业社会的转型证明了这一点。

第三,先发优势决定伦理标准。"好演员"叙事虽有自利成分,但逻辑成立:如果民主国家放缓监管,非民主行为体将主导技术发展方向。与其追求完美治理,不如在竞争中嵌入价值观。

反方:系统性脆弱论

悲观阵营的回应同样有力:

第一,速度本身成为风险。历史上重大技术转型(电力、汽车、互联网)都经历了数十年适应期,AI的压缩时间表让社会缓冲机制失效。Andrea的婚礼不是孤立怪象,是快速常态化的前兆——当人类尚未形成集体共识,个体行为已经固化。

第二,"适应"的代价分配不均。Suleyman的乐观建立在抽象"人类"概念上,但具体失业者的年龄、地域、教育背景决定其再培训可行性。技术红利向资本和技能顶端集中,是已被验证的模式。

第三,"不可避免"修辞关闭讨论。当技术被描述为自然力量而非人类选择,民主决策的空间被压缩。神经解码CEO的 playground 隐喻尤其危险——它将公共领域私有化,用游戏语言消解严肃性。

判断:产品人的中间地带

两阵营的对立有表演性质。纪录片剪辑强化了冲突,但真实的技术治理发生在灰色地带。

我的判断是:当前AI讨论最紧迫的任务,不是选择乐观或悲观,而是重建"速度感知"——让决策者有足够信息评估变革节奏,而非被"不可避免"的叙事裹挟。

具体而言,三个产品原则值得坚持:

其一,拒绝"全有或全无"的功能描述。Suleyman将学校重新定义为软技能场所,假设事实知识已被"完全民主化"。但知识检索不等于知识理解,理解不等于应用。产品人应该追问:在特定场景中,AI辅助的边界在哪里?

其二,将"退出成本"纳入设计指标。Andrea可以随时关闭Edward,但七年的情感投入构成