皮尤研究中心2023年数据显示,85%的美国人已在日常中使用人工智能工具,但超过半数的人从不主动提及这件事。技术普及与社交沉默之间,横亘着一道奇怪的鸿沟。

这篇文章想拆解的,正是这种"集体假装"背后的产品逻辑——为什么一项被如此广泛采纳的技术,反而成了房间里的大象?

打开网易新闻 查看精彩图片

正方:隐瞒是理性的自我保护

打开网易新闻 查看精彩图片

支持"低调使用"的一方,核心论点指向职场风险与社交成本。

作家Payal在文中提到一个典型场景:她用人工智能辅助完成了一篇散文,投稿后收到编辑的修改建议。这些建议"和人工智能给出的建议几乎一样"——但她选择沉默,没有告诉编辑真相。

这种隐瞒并非欺骗,而是对现有评价体系的妥协。当"是否亲手写作"成为道德审查的标的,披露工具使用反而可能触发不必要的质疑。Payal的观察是,「人们担心被评判为'作弊'或'不够真实'」,即便产出质量本身并无差异。

更深层的顾虑在于职业不确定性。人工智能写作能力快速提升,部分从业者开始担忧自身岗位的安全边际。公开承认依赖工具,等于向雇主释放"可被替代"的信号。Payal写道,「承认使用人工智能,感觉像是在承认自己的可替代性」。

社交层面同样存在压力。当朋友圈还在争论"人工智能是否让写作失去灵魂"时,早期使用者已经形成了某种地下网络——彼此心照不宣,但绝不主动打破沉默。这种默契维护了一种脆弱的平衡:享受技术红利,同时规避观念冲突。

反方:隐瞒正在制造系统性代价

反对"低调使用"的阵营,则将焦点放在信息扭曲与机会成本上。

首要问题是评价标准的失灵。当大量人工智能辅助内容以"纯人工"名义流通,市场失去了辨别真实能力水平的信号。招聘方无法区分候选人的独立写作能力,投资者难以评估创作者的真实产出效率。Payal指出,这种混淆「让诚实的人处于劣势」——他们要么被迫加入隐瞒行列,要么在竞争中承担额外的透明度成本。

更隐蔽的代价是技术迭代的延迟。用户反馈是产品改进的核心燃料,但地下使用意味着开发者接收不到真实的场景数据。Payal举例:「如果没人承认用人工智能写邮件,邮件工具厂商就不知道自动润色功能到底被用在哪里、卡在哪里。」沉默直接转化为产品进化的摩擦力。

心理成本同样被低估。Payal描述了一种"技术羞耻"(tech shame)——使用者内化了对工具的负面评价,即便私下依赖,公开场合仍要表演"纯手工"人设。这种认知失调消耗精力,也阻碍了更健康的协作范式形成。她观察到,「我们开始把人工智能当作肮脏的秘密,而不是像计算器或拼写检查一样正常的工具」。

长期来看,隐瞒还可能固化不平等。掌握信息差的人(知道哪些场景可以安全使用人工智能)持续获益,而信息匮乏者要么过度保守错失效率红利,要么贸然披露遭遇惩罚。Payal的担心是,「这创造了一种双层系统:知情者默默优化,不知情者被规则束缚」。

我的判断:透明化需要基础设施,而非道德号召

打开网易新闻 查看精彩图片

双方论点都有现实依据,但解决方案的方向截然不同。

正方隐含的策略是等待——等社会规范自然演化,等人工智能变得像语法检查一样无可争议。这个路径的问题在于时间成本:在过渡期,隐瞒的负面效应会持续累积,而规范演化的速度取决于公开讨论的频率,恰恰被隐瞒行为所抑制。

反方的道德号召("应该更诚实")同样软弱。个体在结构性激励面前的选择空间有限,要求个人承担透明度成本,而不改变评价体系的回报函数,本质上是让先行者吃亏。

更可行的突破口在于产品层面的"去道德化"设计。Payal提到的一个细节值得注意:她更愿意在使用痕迹不可见的地方使用人工智能(比如初稿构思),而在可见环节(署名发布)回归人工。这种"分层透明"提示了一种中间路径——不是全盘披露或彻底隐瞒,而是建立更精细的使用场景分类。

具体而言,行业需要三类基础设施:

第一是披露标准的颗粒化。不是简单的"是否使用人工智能"二元标签,而是区分"人工智能辅助研究""人工智能生成初稿""人工智能润色语言"等不同层级。Payal的编辑其实不介意她用什么工具,但介意的是"被欺骗感"——更透明的分类可以降低这种心理摩擦。

第二是评价维度的重构。当人工智能接管了语法正确性和基础表达,人类创作者的核心价值应向"原创洞察"和"情感共鸣"迁移。Payal的散文被接受,关键不在文字本身,而在她"选择写什么"的判断力。评价体系需要显式承认这种迁移,让工具使用不再与"能力否定"挂钩。

第三是匿名使用数据的合规流通。用户不必公开个人行为,但聚合层面的使用模式可以反馈给开发者。Payal的邮件工具例子说明,产品改进需要知道"功能被用了多少次、在哪个环节放弃",而不需要知道"具体是谁在用"。差分隐私等技术可以实现这种平衡。

回到皮尤的那组数据:85%的渗透率意味着人工智能早已不是边缘实验,而是主流工作流的基础设施。继续假装它不存在,相当于在电力普及时代坚持点蜡烛——不是不可以,但成本自担,且别抱怨效率落后。

Payal的结尾姿态是自我解嘲式的诚实:「是的,我用人工智能。你也用。我们能不能别再演这出戏了?」

这句话的潜台词是,承认本身不会解决所有问题,但至少能把讨论从"用不用"的羞耻剧场,推进到"怎么用更好"的产品战场。而后者,才是技术从业者真正该关心的议程。