去年夏天,硅谷某科技公司的一次全员会上,一位资深工程师汇报项目进展。他用了17分钟,讲的全是"端到端优化""智能体协同""上下文感知"——台下同事事后反馈:没听懂他要解决什么问题。这位工程师的智商测试分数在团队前5%,但那次汇报后,他的晋升答辩被推迟了半年。
这不是孤例。过去18个月,类似的故事在科技行业反复上演:高智商从业者突然"不会说话"了。表面看是个人表达问题,深层指向一个被忽视的产品现象——AI工具正在重塑人类的认知输出方式,而代价可能是清晰思考能力的退化。
现象:聪明人为何集体"失语"
观察科技圈的沟通场景,一种新型语言障碍正在蔓延。
产品经理描述功能时,脱口而出"基于大语言模型的语义检索增强";工程师解释Bug时,习惯说"注意力机制(一种让模型聚焦关键信息的计算方式)的权重分布异常";设计师讨论方案时,频繁使用"多模态对齐"和"嵌入空间(将离散数据转化为连续向量的数学表示)的语义距离"。
这些术语本身没错。但当它们成为默认表达单位,沟通效率反而下降。
一位从业12年的技术写作者注意到变化:2023年前,他的客户(主要是科技公司)要求"让非技术读者看懂";2024年后,超过60%的brief变成"确保用词专业,体现技术深度"。结果?同一份产品说明书的平均阅读完成率从34%跌至11%。
更隐蔽的变化发生在写作流程。多位受访者描述了一种"AI辅助后遗症":先用生成式工具起草内容,再人工润色——但润色方向不是简化,而是"让AI痕迹不那么明显"。最终文本往往比纯人工写作更冗长、更抽象,因为人要模仿AI的"专业腔调"来掩盖使用痕迹。
一位AI产品经理的观察很典型:「我花了3小时用工具生成一份战略文档,又花了5小时把它改得不像AI写的。最后老板的评价是'有深度,但不知道你想做什么'。」
正方:这是效率进化的必经阵痛
支持AI工具深度介入写作的一方,有一套完整的效率叙事。
核心论据是速度。根据公开的产品迭代记录,某头部AI写作工具的企业用户中,文档产出量平均提升340%。在需要快速响应的场景——比如竞品分析、会议纪要、技术白皮书初稿——这种产能跃迁直接转化为商业优势。
更深层的论证指向认知分工。人类负责"战略层思考",AI处理"战术层表达",这是工具理性的自然延伸。一位连续创业者表述得更直接:「我的时间单价是每小时2000美元,花在调整句子结构上就是浪费。AI让我把认知资源集中在真正重要的判断上。」
这一派还指出,所谓"失语"现象被过度解读。术语泛滥不是AI的产物,而是技术共同体成熟的标志——任何专业领域发展到一定阶段都会产生内部话语。AI只是加速了这一过程,让新手更快掌握"行话",降低行业准入门槛。
他们援引的历史参照是计算器普及:1970年代反对者担忧心算能力退化,但数学教育并未崩溃,而是转向更高阶的问题解决。同理,AI接管基础表达后,人类可以跃迁至更复杂的认知任务。
一个被反复提及的数据点支撑这一乐观:某知识管理平台统计,使用AI辅助的用户,其文档中"结论前置"的比例从23%提升至41%——似乎表明AI在帮助人更结构化地思考。
反方:我们正在支付隐性的认知税
质疑者的反驳从两个维度展开:短期看是沟通失效,长期看是思维能力的结构性损伤。
沟通失效的证据更直观。前述技术写作者追踪了47份"AI辅助产出"的技术文档,发现平均每个段落包含2.3个未定义的术语,而纯人工写作仅为0.7个。更关键的是,AI辅助文档的"核心主张识别率"(即读者能否在30秒内说出文档要解决什么问题)仅为19%,人工文档为67%。
「术语不是专业性的标志,是思考的替代品。」一位设计总监的评论尖锐,「当你说'多模态对齐'时,往往意味着你还没想清楚用户具体要看到什么、听到什么、操作什么。」
长期损伤的论证更依赖认知科学的研究迁移。写作长期以来被视为"思考的脚手架"——将模糊想法转化为线性语言的过程,本身就是澄清思维的过程。AI的介入抽走了这个脚手架:人提供提示词(prompt,即向AI发出的指令),AI输出完整文本,人只做选择性编辑。
结果是"幻觉式清晰":文档看起来结构完整、术语规范,但作者本人对细节的逻辑链条缺乏肌肉记忆。一位研究技术传播的学者描述了她观察到的现象:「同样的工程师,2022年能白板手绘系统架构并口头解释,2024年面对同样的问题,第一反应是打开工具生成一段描述,然后试图背诵它。」
更隐蔽的风险是"品味腐蚀"。长期使用AI辅助写作的人,会逐渐将AI的输出风格内化为自己的审美标准——复杂句式优于简单句式,抽象名词优于具体动词,被动语态优于主动语态。这些特征恰恰是清晰写作的大敌,但人在反复接触中产生了"专业感"的错觉。
一位从业8年的编辑用数据佐证:她对比了同一作者2021年与2024年的文章,平均句长从12词增至23词,"的"字结构(如"基于XX的YY")出现频率提升280%,具体案例的数量下降60%。「他变聪明了吗?我觉得他只是变忙了,然后变懒了。」
我的判断:工具中性,但使用方式有优劣
辩论双方都有盲区。支持方低估了"表达即思考"的认知价值,反对方则容易陷入技术恐惧的怀旧叙事。
更准确的框架是:AI写作工具不是问题的根源,但某种特定的使用方式正在制造系统性风险。关键在于区分"AI辅助思考"与"AI替代思考"——前者是杠杆,后者是拐杖。
识别两者的实用标准有三条。
第一,产出前的准备深度。如果提示词只是"写一份关于XX的报告",这是替代模式;如果提示词包含"核心论点A需要反驳观点B,请用C案例支撑",这是辅助模式。前者把思考外包给AI的概率分布,后者保留了人的战略框架。
第二,产出的后处理方向。如果编辑重点是"让文本更流畅、更专业",这是替代模式的善后;如果编辑重点是"验证每个论点是否有证据支撑、每个术语是否有必要",这是辅助模式的深化。
第三,长期的能力追踪。一个简单自测:关闭所有AI工具,能否在15分钟内向非专业听众解释清楚你上周写的文档?如果答案是否定的,说明工具使用已经侵蚀了原生表达能力。
从产品设计视角,当前的AI写作工具存在一个结构性缺陷:它们优化的是"文本质量"的表层指标(语法正确性、词汇多样性、结构完整性),而非"思维质量"的深层指标(论点可证伪性、概念可操作性、逻辑一致性)。这导致用户自然滑向替代模式——因为工具奖励的是产出速度,而非思考深度。
可能的改进方向是引入"认知摩擦"设计:强制用户在生成前输入论点大纲,在编辑时高亮未经验证的断言,在完成后测试"脱离原文复述核心观点"。这些功能不会提升产出速度,但会保护思考过程。
对个体使用者,更务实的建议是建立"AI斋戒"机制:每周固定时段完全脱离辅助工具写作,重建原生表达能力。这不是反技术,而是防止认知能力的单一化依赖——就像运动员交叉训练不同肌群。
那位晋升被推迟的工程师,半年后通过调整工作方式重新获得认可。他的改变很简单:所有对外文档先手写大纲,口头向非技术同事预演,确认逻辑通顺后再用工具扩展细节。产出速度下降了40%,但决策通过率从32%升至78%。
「我花了更多时间在思考上,」他总结,「但省下了反复解释的时间。」
这个案例的启示在于:AI工具的价值不取决于它多快生成文本,而取决于它释放的认知资源被投向何处。如果投向更深层的思考,是增益;如果投向更多的产出,是透支。
科技行业正在经历一场关于"聪明"的定义权争夺。当系统奖励术语密度和产出速度,清晰表达反而成为需要刻意练习的技能。这不是AI的阴谋,是工具特性与人类惰性的合谋。
识别这一点,或许是避免"聪明地变蠢"的第一步。
毕竟,能向一个聪明人解释清楚的事,才是真明白;需要复杂术语才能描述的事,往往还没想明白——这个道理,AI不会替我们记住。
热门跟贴