一份2025年的研究数据挺扎眼:在AI工具选型上,人类偏见对系统评估的影响,已经和对系统构建的影响相当了。换句话说,我们选工具时有多不理性,和造工具时差不多。
这解释了为什么技术圈最近火药味这么重。不是模型参数的战争,是人的战争。
工具即身份:你用的AI,就是你的立场
《AI与社会》期刊今年发了一篇研究,标题很学术,结论很直白:人类偏见强烈影响AI系统的评估和信任方式。研究者没说的是,这种偏见在从业者身上反而更严重。
你在技术社区待久了,一定能听到这种话:"不是X架构的,不算正经项目。""我们只认这个模型的输出。"整个方案被否掉,不是因为逻辑错了,是因为用了"错误"的工具栈。
讽刺的是,这发生在一个以实验精神定义的领域。
有个产品经理跟我吐槽过,他们团队花了三周重构一个文档处理流程,用的全是内部熟悉的工具链。后来他发现,竞品用的是一个开源方案,三天搭完,效果还更好。"但我们不可能换,"他说,"换了等于承认之前三个月白干了。"
这就是工具部落化的核心机制:一旦工具选择和身份绑定,客观性就悄悄退场。
研究里提到一个概念叫"认知吝啬"——大脑为了节省能量,会把熟悉的东西标记为"正确"。在AI这个变化速度以周计算的领域,这种机制直接变成了技术债。
"恐龙问题":经验如何变成包袱
很容易把锅甩给老员工。但问题不在年龄,在沉没成本。
当你花了五年精通一套工具,它就成了你的一部分。质疑这套工具,等于质疑你这些年的投入。于是我们看到固定的行为模式:用熟悉的栈重构解决方案、忽视替代方案、把熟悉度放在效果前面。
一个做了八年NLP的工程师跟我说,他去年才开始认真看某开源框架的文档。"之前觉得那是学生用的,"他顿了顿,"其实是不想看自己那套复杂方案被简化成几十行配置。"
这种心理防御机制,在技术圈有个更体面的说法:"我们要做得properly。"
但"properly"往往翻译过来是:用我们习惯的方式,走更长的路,花更多的时间。在这个速度就是一切的赛道,这不是严谨,是拖延。
arXiv今年另一篇论文对比了开放和封闭AI系统:开放系统增加访问、实验和审查;封闭系统集中控制,强化门槛设置。两个路线都有合理场景,但人的选择很少基于这种理性分析。
更多时候,选封闭是因为"我们不一样",选开放是因为"他们不懂"。
秘方的幻觉:你知道的没那么特别
layer in something even more interesting.
AI民主化喊了这么多年,我们还是在藏东西。"具体prompt不能给""内部workflow有特殊性""关键不是工具,是用法"——这些话术你熟悉吗?
真相是,大多数"秘方"没那么秘。
它们是迭代、组合、经验。三个工程师独立摸索三个月,得出的结论大概率相似。但承认这一点,就打破了"我知道你不知道"的身份优势。
《AI与社会》那篇研究还提到,权力结构和激励机制决定了AI知识是分享还是保留。这不是道德问题,是系统设计问题。当绩效考核看重"不可替代性",人自然会制造不可替代的假象。
我见过一个团队把简单的RAG流程包装成"认知架构",写了四十页内部文档,设了三层权限。后来一个实习生用公开教程复现了80%的功能。"他们知道,"那个实习生说,"但文档已经写成那样了,改起来更丢人。"
开放系统的副作用是暴露这种尴尬。当所有人都能试,"独家"就失去了溢价空间。所以阻力不会表现为"这是对的",而是"我们不信任那种做法"——一种无法证伪的否定。
历史在循环,只是换了个界面
每一次技术范式转移都经历过这个阶段。开源运动早期被当成业余爱好,云计算被大企业嘲笑过"不安全",新编程语言总要先被质疑"有没有大厂用"。
AI工具战争不是新问题,是旧问题的新版本。区别在于速度:以前一个周期要五年,现在五个月。
这意味着纠错的窗口更短,也意味着固执的成本更高。
有个数据点很少被讨论:2024年以来,AI工具的平均生命周期在缩短,但团队迁移成本在上升。不是因为技术更难,是因为绑定更深。工具选择成了政治站队,切换就成了背叛。
研究者N. Mert Aydın在分析这种现象时用了个准确的描述:我们不是在使用工具,我们是在通过工具确认自己。
这解释了为什么最理性的群体——工程师、产品经理、数据科学家——会在工具讨论里表现出非理性的防御性。不是不懂逻辑,是逻辑和身份冲突时,身份赢了。
一个可能的出路:把"我用的工具"和"我是谁"解绑。但这需要组织层面的设计,比如轮换制、强制实验期、把"尝试新工具"写进OKR。听起来极端?看看现在浪费在重复造轮子上的工时,可能就不觉得了。
最后问个实际问题:你们团队上次认真评估替代方案,是什么时候?不是那种"我们看过,不适合"的走过场,是真的让不同工具同台竞技、用同一套标准打分的那种。
如果答案是"很久以前"或者"从来没有",那你们可能已经在战争里了,只是还没意识到对手是谁。
热门跟贴