全球只有45%的研究者说自己有足够时间做研究,却有超过一半已经在用AI工具——但信任危机来得更快。

一张图看懂:科学界的AI信任困局

打开网易新闻 查看精彩图片

这张图来自爱思唯尔(Elsevier)高管马克西姆·汗(Maxim Khan)的署名文章,核心矛盾很直观:一边是政府砸下数十亿英镑押注AI for Science战略,另一边是研究者对通用AI工具的信任度跌到两成。

更麻烦的是,AI正在被采用的速度,远超治理跟上的速度。

productivity压力怎么传导到实验室

英国政府的焦虑很具体——国际研发竞争白热化,英国要靠研究质量和影响力保住排名。压力层层传导,最终落在研究者头上:全球仅33%的人预计未来两三年经费会增加。

AI被当成救命稻草。英国政府的AI for Science战略明确写着要用AI"transform scientific productivity and progress"(转变科研生产力与进步)。

但汗指出了一个尴尬的现实:通用AI工具为了简化回答,会平滑掉细节——对普通人问题不大,对研究者却是致命伤。准确性、透明度、上下文,缺一不可。

信任崩塌的连锁反应

超过半数研究者已经在工作中使用AI工具,但"只有两成认为通用AI工具可信"。这个落差意味着:大家在用,但心里没底。

汗没有给出具体解决方案,但点明了方向——不是要不要用AI的问题,而是"building AI researchers can trust"(打造研究者能信任的AI)。这需要从工具设计层面解决系统性缺陷,而不是让研究者自己承担风险。

冷幽默收尾

政府想要AI提升productivity,研究者想要时间做研究,AI工具想要被信任——三方诉求理论上完全对齐,实际执行中却互相拖后腿。最讽刺的可能是:AI本来该帮科学家省时间,现在他们得额外花时间验证AI有没有瞎编。