《自然》2月21日发表一篇调研报道,采访了40多位用AI搞科研的学界和业界人士。很多人提到,AI已经明显降低了对编写代码、处理基础数据人员的需求。这类工作以前多是研究生、博士后或非科班出身者承担;计算机建模等领域的初级岗位也受到冲击;科学论文翻译等周边工作的空间也在缩小。

打开网易新闻 查看精彩图片

岗位变化只是表面。AI对科研界的影响,更深的是改变了实验室里谁说了算,学什么有用,怎么算成绩。

一、不同实验室,危险程度不一样

做生物信息学的和做有机合成的,处境完全不同。前者主要对着电脑跑数据,AI能写代码、做分析,对人力的需求明显下降。后者要在实验室里动手,AI能预测反应路径,但真操作时,加料顺序、温度控制、处理意外,还得靠人手上的经验。

趋势很明显:电脑工作占比高的岗位,风险更大;动手环节多的,暂时更安全。

计算机辅助药物设计和药物化学就是一对例子。前者主要对着电脑跑模拟,后者在通风橱里做实验。前者这类编码密集型工作风险更大,后者这类动手实验相对安全。不是不需要计算了,而是纯执行层面的人需求少了,能判断方向、设计实验的人还在。

打开网易新闻 查看精彩图片

但安全区也在缩小。即便实验岗位,AI和机器人也在奋起直追。自动化设备正在接管一些原本需要经验的操作,动手做的优势,深度在降低。

二、学历正在贬值

岗位少了,学历通胀就失控了。

以前是本科生做实验、硕士生跑数据、博士生设计课题,阶梯很清楚。现在AI把阶梯压扁了,本科生用AI能独立完成以前硕士的数据分析,硕士能处理以前需要博士经验的建模。结果可能导致博士下沉抢硕士的饭碗,硕士下沉抢本科生的位置。

最难受的是高校青年教师。博士扩招后,毕业生数量快速增长,但高校教职岗位增长缓慢。他们普遍面临非升即走制度。预聘期内拿不到长期教职就得离开。过去,年轻学者的优势是能熬夜写代码、处理大数据;现在AI能辅助完成这些工作,他们的传统竞争力在削弱。

博士头衔还在,但议价能力在下降。博士去企业越来越多,但很多人发现,自己学的编码、建模技能,在企业里要么被AI工具替代,要么只是流程中的一环,难以体现学历溢价。

三、实验室里的权力

传统科研中,导师掌握知识、资源和方向,学生通过劳动换取技能培养。但AI改变了技能获取方式。过去需要多年训练才能掌握的编码、数据分析能力,现在借助AI工具,入门门槛大幅降低。这意味着,实验室里的技能分布不再严格按资历排列,新手也能快速产出原本需要经验积累的工作。

这意味着,实验室里的工作分配在变化。过去需要多年训练才能做的数据分析,现在借助AI工具,学生能更快上手。导师的角色也在调整,从手把手教技术,更多转向把握方向、审核结果、申请资源。

这种调整有风险。AI工具降低了技能门槛,但也降低了犯错门槛。学生可能在没有足够经验的情况下,过度信任AI的输出;导师如果审核不严,可能让错误流入最终成果。

过去学生通过反复试错、导师纠错来积累经验;现在AI能直接给出答案,跳过了摸索过程。学生可能更快产出结果,但少了对错误路径的感知,对方法的理解停留在表面。

四、评价体系

AI能辅助写论文,但高校评职称、申请基金的指标调整滞后。论文数量、影响因子、项目经费仍是硬杠杠。这让快速产出更容易,扎实验证更难。预测类研究(计算模拟、数据分析)借助AI能更快成文,而需要长期实验验证的基础研究周期不变。考核时,前者数量占优,后者深度占优,但现行体系更认数量。

评审专家也面临新挑战。AI能生成精美的图表和看似严谨的数据分析,短时间内很难核实其真实性。这增加了评审难度。形式规范的提案更容易过关,而形式简单但内容扎实的工作,可能因为看起来不够分量而被忽视。

结语

面对AI,两种极端反应都危险:要么全盘抵制,要么完全依赖。抵制不现实,AI已经嵌入科研流程。完全依赖更危险,把判断外包给机器,人就成了工具的使用者,而非问题的提出者。科研的本质是提出好问题、验证真假设、建立新连接。这些需要人的直觉、经验和跨领域联想,AI可以辅助,但不能替代。

这些能力难以标准化教学,目前AI也难以完全掌握。实验室的工作方式在变,能在新环境里立足的人,需要既能驾驭AI工具,又能提出真问题。知道什么值得做,什么只是看起来热闹。技术会变,但好的科研始终需要人的判断。

作品声明:仅在头条发布,观点不代表平台立场