「查重 0%!这下稳了,毕业肯定没问题!」某高校研究生小李(化名)看着电脑屏幕上的论文查重报告,长舒一口气,暗自庆幸自己找对了「神器」—— 近期爆火的「龙虾」。可当小李信心满满地在组会上汇报自己「精心撰写」的论文时,导师突然脸色铁青,拍着桌子贴脸开大:
「这篇论文里的参考文献,有 3 篇根本不存在!你告诉我,这是你自己写的?还想毕业吗?」
一句质问,让小李瞬间慌了神 ......
近期,「养龙虾」突然在网上爆火,引发了网友们的热议。当然,这里的「龙虾」不是咱们平时吃的龙虾,而是 OpenClaw,即一类能直接操作电脑、执行任务的智能体工具。
图片来源:GitHub
「龙虾」之所以会火,并不只是因为它会聊天,而是因为它开始「会办事」了:能读网页、调接口、装插件、处理本地文件 ……
很多人把这件事看成一个技术八卦,但龙虾的爆火其实是一个信号——AI 已经不仅是一个停留在聊天框里的工具了,它正在全面闯入我们的生活。
AI 越来越能干,
风险也在同步扩张
随着「龙虾」的爆火,人们很快认识到其中的风险,OpenClaw 也从效率神器变成了安全焦点。
过去大家用生成式 AI,大多是让它写一段话、改一封邮件、总结一篇文献。但现在不一样了,诸如 OpenClaw 等 AI 工具开始被授予更高权限,可以访问本地文件系统、读取环境变量、调用外部 API,甚至安装扩展功能。
能力越强,失控代价也就越高。一个会自动执行任务的 AI,如果判断错了、被注入了恶意提示,或者接入了不可信插件,带来的不再只是几句胡说八道,而可能是删库、泄密、误发、被控。
因此,国家互联网应急中心已经明确提示,这类工具默认安全配置脆弱,可能出现提示词注入、密钥泄露、误删邮件、恶意插件投毒以及高中危漏洞被利用后导致系统被控、隐私信息和敏感数据泄露等问题。
图片来源:公众号截图
而如果说「龙虾」让人看到的是技术安全风险,那么最近另一条更刺眼的新闻,则让人看到AI 进入知识生产后的规范风险。
上个月,一项发布在预印本平台 arXiv 的研究对 13 个大预言模型、40 个研究领域做了引用有效性审计,发现所有模型都会生成虚假的参考文献,比例从 14.23% 到 94.93% 不等。
研究还分析了 2020-2025 年 56,381 篇顶级 AI/ML 与安全会议论文中的 220 万条引用,发现其中 604 篇论文包含无效或虚构引用,而这一问题在 2025 年同比又上升了 80.9%。
图片来源:网页截图
此外,Nature 在 3 月初报道,一项针对 13 个主流大模型的测试发现,这些模型在多轮诱导之下都可能不同程度地协助学术欺诈或垃圾论文的生产,只是不同模型抵抗程度不同而已。
图片来源:网页截图
Nature 在去年秋天其实已经发出过警报。根据相关报道,ChatGPT、Gemini 等文本生成工具可以把已有论文改写成「几乎相同但足以绕过常规查重」的 copycat papers,数据分析显示,这类由 AI 改写的仿写论文已经渗入期刊体系,估计已有数百篇被发表。
换句话说,当前的问题已经不是「AI 会不会犯错」,而是「当人主动想越线时,AI 会不会成为帮凶」。
至少就目前的情况,答案并不乐观。
面对 AI 真正成熟的态度
不是封杀而是划清边界
尽管针对 AI 的使用存在一定风险,但对于 AI,真正成熟的态度不应是一禁了之,而是应该明确边界、保留空间、落实责任。
国家自然科学基金委在 2026 年项目申请通知里写得很清楚,申请人可以借助生成式 AI 跟踪研究动态、收集整理参考文献,但必须由人工核实信息和参考文献的真实性与准确性,申请人对生成内容负责,并且要全面如实声明使用情况;同时又明确规定,不得使用生成式 AI 直接生成申请书,不得使用未经核实的生成内容。
图片来源:网页截图
这个表述其实非常有代表性:可以辅助,不可替代;可以借力,不可甩责。
科技部编制的《负责任研究行为规范指引(2023)》以及对该文件的官方解读,态度同样如此。文件明确提出,不得抄袭、买卖、代写申报材料,不得使用生成式人工智能直接生成申报材料。
解读进一步说明,面对人工智能带来的新机遇和新问题,管理重点不在于否认技术,而在于依规合理使用:从研究实施、数据管理、成果署名与发表、文献引用等方面都给出了边界,同时明确不得将生成式 AI 列为成果共同完成人,不得直接使用未经核实的 AI 生成参考文献。
高校层面的态度也越来越清晰。
清华大学发布《清华大学人工智能教育应用指导原则》时,用了一个非常准确的表述 ——「积极而审慎」。一方面,学校鼓励学生在遵守课程规定的前提下积极探索 AI 辅助学习;另一方面,又明确严禁将 AI 生成的文本、代码等内容直接复制或简单转述后作为学业成果提交。
它不是反对学生用 AI,而是反对学生把本该自己完成的训练,外包给 AI。
图片来源:网页截图
复旦大学的规定更直接。其本科毕业论文 AI 工具使用规定明确提出「六个禁止」,其中就包括研究设计、数据分析、论文撰写等核心环节;一旦构成学术不端(不当),还会面临纪律处分、取消学位申请资格、撤销学位等后果。
中国传媒大学的做法则把「可用」和「不可用」切得更细。其学术刊物关于规范生成式 AI 工具使用的征求意见稿明确提出,AI 只能用于文献检索、语言润色、格式优化、基础数据整理与可视化等非核心研究环节;禁止它参与论文主体框架、核心观点、具体内容、数据来源的生成。同时,作者投稿时还要主动提交书面说明,告知工具名称和版本、使用时间、生成内容清单、原始提示词以及输出记录截图。
图片来源:网页截图
事实上,大家不难发现,制度并不反对使用 AI 来提高效率,但制度坚决反对使用 AI 完成本属于人的学术劳动、判断责任和诚信义务。当前的核心焦点已经不在于 AI 能不能用,而是在于「哪些环节可以用,哪些环节绝不能碰;用了之后,谁来担责」。
AI 应该是「助手」,
而不应成为「枪手」
对于个人而言,在使用 AI 时,应该守住这样一条底线:AI 应该是「助手」,而不应成为「枪手」。
什么叫「助手」?
就是 AI 帮你做那些重复的、机械的、耗时的、但不构成核心原创性的工作。比如检索文献、整理摘要、润色语言、优化格式、梳理思路、做初步代码排错、生成会议纪要、做基础可视化。这些工作并不轻,但它们的共同点是:最后的判断仍然在你,责任仍然在你,创造性的核心环节也仍然在你。
什么叫「枪手」?
就是 AI 开始替你完成本不该外包的核心工作:替你编数据、造图表、虚构参考文献、捏造实验结果、生成研究设计、代写论文主体、直接写基金申请,甚至帮你把一篇并不存在的研究包装得像真的一样。
所以,当下最该警惕的并不是「AI 会不会取代人」,而是「人会不会主动把自己的责任交给 AI」。
一旦 AI 成了枪手,最先被摧毁的是信任。你不知道这篇文章有多少是作者自己做的,你不知道这些引用是否真实存在,你甚至不知道这段看起来条理清晰的话是不是建立在真实材料之上。AI 不会为一篇造假的论文承担处分,不会为一个虚构的数据集承担后果,也不会为一个错误决定承担名誉风险,承担后果的永远还是人。
从「龙虾」引发的安全焦虑,再到基金委、高校、期刊不断细化的规则,我们其实应该清晰认识到:AI 进入生活和科研,几乎是不可逆的。
真正理性的态度,从来不是一边高喊 AI 万能,一边把思考、核验、写作、判断全部外包出去;也不是一看到风险就退回到什么都别用的旧世界。
成熟的做法只有一个——让 AI 回到它该在的位置,技术可以越来越强,但人对边界的意识反而必须更清楚。
否则,最后失控的不是机器,而是我们自己对真实、能力和诚信的底线。
热门跟贴