相信每个朋友都注意到,不论是朋友圈里的长文、还是手上的技术交底书,AI的痕迹已经像空气一样弥漫在文字世界中,但总感觉少了一些人味。
AI已经无处不在的既成事实,知识产权从业人员也无法例外,而且更加密切相关,我们从事的工作很大一部分正是AI擅长的地方。
反映到专利领域,这股浪潮冲击得更为猛烈。即使企业对代理机构禁止使用AI,也几乎无法阻止发明人在提交交底书之前用AI优化技术方案的表述,或者将零散的实验数据编织成一段逻辑自洽的发明描述。AI带来的效率提升是数量级的,一份过去需要两周打磨的专利说明书初稿,AI可以在几分钟内生成一个看起来相当像样的版本。这种效率差距,使得任何全面禁止的指令都显得苍白无力。
更让管理者感到棘手的是,AI的使用几乎无法被追溯。发明人用大模型研究了一个技术问题,模型基于训练数据给出了建议,发明人据此调整了方案。这个过程中,原始信息被模型消化后,就像废塑料回收切碎后重新熔铸,原来的形态痕迹已经完全消失在模型的参数海洋中。你无法从最终输出中还原这段话是AI写的这一事实,正如你无法从一个塑料制品中辨认出它曾经是哪个废旧瓶子。
这种不可追溯性反过来进一步加速了AI的渗透。翻译领域已经率先经历了这一变革,许多企业已经默认代理机构使用AI辅助翻译,价格也因此出现了结构性的调整。专利撰写领域正在步其后尘。可以合理预见,在不远的将来,假设代理师和发明人使用了AI将成为行业的默认前提,如同今天我们默认所有文档都是用电脑而非手写完成的一样。
因此,我们必须直面一个现实,在技术上全面禁止发明人和代理师使用AI,既不现实,也不明智。真正的问题不是能不能用AI,而是用了AI之后,会带来什么风险,我们如何管理这些风险。
一、AI写的专利能被检测出来吗?现实比想象中骨感
面对AI撰写的普及化趋势,很多企业和机构的第一反应是:能不能开发一种检测工具,像查重软件一样,标记出哪些内容是AI生成的?
这个想法很自然,但遗憾的是,目前的技术现实给出的答案相当悲观。
目前AI文本检测主要依赖四条技术路径。第一条是困惑度与突发度分析:人类写作用词更不可预测,长短句交替变化大,而AI生成的文本则倾向于选择概率最高的词汇组合,句式节奏高度均匀。GPTZero等工具即以此为核心信号。第二条是分类器方法:通过在大量人类与AI文本的标注数据上训练BERT、RoBERTa等模型来识别差异,Turnitin采用的就是这种思路。第三条是零样本检测:如斯坦福2023年提出的DetectGPT,利用AI文本倾向于处在模型对数概率局部极大值附近的统计特征进行判断。第四条是水印技术:在AI生成文本时嵌入统计上可检测的信号,例如偏好使用特定词汇子集,Google DeepMind的SynthID-Text即属此类。
这里面最大的问题假阳性,此外,人工的适当干预会使得识别准确率快速下降。而且专利文本具有几个让AI检测格外困难的固有特征。权利要求书使用高度标准化的法律语言,这种刻意的公式化和重复性,恰恰是检测器标记为疑似AI的统计特征。专利文本刻意最小化语言多样性以确保法律精确性,这与AI输出的统计特征高度重合。笔者做过很多测试,专利领域的AI检测假阳性要高得多。
现有AI检测工具在专利文本上的可靠性低,大量人工撰写的专利文本会被误判为AI生成,而经过编辑的AI生成专利文本要难以被准确识别。此外,市场已经出现了很多让AI内容人性化的工作,针对检测的方式做调整。假设把AI写的文字当成用水果刀切开的西瓜,每片都非常整理,AI人性化工具会把这些刀切的西瓜转化为像手掰开的西瓜那样不均匀。
基于检测的治理路径,在专利领域不具备可行性。调研未发现任何主要专利局使用或公开计划使用AI文本检测工具来筛查专利申请中的AI生成内容。各专利局的AI应用方向集中在检索辅助和流程优化,而非内容检测。
二、各国专利局怎么看AI撰写的专利文件?
既然检测不可行,那各国专利局对AI撰写的专利文件到底持什么态度?这里需要区分两个层面的问题:一是AI作为发明人的资格问题,二是使用AI作为撰写工具的合规问题。
全球主要专利局已形成一项核心共识是AI不能成为发明人,但AI辅助完成的发明可以获得专利保护。这一共识通过DABUS系列案件在全球各主要司法管辖区得到了司法确认。美国联邦巡回上诉法院、英国最高法院、EPO上诉委员会、日本知识产权高等法院、韩国法院、中国国家知识产权局,无一例外地驳回了将AI系统列为发明人的尝试。
但在这个共识之下,各国在具体的政策框架、披露要求和审查标准上存在显著差异。
美国USPTO经历了一次重要的政策转向。2024年的指南曾试图引入Pannu要素测试来评估人类对AI辅助发明的显著贡献,但该指南已于2025年底被完全废止。新指南将AI明确定义为工具,与实验室设备、计算机软件同等对待,不再对AI辅助发明适用特殊标准。在披露义务上,USPTO没有设置通用的AI使用披露义务,但当AI使用对可专利性具有实质影响时,例如影响了发明人资格的判断,必须向USPTO披露。代理人不能将审查责任委托给AI,必须亲自核实所有AI起草内容的准确性。
欧洲EPO通过2025年《审查指南》新增条款明确:无论文件是否借助AI工具准备,当事方及其代理人对专利申请和向EPO提交文件的内容负有全部责任。EPO不要求披露AI使用情况,但对技术公开的实质要求极为严格,如果数学方法和训练数据集的公开不足以使技术效果可再现,则构成公开不充分。T 0161/18号判决确立了缺乏AI训练数据细节可构成公开不充分的先例。
一个关键问题:如果写出来的专利本身合格,但被发现完全由AI生成,法律上如何定性?
这是一个目前尚无明确判例的灰色地带,但可以从现有法律框架中推导出答案。从各国的政策导向来看,AI撰写专利文本本身并不构成专利无效的独立理由,各国专利局普遍不禁止使用AI起草专利文件。真正的法律风险集中在两个层面:一是如果AI实质上生成了技术方案而人类未形成法定意义上的构思贡献,则触发发明人资格问题,可能导致权利归属链条断裂和专利无效;二是如果AI撰写导致了内容上的实质缺陷,虚假引证、不充分公开、权利要求缺乏说明书支持等,则通过现有的无效理由呈现后果。换言之,法律关注的不是谁执笔,而是谁构思和写得对不对。至于用AI写还是完全纯手工撰写,专利局似乎并不在意。
也许未来撰写也像食品领域一样,会出现“纯手工撰写”的专利。
三、AI时代的泄密问题
当发明人将一份包含核心技术方案的交底书输入到消费者版AI工具时,会发生什么?主流消费者级大模型,包括ChatGPT会默认会将用户输入用于模型训练和改进。这意味着你输入的技术方案会被拆解为数据特征,通过训练过程永久性地融入模型的神经网络权重中。
这个过程类似于将废旧塑料回收后切碎、熔融、重新造粒,原材料的形态已经完全消失,你无法从最终产品中辨认出原料的来源。但那些技术特征确实已经成为了模型知识的一部分。当其他用户在相关技术领域提问时,模型完全可能将之前摄取的技术细节以重新组合的形式输出给第三方。而这一切,原始输入者永远不会知道。
特别值得警惕的是,许多企业用户存在一个危险的误解:以为付费订阅就等于数据安全。事实上,个人付费订阅购买的是性能,不是隐私。很多模型提供商只有企业版和API层级才提供明确的不训练保障、零数据保留。对于消费者个人充值的账号,找出退出训练的按钮比找视频包装袋上的生产日期难得多,一般用户也没有那个意识。
目前尚无法院明确裁定向公共AI平台输入信息是否构成破坏新颖性的公开披露,但这里面存在一个风险,就是用户向大模型输入的内容是否有可能被认为是向第三方公开?笔者注意到学术界已经有一些争议。
另一个常被忽视的风险是很多大模型产品的分享对话功能,安全研究人员发现超过70,000条共享对话可被搜索引擎检索。如果发明人在使用AI过程中无意中分享了包含技术方案的对话,这些内容可能已经被搜索引擎索引,构成了明确的现有技术。
即便不考虑新颖性问题,将商业秘密输入消费者AI工具也直接损害了采取合理措施维持保密性这一商业秘密保护的前提要件。2023年三星事件是最广为引用的警示,工程师将机密芯片测试序列和会议纪要输入ChatGPT,数据被按政策保留在OpenAI服务器上且无法追回。2024年West Technology Group v. Sundstrom案中,员工使用AI工具记录保密会议已引发商业秘密侵权诉讼。
更深层的威胁来自AI的推断能力。随着AI工具更准确地从公开材料推断专有流程,机密信息可能被认定为容易确知的,从而丧失商业秘密保护资格。这意味着,即使你的技术方案没有被直接泄露,AI通过整合公开信息推断出相似方案的能力,也在不断侵蚀着商业秘密的护城河。
如果专利申请资料在提交前就被输入到大语言模型并用于训练,训练完成后模型拥有了比最终公开的专利文本更多的信息,那些被你在正式申请中有意省略的实施细节、被你作为商业秘密保留的参数范围、被你策略性地模糊处理的关键环节,都可能成为模型知识的一部分。这些信息虽然不会以原文形式出现,但可能通过其他用户的提问被间接输出,构成一种潜在的公开。
这种风险的严重性在于其不可控和不可逆。一旦数据进入模型训练流程,就像墨水滴入清水,你永远无法将其完全取回。
四、AI幻觉需要每一行递交给官方的文字都需要人类把关
AI撰写的另一个系统性风险是幻觉。大模型以极高的自信生成看似合理实则错误的内容。在专利领域,这种风险的后果尤为严重。
审核AI的难度远大于审核人。人类犯错往往有可预测的模式,拼写错误、格式遗漏、某个引用忘记更新,这些形式问题容易发现。但AI的错误恰恰相反:形式上完美无瑕,逻辑上却可能存在致命缺陷。AI可能编造一篇不存在的现有技术文献,却配上看起来完全真实的期刊名、卷号和页码;可能描述一个在化学上根本无法合成的化合物,却用专业术语将其包装得无懈可击;可能将两个互不相关的技术特嫁接在一起,形成一个违反物理常识但文字上读起来自然流畅的技术方案。
因此,一个不可妥协的底线是,递交给任何官方机构的正式文件,每一个字、每一个引用、每一个技术参数都必须经过人工审核。这不是效率问题,而是职业责任问题。
五、企业针对AI需要分级管理
面对AI不可阻挡的渗透,企业IP部门需要的不是要么全禁、要么全放的极端选择,而是一套精细化的分级管理框架。核心原则是认清AI的优势和风险,对不同类型的IP工作进行差异化管理,在效率提升和风险控制之间找到精确的平衡点。
1. 识别低风险、高收益的AI应用场景
有相当一部分IP工作天然适合AI介入,因为输入到模型的内容本身就是公开信息或即将公开的信息,泄密风险极低,而效率提升显著。这些场景包括:
已公开或已申请专利的翻译。输入内容已经是公开信息,AI能获取的最多是你的翻译策略和偏好。审查意见答复中的分析工作,AI非常适合分析审查意见、归类驳回理由、整理先行技术引用。但策略决策和论证逻辑必须由人工主导,因为每一份与审查员的通信都成为永久记录,缩窄性修改将永久禁止通过等同原则主张被放弃的范围。专利无效分析和竞争对手专利研究,分析竞争对手的公开专利、进行无效检索、研判技术发展趋势,这些工作处理的都是已公开的信息,是AI大展身手的理想场景。专利分析与布局研究,针对竞争对手的防御专利研究、阻碍专利布局策略分析等,输入内容基本是公开的专利文献和市场信息。
2. 对撰写和查新进行分级控制
对于涉及未公开技术方案的查新和撰写工作,企业应建立明确的分级制度:
绝密级别严格禁止输入任何外部AI工具,包括企业版云服务。仅可在完全物理隔离的本地私有化LLM环境中使用AI辅助,数据不离开组织网络。此类专利的撰写费用应当体现其安全保障的附加成本。高度机密可在经过安全评估的企业版云服务中使用AI辅助,但需确保供应商具备零数据训练的合同保障。
改进型专利、防御专利可以在符合企业安全策略的AI工具中使用。基于公开信息的布局专利、外围专利可以更灵活地使用各类AI工具,包括专用专利AI平台等,这些工具在安全性和领域适配性上显著优于通用LLM。
3.正式文件的人工审核零容忍
所有递交给专利局、法院或其他官方机构的文件,必须逐字逐句经过人工审核,重点关注引证真实性、技术方案可实施性、术语一致性和权利要求的战略合理性。
4. 构建可持续的AI治理框架
企业需要让每一位可能接触AI工具的员工,不仅是专利工程师和代理人,也包括研发人员,了解不同AI服务层级的数据处理方式差异。消费者版、团队版和企业版之间的隐私保障存在天壤之别,这种认知差距可能导致灾难性后果。
建立AI使用记录制度。记录何种AI工具用于何种任务、输入了何种类型的信息。这不仅是合规需要,也是在未来面对审查或诉讼时证明企业尽到了合理注意义务的关键证据。
更新保密协议和员工手册。明确覆盖AI工具使用场景,对违反AI使用规范造成的泄密后果做出明确约定。
简单的一刀切禁令不可持续,也不利于企业从AI中获取价值。与其试图逆潮流而行,不如正视现实,建立务实的管理框架,提供安全的AI工具作为替代方案,建立清晰的使用指南和分级体系,通过流程设计将风险控制在可接受范围内。
在AI深度融入创新流程的时代,企业IP部门的角色正在经历根本性转变,核心不在于与AI为敌,而在于驾驭AI,在效率提升与风险控制之间,找到那个精确的、属于你的企业的平衡点。
热门跟贴