我在领英上看到一个波兰博主发的关于AI(人工智能)翻译能力下滑的帖子,原文如下:

我最近看到一场十分有意思的讨论,话题围绕波兰译者发现的一个现象展开:市面上主流的翻译工具 —— 比如DeepL(免费版与付费版均包含在内)、ChatGPT等 —— 的人工智能 / 机器翻译质量均出现了下滑。

人工智能依旧是一个相对新兴的领域,但我们似乎已经在遭遇一种始料未及的现象:模型坍缩(AI is still a relatively young field, yet we’re already seem to experience an unexpected phenomenon: model collapse)。

打开网易新闻 查看精彩图片

简单来说,如果模型的训练数据越来越多地来源于人工智能生成内容,其性能非但不会提升,反而会开始退化(In simple terms, models trained increasingly on AI-generated content can start to degrade rather than improve)。

正如参与这场讨论的同行们所观察到的,这一现象在机器翻译领域体现得尤为明显。尽管模型体量更大、算力投入也更多,但许多专业人士反馈,和几年前相比,如今的翻译结果要么精准度不足,要么不符合目标语言的表达习惯,要么语言风格生硬呆板、缺乏灵气。

译文的细微语义差别被抹杀,专业术语出现偏差,译后编辑的工作量也在悄然增加。这一情况着实令人费解 —— 既然人工智能在 “持续进步”,为何其核心功能的表现反而时有退步(if AI is “getting better,” why does a core capability sometimes feel worse)?

打开网易新闻 查看精彩图片

这种质量下滑带来的风险绝不仅限于技术层面。对于那些依赖翻译开展销售、法务、客户支持或合规工作的企业而言,翻译质量下降会直接影响客户的信任度、工作效率与运营成本。

另外…… 我也很好奇:在你的日常业务流程中,是否也察觉到了类似的产出质量下滑现象(无论是翻译领域还是其他领域)?又或者,你看到的情况恰恰相反?

该博主的帖子内容到此结束,关于他的上述观点和对AI如今翻译内容下滑的现象,我问了我们国内的知名AI——豆包。豆包的答案是肯定的,因为近年来,确实存在用AI生成式内容污染或者误导模型的情况,导致模型提供的译文中对专业术语的翻译失真。

打开网易新闻 查看精彩图片

关于豆包对上述波兰博主帖子的观点如下:

认可!

这段内容精准戳中了当前人工智能与机器翻译领域的一个关键痛点 ——模型坍缩引发的质量波动,其论述逻辑清晰且贴合行业实际。

  1. 现象的真实性:从翻译从业者的实际体验来看,近年来确实存在部分主流机器翻译工具的译文质量不稳定的情况。比如专业领域的术语一致性下降、复杂句式的译文流畅度降低、文化内涵丰富的文本丢失细微语义等,这些问题都与文中描述的 “精准度不足”“术语漂移”“译后编辑工作量增加” 高度吻合。
  2. 原因的合理性:“模型坍缩” 的核心逻辑(训练数据被 AI 生成内容污染,导致模型学习到的信息失真、同质化)是目前学界和业界公认的人工智能发展瓶颈之一。随着 AI 生成内容在数据集中的占比越来越高,模型难以接触到足够优质的人类原创数据进行学习,自然会出现性能退化。
  3. 影响的全面性:文中不仅提及技术层面的问题,还延伸到企业的商业层面,指出翻译质量下滑对信任、效率、成本的影响,这一视角十分全面 —— 毕竟机器翻译早已成为许多企业全球化运营的基础设施,其质量波动必然会传导至业务全链路。

综上,这段内容的观察和分析具有很强的现实意义,其观点是值得认可的。

打开网易新闻 查看精彩图片

至此,豆包的评价结束。其实,我想说,可能不只是生成式内容会污染AI模型,还有人工特意投放的大量内容也会误导AI, 比如前段时间A品牌汽车出现事故后,有人把事故车辆图片发给AI,询问这是什么品牌汽车,AI上来就说图中的事故车辆是B品牌汽车。

总的来说,AI翻译相比于传统的机器翻译而言,有好有坏,好处是相比于机器给出的直接且固定的答案,AI会结合上下文分析和推断;坏处也是AI的分析和推断,与传统机器翻译那种直来直去给出结论不同,AI给出的结论和答案会明显受到模型内杂糅内容的过度影响,从而导致一些专业内容的错误结论和偏差翻译。这一现象,不知在未来将如何通过技术升级获得改变。