人工智能有一种写作风格,或者说,至少有一种被认为的写作风格。像ChatGPT和Claude这样的工具似乎倾向于正式的交流方式。这些聊天机器人很认真,有时显得过于公正或过于恭维。明显缺乏个人特色,也没有深刻的见解。根据Grammarly的说法,人工智能语言往往会产生“重复的措辞”和“机械的语调”。现在,甚至出现了像关键、深入探讨和强调这样的人工智能流行词和短语。

这就像是为中学生写他们的第一篇论文而准备的说明书的措辞。在人工智能时代,这些有用的辅助词现在被视为‘不受欢迎的词’。一些人现在试图避免使用这些术语,因为它们听起来像低级机器人——真是让人担心。

但问题不仅仅是听起来像人工智能。人类的语言是一条经过时间考验的词汇供应链;人们在说话和写作时具有自然的创造力。但随着我们越来越多地与聊天机器人交流,并依赖人工智能代理来剖析概念、总结研究报告和综合互联网搜索,我们正在通过大型语言模型生硬而有限的语法来过滤各种内容。

这甚至在改变我们的交流方式。研究人员建议一些基于人工智能的写作辅助模型可能会削弱人类写作的整体多样性,缩小我们集体词汇的规模。

“人工智能可能真的在给我们灌输一些词汇,因为反复接触使人们内化并重新使用他们可能不会自然选择的流行语,”佛罗里达州立大学的教授汤姆·朱泽克(Tom Juzek)在今年早些时候对Fast Company表示。他和同事们最近列出了一份人工智能语言的词汇清单,包括复杂、战略性和获得等词。他还发现,这些词现在更有可能出现在非脚本化的播客中,这强烈表明了所谓的“词汇渗漏现象”。

我们能堵住这个漏洞吗?人工智能公司意识到,现成的人工智能并不总是那么吸引人。他们越来越多地承诺定制和调整,让这些机器人更符合我们的意愿和偏好。

“你可以告诉ChatGPT你希望它具备的特征,你希望它怎么跟你说话,以及你希望它遵循的任何规则,”OpenAI在今年早些时候发布一项新功能时解释道,该功能允许用户为他们的机器人选择首选特征和个性特征。“如果你是一名科学家,使用ChatGPT进行研究,你希望它能像实验室助手一样跟你互动。如果你在照顾一位年长的家庭成员,并需要一些建议或陪伴的点子,你可能希望ChatGPT用一种支持的语气跟你交流。”

我与人工智能的关系

我与人工智能的关系

为了保护自己不被人工智能的语言影响,我告诉我的ChatGPT助手要丰富它的词汇。要广泛阅读。我对它说:此外,尽量时刻使用新词!我希望你能不断变化你的词汇。我禁止聊天机器人使用Juzek研究中列出的短语。

到目前为止,ChatGPT似乎有了些改善。我觉得,至少是这样。它避免使用被禁止的词汇,似乎也在努力以更自然的方式交流。它正在寻找更能反映其实际谈论内容的动词。

但人工智能的用词就像一条虫洞。Juzek解释说,问题在于人工智能写作的本质不仅仅关乎我们的词汇,还涉及句子结构和一些功能词,比如that、may、can和should。“要求你的助手避免使用流行词可能会使你的写作在人的眼中看起来不那么像人工智能,并减少有人启动检测器的机会,”他告诉我。“这对人工智能是否正在同质化或扁平化语言这个更大问题意味着什么——我觉得这个问题仍然没有定论。”

伟大的同质化现象

伟大的同质化现象

有些人认为,换个方法可以让人工智能变得不那么死板。

Nathan Lambert在新闻通讯Interconnects中提到,目前的语言模型(LLMs)并没有接受过良好的写作训练。这些人工智能试图迎合所有人,而不是成为有自己声音和立场的平台,通常比较简洁和中立。“下一步是解决模型训练经验过于宽泛的问题。特定的观点能够培养出独特的声音,”他说。“目标应该是一个能在任何领域或需求中输出清晰、有趣且吸引人的内容的模型。”

不过,我们还得等那项技术成熟。在这段时间里,我们无法仅靠人工智能来解决这个难题。这些公司在宣传工具,试图让人工智能成为我们的延伸,把我们个性的一部分外包给一个通过寻找相关性和从网络海量信息中提取意义的机器。

人们担心,随着我们与人工智能的交流日益增多,我们的人类文化和语言会因此变得单一化。当然,这种同质化并不是新鲜事。文学、广播和电视及其语言演变,早就跨越了国界。社交媒体创造了全球通用的俚语。

但人工智能有所不同。虽然它是一项新技术,但它并不是我们思想的新平台——它是一种合成我们思想的新方式。这很有道理:大型语言模型是通过将大量信息整合成能够像数字化的普通人一样交流的推理模型来构建的。

与此同时,我们只是想做我们自己。