今天听得到头条,李南南老师做了关于自然杂志2023十大人物评选的选题,其中提到 ChatGPT 竟然被作为“人”,也进入了名单。‍

宇婷,查找了下《自然》杂志。

Nature’s 10主要记录了过去一年科学领域的重要进展,以及一些帮助全世界发现关键答案的个人。这不是一个奖项或排名,而是由Nature的编辑精选出来的一系列故事,以引发思考。这些故事强调了科学界里人物们的影响力。

而 ChatGPT 将这一评选,拓展到了非人类角色,突破了传统。足以看得出:模拟人类语言的人工智能在科学发展和进步中所起的作用。

不久前,Sam Altman 入围《时代周刊》年度人物:极致乐观、适应性,并未最大错误做好准备。一己之力,登上无数头条。ChatGPT 的对话设计,来源于 Sam 年轻时对于短信的痴迷。为 ChatGPT 赋予了人文主义色彩。

“它与人合作撰写科学论文——时而偷偷摸摸;它为演讲、拨款提案和课程起草大纲,大量炮制计算机代码,并充当研究想法的传声筒;它也发明参考文献,编造事实,并且照搬仇恨言论。最重要的是,它抓住了人们的想象力:时而顺从,时而迷人,时而有趣,甚至令人恐惧。ChatGPT 扮演着任何对话者想要的角色,有些甚至是他们不希望的角色。”

——这是对 ChatGPT 的一段精彩概述。

ChatGPT 的唯一目标是以其训练数据的风格,合理地继续对话。但是,在这个过程中,它以及其他生成人工智能( AI )程序正在改变科学家的工作方式。它们也重新引发了关于 AI 的限制、人类智能的本质以及如何最好地调节两者之间相互作用的争论。这就是为什么今年的 Nature’s 10 中有了一个非人类补充的原因。

一些科学家早就意识到了大型语言模型( LLMs )的潜力。但是对于许多人来说,ChatGPT 在2022年11月作为免费对话代理发布的速度迅速地展示了这项技术的力量和陷阱。

对于一些研究人员来说,这些应用程序已经成为不可或缺的实验室助手,帮助他们总结或编写手稿,完善申请和编写代码。在波士顿马萨诸塞州的哈佛医学院从事医学研究人工智能的 Marinka Zitnik 表示,ChatGPT 和相关软件可以帮助进行头脑风暴、增强科学搜索引擎,并在文献中确定研究空白。Zitnik 还认为,以类似方式在科学数据上进行训练的模型可以帮助构建能够指导研究的人工智能系统,例如设计新分子或模拟细胞行为。

但是这项技术也是危险的。自动对话代理可以帮助作弊和抄袭;如果不加以检查,它们可能会永久地破坏科学知识的来源。未公开的由 AI 生成的内容已经开始在互联网上流传,一些科学家承认使用 ChatGPT 生成文章而没有声明( Nature 2023 )。

然后,还有错误和偏见的问题,这些问题融入了生成AI的工作方式。LLM 通过绘制语言之间的相互关系来建立世界模型,然后毫无评估真假的概念地返回这个分布的合理样本。这导致程序在其训练数据中重现历史偏见或不准确,并编造信息,包括不存在的科学参考文献( W. H. Walters & E. I. Wilder Sci. Rep. 13, 14045; 2023 )。

华盛顿大学的计算语言学家 Emily Bender 认为,几乎没有合适的方式来使用她所称的合成文本生成机器。ChatGPT 对环境的影响很大,存在问题的偏见,并且可能使用户误以为其输出来自一个人。此外,OpenAI 正因涉嫌窃取数据和被指控开展剥削性劳动而受到诉讼(通过以低工资雇佣自由职业者)。