OpenAI 有一种方法可可靠地检测有人使用 ChatGPT 撰写文章或研究论文。尽管人们普遍担心学生使用人工智能作弊,但该公司尚未发布该方法。
据知情人士和《华尔街日报》查看的内部文件显示,该项目在 OpenAI 内部的辩论已经持续了大约两年,已经准备好发布约一年了。其中一位知情人士表示:“只是按下一个按钮的问题。”
在决定该怎么做时,OpenAI 的员工在公司承诺透明度与其吸引和留住用户的愿望之间犹豫不决。该公司对忠实 ChatGPT 用户进行的一项调查发现,近三分之一的用户会因反作弊技术而放弃使用。
OpenAI 的一位女发言人表示,公司担心该工具可能会对非英语母语群体产生不成比例的影响。“我们正在开发的文本水印法在技术上很有前途,但在研究替代方案时,也存在重要风险,”她说。“考虑到所涉及的复杂性以及对 OpenAI 之外更广泛生态系统的可能影响,我们认为我们采取的审慎方法是必要的。”
支持该工具发布的员工,包括参与开发的人员,在内部表示,这些论点与该技术可能带来的好处相比相形见绌。
生成式人工智能可基于单提示,在一秒钟内免费创作一篇完整的文章或研究论文。教师和教授表示,他们们迫切需要帮助来打击滥用行为。
“这是一个巨大的问题,”纽约市高中英语和新闻学教师 Alexa Gutterman 说。“这是我合作的每位教师都谈论过的事情。”
由科技政策非营利组织“民主与技术中心”最近进行的一项调查发现,59%的中学和高中教师确信有些学生使用人工智能来帮助完成学校作业,比前一学年增加了 17 个百分点。
有些老师鼓励学生利用人工智能协助研究,或者就创意提供反馈。问题是,当学生让类似 ChatGPT 的应用程序包办一切,他们甚至都不清楚自己上交的是什么。
去年,犹他大学的政治学教授乔希·麦克兰(Josh McCrain)给学生布置了一个写作任务,任务中夹杂着难以辨认的小字,指示他们要提及蝙蝠侠。要是他们把任务粘贴进 AI,指令就会被融入其中。
果然,有几个学生交上来的论文里莫名地提到了蝙蝠侠。麦克兰正在调整写作任务,更关注 AI 不太熟悉的时事,并恳求学生不要把作业外包给 AI。“这就是我试图让学生明白的要点:你得自己学习这些内容。”他说。
有关水印工具的讨论早于 OpenAI 在 2022 年 11 月推出 ChatGPT 就已开始,并且一直是矛盾的持续根源,知情人士称。该工具由计算机科学教授斯科特·阿罗森(Scott Aaronson)开发,过去两年他在德克萨斯大学请假期间一直在 OpenAI 从事安全方面的工作。
2023 年初,OpenAI 的联合创始人之一约翰·舒尔曼(John Schulman)在共享的谷歌文档中概述了该工具的利弊。随后,OpenAI 的高管们决定在采取进一步行动之前征求各方意见。
在接下来的一年半里,OpenAI 的高管们反复讨论这项技术,并寻求新的数据以帮助决定是否发布它。
2023 年 4 月,OpenAI 委托进行的一项调查显示,全球范围内支持使用人工智能检测工具的人占比为四比一,内部文件显示。
同月,OpenAI 对 ChatGPT 用户进行了调查,发现 69%的人认为作弊检测技术会导致错误指控使用人工智能。近 30%的人表示,如果 ChatGPT 使用了水印而竞争对手没有,他们将减少使用 ChatGPT。
一个反复出现的内部担忧是,反作弊工具可能会损害 ChatGPT 的写作质量。据知情人士透露,OpenAI 今年早些时候进行了一项测试,发现加水印并不会影响 ChatGPT 的性能。
“既然我们知道水印不会降低输出质量,那么我们为没有文字水印辩护的能力就很薄弱,”参与测试的员工在内部文件中得出结论。
6 月初,OpenAI 的高级员工和研究人员再次会面讨论该项目。据知情人士透露,该小组一致认为水印技术效果良好,但去年 ChatGPT 用户调查的结果仍然令人担忧。工作人员表示,公司应该研究其他可能在用户中较少引起争议但尚未证明的方法。
内部文件显示,他们还表示 OpenAI 需要在今年秋季制定一项计划,以改变公众对人工智能透明度以及潜在新法律的看法。
热门跟贴