一份针对600名高中生的调查显示,84%的人承认用生成式AI完成过学校作业。这个数字让兼职教了多年大学地球科学课的Ars Technica撰稿人Scott K. Johnson陷入了某种荒诞的困境——他现在的主业是教书,副业是当侦探和检察官。

从"教书的快乐"到"256种灰色地带"

从"教书的快乐"到"256种灰色地带"

Johnson入行是因为喜欢。兼职教授的报酬出了名的低,工作毫无保障,但和学生互动有种让人上瘾的满足感。过去几年他专门教异步在线课程,录播视频代替实时课堂,本身就更难管住学生——不用定时出现在教室里,没人能看见你听不懂时的表情,掉队概率自然飙升。

ChatGPT出现之后,问题变了质。以前没动力学习的学生至少还得"跳过"作业,现在他们能交上一份"作业形状的拟像",而且不费什么力气。Johnson怀念过去那种二元的简单判断:"作弊还是没作弊?"现在他要裁定的是256种灰色地带,还得准备充分的文档,以防学生把评分申诉到各级 institutional review panels(机构审查委员会)。

这种消耗心力的工作占用了他惊人的时间比例。更让他不安的是,那些看起来投入的学生可能也并非表面那样——他们真的理解了这个难点,还是只是比他的检测手段更高明地"洗"了一遍大语言模型的维基百科复读?

作弊工具的"武器代差"

作弊工具的"武器代差"

教师对作弊并不陌生。但Johnson把传统的打小抄、抄维基百科段落比作" quaint stone tools( quaint 的石器工具)",而大语言模型则是WMDs(大规模杀伤性武器)。这个类比背后是一种技术代差带来的无力感:检测手段永远滞后于生成手段,而申诉机制又把教师推向了自证清白的 defensive crouch(防御姿态)。

Johnson没有给出具体的检测成功率或误判案例数字,但他描述了一种系统性损耗——不是某个学生某次作弊被抓,而是整个教学评估体系的信任基础被腐蚀。当84%的学生都在用AI时,"抓作弊"本身就成了一个成本过高的游戏。

谁在这场游戏里真正吃亏

谁在这场游戏里真正吃亏

文章结尾,Johnson把话头转向了学生。他没有展开论证,只是抛出一个判断:在这种环境里,损失最大的其实是学生自己。

这个开放式结尾留下了一个问题——如果AI让完成作业变得如此容易,那么"学习"这件事的回报机制本身是不是已经坏了?当84%的人都在走捷径,那20%还愿意绕远路的人,究竟是在坚持什么,又会在什么时候放弃?