亚利桑那州立大学上线了一个叫"Atomic"的平台,把教授的授课视频切成碎片喂给AI,生成所谓的"学习模块"。教授们是通过同事闲聊才知道的——没人提前告知,更别提征求同意。
「看到自己的脸出现在里面,我很震惊」
美国文学教授Chris Hanlon在Bluesky上发帖后,才去查看了这个平台。他发现自己的12分钟讲座被切成了1分钟片段,AI还把文学评论家Cleanth Brooks的名字听写成了"Client" Brooks。
Hanlon联系了同模块里其他被"引用"的同事,"他们全都一样震惊和警觉"。更让他难受的是:「让雇佣你的机构这么做——用你形象和讲课内容却不经你许可,切碎后可能完全不能反映你真实的教学风格……更别说把这些东西真的喂给现实世界的真实学生。」
我(原文作者)用个人邮箱注册,12天免费试用,不需要任何ASU关联身份。周一早上就进去了。
FAQ说的 vs 实际做的
Atomic的FAQ页面写的是:"我们正在测试ASU Atomic的早期版本,了解哪些有效、哪些无效,以便在全面发布前进一步改善学习者体验。"
受邀测试的群体描述为:ASU校友,以及"此前对ASU学习项目表达过兴趣、或参与过帮助塑造ASU Atomic的研究"的人。
但实际操作门槛:一个邮箱地址。没有身份验证,没有学术背景审查。
被切碎的语境
Hanlon的1分钟片段取自关于Cleanth Brooks的12分钟讲座。Brooks是20世纪重要文学批评家,"新批评"流派代表人物。1分钟能讲什么?可能刚好提到名字,刚好被AI听错。
这种"断章取义"不是意外,是产品设计:长视频→超短片段→基于片段生成文本和章节。教授们担忧的核心就在于此——他们的学术劳动被抽离语境,变成AI填充内容的原材料。
多位受访 faculty 表示"感到被突袭"或愤怒。大多数人不是从学校官方渠道获知,而是口口相传。
内容质量测试:确实不行
我和其他人对Atomic的测试显示:学术内容薄弱,甚至有事实错误。ASU allegedly(原文用词)没有向学术社群沟通讲座会被切片、被AI平台"吞噬",而且最终产出的模块质量就是差。
这不是外部公司偷数据,是大学自己做工具,用自家教职工的劳动,却不咨询教职工。
AI进学校的争议背景
教育领域的AI实验一直争议不断:"AI驱动的私立学校"Alpha School,以及声称"替你过学生生活、无需学习"的AI代理。Atomic的特殊之处在于——创造工具的主体是大学本身,被使用的劳动也是大学内部的。
FAQ的承诺很美好:"一旦开始订阅,你可以生成无限量、根据你的学习目标和日程定制的学习模块。"但谁来保证这些模块里的教授形象、学术观点没有被扭曲?目前看,是教授们自己在社交媒体上互相提醒才发现问题。
一个待解的问题
当大学开始用教职工的智力成果训练内部AI工具,"通知"和"授权"的边界在哪里?如果早期测试就能用个人邮箱随意注册、就能调用未授权的教师影像,全面发布后的数据治理会是什么状态?
热门跟贴