2018 年,Johnny 在伊利诺伊大学厄巴纳-香槟分校开始他的计算机工程本科课程时,全世界从未听说过 ChatGPT。当时公众对辅助人工智能(AI)的了解是,该技术能为讲笑话的智能扬声器或智能手机助手提供帮助。

但是,Johnny 观察到,到 2023 年的最后一学年,走在校园里很难不瞥见生成式 AI 聊天机器人出现在同学的电子屏幕。

“我正在为我的课程和考试而学习,当我在图书馆里走来走去时,我注意到很多学生都在使用 ChatGPT,”现在是加州斯坦福大学硕士生的 Johnny 表示。他研究计算机科学和人工智能,“学生们到处都在使用它。”

ChatGPT 是过去两年大受欢迎的大型语言模型 (LLM) 工具的一个例子。这些工具的工作原理是以书面提示或问题的形式获取用户输入,使用互联网作为其知识目录,生成类似人类的响应。因此,当前生成式人工智能能够根据已获取的信息生成新数据。

然而,这些新生成的数据——从艺术作品到大学论文——往往缺乏准确性和创造性,这给教育工作者敲响了警钟。在整个学术界,一些大学已经迅速禁止在课堂上使用人工智能工具,以打击抄袭和错误信息的冲击。但另一种意见是,人们告诫学术界,不要做出这种未经检验的下意识反应。

斯坦福大学数据交互和 STEM 教学实验室负责人 Victor Lee 表示,数据表明,随着 ChatGPT 和其他人工智能工具的推出,中学的作弊水平并没有增加。他说,教育工作者面临的部分问题是人工智能带来的快节奏变化。这些变化可能看起来令人生畏,但它们并非没有好处。

Victor 说,教育工作者必须重新思考学生使用“静态信息”“精心制作”的书面作业模式。“这意味着我们的许多教学实践都需要改变——但发展如此之多,以至于很难跟踪最先进的技术。”

尽管存在这些挑战,Johnny 和其他学生认为,全面禁止人工智能正在剥夺学生潜在的革命性教育工具。“在与讲师交谈时,我注意到教育工作者认为学生使用 ChatGPT 所做的事情,与学生实际做的事情之间存在差距,” Johnny 说。例如,学生可以使用人工智能工具,根据视频讲座制作抽认卡,而不是要求人工智能撰写期末论文。“[过去校园里]有很多讨论,但总是没有学生的沟通参与。”

但在过去的一年里,美国、印度和泰国的活动中,学生们开始发言,分享他们对人工智能工具在教育领域的未来的看法。尽管许多学生看到了好处,但仍然有意见表示,他们担心人工智能会损害高等教育。

增强教育

Leo 是加利福尼亚州旧金山的学生,他与人共同创立了一个学生团体。Leo 和他的同事将印度海得拉巴和旧金山的学生和教育工作者聚集在一起,进行小组讨论和黑客马拉松,并收集人工智能如何辅助学习的真实例子。

从这些讨论中,学生们认为人工智能可以用来打破现有的学习模式,使具有不同学习风格或面临语言障碍的学生更容易获得知识。例如,Leo 说,学生们分享了关于使用多种人工智能工具总结讲座或研究论文,然后将内容转化为视频或图像集合的故事。其他人则使用人工智能将实验室课程中收集的数据点,转换为直观的可视化图像。

对于用第二语言学习的人来说,Leo 说,“语言障碍会阻止学生充分交流思想”。他说,使用人工智能将这些学生的原始想法或用他们的第一语言撰写的草稿翻译成英语论文,可能是解决这个问题的一种方法。但他承认,如果学生依靠人工智能来产生想法,而人工智能返回不准确的翻译和不完整的论文,这种做法很容易成为问题。

去年11月,泰国的学生 Jomchai 和Warisa 在联合国教科文组织亚太地区生成式人工智能与教育圆桌会议上发表了他们的观点。他们认为,人工智能可以扮演自定义导师的角色,为学生提供即时反馈。

“即时反馈通过使学生能够识别并及时纠正错误,提高他们的理解力和表现,来促进迭代学习”。“此外,实时人工智能算法可以监控学生的进度,确定需要发展的领域,并建议相关的课程材料。”

私人导师可以提供相同的学习支持,但一些人工智能工具提供了免费的替代方案,可能会为低收入学生提供公平的竞争环境。

尽管可能有好处,但学生们也对使用人工智能如何对他们的教育和研究产生负面影响表示警惕。ChatGPT 因“幻觉”而臭名昭著——产生不正确的信息,但自信地将其断言为事实。在宾夕法尼亚州匹兹堡的卡内基梅隆大学,物理学家鲁珀特·克罗夫特(Rupert Croft)与物理学研究生帕特里克·肖(Patrick Shaw)和耶苏赫·贾格瓦拉尔(Yesukhei Jagvaral)一起主持了一场关于负责任人工智能的研讨会,讨论人工智能在自然科学中的作用。

“在科学中,我们试图提出可测试的东西 - 为了测试事物,你需要能够复制它们,”Croft 说。但是,他解释说,很难知道人工智能是否可重现,因为这些软件操作通常是一个黑匣子。“如果你问[ChatGPT]三次,你会得到三个不同的答案,因为有随机性。”

而且由于人工智能系统容易产生幻觉,并且只能根据他们已经看到的数据给出答案,因此真正的新信息,例如尚未发表的研究,往往超出了他们的掌握范围。

Croft 同意人工智能可以帮助研究人员,例如,通过帮助天文学家在大量数据中找到行星研究目标。 但他强调,在使用这些工具时需要批判性思维。 克罗夫特在研讨会上认为,为了负责任地使用人工智能,研究人员必须了解人工智能得出结论的推理来源。 仅仅依赖一个工具来获得答案是不负责任的。

“我们已经在科学探究中处于我们理解的边缘”,Shaw 说。“然后你试图用一个我们几乎不理解的工具——来学习一些关于我们几乎不理解的东西。

这些课程也适用于本科科学教育,但 Shaw 说,他还没有看到人工智能在他教授的课程中发挥重要作用。他认为,归根结底,像ChatGPT这样的人工智能工具“是语言模型——它们在定量推理方面真的非常糟糕”。

Shaw 表示,当学生在他们的物理问题上使用人工智能时,这是显而易见的,因为它们更有可能在整个过程中出现不正确的解决方案或不一致的逻辑。但随着人工智能工具的迭代,这些信息可能变得更加难以检测。

Jomchai 和 Warisa 表示,他们从联合国教科文组织圆桌会议中学到的最大教训之一是,人工智能是一把“双刃剑”。他们称,虽然 AI 工具可能有助于学习的某些方面,但学生应该警惕过度依赖技术,这可能会减少人际互动以及学习和成长的机会。

“在我们看来,人工智能在帮助学生学习方面有很大的潜力,并且可以改善学生的学习曲线”。但同时,“这项技术应该只用于协助教师或作为辅助工具”,而不是作为主要的教学方法。

平等机会

Tamara 是加拿大蒙特利尔麦吉尔大学的硕士生,主修人工智能和机器人技术的伦理学。她说,学生还应该仔细考虑人工智能工具造成的隐私问题和不平等。

她认为,一些学者避免使用某些人工智能系统,因为担心人工智能公司会滥用或出售用户数据。Tamara 指出,如果知识或对这些工具的获取不平等,人工智能的广泛使用可能会在学生之间造成“不公正的差异”。

“有些学生非常清楚人工智能的存在,而另一些学生则了解,” Tamara 说。“有些学生可以支付订阅人工智能的费用,而另一些学生则买不起。”

Jonny 则认为,解决这些问题的一种方法是尽早让学生和教育工作者理解人工智能的缺陷及让其负责任地使用。“学生们已经在学校通过 Snapchat 等[集成应用程序]访问这些工具了。

其表示,除了解幻觉和不准确之处外,还应该向学生说明人工智能如何延续社会中已发现的偏见,例如歧视来自代表性不足群体的人。人工智能的黑匣子性质加剧了这些问题——通常,即使是构建这些工具的工程师,也不知道人工智能是如何做出决定的。

除人工智能素养外,Vitor 表示,积极、明确的人工智能使用指南将是关键。在一些大学,学者们正在自己划定这些界限,一些大学禁止在某些课程中使用人工智能工具,而另一些大学则要求学生在作业中使用人工智能。科学期刊在撰写论文和同行评审时,也正在实施人工智能使用指南,从彻底禁止到强调透明使用。

Vitor 表示,教师应该清楚地与学生沟通人工智能何时可以、何时不能用于作业,重要的是——教师要表明这些决定背后的原因。“我们还需要学生坚持诚实和披露使用情况——对于某些作业,我完全可以接受学生使用人工智能,但我希望他们披露它并清楚是他们是如何使用这些工具的。”

例如,Vitor 表示,他同意学生在数字制造等课程中使用人工智能——人工智能生成的图像用于激光切割任务,或探索人工智能风险和收益的学习理论课程。

就目前而言,人工智能在教育中的应用,是一个不断变化的过程,其使用的最佳实践将与其应用的主题一样多样化和具备差异。纳入学生的声音对于帮助高等教育从业者确定这些界限应该在哪里,并确保公平和有益地使用人工智能工具至关重要。毕竟,这些工具和技术不会消失。

“完全禁止在学术环境中使用人工智能是不可能的,” Tamara 说。“相比起禁止人工智能,更重要的是重新思考如何更好应用它们。

其他阅读

打开网易新闻 查看精彩图片