华人留学生吐槽:

没用AI却被判作弊

近日,澳洲工业和科学部长Ed Husic本周表示,政府可能在被视为高风险的领域实施对人工智能的禁令。

打开网易新闻 查看精彩图片

Albanese 政府正在考虑禁止人工智能和自动决策在高风险行业的使用,并警告潜在的危害,包括创建 deepfakes 和算法偏差。

周四,工业和科学部长 Ed Husic 发布了国家科学技术委员会关于新兴技术的报告以及关于如何实现安全和负责任人工智能的讨论文件。

生成式 AI,其中 AI 创建文本、图像、音频和代码等新内容近期有所激增,

虽然大学和教育当局正在努力应对新技术在学生作弊中的应用,但行业部门的讨论文件警告说,人工智能具有一系列“潜在的有害目的”。

打开网易新闻 查看精彩图片

其中包括生成 deepfakes 以影响民主进程或引起其他欺骗信息,制造和传播错误信息和虚假信息等,

“算法偏差通常被认为是人工智能最大的风险或危险之一。”

该文件还指出了人工智能的积极应用,例如分析医学图像、提高建筑安全性和节省提供法律服务的成本。

NSTC 的报告发现,“生成人工智能资源集中在少数大型跨国公司和主要位于美国的科技公司中,对澳大利亚构成潜在风险”。

虽然澳大利亚在计算机视觉和机器人技术方面具有一定优势,但由于门槛高,其在大型语言模型及相关领域的核心基础能力相对薄弱。

打开网易新闻 查看精彩图片

该文件列出了来自世界各地的一系列回应:从新加坡的自愿做法到欧盟和加拿大的加强监管。

“国际上正在朝着基于风险的人工智能治理方法发展。”

该报称,政府将确保有适当的保障措施,尤其是针对人工智能和自动决策的高风险应用”。

在最近,澳媒报道称,当李佳(音译)通过一个用于检测人工智能生成的内容的计算机程序来处理大学论文草稿时,它得出的结论是,有一半以上可能是机器编写的。

打开网易新闻 查看精彩图片

该程序标记了国际学生用中文写的句子,然后用电脑翻译成英文,还有她自己用英文写的其他句子。

“这是我自己的作品,但程序说它是人工智能生成的。”

李女士之所以使用检测器,是因为她所在的大学已经开始使用类似的工具来标记可能使用文本生成人工智能程序作弊的学生。

打开网易新闻 查看精彩图片

“我知道其他被发现有不当行为的学生。”李女士说。

她是澳大利亚众多在中国社交媒体上发帖称担心检测人工智能生成文本的工具不可靠并可能导致他们被诬告作弊的国际学生之一。

诸如 ChatGPT 之类的生成式 AI 程序迅速出现,这些程序能够生成大学论文等材料,一些学生已经能够冒充自己的作品,这让大学争先恐后地做出回应。

一些人已经开始使用检测 AI 生成的文本的工具作为一种获取可能由机器编写的作业的方法。

打开网易新闻 查看精彩图片

但 AI 专家表示,该技术可能不准确,一些人认为检测器不应该用于监控学生评估。

墨尔本大学的中国留学生苏菲表示,她最近的一项作业被 Turnitin 标记为 30% 可能是机器编写的。

“我认为 Turnitin 的 AI 检查功能目前还没有得到很好的开发。”

她说她没有使用任何修改语法、翻译或人工智能文本生成工具来写这篇文章,大学应该等到该工具更加准确后再使用它。

“我的许多朋友不得不购买 Turnitin 来预先检查他们的作业。”

“人工智能探测器的使用对我们的研究产生了巨大影响。”

墨尔本大学发言人表示,Turnitin 的新工具只是进一步调查的提示,学生提交的所有作业必须是他们自己的。

打开网易新闻 查看精彩图片

该大学的网站称,它正在被使用,“这样我们就可以对其进行彻底测试,并积极为 Turnitin 的设计提供意见”。

“这可能意味着该工具错误地将一些评估识别为由 AI 生成,而实际上它们并没有。”该网站说。

“如果你被要求讨论或解释评估任务的组成部分,请理解,并不一定是对学术不端行为的指控。”

Turnitin 的亚太地区副总裁 James Thorley 表示,该公司正在努力将错误结果的数量保持在尽可能低的水平。

“这是一个令人难以置信的新领域。我们正在学习,我们将根据我们所看到的进行调整和改变。”

打开网易新闻 查看精彩图片

在上周发布的一份声明中,Turnitin 的首席产品官 Annie Chechitelli 表示,该公司现在已经对 AI 书写检测工具进行了多项更改。

迪肯大学近日表示,暂时不用Turnitin 的AI检测工具。

而UNSW则表示,仅靠这一项检测不会得出学生有学术不端行为的结论。

来源:https://www.theguardian.com/technology/2023/jun/01/australian-government-considers-ban-on-high-risk-uses-of-ai-such-as-deepfakes-and-algorithmic-bias