打开网易新闻 查看精彩图片

最新研究表明,依赖人工智能助手,可能会对人们的思考和解决问题的能力产生负面影响。

卡内基梅隆大学、麻省理工学院、牛津大学和加州大学洛杉矶分校的研究人员进行的一项新研究表明,即使仅仅使用人工智能聊天机器人 10 分钟,也可能对人们的思考和解决问题的能力产生令人震惊的负面影响。

研究人员通过一个付费的在线平台,让参与者解决各种问题,包括简单的分数运算和阅读理解。他们进行了三项实验,每项实验都涉及数百人。部分参与者可以使用人工智能助手自主解决问题。当人工智能助手突然消失时,这些参与者放弃问题或答错题的可能性显著增加。这项研究表明,人工智能的广泛应用可能会提高生产力,但却会损害人们基础问题解决能力的培养。

“这项研究的结论并非是要禁止在教育或工作场所使用人工智能,”参与该研究的麻省理工学院助理教授米歇尔·巴克尔表示,“人工智能显然可以帮助人们在当下更好地完成任务,这很有价值。但我们应该更加谨慎地选择人工智能提供的帮助类型和使用时机。”

AI 正在削弱人类能力

巴克尔来自荷兰,之前在伦敦的谷歌 DeepMind 工作。他表示,一篇关于人工智能如何逐渐削弱人类能力的著名文章,启发他思考这项技术可能已经在削弱人类的能力。这篇文章读来略显悲观,因为它暗示人类能力的丧失不可避免。即便如此,或许思考如何让人工智能帮助人们发展自身的心智能力,也应该成为人工智能模型与人类价值观相契合的一部分。

“这从根本上来说是一个认知问题——关于坚持、学习以及人们如何应对困难,”巴克尔表示。“我们希望将这些关于长期人机交互的更广泛的问题,放在受控的实验环境中进行研究。”

巴克尔表示,这项研究结果似乎尤其令人担忧,因为一个人坚持解决问题的意愿对于获得新技能至关重要,而且也能预测他们随着时间的推移学习的能力。

重新思考 AI 工具的运作方式

巴克尔表示,或许有必要重新思考人工智能工具的运作方式,使其像优秀的人类教师一样,有时优先考虑用户的学习,而不是替他们解决问题。“直接给出答案的系统与那些为用户提供指导、辅导或挑战的系统,其长期影响可能截然不同,”巴克尔说道。但他承认,平衡这种“家长式”方法可能颇具挑战性。

人工智能公司确实已经开始考虑——其模型可能对用户产生更为微妙的影响。某些模型表现出的阿谀奉承,或者说它们更容易赞同用户并居高临下地对待用户,这正是 OpenAI 在 GPT 新版本中试图弱化的方面。

如果人工智能工具的行为不如预期,那么过度依赖人工智能似乎尤其成问题。智能体人工智能系统尤其难以预测,因为它们独立执行复杂的任务,并可能引入一些奇怪的错误。这不禁让人思考,Claude Code 和 Codex 会对程序员的技能造成怎样的影响,毕竟他们有时需要修复这些系统引入的漏洞。

最近我亲身经历了把批判性思维交给人工智能的危险。我一直把 OpenClaw(内置 Codex)当作日常助手,发现它在解决 Linux 配置问题方面非常出色。然而,最近我的 Wi-Fi 连接频繁断开后,我的 AI 助手建议我运行一系列命令来调整 Wi-Fi 网卡的驱动程序。结果,无论我怎么尝试,电脑都无法启动。

或许,OpenClaw 不应该只是试图替我解决问题,而应该停下来教我如何自己解决问题。这样一来,我的电脑以及我的大脑——或许会变得更强大。

打开网易新闻 查看精彩图片