AI 一天,人间一年。近两年来,AI 技术发展迅猛,对我们生活渗透的速度,可以用一日千里形容。从智能家居到自动驾驶,从智能客服到 AI 助手,从写作画图到情感陪伴,高效、便捷的 AI 技术,一点一滴悄然改变着我们的行为,提升着我们的生活质量和工作效率。

打开网易新闻 查看精彩图片

图库版权图片,转载使用可能引发版权纠纷

许多像我一样(天天梦想着不劳而获)的打工人,开始做起了“无痛工作”的白日梦——梦想着能够借助 AI 的力量,在不付出太多努力的情况下完成工作,享受生活。

每月花上两三百块钱开个 AI 会员,实现 50% 以上工作外包,这事搁谁身上没有巨大的诱惑力呢?然而,当我们沉浸在 AI 带来的便利中时,也不得不警惕其可能给使用者带来的负面影响:思维迟钝、产生依赖、行动懒惰。

听到这,有些朋友可能会怀疑,明明 AI 用着那么爽,出活那么快那么好,你这怕不是危言耸听吧?

这还真不是危言耸听。

近两年,有多项研究得出了类似结论,为了让大家兼听则明,下面咱们用“人话”介绍几个 AI 相关的研究以及学者们的结论和建议,请放心,零基础也看得懂。

AI 让人在方向盘上睡着了?

沃顿商学院副教授伊森·莫里克(Ethan Mollick)2024 年 4 月出版了一本书籍,叫《协同智能:与人工智能一起生活和工作》(Co-Intelligence: Living and Working with AI)。

书中介绍了一个实验,莫里克和他的其他同行,请世界顶级咨询公司之一的波士顿咨询集团(BCG)协助负责实施研究,近 800 名波士顿咨询的顾问参与了实验。

这些顾问被随机分为两组,一组按照传统方式正常工作,另一组必须使用 GPT-4(OpenAI 的拳头产品,大语言模型的领先者之一)。

这些顾问在经过人工智能培训后,可以自由执行 BCG 设计的 18 项任务,包括创意任务、分析任务、写作和营销任务、说服力任务等,这些都是正常咨询顾问的工作范围之内的标准任务。

你猜哪组完成得更好?

打开网易新闻 查看精彩图片

图库版权图片,转载使用可能引发版权纠纷

这个答案其实没有悬念——使用了人工智能的那组做得更好。而且这种评判不是主观的(某个领导说你行你就行那种),而是研究者用了 118 次不同的分析,使用人工智能组仍然具有显著优势。

人工智能组的顾问们工作速度更快,更有创意、写得更好、分析能力更强。方方面面都行。

你可能会说:这不是很好吗?

但是研究者发现了一些令人担忧的事——顾问们在使用人工智能来帮助他们完成任务过程中,由于人工智能已经完成了大部分工作,大多数实验参与者只是简单地粘贴他们被问到的问题,然后把人工智能的答案复制到他们的工作结果中。

然后 BCG 又设计了一项任务,这项任务是经过精心挑选的,以确保人工智能无法得出正确的答案——该任务结合了棘手的统计问题和误导性数据。

在没有人工智能帮助的情况下,人类顾问的正确率是 84% ,但当顾问使用人工智能时,只有 60% 到 70% 的正确率。

为什么会这样?

聪明的你肯定也猜到了,顾问们依然像上次一样,仅仅简单地把人工智能的答案复制粘贴下来。这很难归咎于顾问们投机取巧。设想一下,你如果处在这个场景,面前已经有一份看似“完美”的标准答案,很难克制自己不直接使用。

研究者们有个形象的比喻——过于依赖 AI 的顾问们就像趴在方向盘上睡着的司机,因为人工智能太过强大,能较好地完成绝大部分工作,人类不知不觉间给予了 AI 太多信任,但如果问题超出了 AI 的能力,这种信任就可能铸成大错。

AI 将教“会”学生还是教“废”学生?

人工智能在教育行业中正被越来越广泛地使用,而机智的大学生们,已经在第一时间使用各种大模型帮他们完成作业。此外,还有学校或者官方合作的智能体软硬件,以及其他商业公司提供的一些辅助教育产品都层出不穷。关于人工智能对教育领域的研究显然是非常重要且必要的。

去年 6 月,有一项发表在《自然》杂志(Nature)上的研究,就探讨了人工智能对巴基斯坦和中国大学生决策能力丧失、懒惰和隐私问题的影响。

这项研究主要考察了巴基斯坦和中国来自不同大学的 285 名学生的学习情况,数据分析结果表明,人工智能显著影响学生和教师的决策能力,并使学生变得懒惰。此外,还会带来安全和隐私方面的问题。

调查结果显示,人类(参与的教师和学生)68.9% 的懒惰、68.6% 的个人隐私和安全问题、27.7% 的决策失误都是由于人工智能影响。

打开网易新闻 查看精彩图片

图库版权图片,转载使用可能引发版权纠纷

使用人工智能技术的教师和学生会慢慢地、逐渐地失去自己做任务的兴趣,还会逐渐导致人类决策权的丧失。当人工智能的使用和依赖增加时,会自动限制人脑的思维能力。

同时,人工智能的使用,会大幅减少实时物理交互,并会影响学生和教师之间的教育环境。

在真实的环境中,教师和学生之间存在大量的互动,这会发展学生的个性和公民素养,例如,学生可以向其他学生学习,向老师提问,感受同学们之间的反馈等等,光靠 AI 的话全都难以做到。

这项研究认为,在教育中大规模应用人工智能技术之前,需要采取重要的预防措施。在不解决人类主要问题(人性天然具有弱点)的情况下,贸然接受人工智能就像召唤魔鬼一样。建议集中精力合理设计、部署和使用人工智能进行教育来解决这个问题。

用的 AI 越好,招募人才越容易?

AI 还有个常见应用,就是帮助人力资源部门筛选简历,帮助招聘,那么效果究竟怎么样呢?

哈佛商学院创新科学实验室的社会学家法布里奇奥·戴尔阿夸(Fabrizio Dell'Acqua)2022 年发布了一项研究,他聘请了 181 名专业招聘人员来审查 44 份简历。

他把受试者随机分为四组,分别与“能完美预测的人工智能” 、“好人工智能” 、“坏人工智能”、“无人工智能”搭档进行招聘工作。

结果发现,使用高质量人工智能的受试者,对工作申请的评估不太准确,他们在每份简历上花费的时间和精力更少,并且盲目遵循人工智能的建议。随着时间的推移,他们也没有改善。

使用“坏人工智能”的招聘人员会付出更多的努力并花费更多的时间来评估简历,并且不太可能自动选择人工智能推荐的候选人,他们更加警觉、更加挑剔、更加独立。这些招聘人员学会了如何与指定的人工智能更好地互动,并提高了他们的绩效。

这说明高性能人工智能可能会“鼓励”人类多偷懒,把掌舵的方向盘完全交给了人工智能,自己在驾驶员的位置上睡着了。

让 AI 帮助人类向上,人类监督 AI 向善

史蒂芬·霍金曾说过,人工智能的成功创造将是人类历史上最重大的事件。不幸的是,除非我们学会避免风险,否则这也可能是最后一次。

无可否认,我们人类天生具有某些短板,这也是我们之所以为人的重要属性。伟大的科技在开创之初,都是为了弥补或平衡人类的短板,我们最不希望看到的结果——它让我们的短板越来越短。

人工智能技术是为了造福人类而开发的,但从目前看,它并没有实现在某些方面让人类的自身水平提升获益。

我们作为丰富感性的碳基人类,难免偶尔会偷懒,但我们需要认识到,当我们完全信任地把决策权悉数交给一个系统时,这实际上在进行一笔交易,隐藏的成本可能是你内源性的深度思考和技能成长空间。(咳咳咳,此处特别强调给用人工智能“交作业”的一些学生朋友们,小机灵鬼,说的就是你)

当工作中为了提效,和人工智能协作时,我们应该将人工智能视为一个古怪的队友,而不是一个无所不知的仆人。我们得记得检查其谎言和偏见、马虎或遗漏,同时还要权衡其决策的道德性。最重要的,考虑哪些任务值得交给它,哪些任务我们想保留给自己。

毕竟,如果真的让人工智能完全“替自己打工”,那么,未来某一天,砸掉自己饭碗的,不是人工智能,而是你自己。

参考文献

[1]Ahmad SF, Han H, Alam MM, Rehmat MK, Irshad M, Arraño-Muñoz M, Ariza-Montes A. Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun. 2023;10(1):311. doi: 10.1057/s41599-023-01787-8. Epub 2023 Jun 9. PMID: 37325188; PMCID: PMC10251321.

[2]《Co-Intelligence: Living and Working with AI 》 by Ethan Mollick. Published by Portfolio, an imprint of Penguin Random House. Copyright 2024.

[3]《alling Asleep at the Wheel: Human/AI Collaboration in a Field Experiment on HR Recruiters》, Fabrizio Dell’Acqua , Laboratory for Innovation Science, Harvard Business School

策划制作

作者丨木木 北京师范大学数学专业 资深产品经理 人工智能创业者

审核丨于旸 腾讯玄武实验室负责人

策划丨丁崝

责编丨丁崝

审校丨徐来、林林