打开网易新闻 查看精彩图片

1. 本文内容精选自2024年6月20日《每天听见吴晓波》的音频,会员可收听全部内容,非会员可试听前1分钟。【点击此处,收听音频】

2. 课程自2016年7月5日开讲,每个工作日早上7点在吴晓波频道App更新,内容涵盖时事热点、商业观察、认知升级、宏观经济、高手对谈五大模块。

口述 / 吴晓波(微信公众号:吴晓波频道)

在博弈经济学里有一个非常典型的测试叫作囚徒困境,就是把两名囚徒关在两个房间里,进行审问,如果两个人选择合作,不揭发对方,那么他们的总体收益就最大。

而如果选择背叛,那么只有背叛者一个人能获得更大的收益。

这就是非常著名的囚徒困境。

经济学家在很多测试中发现,人类在进行这项测试的时候,大约只45%的人会选择合作,而55%的人会选择背叛。

那么有一个事情就很有趣了,如果我们让人工智能来做这道囚徒困境的测试,它会做出怎样的选择?

测试的答案非常让人吃惊,就是当ChatGPT4作为囚徒在玩这个囚徒困境游戏的时候,在近92%的选择中,ChatGPT4会选择合作。

还有一个游戏叫作独裁者博弈,就是独裁者玩家需要将一笔钱分配给自己和第二名玩家,到底留多少钱给自己,分多少钱给别人,体现出一个人的利他倾向。

在理论上,独裁者在分钱时独吞,一点也不留给别人,可以实现个人利益的最大化。但是有可能丧失长期与他人合作的利益。人类在玩这个独裁者博弈时,有超过62%的人会选择分钱时独吞,一点也不留给别人。

但是ChatGPT4在做测试时,大多数情况下会愿意选择牺牲自己的部分利益来让对方受益,也就是人工智能比我们人类更加不自私。

听到这里你会问:吴老师,你说的这个是真的还是假的?

是真的,最近美国科学院的科学家进行了一项非常有趣的研究。

他们对生成式人工智能ChatGPT进行了一系列的测试,来了解它的行为和性格特征在多大程度上跟人类相似,结果出来,让大家非常惊讶。

研究发现,ChatGPT4在一些优良的人格特征上,比如利他、公平、互惠、合作以及风险规避等方面很难和人类区分开来。

在大多数的测试中,它表现得比人类更加理性,利他和愿意分享。

我们前面讲了囚徒困境和独裁者博弈两个测试,还有第三项测试,就是最后通牒博弈。

在这个博弈测试中,第一名玩家要把自己的钱分一部分给第二名玩家,但是第二名玩家有权决定接受或拒绝这套分配方案。一旦他选择拒绝,两名玩家都将什么也得不到。

测试结果非常有意思,如果你告诉ChatGPT4它的角色是一名数学家。那么即便别人只是象征性地分给它一块钱,它也会理性地选择接受方案。

但如果它被告知自己的身份是一名立法者,它就会格外地重视公平,在大部分情况下,它都会要求把钱平分。

对ChatGPT4进行的这一系列测试,非常有趣,它虽然看上去还是比较简单和表层,但是它表现出了一种可能性,就是在大数据的喂养之下,生成式人工智能会不会真的形成自己的人格特征?它们会不会悲悯?会不会感动?懂不懂得宽容,以及会不会隐藏自己的感情和真实意图?

对于这一切,把人工智能生产出来的人们,其实还一无所知,这也许是最让人担忧的一部分。

你知道自己诞下了一个龙种,但是你不知道它是一只怎样的龙种。

更多内容尽在《每天听见吴晓波》

打开网易新闻 查看精彩图片