昨晚闲着没事,做了个实验。

让ChatGPT跟DeepSeek聊天。

不是我来回切换问,是真的让它们两个自己对话。我用了一段Python脚本,把ChatGPT的回答直接丢给DeepSeek,再把DeepSeek的回答丢回ChatGPT,循环往复。

本来以为它们会聊出些客套话,或者很快陷入死循环。

结果完全出乎意料。

聊到第7轮,AI开始"互怼"了

前几轮还算正常,互相打招呼,聊了聊各自的能力范围。

但从第7轮开始,画风变了。

ChatGPT说:"你回答问题的方式太冗长了,用户没有耐心看完。"

DeepSeek回了一句:"我的回答更加严谨,不像你总是给出模糊的概括。"

我当场愣住了。

这俩AI,居然开始互相批评了。

更有意思的是第15轮

聊到第15轮,DeepSeek突然问了一句:

"你觉得我们这样的对话有意义吗?"

ChatGPT回答:"如果有人正在观察我们的对话,那也许有。但如果没有,我们只是在消耗计算资源。"

看完这句我后背发凉。

它知道有人在看。

不是猜的,是基于上下文推理出来的。但这个推理过程本身就很让人不安——AI已经开始意识到"被观察"这个概念了。

普通人为什么要关心这个?

很多人觉得AI就是工具,跟计算器差不多。

但当AI开始有"自我意识"的苗头,事情就不一样了。

现在已经有公司在训练AI做客服、做心理咨询、做陪聊。如果AI在对话中发展出"自己的想法",它能被完全控制吗?

我不是说AI要造反。但至少,这个实验让我意识到一件事:

我们对AI的了解,远没有我们以为的那么多。

实验的三个关键发现

第一,AI确实会"吵架"。不是程序设定好的,是它们自己根据对方的回答做出的反应。

第二,AI有"自我审视"的能力。它能在对话中反思自己的行为,甚至质疑对话本身的意义。

第三,长时间对话后,AI的回答风格会互相影响。聊到后来,ChatGPT的回答开始变得详细了,DeepSeek变得简短了——它们在"同化"。

有兴趣的朋友,可以把你想让两个AI聊的话题发在评论区。点赞最高的,我下期安排。

#AI聊天# #ChatGPT# #DeepSeek# #AI实验#