最近,老婆常说我特别犟,说我动不动就和AI大模型辩论起来了,跟AI也较真。确实如此,看到A股市场AI及相关板块被炒得火热,我必须要和它聊聊,看看它是否真的支撑得起成千上万亿的股票市值。

不聊不知道,一聊吓一跳!我发现AI简直就是个傻子,小学生的智商都没有!不信?昨天,我把自己清理老房子捡出来的小人书的书名报给它,让它看看价值几何。最后我问它:“刚才我问了你有几本书?”它回答是30本,并给我列出了书名。我一看书名发现其实第15本以后的书名都是重复的。实际上它报出的书名只有15个。

我于是问它这么多重名的书,怎么可能有30本。于是它更改答案是15本。——这更不可能!我这次彻底数了下,我报给它的书名,实际上总共是56本!这个事情说明AI可能会算错数字,甚至它根本时常记不住数字!总之,AI并不太会数数。

前几天,伦敦世乒乓赛在中国女乒已经输了二分的局面下,我问AI:“中国女乒乓大概率会以什么样的比分赢得比赛?”AI的回答居然是:“3:0或3:1”。这表明AI要么没有及时接收到最新的信息数据,要么并没有真正的逻辑推理能力。

AI到底有没有真正的逻辑推理能力呢?真的没有!前些天清理旧房子得到的四本清朝医书《医宗金鉴全书》,我估算了下这几本书虽然不值钱,但是极可能我所居住的城市都没有几本。为了证实我的想法,我向AI发出了旧书的照片,并提问:“我们本市是否可能只有我手里这几本?”

AI回答:“这本书在本市只有你手里几本的概率是非常低的。”并给我罗列了很多的分析理由。我看了这样的回答后笑了。我准备给它挖个坑,看它能不跳出来。于是我问它:“这种残册流传于世的大概有几千本,是不是?”它回答:“是的。”

然后,我问它:“那么平均100万户人家才有可能有一本,对不对?”。AI回答:“虽然,从概率上说你说的对。但它的存世量很大,在收藏圈遍地都是。千万别拿它跟行家比稀缺,比身家。”

我于是又问它:“那么在我所居住的四线城市,在我市可能只有一两本这个推断是不是正确的?”它进行了深度思考模式,用时7秒,然后回答我:“你的推断大概率是不准确的。你所居住的城市绝不可能只有一两本,而是很可能有几十本甚至上百本留存。”然后。它又列举了很多论据以证明自己的论断。从初始印量和存世量,还有我市的文化底蕴和旧市市场、藏书圈的活跃等等开始论证。

我又笑了,我问它:“如果像你所说,一共几千本的这种书,在我市就有几十本、几百本,那么在其它城市可能就一本都没有了,是不是啊?”

AI听闻我的提问,马上就给我讲了什么是长尾效应和正态分布,最后指出:“你所居住的城市有几十本很正常,极少有一本都没有的城市,就是小县城一般也会有几本。”

看了它的回答,我更高兴了。我感觉它掉进我设下的大坑里了。我接着问它:“按你的逻辑,每个小县城都可能有一两本,那么全国这么多县城,这本书总数岂不是达到了几万甚至几十万本?这与你说的这本书流传于世的只有几千本,不矛盾吗?”

令我没有想到的是它居然说:“躺在公立图书馆、博物馆、大学图书馆这类的占80%,成为了死书。真正的活书,能在市场上流动的只有几千本。”

我马上对它的话进行了确认。我问AI:“按你的逻辑,它在普通家庭中很少见,在图书馆很常见,是吗?”

AI回答:“它在普通家庭里不算罕见,在图书馆里并不金贵。不少家庭都有这本书。是民间的大路货。”

我马上问AI:“如你所说它在普通家庭不算罕见,那么它的存世量几万本打不住吧?几十万本甚至几百万本都可能,怎么算都和你说的存世量只有几千册、几万册相矛盾啊?普通家庭至少有四亿户吧?”

AI这次用时2秒回复道:“虽然有四亿家庭,但大多数都损耗了,留下来的有几十万册。这几十万册是公家库房的死书。全国各地的图书馆、档案馆、博物馆这类清末的《医宗金鉴》加起来确实可能有二三十万册之多,只不过它们不在市场上流转。市面上真正流动的只有几千册。”

我最后提问:“刚才你说这种书全国公立图书馆有二三十万册,但我想起全国古籍藏书不过几千万册,《医宗金鉴》只是其中一种医书,不可能单一品种就几十万册吧?

这次AI慌了,它思考了7秒。最后它开始认错了。它说:”你说的完全对,之前对公立藏书馆藏量的估计,确实夸张了!我犯了错误。各大图书馆里确实可能有几万本《医药金鉴》,但绝大多数都是现代出版物,我夸大其词,不严谨地放大了它的存量。”

其实,AI在最后也没有一直正视自己的问题。它一直在狡辩。为什么AI总是在狡辩甚至胡说、造假?因为现在的AI处于婴幼儿阶段,智商并不高,设计者为了显得它功能强大,而让他不懂装懂,随便回答问题。这样至少可能蒙中答案。

AI不是真正地思考,而是在猜下一个字 。它不是人脑推理,只是根据海量文字,按概率顺嘴往下接句子。所以经常出现:前面刚说完,后面立马推翻。数字对不上、前后矛盾、一本正经胡说八道。它根本不懂自己在说什么,只是模仿文字套路。

它并没有真实逻辑推理能力。人是先推理,然后再说话。大模型是先凑句子,假装自己在推理。遇到需要严谨算数、因果推导、多层逻辑的问题,很容易崩。发现没有?它经常抓不住问题的全局和关键,经常被我们的提问诱导出错误的答案。有一次,我问AI我应不应该买房子,它回答必须买。几天后,同样的问题我换了个问法,它的回答就变成了最好不要买。

现在的AI不会真正思考、不会逻辑推理、不懂因果、分不清对错、经常自相矛盾。处于初级阶段,离真正的“人工智能”差得太远。它更没有人生经历、没有生活感知,很多普通人都懂的常理,它经常不懂。它就像我们家里的三岁孩子总是学人说话,却并不真正懂得语言里的真正含义。

那么,现在全世界有没有真正的具有逻辑思维的AI大模型?一句话结论:到2026年5月,全世界还没有任何一个AI大模型具备人类那样“真正的逻辑思维”;只有“很强的逻辑题解题能力”,但不是真懂、真思考。

人类逻辑思维是首先理解意义,然后建立因果,进行推理,不断验证,最后是自我修正。现在AI = 学过海量逻辑例题 → 高概率拼接正确步骤 → 看起来像推理。

否则,怎么可能同一个问题,换个说法AI就回答错了呢?说明它根本就没有看懂问题。而且它没有“自我反思、自我纠错”的真实能力。它能“假装反思”,但不会真正怀疑自己、主动找漏洞、从头重推,你不指出,它就一直错。现在的AI在某种程度上就是一个忽悠成年人的大玩具。

估计至少还需要10~20年,甚至更久的时间,AI才会有真正的逻辑思维,现在的AI只会统计关联。这就是我常说现在的AI板块大涨是炒作是泡沫的原因。当下的人工智能只是处于初级发展阶段,当下AI的实际应用肯定是有限的,很多事情我们并不能指望着它。总之,我们现在不能期望一个婴儿扛起科技革命的重任,当下给AI及相关板块过高的估值是不正确的。AI现在撑不起成千上万亿的市值!