!!其实就是编不下去了。

!!卡情节了,倒不是我瞎编不出来,而是量子力学太反直觉。在尝试将量子力学的方法应用到宏观世界的过程中,巨大的计算工作让人绝望。

所以扯点别的,扯点关于大模型的。扯点最近使用AI大模型的感受和个人观点。

当前的LLM AI 大模型的应用场景是语言类服务。最初我认为大模型最大的应用场景是“沟通无障碍”。不管是哪国人,说着哪种语言的陌生人,都可以在大模型的帮助下无障碍的沟通。

但现实并非如此,我低估了语言的力量和文化的隔阂。就算不提大模型越来越严重的幻觉导致的词不达意,错漏百出,不同语种间的人依然困在母语的牢笼之内。

为什么会这样的?是因为社交媒体接入的大模型没有提供翻译服务吗?是因为大模型的翻译功能依然差强人意吗?

似乎并非如此,社交媒体的翻译功能早在大模型出现之前就已经接入。使用大模型的翻译质量已经非常接近人工翻译的水平。虽然大部分时候离“信雅达”还有些距离,但比非专业人员还是强了那么一丢丢的。我有玩过一个游戏,这个游戏里的聊天室就内嵌了实时翻译功能,不管聊天室里的人用哪国语言。在你的终端都是以简体中文显示。虽然大部分的俚语翻译结果都很奇怪,但并不妨碍聊天室里的人谈天说地。从技术上来说,语言早就不应该成为认知世界的障碍了。

既然语言已经不是问题,为什么我们还是被困在母语的牢笼之内?

第一个原因是渠道。在茫茫人海中,一个人要结识另一个人,需要机缘和平台。以前人们天真的认为互联网会给我们提供这个平台,结果平台推荐算法只给你喂与你使用同种语言的内容。甚至于只给你喂与你发表的观点类似的po。最终的结果就是在互联网这大网下,认知空间反而越来越小了。

第二个是认同,这也是最主要的原因,也是推荐算法慢慢将一个人的认知越箍越紧的根本原因。相同的语言和文化环境往往产生最愿意接收的信息,源于与自身的息息相关,源于多巴胺,源于孤独的空虚。在互联网的完播率,点击率这种绩效刺激下,催生出的推荐算法让人迷失在“原来世界都是草台班子,全世界都不过如此”的解脱或是是而非的自我满足中。最终将每个独立的各体禁锢在看似了然一切的茧中。最终丢失主动性,只接收那些喜欢看的,甚至是别人让你看到的内容。这也是骗子们最容易得手的切入点,先用共同话题获取认同和信任;然后通过偷换概念或不断的暗示骗取财物。

最终,AI和互联网并没有让我们的眼界更广阔,思维更有深度;恰恰相反,束缚认知的茧更密了,认知的空间更狭小了。生长在互联网时代的90后,00后,10后们,对于世界,对于过去,对于超过周身半寸之外的世界真的比60,70后了解的更多,更真实吗?不见得吧?如果事实如此,他们视角中的方寸又是什么样的呢?当他们不得不走出方寸的时候又能否够抗住那如山海般的失落呢?纯属发散,与我无关。

还是来聊AI吧。

现在的LLM依赖的神经网络,根本上就是一堆用训练进行拟合的量子点。在训练发生之前,我们甚至不确切的清楚某个神经元被赋予了随机数池的哪一个值。经过训练之后,每个神经网络中的神经元与训练内容中的各个信息元产生强耦合。当我们向LLM发起交互时,这个巨大的网络将那些在概率上,与我们的输入最契合的信息元组合起来,最终组织成给我们的回复。

从简化的视角来看,LLM和量子力学当前的理论很相似。一个未经训练的LLM就是一团量子云,每个量子的状态是未知的。训练就是用观察者信息让量子云中的量子坍缩当观察者的输入信息足够多,量子云完全坍缩之后,就不在呈现整体的量子状态而表现出宏观视角下的确定结果。下降梯度,激励机制自然就是加速这一过程的催化剂。

那么问题来了,正如量子并非总是表现出人们期望的,或者计算的结果相符的特性。(量子世界的观察结果往往以概率的不确定性出现。甚至于为了发现隐藏在概率之下的微弱变化,衍生出了弱观察这种在误差的边缘寻找现象的理论。)LLM的输出也会出现游离在正态分布之外的错误,误导,甚至瞎编的结果。当然LLM训练样本和资料库(互联网)中的错误,虚假信息越多,AI幻觉出现的概率也就越高。

一个真实的例子来自于人体免疫系统是否可以消灭癌细胞?

AI给出的回答是:

简单来说:是的,人体的免疫系统每天都在识别并尝试消灭癌细胞

这种机制被称为“免疫监视” (Immune Surveillance)。在健康人体内,细胞分裂时偶尔会产生变异,其中一些变异可能导致细胞癌变,但免疫系统通常能在这些细胞形成临床可见的肿瘤之前,就将其精准清除。

事实如此吗?

我们继续问:为什么癌症的自愈率这么低呢?

AI会回答:

虽然免疫系统很强大,但癌细胞具有极强的“进化”和“伪装”能力,这就是为什么癌症仍会发生的原因:

  1. 释放干扰素: 癌细胞会释放一些化学物质,让周围的免疫细胞“昏昏欲睡”或失去攻击力。
  2. 物理屏蔽: 肿瘤可以产生厚厚的结缔组织(基质),像围墙一样把免疫细胞挡在外面。
  3. 假情报(免疫检查点): 癌细胞会在表面表达 PD-L1 蛋白,这相当于给T细胞展示一张“免死金牌”。当T细胞接触到这个信号时,攻击行为会被强制锁定(就像刹车一样)。

你看,癌症之所以难以治愈就是因为癌细胞具备这些抵抗或者骗过免疫系统的手段。AI给出的答案就是免疫系统能对抗癌细胞,但是它做不到或者无法识别癌细胞。这不是明显的前后矛盾吗?臣妾想但是臣妾做不到?

癌细胞能够抵抗或者骗过免疫系统不正是癌细胞的特征吗?如果你卖弄了AI的第一个回答,那么大概率你不适合当医生。

当前除了放疗,化疗之外治疗癌症的方法,也是最新的医学尝试是怎么做的呢?

靶向治疗,破坏癌细胞无限增生的生长环境。如:EGFR 抑制剂。

免疫疗法,破除癌细胞的伪装。如:免疫检查点抑制剂 (PD-1/PD-L1)。

如果上面讲的是AI不可靠,那么下面就是AI的局限。

1 记忆丢失或称之为“灾难性遗忘”。

我不止一次的发现,AI无法记住你交代它要记住的任何事。不管你和AI之前谈过什么,给它说明过多少遍基础设定。它都会在后续的对话中忘记这些设定。我尝试过在同一个对话中预埋一个设定,然后在这个对话的某个阶段LLM会出现违反设定的内容。

2 固有信息依赖,不管是对的还是错的信息依赖。

之前的内容对于折跃技术进行过简单的讨论,结论是以当前的科技和理论水平,人类完全无法实现空间折跃。但是当以此为基础与LLM进行探讨时,它总是不自觉的出现折跃这种星际航行方法。我一再进行纠正后,问LLM为什么它会一再的出现这种讨论议题之外的技术?LLM的回答是:它检索和训练内容中关于星际航行的部分,绝大多数都使用的是曲率和折跃技术。事实是这是一个先有幻想然后才由理论物理学家得出数学可能,而在当前工程水平下完全无法实现的技术。

3 固定的模式。

如果你看多了LLM创作的文字,你回发现都是一个味。以至于我现在只要看一眼文案就知道是不是AI创作的。

4 无法创新,或者说无法计算新的变量。

虚构的文学作品总是会在需要的时候,引入新的人物,或者情节的转折。但如果你让AI一直持续的书写一个议题,它无法创造出一个新的任务或者一个转折。AI创作的文字不是像流水账,而是就是流水账。看似细腻,实则如八股一般。

5 无法书写连续长文。

有人会说这是因为你用的AI不够好。实际上越好的AI越会限制长文理解。为什么?因为成本,越多的要素意味着越多的上下文关联,也就意味着越多的token请求。体积越大的LLM,对于长上下文的关联检索越多,意味着越多的计算量,越多的电力消耗。据说有公司的程序员在两分钟内花费了47美元用于让AI生成代码片段。

基于以上这些,当前的AI大模型缺乏能体现价值的应用场景。所以运营语言大模型的企业在高投入后,如何找到盈利模式还是一个大问题。这也是资本市场盛行AI经济泡沫担忧的根本原因。

当然,LLM不过是AI技术发展的一个阶段。在专业领域,如:医药,辅助设计等领域,专用AI依然拥有广阔的市场和光明的前景。

关于AI未来的发展方向。

有将灌输督导训练转向经验训练的理论。让AI通过试错积累经验的路径发展出智能。

有AGI,构建逻辑世界模型, AI 不再仅仅学习语言,而是通过视频、物理引擎学习现实世界的物理规律(例如:重力、碰撞、因果关系)。

总之,当前的LLM并不是一个可以完全信任和依赖的工具,还不具备改变世界的能力。但将来拥有无限的可能,AI也如此。