文章作者:Edward Zitron

文章编译:Block unicorn

打开网易新闻 查看精彩图片

如果你正在关注加密行业的AI,或是传统互联网的AI,你需要认真思考一下这个行业的未来。文章内容篇幅较为长,如果你没有耐心,可以马上离开。

我在这篇文章中写的内容,并不是为了传播怀疑或“抨击”,而是对我们今天所处的状况及当前道路可能导致的结局进行冷静评估。我相信,人工智能热潮——更确切地说,生成式AI热潮——(正如我之前所说)是不可持续的,最终将会崩溃。我还担心,这场崩溃可能会对大科技公司造成毁灭性打击,严重破坏创业生态系统,并进一步削弱公众对科技行业的支持。

我今天写这篇文章的原因是,现在感觉形势正在迅速变化,多个AI“末日的预兆”已经浮现:OpenAI(匆忙)推出的“o1(代号:草莓)”模型被称为“一场大而愚蠢的魔术”(虚假幻想);传闻OpenAI未来模型(及其他地方)将涨价;Scale AI裁员;以及领导层离开OpenAI。这些都是事情开始崩溃的迹象。

因此,我认为有必要解释当前局势的危机,以及为何我们陷入了幻想破灭的阶段。我想表达对这场运动脆弱性的担忧,以及我们到达这一点的过程中,过度执迷和缺乏方向感,我希望有些人能够做得更好。

此外——也许这是我之前没有充分关注的一点——我想强调AI泡沫破裂可能带来的人类代价。无论是微软和谷歌(以及其他大型生成式AI支持者)逐渐放缓其投资,还是通过削弱公司资源来维持OpenAI和Anthropic(以及他们自己的生成式AI项目),我相信最终结果都是一样的。我担心,成千上万的人将失去工作,科技行业的大部分将意识到,唯一能够永远增长的东西是癌症。

这篇文章不会有太多轻松的内容。我将为你描绘一幅阴暗的画面——不仅是针对那些大型AI玩家,也是针对整个科技行业及其员工——并告诉你为什么我认为这场混乱且具有破坏性的结局比你想象的来得更早。

继续往下,进入思考模式。

生成式AI如何生存?

目前,OpenAI——这个名义上的非营利组织,很快可能转为营利性质——正在以至少1500亿美元的估值进行新一轮融资,预计筹集至少65亿美元,可能高达70亿美元。这轮融资由Josh Kushner的Thrive Capital领投,传闻NVIDIA和苹果也可能参与。如我之前详细分析过的,OpenAI将不得不持续筹集前所未有的巨额资金,才能生存下去。

更糟糕的是,据彭博社报道,OpenAI还正尝试从银行以“循环信贷额度”的形式筹集50亿美元的债务,而循环信贷通常伴随更高的利率。

《The Information》也报道称,OpenAI正与MGX——一个背靠阿联酋、拥有1000亿美元资金的投资基金——进行谈判,寻求投资AI和半导体公司,可能还会从阿布扎比投资局(ADIA)筹集资金。这是一个极其严重的警告信号,因为没有人是自愿向阿联酋或沙特寻求资金的。只有当你需要大量资金且不确定能从其他地方获得时,你才会选择向他们寻求帮助。

附注:正如CNBC所指出的,MGX的创始合作伙伴之一穆巴达拉(Mubadala)持有Anthropic大约5亿美元的股权,这些股权是从FTX破产资产中收购的。可以想象,亚马逊和谷歌对此利益冲突应该感到多么“开心”!

正如我在7月底讨论的那样,OpenAI至少需要筹集30亿美元,甚至更可能是100亿美元,才能维持下去。它预计将在2024年亏损50亿美元,而这个数字可能会随着更复杂的模型需要更多的计算资源和训练数据而继续增加。Anthropic的CEO Dario Amodei预测,未来的模型可能需要高达1000亿美元的训练费用。

顺带一提,这里的“1500亿美元估值”指的是OpenAI为投资者定价公司股份的方式——尽管“股份”这个词在这里其实也有些模糊。例如,在一家普通公司中,以1500亿美元的估值投资15亿美元通常会获得公司“1%”的股份,然而在OpenAI的情况下,事情要复杂得多。

OpenAI今年早些时候曾试图以1000亿美元的估值进行融资,但一些投资者因价格过高而犹豫,部分原因是(引用《The Information》记者Kate Clark和Natasha Mascarenhas的说法)对生成式AI公司估值过高的担忧日益加剧。

为了完成这一轮融资,OpenAI可能会从非营利组织转变为营利性实体,但最令人困惑的部分是投资者实际上获得了什么。《The Information》的Kate Clark报道说,参与这一轮融资的投资者被告知(引用原话)“他们不会因为投资而获得传统的股权...相反,他们获得的是承诺公司利润分成的单位——一旦公司开始盈利,他们就能分到利润”。

尚不清楚转为营利性实体是否能够解决这个问题,因为OpenAI那种奇怪的“非营利组织+营利部门”的公司结构意味着,作为2023年投资的一部分,微软有权获得OpenAI 75%的利润——尽管理论上,转变为营利性结构可能会包含股权。然而,投资OpenAI时你得到的是“利润分成单位”(PPU),而不是股权。正如Jack Raines在Sherwood中写道:“如果你拥有OpenAI的PPU,但公司从未盈利,而且你也无法将其卖给认为OpenAI最终会盈利的人,那么你的PPU就毫无价值。”

上周末,路透社发表了一篇报告称,任何1500亿美元的估值都将“依赖于”OpenAI是否能够重新调整其整个公司结构,并在此过程中解除对投资者利润的上限,该上限目前限制为原始投资额的100倍。这个利润上限是在2019年设立的,当时OpenAI表示,超出这一上限的任何利润都将“返还给非营利组织,以造福人类”。近年来,公司已经修改了这一规则,允许从2025年起,每年将利润上限提高20%。

鉴于OpenAI现有与微软的利润分享协议——更不用提其深陷的巨额亏损——任何回报在最好的情况下都是理论上的。冒着显得轻率的风险说一句,即使涨了500%,零再怎么增加,最终还是零。

路透社还补充道,任何转为营利性结构(从而使其估值高于最近的800亿美元)都会迫使OpenAI重新与现有投资者谈判,因为他们的股份将被稀释。

另据报道,《金融时报》指出,投资者必须“签署一份运营协议,该协议声明:‘应将对[OpenAI的营利子公司]的任何投资视为捐赠的精神’并且OpenAI‘可能永远无法盈利’。”这样的条款确实非常疯狂,任何投资OpenAI的人如果因此遭遇糟糕的后果,都完全是自作自受,因为这是一次极其荒唐的投资。

实际上,投资者并没有获得OpenAI的一部分股权,或对OpenAI的任何控制权,而只是获得了一家每年亏损超过50亿美元、而且很可能在2025年亏损更多(如果它能撑到那时的话)公司未来利润的股份。

OpenAI的模型和产品——稍后我们会讨论它们的实用性——在运营上极其不盈利。《The Information》报道称,OpenAI将在2024年支付微软约40亿美元的费用来支持ChatGPT及其底层模型,而这已经是微软为其提供的每小时每GPU 1.30美元的折扣价,相比之下,其他客户的常规费用是每小时3.40美元到4美元。这意味着,如果没有与微软的深度合作,OpenAI每年在服务器上的支出可能高达60亿美元——这还不包括如员工成本(每年15亿美元)等其他开销。而且,正如我之前讨论过的,训练成本目前为每年30亿美元,并且几乎肯定会继续增加。

尽管《The Information》在7月报道OpenAI的年收入为35亿至45亿美元,但《纽约时报》上周报道称,OpenAI的年收入“现已超过20亿美元”,这意味着年底的数据很可能接近该估算范围的低端。

简而言之,OpenAI正在“烧钱”,未来只会烧更多的钱,而为了继续烧钱,它将不得不从签署了“我们可能永远无法盈利”声明的投资者那里筹集资金。

正如我之前写过的,OpenAI的另一个问题在于,生成式AI(扩展到GPT模型和ChatGPT产品)并没有解决那些能够证明其巨额成本合理性的复杂问题。这些模型是基于概率的,这导致了巨大的、难以解决的问题——换句话说,它们什么都不知道,只是在基于训练数据生成答案(或者生成图像、翻译或摘要),而模型开发者正以惊人的速度耗尽这些训练数据。

“幻觉”现象——即模型明确生成了不真实的信息(或者在图像或视频中生成了看起来像是错误的内容)——是无法通过现有的数学工具彻底解决的。尽管可能会减少或缓解幻觉现象,但它的存在使得生成式AI在关键业务应用中难以真正依赖。

即使生成式AI能够解决技术问题,是否真正为业务带来价值也不明确。《The Information》上周报道称,微软365套件的客户(包括Word、Excel、PowerPoint和Outlook等,尤其是许多面向企业的软件包,后者还与微软的咨询服务紧密相关)几乎没有采用其AI驱动的“Copilot”产品。仅有0.1%到1%的440万用户(每人30到50美元)为这些功能付费。一家正在测试AI功能的公司表示:“大多数人目前并不觉得它有太大价值。”其他公司则表示,“许多企业尚未看到生产力和其他方面的突破性提升”,并且他们“也不确定什么时候会有”。

那么,微软为这些并不重要的功能收费多少呢?令人瞠目结舌的是,每位用户每月要额外支付30美元,或者“销售助手”功能的每位用户每月最多要支付50美元。这实际上要求客户在原有费用的基础上再加一倍——顺便提一句,这是按年签订的合同!——而这些产品似乎并没有那么有用。

需要补充一点:微软的问题如此复杂,以至于可能在未来需要专门的新闻内容来讨论。

这就是生成式AI的现状——生产力和商业软件的领军企业竟然找不到一个客户愿意为之付费的产品,部分原因是结果过于平庸,部分原因是成本过于高昂,难以证明其合理性。如果微软需要收取如此高的费用,要么是因为Satya Nadella希望在2030年实现5000亿美元的收入(这一目标是在微软收购动视暴雪的公开听证会上公布的备忘录中透露的),要么是成本太高,无法降低价格,或者两者兼而有之。

然而,几乎所有人都在强调AI的未来将会让我们大为震撼——下一代的大型语言模型近在眼前,它们将会非常惊人。

上周,我们首次真正地窥见了那个所谓的‘未来’。然而,结果却让人大失所望。

一个愚蠢的魔法把戏

OpenAI在周四晚间发布了o1——代号“草莓”——其兴奋程度犹如去看牙医一样平淡无奇。Sam Altman在一系列推文中将o1描述为OpenAI“最强大且最对齐的模型”。尽管他承认o1“仍然存在缺陷,仍然有限,而且在使用一段时间后,它的表现不像初次使用时那样令人印象深刻”,但他承诺o1将在处理那些有明确正确答案的任务(如编程、数学问题或科学问题)时提供更准确的结果。

这本身就非常具有启示性——但我们稍后会详细讨论。首先,让我们谈谈它实际是如何工作的。我将介绍一些新的概念,但我保证不会深入到太过复杂的细节中。如果你真的想阅读OpenAI的解释,可以在他们官方网站的文章中找到——《Learning to Reason with LLMs》。

当面对一个问题时,o1将其分解成单独的步骤——希望这些步骤能最终得出正确答案,这个过程被称为“思维链”(Chain of Thought)。如果将o1视为同一模型的两个部分,理解起来会更容易。

在每一步中,模型的一部分应用强化学习,另一部分(输出结果的部分)根据其进展的正确性(其“推理”步骤)来“奖励”或“惩罚”,并在受到惩罚时调整策略。这与其他大型语言模型的工作方式不同,因为该模型会生成输出,然后回过头来看,而不是仅仅生成一个答案然后直接给出,而是会忽略或认可‘好的’步骤来得出最终答案。

虽然这听起来像是一个重大的突破,甚至是迈向高度赞誉的人工通用智能(AGI)的又一步——但实际上并不是——这可以从OpenAI选择将o1作为独立产品发布,而不是GPT的更新版本中看出来。OpenAI展示的例子——如数学和科学问题——都是答案可以预先知道的任务,这些任务的解答要么正确,要么错误,从而允许模型在每一步中引导“思维链”。

你会注意到,OpenAI没有展示o1模型如何解决那些解答未知的复杂问题,无论是数学问题还是其他问题。OpenAI自己也承认,已经收到反馈,o1比GPT-4o更容易出现“幻觉”,而且相比之前的模型,o1更不愿承认自己没有答案。这是因为,尽管模型中有一个部分负责检查其输出,但这个“检查”部分同样会出现幻觉(有时候AI会编造似乎让人觉得合理的答案,从而产生幻觉)。

据OpenAI称,由于“思维链”机制,o1对人类用户而言也更具说服力。因为o1提供了更详细的答案,人们更倾向于相信其输出,即使这些答案完全是错误的。

如果你觉得我对OpenAI的批评过于严厉,请考虑公司是如何宣传o1的。它将强化训练过程描述为“思考”和“推理”,但实际上它只是在猜测,并且每一步都是在猜测自己猜对了没有,最终的结果往往是可以预先知道的。

这对人类——真正的思考者——是一种侮辱。人类的思考基于一系列复杂的因素:从个人经验、毕生积累的知识到大脑的化学反应。虽然我们在处理复杂问题时也会“猜测”某些步骤是否正确,但我们的猜测是基于具体的事实,而不是像o1那样笨拙的数学运算。

而且,天哪,这代价真不菲。

o1-preview 的定价为每百万输入 token 收费 15 美元,输出 token 收费 60 美元。也就是说,o1 的输入费用是 GPT-4o 的三倍,输出费用是四倍。然而,这其中还有一个隐藏的成本。数据科学家 Max Woolf 指出,OpenAI 的“推理 token”——即用于得出最终答案的输出内容——在 API 中是不可见的。这意味着,o1 的价格不仅更高,其产品本质还要求用户更频繁地支付费用。所有为了“考虑”答案而生成的内容(需要明确的是,这个模型并不是在“思考”)也会被收费,这使得诸如编程等复杂问题的解答可能极其昂贵。

现在让我们来谈谈准确性。在 Hacker News——一个类似 Reddit 的网站,由 Sam Altman 曾创立的公司 Y Combinator 旗下的网站上,有人抱怨 o1 在处理编程任务时,凭空“编造”了不存在的库和函数,并且在回答网上无法轻易找到答案的问题时出现错误。

在 Twitter 上,初创公司创始人兼前游戏开发者 Henrik Kniberg 让 o1 编写一个 Python 程序来计算两个数字的乘积,并预测程序的输出结果。虽然 o1 正确编写了代码(尽管代码可以更简洁,只需一行即可),但实际输出的结果却完全错误。AI 公司创始人 Karthik Kannan 也进行了编程任务测试,o1 还凭空“编造”了一个 API 中不存在的命令。

另一位用户 Sasha Yanshin 试图与 o1 下棋,结果 o1 在棋盘上凭空“创造”了一颗棋子,随后还输掉了棋局。

因为我有点调皮,我也试着问 o1 列出名字中带有“A”的州。它思考了十八秒后,给出了37个州的名字,其中还包括了密西西比州。而正确答案应该是36个州。

当我问它列出名字中带有“W”的州时,它沉思了十一秒,居然把北卡罗来纳和北达科他也包括在内。

我还问 o1,字母“R”在其代号“草莓”(Strawberry)中出现了几次,它回答了两个。

OpenAI 声称 o1 在物理、化学和生物等复杂基准测试中表现得与博士生相当。但显然,它在地理、基础英语语言测试、数学以及编程方面表现欠佳。

值得注意的是,这正是我在之前的通讯中预测的那个“大而愚蠢的魔术”。OpenAI 推出“草莓”只是为了向投资者和公众证明 AI 革命仍在继续,而实际推出的却是一个笨重、无趣且昂贵的模型。

更糟的是,实在很难解释为什么任何人应该在意 o1。尽管 Sam Altman 可能会吹嘘其“推理能力”,但那些有钱继续资助他的人看到的,是10到20秒的等待时间、基本事实准确性的问题以及缺乏任何令人兴奋的新功能。

没人再关心“更好”的答案——他们想要的是一些全新的东西,而我不认为 OpenAI 知道如何实现这一点。Altman 试图通过让 o1“思考”和“推理”来使其拟人化,这显然是在暗示它是通向通用人工智能(AGI)的某种步骤,但即使是最坚定的 AI 拥护者也难以感到兴奋。

事实上,我认为 o1 表明 OpenAI 既绝望又缺乏创意。

价格没有下降,软件也没有变得更有用,而自去年11月以来我们一直听到的“下一代”模型最终却成了一个失败品。这些模型也迫切需要训练数据,以至于几乎每个大型语言模型都吸收了某种受版权保护的内容。这种迫切性使得作为最大的生成视频公司之一的Runway发起了一项“公司范围的努力”,收集了数千个YouTube视频和盗版内容来训练其模型,而8月份的一起联邦诉讼指控NVIDIA也对许多创作者采取了类似做法,以训练其“Cosmos”AI软件。

目前的法律策略基本上就是凭借意志力在硬撑,寄希望于这些诉讼不会达到设定任何法律先例的地步,而这一先例可能会将训练这些模型定义为侵犯版权的行为——这正是最近由版权倡议发起的一项跨学科研究得出的结论。

这些诉讼正在推进,8月份一名法官批准了原告对Stability AI和DeviantArt的进一步版权侵权指控(它们使用了这些模型),同时还批准了对Midjourney的版权和商标侵权指控。如果任何一起诉讼胜诉,将对OpenAI和Anthropic造成灾难性打击,对使用数百万艺术家作品数据集的谷歌和Meta更是如此,因为AI模型“遗忘”训练数据几乎是不可能的,这意味着它们将需要从头开始重新训练,这将耗费数十亿美元,并大大降低它们在执行任务时的效率,而这些任务本身就不是特别擅长。

我深切担忧这个行业的根基如同沙滩上的堡垒。像ChatGPT、Claude、Gemini和Llama这样规模的大型语言模型是不可持续的,似乎没有盈利的途径,因为生成式AI计算密集型的本质决定了训练它们需要花费数亿甚至数十亿美元,并且需要如此大量的训练数据,以至于这些公司实际上是从数百万艺术家和作家那里偷来了数据,并希望能逃脱法律制裁。

即使我们把这些问题搁置一旁,生成式AI及其相关架构也似乎并没有带来任何革命性的突破,且关于生成式AI的炒作循环根本没有真正符合“人工智能”这个术语的含义。生成式AI在最佳情况下,也只是偶尔能够正确生成一些内容,概括文档,或以某种不确定的“更快”速度进行研究。微软为Microsoft 365推出的Copilot声称拥有“成千上万的技能”,为企业提供“无限的可能性”,但其展示的例子无非是生成或总结邮件、“通过提示启动演示文稿”以及查询Excel表格——这些功能或许有用,但绝称不上革命性。

我们并不处于“早期阶段”。自2022年11月以来,大型科技公司在基础设施建设和新兴AI初创企业上的资本支出和投资已经超过了1500亿美元,同时也投入了自身的模型。OpenAI已筹集了130亿美元,可以雇用任何他们想要的人,Anthropic也同样如此。

然而,这场推动生成式AI腾飞的行业版“马歇尔计划”的结果,只是诞生了四五个几乎相同的大型语言模型、全球最不赚钱的初创公司,以及数千个价格高昂但表现平平的集成应用。

生成式AI正在以多重谎言进行推销:

1.它是人工智能。2. 它会变得更好。3.它将成为真正的人工智能。4. 它是势不可挡的。

抛开“性能”这样的术语——它们通常用于描述生成内容的“准确性”或“速度”,而不是技能水平——大型语言模型实际上已经进入了平台期。所谓“更强大”往往并不意味着“能做更多事”,而是意味着“更昂贵”,这意味着你只是创造了一个成本更高但功能没有增加的东西。

如果每一位风险投资家和大型科技巨头的联合力量仍然没有找到一个真正有意义的用例,很多人愿意为之付费,那就说明不会有新的用例出现。大型语言模型——是的,这就是这些数十亿美元去向——不会因为科技巨头和OpenAI再投入1500亿美元就突然变得更有能力。没有人试图让这些东西更高效,或者至少没有人成功做到这一点。如果有人成功了,他们会大肆宣传的。

我们面临的是一种共同的妄想——一种以版权盗窃为基础的死胡同技术(每个时代的技术的产生都会出现这种问题,无法避免),它需要持续不断的资本来维持运行,而提供的服务充其量只是可有可无的,这些服务被伪装成某种实际上并未提供的自动化功能,成本高达数十亿美元,并将继续如此。生成式AI运行的并非金钱(或云计算积分),而是信心。问题在于,信心——就像投资资本一样——是一种有限资源。

我担心的是,我们可能正处于一个类似次贷危机的AI危机中——成千上万的公司将生成式AI整合到其业务中,但价格却远未稳定,且更远未实现盈利。

几乎每一个标榜“AI驱动”的初创公司都基于某种GPT或Claude的组合。这些模型是由两家深陷亏损的公司开发的(Anthropic预计今年亏损27亿美元),它们的定价策略旨在吸引更多客户,而不是盈利。正如之前提到的,OpenAI依赖于微软的资助——包括它获得的“云计算积分”和微软提供的优惠定价——其定价完全依赖于微软作为投资者和服务提供商的持续支持,Anthropic与亚马逊和谷歌的交易也面临类似的问题。

根据它们的亏损情况,我推测,如果OpenAI或Anthropic的定价接近实际成本,那么API调用的价格可能会增加十倍到一百倍,虽然没有实际数据难以准确说明。但我们可以考虑《信息》报道的数字,OpenAI预计2024年在微软的服务器成本将达到40亿美元——我补充一下,这比微软对其他客户的收费便宜两倍半——再加上OpenAI每年仍亏损超过50亿美元。

OpenAI极有可能仅收取了运行其模型所需费用的一小部分,只有在能够不断筹集到比以往更多的风险资金并继续从微软那里获得优惠定价的情况下才能维持现状,而微软最近表示它将OpenAI视为竞争对手。虽然不能确定,但可以合理地认为,Anthropic也从亚马逊网络服务和谷歌云获得了类似的优惠定价。

假设微软给了OpenAI100亿美元的云计算积分,而OpenAI在服务器成本上花费了40亿美元,再加上假设的20亿美元培训费用——这些成本在新的o1和“Orion”模型推出后肯定还会增加——那么OpenAI到2025年可能需要更多的积分,或者开始用实际现金支付给微软。

虽然微软、亚马逊和谷歌可能会继续提供优惠定价,但问题在于这些交易是否对它们有利可图。正如我们在微软最新季度财报后看到的那样,投资者对构建生成式AI基础设施所需的资本支出(CapEx)表示越来越多的担忧,许多人对这一技术的潜在盈利能力表示怀疑。

而我们真正不知道的是生成式AI对这些大规模科技公司的盈利情况,因为它们将这些成本计算在其他收益中。虽然我们不能确定,但我想如果这些业务有任何盈利的话,它们肯定会谈论从中获得的收入,但它们并没有。

市场对生成式AI的繁荣持极度怀疑态度,而英伟达首席执行官黄仁勋对AI的投资回报没有给出实质性的答案,导致英伟达市值在一天内暴跌了2790亿美元。这是美国市场历史上最大的一次股市崩盘,失去的总价值相当于接近五家雷曼兄弟的高峰值。虽然这种比较到此为止——英伟达甚至没有面临失败的风险,即使它失败,系统性影响也不会如此严重——但这仍然是一个惊人的金额,且显示了AI对市场的扭曲力量。

8月初,微软、亚马逊和谷歌都因其与AI相关的大规模资本支出遭遇市场重创。如果它们在下个季度无法展示从这1500亿美元(甚至更多)投入的新数据中心和NVIDIA GPUs中获得显著的收入增长,它们将面临更多的压力。

需要记住的是,除了AI,大型科技公司已经没有其他创意市场了。当像微软和亚马逊这样的公司开始显示出增长放缓的迹象时,它们也开始急于向市场展示它们仍然具备竞争力。谷歌,一个几乎完全依赖搜索和广告的多重风险垄断公司,也需要一些新的、吸引眼球的东西来吸引投资者的注意——然而,这些产品并没有带来足够的效用,似乎大部分收入来自那些“尝试”AI后发现其实并不值得的公司。

目前,有两种可能性:

1. 大型科技公司意识到自己深陷其中,出于对华尔街的不满恐惧,选择减少与AI相关的资本支出。

2. 大型科技公司为了寻找新的增长点,决定削减成本以维持其破坏性的运营,裁员并将资金从其他业务转移以支撑生成式AI的“死亡竞赛”。

目前尚不清楚哪种情况会发生。如果大型科技公司接受生成式AI不是未来的现实,它们实际上没有其他东西可以向华尔街展示,但可能会采取类似Meta的“效率年”策略,减少资本支出(并裁员),同时承诺“降低投资”一定程度。这是亚马逊和谷歌最可能采取的路径,因为尽管它们渴望让华尔街满意,但至少目前仍有其盈利的垄断业务可依靠。

然而,未来几个季度需要看到AI带来的实际收入增长,并且必须是实质性的,而不是关于AI是“成熟市场”或“年度化增长率”的模糊说法。如果资本支出随之增加,那么这一实际贡献将需要显著提高。

我认为这增长不会出现。无论是在2024年第三季度、第四季度,还是2025年第一季度,华尔街将开始惩罚大型科技公司,因为它们对AI的贪欲,而这种惩罚将比对英伟达的惩罚更加严厉,尽管黄仁勋的空话和无用的口号,英伟达是唯一一家可以实际展示AI如何增加收入的公司。

我有些担心第二种情况的可能性更大:这些公司深信“AI是未来”,它们的文化与解决现实问题的软件开发完全脱节,可能会烧毁整个公司。我深切担忧大规模裁员会被用来资助这个运动,而过去几年的情况让我不认为它们会做出正确的选择,离开AI。

大型科技公司已经被管理顾问彻底毒害——亚马逊、微软和谷歌都由MBA管理——而且还围绕着他们一些相似的怪物,如谷歌的Prabhakar Raghavan,他赶走了真正建设谷歌搜索的人,以便自己掌控。

这些人并不真正面对人类的问题,他们创建了专注于解决软件可以修复的虚构问题的文化。对于那些整个生活都在开会或读邮件的人来说,生成式AI可能显得有些神奇。我想Satya Nadella(微软CEO)的成功心态主要就是“让技术人员解决问题”。Sundar Pichai本可以通过简单地嘲笑微软对OpenAI的投资来结束整个生成式AI热潮——但他没有这样做,因为这些人没有任何实际的想法,这些公司也不是由那些经历过问题的人来管理的,更不用说那些真正知道如何解决问题的人了。

他们也很绝望,这种情况对他们来说从未如此严重,除了Meta在元宇宙上烧掉了数十亿美元。然而,这种情况更加严重和丑陋,因为他们投入了大量资金,并将AI紧密地绑定到他们的公司中,撤掉AI将既尴尬又对股票造成伤害,实际上是对这一切都是浪费的默许。

如果媒体真正对他们负责,这一切本可以早些停止。这种叙事通过与以往的炒作周期相同的骗局进行销售,媒体假设这些公司会“解决问题”,尽管很明显它们不会。觉得我是在悲观吗?那请问,接下来生成式AI有什么计划?它接下来会做什么?如果你的答案是它们会“解决问题”,或者它们“在幕后有惊人的东西”,那么你就是一个不自觉的营销操作参与者(可以思考一下这句话)。

本文作者旁白:我们真的得停止被这种东西愚弄了。当马克·扎克伯格声称我们即将进入元宇宙时,大量媒体——如《纽约时报》、《The Verge》、CBS新闻和CNN等——都配合宣传了一个显然有缺陷的概念,这个概念看起来很糟糕,并且以对未来的彻头彻尾的谎言为卖点。它显然只不过是一个糟糕的虚拟现实世界,但《华尔街日报》仍然在 hype-cycle 已经明显过时的六个月后,把它称作“互联网的未来愿景”。这同样发生在加密货币、Web3 和 NFT 上!《The Verge》、《纽约时报》、CNN、CBS新闻——这些媒体再次参与了推广那些明显无用的技术——我应该特别提到《The Verge》,其实是凯西·纽顿,他在连续三次鼓吹技术后,尽管声誉良好,在七月时还声称“拥有一个最强大的大语言模型可能为公司提供各种赚钱的产品基础”,而实际上,这项技术只会亏钱,尚未提供任何真正有用和持久的产品。

我相信,至少微软将开始减少其他业务领域的成本,以帮助维持AI热潮。在今年早些时候,一位消息来源与我分享的邮件中,微软高级领导团队曾要求(但最终计划被搁置)降低公司内多个领域的电力需求,以便为GPU腾出电力,包括将其他服务的计算转移到其他国家,以释放AI的计算能力。

在匿名社交网络Blind上的微软板块(需要验证公司电子邮件),一位微软员工在2023年12月中旬抱怨“AI占用了他们的钱”,表示“AI的成本太高,吞噬了加薪,情况不会变好”。另一位员工在七月中旬分享了他们的焦虑,称他们明显感觉到微软对“削减成本以资助英伟达股价的操作现金流”有“边际上瘾”,并且这种做法“深深伤害了微软的文化”。

另一位员工补充说,他们相信“Copilot会在2025财年毁掉微软”,并且“2025财年的Copilot重点将大幅度下降”,还透露他们知道“他们国家的大型Copilot交易,在经历了近一年的PoC、裁员和调整后,使用率不到20%”,并表示“公司冒了过多的风险”,微软的“巨大AI投资不会得到回报”。

虽然Blind是匿名的,但很难忽视这样的事实:大量网络帖子讲述了微软雷德蒙德(华盛顿州的城市名称)的文化问题,尤其是高层领导与实际工作脱节,只会为那些附上AI标签的项目提供资金。许多帖子对Satya Nadella微软CEO的“言辞胡言乱语”表示失望,并抱怨在一个专注于追逐可能不存在的AI热潮的组织中,缺乏奖金和晋升机会。

至少,可以看出公司内部存在深深的文化悲伤,许多帖子在“我不喜欢在这里工作”、“大家一方面困惑为什么我们要在AI上投入这么多,另一方面又觉得只能接受,因为Satya Nadella根本不在意。

The Information的文章中提到,微软在其AI功能Office Copilot的实际采用率上隐藏着一个令人担忧的问题:微软为365 Copilot在其数据中心预留了足够的服务器容量,足以应对数百万日常用户。然而,实际使用这一容量的情况尚不明确。

根据估计,微软目前的Office Copilot功能用户可能在40万到400万之间,这意味着微软可能建立了大量闲置的基础设施,未能得到充分利用。

虽然有人可能认为微软是基于该产品类别未来增长的预期进行布局,但另一个值得思考的可能性是:如果这个增长从未出现呢?如果——尽管听起来有点疯狂——微软、谷歌和亚马逊为捕捉可能永远不会到来的需求而建立了这些庞大的数据中心?早在今年三月,我就提出过一个观点:我找不到任何公司能够通过生成式AI实现显著的收益增长。而在将近六个月后,这一问题依然存在。大公司目前的做法似乎是将AI功能附加到现有产品上,期望通过这种方式增加销量,但这种策略并没有在任何地方显现出成功的迹象。就像微软一样,他们推出的“AI升级”似乎并未为企业带来实际的商业价值。

因此,这引发了一个更大的问题:这些AI投资是否可持续?科技巨头们是否高估了对AI工具的需求?

尽管一些公司在“整合AI”时可能推动了微软Azure、亚马逊AWS和谷歌云的部分开支,但我假设这一需求很大程度上是由投资者情绪驱动的。这些公司“投资AI”更多是为了让市场满意,而不是基于成本/效益分析或实际效用。

然而,这些公司已经花费了大量时间和金钱,将生成式AI功能嵌入其产品中,我认为它们可能会面临以下几种情况:

1. 这些公司开发并推出了AI功能,却发现客户并不愿意为其付费,正如微软在其365 Copilot中遇到的情况。如果现在——在AI热潮中——都无法找到让客户付费的方式,当这股热潮过去、老板们不再要求员工“赶上AI潮流”时,情况只会更糟。

2. 这些公司开发并推出了AI功能,但无法找到让用户为这些功能支付额外费用的方法,这意味着他们只能将AI功能内嵌到现有产品中,却无法增加利润空间。最终,AI功能可能会成为一种“寄生虫”,侵蚀公司的收入。

高盛的Jim Covello在关于生成式AI的报告中也提到,如果AI的好处只是提升效率(例如能够更快分析文档),那么竞争对手也能做到这一点。几乎所有的生成式AI整合都是类似的:某种形式的协作助手,用来回答客户或内部问题(如Salesforce、微软、Box),内容创作(Box、IBM),代码生成(Cognizant、Github Copilot),以及即将推出的“智能代理”,这实际上就是“可定制的聊天机器人,能够连接到网站的其他部分”。

这个问题揭示了生成式AI的一个最大挑战:虽然它在某种程度上“强大”,但这种强大更多地体现在 “基于已有数据生成内容”,而不是真正的“智能”。这也是为什么很多公司的网站上关于AI的介绍页面充满了空话,因为他们最大的卖点其实是“呃……你自己来琢磨吧!”

我担心的是一种连锁效应。我相信现在很多企业正在“试用”AI,而一旦这些试验结束(根据Gartner的预测,到2025年底,将有30%的生成式AI项目在概念验证阶段后被放弃),他们很可能会停止为这些额外功能付费,或者停止将生成式AI整合到公司的产品中。

如果这种情况发生,那些为生成式AI应用提供云计算的超级规模企业和像OpenAI、Anthropic这样的大型语言模型供应商的本已低迷的收入将进一步减少。这可能会给这些公司的价格带来更大的压力,因为它们本已亏损的利润率将会进一步恶化。到那时,OpenAI和Anthropic几乎肯定不得不提高价格,如果它们还没有这么做的话。

尽管大型科技公司可以继续为这场热潮提供资金——毕竟,这场热潮几乎完全是它们一手推动的——但这并不能帮助那些已经习惯于折扣价格的小型初创公司,因为它们将无力继续维持运营。尽管有一些较便宜的替代方案,比如运行Meta的LLaMA模型的独立供应商,但很难相信它们不会面临与超级规模企业相同的盈利问题。

还要注意的是,超级规模企业也非常害怕惹恼华尔街。虽然它们理论上可以(正如我担心的那样)通过裁员和其他成本削减措施来改善利润率,但这些只是短期的解决方案,只有在某种程度上能够从这棵贫瘠的生成式AI树上摇出一些钱时,才有可能奏效。

无论如何,是时候接受一个事实:钱并不在这里。我们需要停下来,审视我们正处于科技行业的第三次幻觉时代。然而,与加密货币和元宇宙不同的是,这次每个人都参与了这场烧钱的狂欢,追求着一个不可持续、不可靠、不盈利且对环境有害的项目。这个项目被包装成“人工智能”,被宣传为将“自动化一切”,但实际上从未具备真正实现这一目标的路径。

为什么这种情况会一再发生?为什么我们经历了加密货币、元宇宙、现在又是生成式AI,这些技术似乎并不是为普通人真正设计的?

这实际上是科技行业自然发展的结果,如今的科技行业完全专注于提高在每个客户中提取的价值,而不是为客户提供更多价值。或者说,他们甚至没有真正理解他们的客户是谁,以及客户需要什么。

今天你被推销的产品几乎肯定会试图将你绑定到某个生态系统——至少作为消费者,被微软、苹果、亚马逊、谷歌所掌控。这样一来,离开这个生态系统的成本变得越来越高。即使是加密货币——表面上是一种“去中心化”的技术——也很快放弃了自由放任的理念,转而通过少数几个大平台(如Coinbase、OpenSea、Blur或Uniswap)来聚集用户,而这些平台背后支持的往往是同样的风投公司(例如Andreessen Horowitz)。加密货币并没有成为一个新的、完全独立的在线经济系统的旗手,反而只能通过那些曾资助互联网其他浪潮的人脉和资金来实现扩展。

至于元宇宙,它虽然是个骗局,但也是马克·扎克伯格试图掌控下一代互联网的尝试,他希望将“视界”(Horizon)打造成主要平台。关于生成式AI,我们稍后再讨论。

所有这一切都与进一步的货币化有关——即增加每个客户的平均价值,无论是通过让他们更多地使用平台以展示更多广告,推销“半有用”的新功能,还是创造一个新的垄断或寡头市场,只有那些拥有庞大资金储备的科技巨头才能参与其中,而真正为客户提供的实际价值或实用性则少之又少。

生成式AI之所以令人兴奋(至少对某类人来说)是因为科技巨头将其视为下一个重要的赚钱工具——通过在从消费技术到企业服务的每个产品上增加收费途径。大多数生成式计算都通过OpenAI或Anthropic,再回流到微软、亚马逊或谷歌,产生云计算收入,维持他们的增长表现。这里最大的创新并不在于生成式AI能做什么,而是创造了一个无望摆脱依赖的生态系统,这个生态系统完全依赖于少数几个超大规模的公司。

生成式AI可能并不非常实用,但它非常容易集成到各种产品中,从而让公司能够为这些“新功能”收费。无论是消费类应用还是为企业软件公司提供服务,这类产品通过向尽可能多的客户加价销售,可以赚取数百万甚至数十亿美元的收入。

Sam Altman非常聪明,他意识到科技行业需要一个“新东西”——一个每个人都可以分一杯羹并进行销售的新技术。虽然他可能并不完全理解技术,但他确实明白经济体系对增长的渴望,并将基于Transformer架构的生成式AI产品化,作为一个可以轻松插入大多数产品中的“神奇工具”,能带来一些与众不同的功能。

然而,急于将生成式AI集成到各处的热潮揭示了这些公司与实际消费者需求或有效运营的业务之间的巨大脱节。过去20年里,仅仅“做新东西”似乎就能奏效——推出新功能并让销售团队强行推销,足以维持增长。这让科技行业的领导者们陷入了一种有害且无利可图的商业模式中。

管理这些公司的高层——几乎都是从未从零打造产品或科技公司的MBA和管理顾问——要么不理解,要么不在乎生成式AI没有盈利的路径,可能他们认为它会像亚马逊云服务(AWS)那样自然变得盈利(AWS用了9年才盈利),尽管这两者是截然不同的东西。过去事情都“自然而然地解决了”,那么为什么现在不会呢?

当然,除了利率上升大幅改变了风险投资市场,减少了VC的资金储备并缩小了基金规模这一点之外,还有一点是,如今对科技的态度从未如此负面。再加上其他众多因素——为什么2024与2014截然不同——这些原因太多了,已经超出了这篇8000字的文章的篇幅去一一讨论。

真正令人担忧的是,除了AI之外,许多这些公司似乎没有其他的新产品。他们还有什么?还有什么可以让他们公司继续增长?他们有什么其他的选择?

没有,他们什么都没有。这才是问题所在,因为一旦AI失败,其影响将不可避免地传导到整个科技行业的其他公司。

每个主要的科技玩家——无论是消费领域还是企业领域——都在销售某种AI产品,集成了大型语言模型或他们自己的模型,通常是在大科技公司的系统上运行云计算。在某种程度上,这些公司都依赖于大科技公司愿意补贴整个行业。

我推测,一种次贷式的AI危机正在酝酿,其中几乎整个科技行业都参与了一个以极其低廉的价格出售的技术,该技术高度集中并由大科技公司补贴。到某个时点,生成式AI的惊人而有害的烧钱速度将追上他们,进而导致价格上涨,或公司发布新的产品和功能,收费极其苛刻——比如Salesforce的“Agentforce”产品每对话2美元的费用——这会使得即便是预算充足的企业客户也无法证明这种开支是合理的。

当整个科技行业依赖于一种只会亏钱且本身没有太多实际价值的软件时会发生什么?当压力过大,这些AI产品变得无法调和,而这些公司没有其他东西可以销售时又会发生什么?

我真的不知道,但科技行业正朝着一个可怕的审判迈进,缺乏创造力的现状是由一个奖励增长而非创新、垄断而非忠诚、管理而非实际创造的经济环境所促成。

如果觉得文章好看,你可以将Block unicorn 标注星标和添加桌面。


本文提供的信息仅用于一般指导和信息目的,本文的内容在任何情况下均不应被视为投资,业务,法律或税务建议。对于根据本文做出的个人决定,我们不承担任何责任,我们强烈建议您在采取任何行动之前进行自己的研究。尽管已尽最大努力确保此处提供的所有信息都是准确的和最新的,但可能会发生遗漏或错误。