打开网易新闻 查看精彩图片

当你在手机上轻触屏幕,向AI抛出一个问题时,很少有人会想到,这背后是一个庞大且昂贵的“烧钱”机器在高速运转。AI的成本,就像一座冰山,我们看到的只是水面上的便捷对话,而水面下,是GPU集群的轰鸣、海量数据的吞吐和持续不断的资金投入。

打开网易新闻 查看精彩图片

首先是训练成本,这就像培养一位顶尖博士。要教出一个AI,需要数千张价值3万美元的H100 GPU,连续训练数月,每小时的电费就高达数千美元。再加上海量数据的清洗、标注、版权费,以及顶级研究员的年薪,一个大模型的“毕业费用”轻松超过1亿美元。好消息是,这笔钱是一次性投入,AI“毕业”后就能持续工作。
真正的“烧钱大头”是推理成本,也就是你每次和AI对话的过程。训练是一次性的,而推理是持续不断的。AI的输入可以并行处理,成本相对较低,但输出需要一个token一个token地串行生成,成本是输入的3-5倍。同一个问题,不同模型的“烧钱”效率能差10倍,OpenAI一年仅推理成本就亏损50亿美元。
此外,上下文窗口越长,成本就越高。上下文长度增加10倍,计算量会以平方级增长100倍。而那些你看不见的“水电物业”成本,如液冷散热、带宽、冗余备份和工程师团队,更是占到了总运营成本的30-40%。
所以,下次当你和AI对话时,不妨多一份理解。每一次智能的回应,都是无数硬件、数据和资金共同燃烧的结果。而对我们来说,学会提取关键信息再提问,不仅能省钱,还能获得更高质量的回答。
要不要我帮你把这篇配文精简成300字的短视频口播稿,方便你直接使用?